Człowiek i sztuczna inteligencja
Satya Nadella CEO Microsoftu na łamach magazynu Slate Future Tense przedstawia etyczne zagadnienia, związane z koegzystencją ludzi i sztucznej inteligencji. Komputery mogą wygrywać z nami w gry. Szachy, warcaby, go. Bez wątpienie są i będą on nas lepsze. Jednak rozpatrywanie tej kwestii w kategoriach dobry-zły nigdzie nie prowadzi. Autor zwraca uwagę na wartości, które stoją za ludźmi i instytucjami stojącymi za tworzeniem SI. Zauważa również, że w przyszłości obopólna współpraca przyniesie duże korzyści obydwu stronom. Jednak relacje te muszą opierać się na zaufaniu człowieka do technologii.
CEO Microsoftu rysuje podstawowe zagadnienia, odnoszące się do relacji człowieka i maszyn. Swoje twierdzenia opiera na prawach robotów Asimova.
- Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
- Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z pierwszym prawem.
- Robot musi chronić sam siebie, jeśli tylko stoi to w sprzeczności z Pierwszym lub Drugim Prawem.
W swoich rozważaniach zauważa dwustronne relacje w tej materii. W dużej mierze odnoszącej się do ludzi. Przyszłe pokolenia muszą wykazać się odpowiedzialnością wobec problemu sztucznej inteligencji. Wartościami, którymi muszą się kierować to: Empatia, ludzie muszą wykazać się większą wrażliwością i być nastawieni na współpracę, ponieważ jest ona trudna do „wkodowania” w maszyny. Edukacja, aby wprowadzić i utrzymać stan innowacji, który jest potrzeby do rozwoju SI, należy zwiększyć finansowanie badań i rozwoju. Zadanie to może być trudne, z powodu przewidywanej ilości urodzeń w przyszłości. Kreatywność, jest naszą unikalną i podstawową cechą, która nas wyróżnia. technologia powinna służyć jej rozwojowi, a nie być celem samym w sobie. Ostatnim i chyba najważniejszym jest przyjęcie pełnej odpowiedzialności za końcową działalność maszyn.
Z drugiej strony. Idąc tym tropem dalej. Ostatecznie twórcy sztucznej inteligencji będą odpowiedzialni za jej kształt i granice autonomiczności, więc jej obowiązków i cech charakterystycznych. Technologia, w której będzie zawierała się SI oraz inne maszyny, integrujące się z człowiekiem, powinny być transparentne i zrozumiałe dla przeciętnego człowieka. Poszanowanie prywatności. Nasze własne twory nie mogą wiedzieć więcej o ludziach, niż ludzie o maszynach. Etyka i projektowanie maszyn będą odgrywały tutaj kluczową rolę. Przemysł technologiczny nie może dyktować wartości, którymi kieruje się człowiek. Maszyny mogą maksymalizować efektywność biznesu, ale nie kosztem ludzkiej kultury. W przyszłości ważną kwestią będą nierówności społeczne spowodowane rozwojem maszyn i SI. Z jednej strony historia pokazuje, że rozwój technologiczny czynił pracowników bogatszymi, a nie biedniejszymi. Jednak tym razem zmiana może być tak ekstremalna, że przedsiębiorcy, aby zachować równowagę i stabilność społeczną będą musieli korzystać z maszyn, które uzupełniają, a nie zastępują pracowników. Swoistego rodzaju wentylem bezpieczeństwa jest założenie, że człowiek powinien mieć wpływ na kod i algorytmy sterujące SI, tak aby mógł naprawić ewentualne wyrządzone szkody spowodowane przez maszyny. Te intencjonalne i nieintencjonalne.
Nadella podejmuje bardzo trudny temat. Pokazuje złożoność problemu, o którym warto już dzisiaj rozmawiać. Jednak zastosowany punkt wyjścia posiada jednak jedną zasadniczą wadę. Zakłada symetrie między ludźmi i maszynami opartą na współpracy. W jego rozważaniach, w których rozwija prawa robotów Asimova brakuje zasadniczego spostrzeżenia. Relacje te nie będą w pełni partnerskie. Będą asymetryczne. Maszyny i sztuczna inteligencja, liczba mnoga została pominięta, występuje w roli zależnej od człowieka. Dobrze jednak, że pokazuje obowiązki ludzi wobec maszyn. Jest to krok naprzód. Mimo wszystko nadal traktuje inteligentne twory w sposób przedmiotowy. Nawet jeżeli stworzymy inteligentne maszyny podporządkowane prawom, które w nie wkodujemy będą one „zniewolone” przez narzucone zasady. Mimo posiadanej samoświadomości, będą opierały się na sztucznych prawach skonstruowanych przez człowieka. Brakuje tutaj wzajemnego poszanowania i pełnej autonomii. Czy rozwinięta inteligencja zaakceptuje te reguły? Czy możemy mówić o jakiejkolwiek etyce, którą miały by kierować się sztuczne inteligencje, które nie posiadają pełnej odpowiedzialności za swoje poczynania. W mocno ograniczonym aspekcie tak, ale tutaj uwidacznia się nierówność relacji ludzie – biologiczne maszyny z sztuczne inteligencje – nie biologiczne maszyny.
Trudno jest mówić o wartościach etycznych stworzonych maszyn, które będą podporządkowane biznesowi, którego nadrzędną wartością jest zysk. Odpowiedzialność społeczna w biznesie jest i długo jeszcze będzie sloganem brandingowym, niżeli rzeczywistym działaniem dla dobra ogółu. Mimo pewnych zastosowanych uproszczeń i założeń przedstawione rozważania są warte uwagi i z pewnością Pan Nadella zabiera ważny głos w dyskusji o etyce robotów i SI.
Źródło: slate.com