Jak myślisz: czy roboty mogą być bardziej moralne niż ludzie? Czy świat, w którym maszyny będą wskazywać ludziom, jak powinni się zachować, to nasza przyszłość? Nie, to nie science fiction. Nic nie wymyśliłam!

Dziś świątecznie tekst na trochę inny temat niż zazwyczaj. Choć – tak blisko nowoczesnych technologii, jak tylko się da! Czy maszynę można nauczyć moralności? Czy robotom bojowym, które samodzielnie decydują, kogo zabić, a kogo zostawić przy życiu, da się wbudować moduł etyczny – tak, by podejmując decyzję brały pod uwagę zasady moralne? Takie pytanie to dziś nie science fiction, tylko realny problem, nad którym pracują naukowcy na świecie, także – w Polsce, np. dr Michał Klincewicz z Zakładu Kognitywistyki Uniwersytetu Jagiellońskiego, który o swoich badaniach opowiadał ostatnio podczas spotkania na Uniwersytecie w Białymstoku, w którym brałam udział.

Autonomiczne systemy bojowe, czyli roboty, które samodzielnie i autonomicznie, nie sterowane przez żadnego człowieka, decydują o tym, do kogo strzelać i kogo zabić, są już używane – np. na granicy między Koreą Północną a Południową. Niedługo tego typu roboty będą też służyć marynarce wojennej USA. Używają one algorytmów sztucznej inteligencji do samodzielnego podejmowania decyzji. Ich wprowadzanie wywołało ogromną dyskusję na świecie – kto ponosi odpowiedzialność za decyzje przez nie podejmowane? To dyskusja zbliżona do tej, której echa częściej docierają do Polski – kto ponosi odpowiedzialność za wypadek spowodowany przez autonomiczny samochód?

W USA pojawił się pomysł, by roboty (zwłaszcza bojowe) wyposażyć w tzw. moduły etyczne, na podstawie których będą one podejmować decyzje – czyli zgodnie z zaprogramowanymi zasadami moralnymi.  W ten sposób być może udałoby się uniknąć sytuacji, gdy roboty w wyniku błędu, np. w określaniu lokalizacji celu ataku, niszczą szpital, szkołę czy inny cel cywilny.

– Teoretycznie – gdyby taki moduł etyczny został prawidłowo zaprogramowany – robot mógłby działać bardziej etycznie nie ludzi – wyjaśniał dr Michał Klincewicz. – Nie robiłby bowiem wyjątków od zasad moralnych, nie cierpiałby choćby na przypadłość zespołu stresu pourazowego, nie miałby osobistych motywów do zmiany zasad.

Roboty bardziej moralne niż ludzie – science fiction? Właśnie nie. Przez Stany Zjednoczone przetoczyła się już dyskusja nie tylko nad robotami bojowymi, ale też nad robotami „popychającymi” („robotic nudges”), które mogłyby być używane do „udoskonalenia moralnego” („moral enhancement”) ludzi. Robot z modułem etycznym pilnowałby, czy nie łamiemy zasad moralności, i reagowałby w sytuacji popełniania złego czynu. Wg autorów pomysłu reakcje maszyn byłyby delikatne i „miękkie” – chodzi raczej o sugestie niż o karanie za niewłaściwe zachowanie. Na przykład: gdyby małe dziecko zaczęło podczas zabawy ciągnąć za włosy drugie dziecko, robot zwróciłby mu uwagę, że robi źle – w taki sposób, by maluch zmienił swoje postępowanie. Oczywiście naukowcy zastanawiają się też nad „nudges” dla dorosłych – tu samo zwrócenie uwagi mogłoby nie zadziałać. 😉 Ale skoro z badań psychologów społecznych wiadomo, że większość ludzi postępuje nieetycznie wtedy, gdy jest przekonana, że nikt tego nie widzi, i wystarcza obrazek otwartych oczu, by zachowania stały się bardziej etyczne – być może dzięki takim „popychającym” robotom  rzeczywiście stalibyśmy się lepsi?

(Dla zainteresowanych polecam świetny wykład prof. Bogdana Wojciszke „Dlaczego uczciwi ludzie postępują nieetycznie”)

I choć sam pomysł budzi wciąż ogromne emocje, naukowcy zaczęli już pracować nad możliwościami przełożenia… etyki na komputerowe algorytmy!

– Chodzi o stworzenie narzędzia do wnioskowania moralnego, do produkowania argumentów na rzecz ulepszenia moralnego człowieka. Aby w konkretnej sytuacji robot przeanalizował wszystkie możliwe ścieżki postępowania i wskazał tę najlepszą. Jego argumenty człowiek mógłby potem wykorzystać lub nie, ale wychodzimy z założenia, że komputer takie argumenty byłby w stanie przedstawić szybciej niż człowiek, bo sprawniej przeanalizowałby wszystkie decyzje i ich konsekwencje – wyjaśniał Klincewicz.

Czy rzeczywiście robot analizowałby szybciej – nie wiadomo, ludzie bowiem podejmują decyzje, także te etyczne, błyskawicznie. Komputer na zbadanie wszystkich wariantów potrzebuje dziś znacznie więcej czasów. Poza tym – i tu kryje się podstawowy problem – jakie zasady etyczne zaprogramować robotom? W jaki sposób moralność przełożyć na algorytmy, czyli skończony ciąg jasno zdefiniowanych czynności, koniecznych do wykonania pewnego rodzaju zadań?

Wymagałoby to oczywiście rozłożenia na drobne elementy ludzkiej moralności i zapisania jej jako jednoznacznie zdefiniowanych czynności. Czy to w ogóle możliwe, skoro sami dość często mamy problemy z określeniem, co jest moralne, a co nie?

Dr Michał Klincewicz szuka rozwiązań wśród stworzonych przez filozofów zasad etyki. Najbliżej mu do moralności Immanuela Kanta, ale próby dotyczą różnych teorii etyki. Natomiast jeśli chodzi o roboty bojowe, w USA pojawiła się propozycja Ronalda Arkina, by ich zasady etyki opierały się na prawach wojennych, zapisanych w międzynarodowych konwencjach, np. w Konwencji Genewskiej.

Czy taki świat, w którym powstaną moralne roboty, budzi Twoje przerażenie? Czy świat, w którym „maszynka” będzie podpowiadała ludziom, jak powinni się zachować, to nasza przyszłość? Cóż, na pewno nie jest to już tylko pomysł twórców zajmujących się science fiction. To nie fikcja, tylko realność, choć nieco przerażająca. Dla naukowców takich jak dr Michał Klincewicz – to realność, którą właśnie teraz kreują.

 

Dr Michał Klincewicz uzyskał Ph.D. w CITY UNIVERSITY OF NEW YORK (2013), obecnie pracuje nad dwoma projektami badawczymi. Pierwszy z nich dotyczy czasowej organizacji procesów poznawczych oraz multimodalnej percepcji czasu. Drugi związany jest konsekwencjami rozwoju nowych technologii, takich jak sztuczna inteligencja oraz broń autonomiczna.