Logo Polskiego Radia
polskieradio.pl
Marta Kwasnicka 11.11.2010

Moralność robota

Czy robot może zostać specjalistą od etyki? Naukowcy przekonują, że tak.
Moralność robotaźr. University of Connecticut

Co robi na emeryturze małżeństwo wykładowców – filozof Susan Anderson z Uniwersytetu Connecticut i informatyk Michael Anderson? Oczywiście, robota-filozofa.

Etyka maszyn to młoda dziedzina, licząca sobie najwyżej 10 lat. Małżeństwo Andersonów dokonało w niej przełomu: zaprogramowało robota tak, aby działał etycznie. – Istnieje wiele maszyn, które zajmują się sprawami mającymi etyczne podłoże, na przykład bankomaty czy samosterujące samochody – mówi Susan. – Czy nie chcemy być pewni, że te urządzenia działają etycznie?

Etyka maszyn łączy ze sobą elementy technologii sztucznej inteligencji oraz etykę, aby ustalić, jak sprawić, aby maszyny działały etycznie. Oczywiście, nie ma powszechnej zgody co do tego, że w przypadku maszyn w ogóle mozna mówic o etyce i że takie pryncypia w ogóle powinny byc programowane urządzeniom. Małżeństwo Andersonów uznało jednak, że tak.

W 1930 roku filozof David Ross zaproponował etykom nowe rozwiązanie dawnych problemów, zwane obowiązkami prima facie (z łac. na pierwszy rzut oka). Ross uznawał bowiem, że prawdy moralne istnieją i są poznawalne, a działanie etyczne można sprowadzić do kilku zasad, wśród których wymieniał m.in. wierność (fidelity), zadośćuczynienie (reparation), wynagrodzenie (gratitiude), nieszkodzenie (non-maleficence), sprawiedliwość, dobroczynność (beneficence) i samodoskonalenie (self-improvement). To one są owymi obowiązkami – na nasze nieszczęście mogą jednak czasami wchodzić ze sobą w konflikty. Każdy z nas musi znaleźć równowagę pomiędzy nimi, aby rzeczywiście działac etycznie.

Etyka Rossa nie trafiła jednak pod strzechy; nikt nie potrafił w sposób zadowalający wyjaśnić ludziom, jak odnajdywać odpowiednią równowagą pomiędzy obowiązkami prima facie, kiedy wchodzą ze sobą w konflikt. – Teorii Rossa brakuje zasady decyzyjności – komentuje Susan Anderson. I tu właśnie wkroczyli Andersonowie i ich robot Nao.

Rozwiązanie sprowadza się do tego, że Nao, mając do dyspozycji informacje na temat wcześniejszych poszczególnych moralnych rozstrzygnięć, będzie potrafił znaleźć odpowiednie rozwiązanie w nowej sytuacji. Na razie zadania Nao nie są trudne – ma przypominać pacjentowi o zażyciu lekarstw i samodzielnie podjąć decyzję, kiedy poinformować lekarza w przypadku, kiedy pacjent ciągle odmawia. Nao dysponuje danymi na temat tego, w jakim tempie stan zdrowia chorego pogarsza się, jesli nie przyjmuje lekarstw i jakie są szanse poprawy jego zdrowia w przypadku interwencji lekarza.

Nao musi zatem rozstrzygnąć pomiędzy kilkoma obowiązkami prima facie: musi pomóc pacjentowi w czerpaniu korzyści z przyjmowannia lekarstwa, zapobiec szkodzie, jeśli pacjent nie zażywa lekarstw, a jednocześnie uszanować jego prawo do samostanowienia. Dlatego nie od razu poinformuje lekarza, jesli pacjent odmówi. Najpierw będzie przypominał i nalegał.

Zadanie jest proste, ale niezwykle użyteczne. Już teraz powstają roboty, które np. mają za zadanie pomagać osobom starszym. Michael Anderson przypomina, że badania są na wczesnym etapie – podobnie jak i rozwój sztucznej inteligencji. Kiedyś jednak wszczepienie robotom etyki może okazać się konieczne.

Co równie ciekawe, praca nad etyką maszyn zmusza filozofów, którzy przywykli do bardzo abstrakcyjnych rozważań, do znajdowania praktycznych rozwiązań. To zaś zawsze jest najtrudniejsze.

W 2005 roku Andersonowie zorganizowali pierwszą konferencję dotyczącą etyki maszyn, a jej wyniki opublikował Uniwersytet w Cambridge. Od tej pory moralne kwalifikacje Nao ciągle się zwiększają.

(PhysOrg.com/ew)