Wykładowca AGH nie przeczy, że chociaż istnienie sztucznej inteligencji jest już faktem, to maszyny – aby się zbuntować – musiałyby mieć poczucie własnej tożsamości, a co za tym idzie, także interesu. Takich kompetencji na razie nie mają. Dlaczego? Nie dali im ich ludzie, bo sami wciąż nie wiemy, na czym polega zagadka ich własnej tożsamości.
- Badania w zakresie sztucznej inteligencji to pościg za uciekającym horyzontem, czymś, co się bezustannie oddala – mówi prof. Tadeusiewicz. - Ilekroć nam, informatykom, udaje się zdobyć kolejny bastion, zająć kolejny poziom doskonałości funkcjonowania maszyn, gdzie - zanim go osiągnęliśmy, wszyscy byli zgodni, że to jest istota intelektualnej działalności człowieka - to kiedy to następuje, ludzie mówią: nie, to nie jest jeszcze inteligencja.
Jak uważa krakowski biocybernetyk, przełomem potwierdzającym istnienie sztucznej inteligencji może być rozegrany w 1997 roku mecz szachowy między arcymistrzem Garri Kasparowem a systemem komputerowym Deep Blue. Jak pamiętamy, wygrał go komputer. Tadeusiewicz: - Kasparow był arcymistrzem; nie było wtedy na Ziemi człowieka, który potrafiłby z nim wygrać. Nie było takiego człowieka, wobec tego nie było programisty, który mógłby nauczyć komputer, jak wygrać z Kasparowem, a komputer wygrał. To oznacza, że coś takiego jak sztuczna inteligencja istnieje, nie tylko jako replika inteligencji człowieka, naśladownictwo, kuglarska sztuczka. To komputer musi sam produkować inteligentne rozwiązania, nie może ich tylko odtwarzać, ponieważ liczba możliwych sytuacji na szachownicy jest tak astronomicznie wielka, że nie da się tego zrobić na zasadzie zaprogramowania ścieżki, która zapewni zawsze komputerowi zwycięstwo.
Czy zatem na pewno jesteśmy bezpieczni? Profesor Tadeusiewicz nie odczuwa niepokoju związanego z tym, że człowiek może zbudować maszynę mądrzejszą od siebie. - Przecież zbudowaliśmy maszyny, które są silniejsze od nas. Dźwig, który pracuje na budowie, potrafi unieść ciężar wielokrotnie większy niż mistrz olimpijski podnoszący sztangę i jakoś nie mamy z tego powodu kompleksów – mówi.
Po to, żeby się zbuntować i być niebezpiecznym, trzeba mieć w tym jakiś interes. - W świecie maszyn istnieje i funkcjonuje pragmatyzm. Maszyny robią różne rzeczy, ponieważ zostały do tego stworzone, ludzie im to nakazują. Jest maszyna i człowiek, który ma interes, aby jej użyć. Interes jest na zewnątrz tego narzędzia - wyjaśnia prof. Tadeusiewicz. Ani koparka do spulchniania ziemi w ogrodzie, ani superkomputer nie będą działać z własnej inicjatywy, bo nie mają w tym interesu. To wynika zaś z faktu, że maszyny nie mają poczucia jaźni, swojej odrębności.
- Chociaż bardzo łatwo zaprogramować komputer, by wyświetlił na ekranie czy nawet za pomocą syntezatora powiedział ‘ja’, on nie będzie wiedział, co to znaczy. Nauka nie znalazła dotąd odpowiedzi na pytanie, gdzie to ‘ja’ się rodzi w naszym mózgu. Byłbym zuchwały, gdybym twierdził, że nigdy się nie dowiemy, na czym polega zagadka naszej tożsamości i świadomości naszej tożsamości, ale naprawdę nieprędko to zobaczymy - przewiduje krakowski naukowiec.
Rozwój sztucznej inteligencji stymuluje powstawanie nowych gałęzi wiedzy. Jedna z nich jest bioetyka. Etyka maszyn to młoda dziedzina, licząca sobie najwyżej 10 lat. Zajmuje sie nią m.in. małżeństwo wykładowców – filozof Susan Anderson z Uniwersytetu Connecticut i informatyk Michael Anderson. W zeszłym toku informowaliśmy o ich badaniach, które polegały na zaprogramowaniu robota tak, aby działał etycznie. – Istnieje wiele maszyn, które zajmują się sprawami mającymi etyczne podłoże, na przykład bankomaty czy samosterujące samochody – wyjaśnia Susan. – Czy nie chcemy być pewni, że te urządzenia działają etycznie? (przeczytaj więcej o robocie-etyku >>>)
Kiedy roboty otrzymają od nas poczucie tożsamości, warto mieć pewność, że tak będzie.
(ew/pap/polskieradio.pl)