Robot-śledczy przepyta lepiej od człowieka
Śledczy bardzo często zbaczają z tematu, przez co nie nie są w stanie uzyskać właściwych odpowiedzi. Ten robot może ich zastąpić.
Psychologia dowodzi, że policja może mieć problemy z właściwym wykonywaniem swojej pracy. Jedno słowo podczas bezpośredniej interakcji ze świadkiem może uruchomić w mózgu śledczego mechanizmy, które sprawią, że nie zada odpowiedniego pytania. Właśnie dlatego pytania powinny zadawać roboty.
Tak uważa Cindy Bethel z Mississippi State University. Wraz ze swoim zespołem pokazała 100 osobom zdjęcie, ana którym człowiek kradł pieniądze i kalkulator z jakiejś szuflady. Potem świadków podzielono na grupy i zadawano im pytania na temat tego, co widzieli. Część z nich była przepytywana przez człowieka, inni - przez robota NAO, kierowanego zdalnie przez operatora.
Obu grupom zadawano identyczne pytania. Część z nich wprowadzała fałszywe informacje o występku, np. wspominając przedmioty, których nie było na zdjęciu. Kiedy takie „wrzutki” były świadkom prezentowane przez ludzi, dokładność ich „zeznań” malała o 40 proc. Kiedy jednak kłamał robot, jego informacje były poprawiane przez świadków.
- To spore zaskoczenie - mówi Bethel. - To, co mówił robot, po prostu na nich nie działało.
Jak komentuje Bilge Mutlu z Human-Computer Interaction Laboratory na University of Wisconsin-Madison, to dlatego, że roboty są nam obce i nie sugerujemy się w ich przypadku bodźcami behawioralnymi. - Mamy w głowach modele zachowania ludzi, ale nie robotów - mówi.
W przyszłości roboty mogłyby pomóc w przesłuchiwaniu świadków-dzieci. Mali świadkowie są bowiem szczególnie wrażliwi na sugestie podawane im przez dorosłych śledczych.
Psychologia dowodzi, że policja może mieć problemy z właściwym wykonywaniem swojej pracy. Jedno słowo podczas bezpośredniej interakcji ze świadkiem potrafi uruchomić w mózgu przepytywanego mechanizmy, które sprawią, że jego zeznania odejdą od faktów. Właśnie dlatego pytania powinny zadawać roboty.
Tak uważa Cindy Bethel z Missisippi State University. Wraz ze swoim zespołem, pokazała ona 100 osobom zdjęcie, na którym człowiek kradł pieniądze i kalkulator z jakiejś szuflady. Potem świadków podzielono na grupy i zadawano im pytania na temat tego, co widzieli. Część z nich była przepytywana przez człowieka, inni - przez robota NAO, kierowanego zdalnie przez operatora.
Obu grupom zadawano identyczne pytania. Część z pytań wprowadzała fałszywe informacje o występku, np. wspominając przedmioty, których nie było na zdjęciu. Kiedy takie "wrzutki” były świadkom prezentowane przez ludzi, dokładność ich "zeznań” malała o 40 %. Kiedy jednak kłamał robot, jego informacje były poprawiane przez świadków. - Spore zaskoczenie - mówi Bethel. - To, co mówił robot, po prostu na nich nie działało.
Jak komentuje Bilge Mutlu z Human-Computer Interaction Laboratory na University of Wisconsin-Madison, to dlatego, że roboty są nam obce i nie sugerujemy się w ich przypadku bodźcami behawioralnymi. - Mamy w głowach modele zachowania ludzi, ale nie maszyn - mówi.
W przyszłości roboty mogłyby pomóc w przesłuchiwaniu dzieci. Mali świadkowie są bowiem szczególnie wrażliwi na sugestie podawane im przez dorosłych śledczych.
(ew/NewScientist)