5 listopada Marieke Wieringi zaprezentuje na Uniwersytecie Radboud swoje najważniejsze naukowe odkrycie: do wzbudzenia w ludziach empatii wobec robotów, do tej pory przez większość z nas nielubianych, wystarczą drobiazgi – jakiś subtelny dźwięk z głośnika, smutne spojrzenie czy nieporadny gest. Najwyraźniej „człowieczość” to nie jest rocket science.
Wieringa i jej zespół badali reakcje na złe traktowanie robotów. Uczestnicy eksperymentów oglądali klipy, w których roboty były traktowane uprzejmie – albo źle. Niektórych uczestników poproszono potem o gwałtowne potrząśnięcie robotem, na co ten reagował różnie: czasami w ogóle, a kiedy indziej wydawał dźwięki sugerujące ból. Jak nietrudno się domyślić, ludzie wykazywali większą niechęć do potrząsania robotem, gdy wydawał się zaniepokojony. Kiedy był cicho, nie mieli problemów z przemocą.
Czy w takim razie powinniśmy otoczyć się „emocjonalnymi” robotami? Wieringa uważa, że niekoniecznie, ponieważ nasza zdolność do empatii może wkrótce zostać zmanipulowana dla zysku. W końcu swego czasu na punkcie Tamagotchi zwariowała połowa dzieci na świecie. Co by było, gdyby nowoczesny odpowiednik tamtego cyfrowego kurczęcia wymagał płacenia za opiekę?
Oczywiście zdrowy rozum podpowiada nam, że roboty nie mogą odczuwać bólu – ale niektóre scenariusze wpisane w ich zachowanie mogą nas oszukać, byśmy poczuli, że tak jest. Wieringa uważa, że jeśli robot zachowuje się tak, jakby był w niebezpieczeństwie, ludzie czują się bardziej winni złego traktowania go.
Naukowczyni wskazuje więc na konieczność wprowadzenia regulacji dotyczących tego, kiedy i jak roboty mogą wyrażać emocje. Nie, nie całkowitego zakazu stosowania „emocjonalnych” robotów – tylko regulacji, bo takie maszyny mogą przydatne w terapii i innych dziedzinach. W trakcie badań okazało się bowiem, że ludzie doceniają roboty w sposób realistyczny reagujący na złe traktowanie. Wydawało im się bowiem, że wzmacniają one moralne granice przeciwko przemocy.
Zdjęcie zajawka: Freepik
Zostaw komentarz
You must be logged in to post a comment.