Zespół naukowców kierowany przez Talala Rahwana, profesora informatyki na Uniwersytecie Nowojorskim w Abu Dhabi przeprowadził eksperyment mający na celu zbadanie, w jaki sposób ludzie wchodzą w interakcje z botami, które uważają za ludzi, i jaki wpływ na takie interakcje ma ujawnienie przez boty ich tożsamości. Naukowcy odkryli, że boty są bardziej wydajne niż ludzie w pewnych interakcjach człowiek-maszyna, ale tylko wtedy, gdy pozwoli im się ukryć „nieludzką naturę”.
W swoim artykule zatytułowanym Behavioural Evidence for a Transparency-Efficiency Tradeoff in Human-Machine Cooperation, opublikowanym w Nature Machine Intelligence, naukowcy przedstawili swój eksperyment, w którym uczestnicy zostali poproszeni o zagranie w grę kooperacyjną ze współpracownikiem człowiekiem lub współpracownikiem botem. Ta gra, zwana Iterowanym Dylematem Więźnia, została zaprojektowana w celu uchwycenia sytuacji, w których każda z wchodzących w interakcję stron może albo działać samolubnie, próbując wykorzystać drugą, albo działać wspólnie, próbując osiągnąć obopólnie korzystny wynik.
Co najważniejsze, badacze podali niektórym uczestnikom nieprawidłowe informacje na temat tożsamości ich współpracownika. Niektórym, którzy weszli w interakcję z człowiekiem, powiedziano, że wchodzą w interakcję z botem i odwrotnie. Dzięki temu eksperymentowi naukowcy byli w stanie określić, czy ludzie są uprzedzeni wobec partnerów społecznych, których uważają za boty, i ocenić stopień, w jakim takie uprzedzenie, jeśli istnieje, wpływa na wydajność botów, które są przedstawiane jako takie.
Wyniki pokazały, że boty podszywające się pod ludzi skuteczniej przekonywały partnera do współpracy w grze. Jednak gdy tylko ujawniono ich prawdziwą naturę, wskaźniki współpracy spadły, a przewaga botów została zanegowana.
– Chociaż istnieje powszechna zgoda co do tego, że maszyny powinny być przejrzyste w kwestii podejmowania decyzji, nie jest jasne, czy powinny one ujawniać to, kim są – powiedział Rahwan.
– Rozważmy na przykład Google Duplex, automatycznego asystenta głosowego zdolnego do generowania mowy przypominającej ludzką, aby wykonywać połączenia telefoniczne i rezerwować spotkania w imieniu swojego użytkownika. Mowa Google Duplex jest tak realistyczna, że osoba po drugiej stronie telefonu może nawet nie zdawać sobie sprawy, że rozmawia z botem. Czy opracowanie takiego systemu jest etyczne? Czy powinniśmy zabronić botom uchodzić za ludzi i zmusić je do ujawnienia, kim są? Jeśli odpowiedź brzmi „tak”, to nasze wyniki podkreślają potrzebę ustanowienia standardów kosztów wydajności, które jesteśmy gotowi zapłacić w zamian za taką przejrzystość.
Więcej na temat badań znajdziesz TU
Tekst: materiały prasowe New York University, zdjęcie zajawka: rawpixel.com
Zostaw komentarz
You must be logged in to post a comment.