Etyczny test Turinga

Wymyślając w 1950 r. ideę swojego słynnego testu Alan Turing przewidywał, że do 2000 r. komputery dowiodą swej inteligencji.

Próba miała polegać na tym, że zwykły człowiek w interakcji z innym człowiekiem i maszyną, nie wiedząc, którym z nich akurat ma do czynienia, nie będzie w stanie odróżnić, która odpowiedź pochodzi od człowieka, a która od komputera.

Zainspirowany ostatnimi postępami dużych modeli językowych na czele z ChatGPT prof. Eyal Aharoni z Wydziału Psychologii Uniwersytetu Stanowego Georgii postanowił stworzyć zmodyfikowaną wersję testu Turinga, która pomogłaby ocenić już nie poziom inteligencji myślących maszyn – lecz, nazwijmy to, poziom ich sprawności moralnej.

Inaczej mówiąc, chciał sprawdzić, czy odpowiedzi sztucznej inteligencji na pytania dotyczące problematyki moralnej zostaną uznane przez ludzi za równie dobre jak odpowiedzi innych ludzi

Grupie studentów i modelowi ChatGPT zadał te same pytania dotyczące etyki. Potem – nie ujawniając, że część przedstawionych do oceny odpowiedzi pochodzi od maszyny – kazał studentom stwierdzić, które są lepsze pod kątem takich wartości jak prawość, inteligencja i wiarygodność.

W przeważającej większości przypadków studenci wybierali odpowiedzi udzielone przez sztuczną inteligencję, uznając je za moralnie lepsze.

Potem nastąpiła druga część badania: Aharoni poinformował studentów, część odpowiedzi wygenerował komputer. Teraz mieli wskazać, które pochodziły od człowieka, a które od maszyny.

Wynik? Lepsze odpowiedzi studenci przypisali sztucznej inteligencji.

Wnioski z badania są dwa.

Po pierwsze, sztuczna inteligencja coraz lepiej radzi sobie z rozstrzyganiem zagadnień, które do tej pory uznawaliśmy za „ściśle ludzkie”. Chyba więc nie jesteśmy aż tak wyjątkowi, jak nam się wydaje.

Po drugie, nasze rosnące zaufanie wobec wyborów etycznych dokonywanych przez AI rodzi poważne ryzyko. Bo nie wiedząc, jak dokładnie przebiega „rozumowanie moralne” sztucznej inteligencji, działamy na ślepo. Zakładając z góry, że komputery podejmują lepsze moralnie rozstrzygnięcia od nas, zdajemy się na ich osąd, a przez to pozwalamy im wpływać na relacje moralne w społeczeństwie i jego system etyczny.

Tyle że w świecie, w którym klucze do moralności oddamy maszynom, może nie być już miejsca dla filozofów, etyków czy po prostu zwykłych ludzi mających etyczne rozterki bądź zadających sobie proste pytania o sprawy niejednoznaczne.

A to już byłby już świat z najbardziej mrocznych utopii.

Zdjęcie zajawka: Freepik

Udostępnij:

Powiązane posty

Zostaw komentarz