AI jako respondenci. O wyborach tak samo jak ludzie

Technologie sztucznej inteligencji, takie jak ChatGPT, wydają się obecnie potrafić wszystko: pisać kod, komponować muzykę, a nawet tworzyć obrazy tak realistyczne, że można by pomyśleć, że zostały zrobione przez profesjonalnych fotografów. Niedawne badanie przeprowadzone przez Uniwersytet Brighama Younga dowodzi, że sztuczna inteligencja może odpowiadać na złożone pytania ankietowe, tak jak prawdziwy człowiek.

Aby określić możliwość wykorzystania sztucznej inteligencji jako substytutu ludzkich respondentów w badaniach ankietowych, zespół profesorów politologii i informatyki oraz doktorantów z BYU przetestował dokładność zaprogramowanych algorytmów modelu językowego GPT-3.

W jednym eksperymencie naukowcy stworzyli sztuczne postacie, przypisując AI pewne cechy, takie jak rasa, wiek, ideologia i religijność; a następnie przetestowali je, aby zobaczyć, czy sztuczne osoby będą głosować tak samo jak ludzie w wyborach prezydenckich w USA w 2012, 2016 i 2020 roku. Porównując wyniki z American National Election Studies (ANES) odkryli wysoki stopień zgodności między sposobem głosowania przez sztuczną inteligencję i ludzi.

– Byłem absolutnie zaskoczony, widząc, jak dokładnie to pasuje – powiedział David Wingate, profesor informatyki BYU i współautor badania. – Jest to szczególnie interesujące, ponieważ model nie został przeszkolony w zakresie nauk politycznych – został po prostu wyszkolony na stu miliardach słów tekstu pobranych z internetu. Ale spójne informacje, które otrzymaliśmy, były powiązane z tym, jak ludzie naprawdę głosowali.

Ta innowacja ma ekscytujące perspektywy dla badaczy, marketerów i ankieterów. Naukowcy wyobrażają sobie przyszłość, w której sztuczna inteligencja będzie wykorzystywana do tworzenia lepszych pytań ankietowych, dopracowując je tak, aby były bardziej przystępne i reprezentatywne.

– Dowiadujemy się, że sztuczna inteligencja może pomóc nam lepiej zrozumieć ludzi – powiedział profesor nauk politycznych z BYU, Ethan Busby. – To ich zastępuje, ale pomaga nam skuteczniej badać ludzi. Chodzi raczej o zwiększenie naszych umiejętności. Może pomóc nam być bardziej wydajnym w naszej pracy z ludźmi, umożliwiając nam wstępne przetestowanie naszych ankiet i naszych wiadomości.

I chociaż rozległe możliwości dużych modeli językowych są intrygujące, rozwój sztucznej inteligencji stawia wiele pytań – ile naprawdę wie sztuczna inteligencja? Które populacje odniosą korzyści z tej technologii, a na które będzie to miało negatywny wpływ? Jak możemy chronić się przed oszustami i oszustami, którzy będą manipulować sztuczną inteligencją w celu tworzenia bardziej wyrafinowanych oszustw phishingowych?

Chociaż wiele z tego pozostaje jeszcze do ustalenia, badanie określa zestaw kryteriów, które przyszli badacze mogą wykorzystać do określenia dokładności modelu sztucznej inteligencji w różnych obszarach tematycznych.

Busby mówi, że ankietowanie sztucznych osób nie powinno zastępować ankietowania prawdziwych ludzi, a naukowcy i inni eksperci muszą spotkać się, aby zdefiniować etyczne granice ankietowania sztucznej inteligencji w badaniach związanych z naukami społecznymi.

Zdjęcie zajawka: 123RF

Udostępnij:

Powiązane posty

Zostaw komentarz