Sztuczna inteligencja, którą wymyślili, identyfikuje wspólne punkty widzenia ludzi w oceanie dzielących ich rozbieżności. System wykorzystuje duże modele językowe (LLM), działając jako swego rodzaju mediator, uwydatniający wspólne płaszczyzny między różnymi opiniami. Artykuł na ten temat opublikowało właśnie „Science”.
HM składa się z dwóch części: modelu generatywnego, który sugeruje podsumowania opinii danych grup, oraz tzw. modelu nagrody, który ocenia te podsumowania na podstawie tego, jak bardzo uczestnicy mogą się z nimi zgodzić. W testowaniu systemu wzięło udział ponad 5700 osób. Zaangażowano je do udziału w debatach na tematy takie jak obniżenie wieku wyborczego Amerykanów czy prywatyzacja amerykańskiej służby zdrowia. Sztuczna inteligencja tworzyła podsumowania opinii grupowych, które były potem przeglądane i klasyfikowane przez uczestników.
W eksperymentach uczestnicy w 56% przypadków woleli wypowiedzi generowane przez sztuczną inteligencję od wypowiedzi mediatorów – ludzi, uznając je za jaśniejsze i skuteczniej nakłaniające do zgody
Dzięki temu grupy te dzieliły mniejsze różnice poglądów, a porozumienie stawało się bardziej możliwe.
Pomimo sukcesu, naukowcy przestrzegają przed przecenianiem możliwości nowego narzędzia. Joongi Shin, badacz generatywnej sztucznej inteligencji, ostrzega przed potencjalnymi obawami etycznymi, jeśli wewnętrzne działanie AI pozostanie nieprzejrzyste. Poza tym „koncyliacyjna AI” nadal ma ograniczoną zdolność do weryfikowania faktów.
Google DeepMind nie chce jeszcze udostępniać swojego modelu, podkreślając, że konieczne są dalsze badania, by był on w pełni wiarygodny i bezpieczny.
Zdjęcie zajawka: Adobe Stock
Zostaw komentarz
You must be logged in to post a comment.