Co profesor miał na myśli?

Bądźmy szczerzy: czytanie artykułów naukowych to ciężki kawałek chleba.

Język nasycony specjalistycznym żargonem i skomplikowanymi terminami nie zachęca do lektury nawet tych, których drugą naturą jest ciekawość i cierpliwość. A to niedobrze, bo bez rozumienia nauki jesteśmy w dzisiejszym świecie coraz bardziej bezradni.

Na szczęście jest sztuczna inteligencja.

David Markowitz, ekspert ds. komunikacji z Michigan State University, zbadał, w jaki sposób AI może uprościć złożone treści naukowe, czyniąc je bardziej strawnymi dla przeciętnego odbiorcy. Okazało się, że generowane przez nią podsumowania nie tylko poprawiają zrozumienie, ale też zwiększają zaufanie do naukowców.

W badaniu, którego wyniki Markowitz, opublikował w PNAS Nexus, przetestowano czat GPT-4. Stworzył on uproszczone streszczenia artykułów naukowych, zamieniając bardziej złożone terminy, jak „zajęcie”, na prostsze – jak „praca”. Te wygenerowane przez sztuczną inteligencję teksty, zwane „stwierdzeniami istotności”, były bardziej zrozumiałe i pomogły czytelnikom lepiej ogarnąć, o co chodzi.

W eksperymentach uczestnicy czytający streszczenia AI podawali bardziej precyzyjne wyjaśnienia treści niż ci, którzy czytali wersje napisane przez naukowców. A tych naukowców, których praca została wyjaśniona w prostszy sposób, uznali za bardziej godnych zaufania i wiarygodnych. Co ciekawe, wielu uczestników badań myślało, że streszczenia specjalistyczne zostały napisane przez AI, a te łatwiejsze przez ludzi.

Oczywiście takie podejście rodzi pewne ryzyko, albowiem nadmierne upraszczanie wiedzy może pozbawić pracę naukową ważnych niuansów, prowadząc do nieporozumień. Poza tym jeśli podsumowania AI nie zostaną dokładnie sprawdzone, może dojść do przeinaczeń.

Więcej o badaniach Davida Markowitza przeczytasz TU

Zdjęcie zajawka: Freepik

Udostępnij:

Powiązane posty

Zostaw komentarz