Jak zauważa ekspert PE Adam Michał, sztuczna inteligencja (AI) stała się potężnym narzędziem dzięki postępowi technologicznemu, dostępowi do dużych ilości danych, uczeniu maszynowemu i zwiększonej mocy obliczeniowej. Wydanie ChatGPT pod koniec 2022 roku było nowym przełomem w AI. Pokazano szeroki zakres możliwości związanych z dostosowywaniem sztucznej inteligencji ogólnego przeznaczenia do szerokiego zakresu zadań oraz uzyskiwaniem generatywnej sztucznej inteligencji do generowania syntetycznych treści na podstawie podpowiedzi wprowadzanych przez użytkownika. W ciągu zaledwie kilku lat bardzo duża część treści online może zostać wygenerowana syntetycznie.
Sztuczna inteligencja jest szansą na ulepszenie procesu demokratycznego w naszych społeczeństwach.
– Może na przykład pomóc obywatelom w lepszym zrozumieniu polityki i łatwiejszym zaangażowaniu się w debatę demokratyczną. Podobnie politycy mogą zbliżyć się do obywateli i ostatecznie skuteczniej ich reprezentować. Takie zjednoczenie obywateli i polityków mogłoby zmienić oblicze kampanii wyborczych i znacznie usprawnić proces kształtowania polityki, czyniąc go dokładniejszym i skuteczniejszym – zauważają autorzy w raporcie Think Tanku PE.
Chociaż obawy związane z wykorzystaniem sztucznej inteligencji w polityce były obecne od końca 2010 r., obawy związane z demokracjami, a zwłaszcza procesem wyborczym, nasiliły się wraz z niedawną ewolucją sztucznej inteligencji.
– Ta powstająca technologia stwarza wiele zagrożeń dla demokracji, ponieważ jest także potężnym narzędziem dezinformacji i dezinformacji, które mogą wywołać napięcia skutkujące konfliktami wyborczymi, a nawet przemocą. Sztuczna inteligencja może na przykład generować fałszywe informacje lub szerzyć uprzedzenia lub opinie, które nie odzwierciedlają nastrojów społecznych. Podsumowując, pomimo korzyści, sztuczna inteligencja może mieć negatywny wpływ na proces demokratyczny – zauważa Adam Michał, ekspert Think Tanku PE.
Pomimo powyższych zagrożeń sztuczna inteligencja może okazać się użyteczna dla demokracji, jeśli zostaną zastosowane odpowiednie zabezpieczenia. Można na przykład zastosować określone narzędzia do wykrywania wykorzystania treści wygenerowanych przez sztuczną inteligencję, a techniki takie jak znak wodny można zastosować, aby wyraźnie wskazać, że treści zostały wygenerowane przez sztuczną inteligencję. Unia Europejska dostosowuje obecnie swoje ramy prawne, aby zaradzić zagrożeniom związanym z sztuczną inteligencją i promować korzystanie z godnych zaufania, przejrzystych i odpowiedzialnych systemów sztucznej inteligencji.
Więcej informacji o raporcie i jego treść znajduje się TUTAJ
Źródło: materiały Parlamentu Europejskiego, zdjęcie zajawka: kolaż ze zdjęć z Adobe Stock (3)
Zostaw komentarz
You must be logged in to post a comment.