Boimy się SI? Rządy apelują i blokują

Wiceprezydent USA Kamala Harris spotkała się w czwartek z szefami Google, Microsoft i dwóch innych firm rozwijających sztuczną inteligencję. Administracja prezydenta Joe Bidena wdraża inicjatywy mające na celu zapewnienie, że szybko rozwijająca się technologia poprawia życie bez narażania praw i bezpieczeństwa ludzi. Ogłosiła inwestycję w wysokości 140 milionów dolarów na utworzenie siedmiu nowych instytutów badawczych AI.

Biden na moment uczestniczył w tym spotkaniu.

– To, co robicie, ma ogromny potencjał, ale i niesie ze sobą ogromne niebezpieczeństwo – powiedział Biden dyrektorom generalnym zaproszonych do Białego Domu firm technologicznych. Sam wcześniej miał ponoć wypróbować możliwości ChatGPT. Jego popularność wywołała gwałtowny wzrost komercyjnych inwestycji w narzędzia AI, które mogą pisać przekonująco podobny do ludzkiego tekst i produkować nowe obrazy, muzykę i kod komputerowy.

Łatwość, z jaką AI może naśladować ludzi, skłoniła rządy na całym świecie do zastanowienia się, w jaki sposób może odbierać miejsca pracy, oszukiwać ludzi i szerzyć dezinformację. ChatGPT wywołał lawinę nowych narzędzi sztucznej inteligencji, zwiększając etyczne i społeczne obawy dotyczące zautomatyzowanych systemów wyszkolonych na ogromnych pulach danych.

Niektóre firmy, w tym autor ChatGPT OpenAI, ukrywały dane, na których szkolono ich systemy AI. Utrudnia to zrozumienie, dlaczego chatbot udziela stronniczych lub fałszywych odpowiedzi na zapytania lub odpowiada na obawy dotyczące tego, czy nie kradnie dzieł chronionych prawem autorskim.

Spotkanie zostało zorganizowane po to, by Harris i urzędnicy administracji omówili zagrożenia związane z obecnym rozwojem sztucznej inteligencji z dyrektorem generalnym Google Sundarem Pichai, dyrektorem generalnym Microsoftu Satyą Nadellą i szefami dwóch wpływowych startupów: wspieranego przez Google Anthropic i wspieranego przez Microsoft OpenAI, twórcy z ChatGPT.

Harris poinformowała w oświadczeniu po spotkaniu za zamkniętymi drzwiami, że powiedziała kierownictwu, iż „sektor prywatny ponosi etyczną, moralną i prawną odpowiedzialność za zapewnienie bezpieczeństwa swoich produktów”.

Oczekuje się, że Biały Dom w ciągu najbliższych kilku miesięcy opublikuje wytyczne dotyczące tego, w jaki sposób agencje federalne mogą korzystać z narzędzi AI. Istnieje również niezależne zobowiązanie czołowych programistów sztucznej inteligencji do udziału w publicznej ocenie ich systemów w sierpniu na konwencji DEF CON w Las Vegas.

Firmy stoją również w obliczu potencjalnie surowszych przepisów w Unii Europejskiej. Negocjatorzy dopracowują regulacje dotyczące sztucznej inteligencji. Kiedy w 2021 r. UE po raz pierwszy opracowała swoją propozycję przepisów dotyczącychSI, skupiła się na powstrzymaniu aplikacji wysokiego ryzyka, które zagrażają bezpieczeństwu lub prawom ludzi, takich jak skanowanie twarzy lub rządowe systemy oceny społecznej, które szeregująludzi na podstawie ich zachowania. Niewiele wspomniano o chatbotach.

Biorąc pod uwagę, jak szybko rozwinęła się technologia sztucznej inteligencji, negocjatorzy w Brukseli starali się zaktualizować swoje propozycje, aby uwzględnić systemy sztucznej inteligencji ogólnego przeznaczenia, takie jak te zbudowane przez OpenAI. Zgodnie z niedawnym częściowym projektem ustawy, przytoczonym przez The Associated Press, przepisy wymagałyby tak zwanych podstawowych modeli sztucznej inteligencji w celu ujawnienia materiałów chronionych prawem autorskim wykorzystywanych do szkolenia systemów.

Komisja Parlamentu Europejskiego ma głosować nad ustawą w przyszłym tygodniu, ale mogą minąć lata, zanim ustawa o sztucznej inteligencji wejdzie w życie.

Ponadto Włochy tymczasowo zablokowały ChatGPT z powodu naruszenia surowych europejskich zasad prywatności, a brytyjski organ nadzorujący konkurencję powiedział w czwartek, że otwiera przegląd rynku sztucznej inteligencji.

Zdjęcie zajawka: slon.pics (2)/Freepik

Udostępnij:

Powiązane posty

Zostaw komentarz