Jankesi i Wyspiarze biorą AI na smycz

Od głośnego szczytu AI Safety Summit w Bletchley Park w listopadzie 2023 r. minęły już ponad 4 miesiące. Jednak w dziedzinie nadzoru nad rozwojem sztucznej inteligencji na poziomie rządów i instytucji politycznych nie stało się w zasadzie nic szczególnie istotnego.

Podczas tej konferencji, której gwiazdami byli Sam Altman z OpenAI, Demis Hassabis z Google DeepMind i Elon Musk, Brytyjczycy i Amerykanie utworzyli u siebie instytuty bezpieczeństwa sztucznej inteligencji, mające oceniać systemy AI o otwartym i zamkniętym kodzie źródłowym.

Organy regulacyjne nie próbowały jednak w tym czasie ograniczyć jakichkolwiek poczynań firm rozwijających AI, nie zażądały także od nich dostępu do informacji – np. danych wykorzystywanych do szkolenia narzędzi sztucznej inteligencji. Stało się tak m.in. dlatego, że jak dotąd nie weszła jeszcze w życie unijna ustawa o sztucznej inteligencji (stanie się to prawdopodobnie pod koniec bieżącego roku), nakładająca na twórców AI obowiązek informowania o ryzyku i udostępniania informacji o tym, jakie dane wykorzystują.

Na razie więc mamy swego rodzaju stan zawieszenia: amerykańskie i brytyjskie firmy zajmujące się rozwijaniem AI same nakładają na siebie ograniczenia i regulacje (tak było w przypadku OpenAI, które zdecydowało się wypuścić na rynek programu do klonowania głosu, bo potencjalnie mógłby się on stać nadzwyczaj sprawnym narzędziem do tworzenia deep fake’ów, co w okresie wyborczym – i w USA, i w Europie – byłoby bardzo niebezpieczne.

Amerykańscy i brytyjscy urzędnicy i politycy stojący za podpisaną właśnie umową liczą jednak na to, że nawiązana właśnie współpraca umożliwi rządom obu państw lepsze zrozumienie AI, a w konsekwencji – unikać największych zagrożeń związanych z jej rozwojem. Umowa dotyczy bowiem stworzenia „solidnych” metod oceny bezpieczeństwa narzędzi sztucznej inteligencji i systemów, na których te narzędzia się opierają.

Zdjęcie zajawka: Dirk Schulz/Pixabay

Udostępnij:

Powiązane posty

Zostaw komentarz