Podczas tej konferencji, której gwiazdami byli Sam Altman z OpenAI, Demis Hassabis z Google DeepMind i Elon Musk, Brytyjczycy i Amerykanie utworzyli u siebie instytuty bezpieczeństwa sztucznej inteligencji, mające oceniać systemy AI o otwartym i zamkniętym kodzie źródłowym.
Organy regulacyjne nie próbowały jednak w tym czasie ograniczyć jakichkolwiek poczynań firm rozwijających AI, nie zażądały także od nich dostępu do informacji – np. danych wykorzystywanych do szkolenia narzędzi sztucznej inteligencji. Stało się tak m.in. dlatego, że jak dotąd nie weszła jeszcze w życie unijna ustawa o sztucznej inteligencji (stanie się to prawdopodobnie pod koniec bieżącego roku), nakładająca na twórców AI obowiązek informowania o ryzyku i udostępniania informacji o tym, jakie dane wykorzystują.
Na razie więc mamy swego rodzaju stan zawieszenia: amerykańskie i brytyjskie firmy zajmujące się rozwijaniem AI same nakładają na siebie ograniczenia i regulacje (tak było w przypadku OpenAI, które zdecydowało się wypuścić na rynek programu do klonowania głosu, bo potencjalnie mógłby się on stać nadzwyczaj sprawnym narzędziem do tworzenia deep fake’ów, co w okresie wyborczym – i w USA, i w Europie – byłoby bardzo niebezpieczne.
Amerykańscy i brytyjscy urzędnicy i politycy stojący za podpisaną właśnie umową liczą jednak na to, że nawiązana właśnie współpraca umożliwi rządom obu państw lepsze zrozumienie AI, a w konsekwencji – unikać największych zagrożeń związanych z jej rozwojem. Umowa dotyczy bowiem stworzenia „solidnych” metod oceny bezpieczeństwa narzędzi sztucznej inteligencji i systemów, na których te narzędzia się opierają.
Zdjęcie zajawka: Dirk Schulz/Pixabay
Zostaw komentarz
You must be logged in to post a comment.