Regulacja rozdzieli narzędzia AI, klasyfikujący je na kategorie w oparciu o poziomy ryzyka, od niskiego do niedopuszczalnego. Rządy i firmy korzystające z tych narzędzi będę musiały wypełnić obowiązki odpowiadające poziomowi ryzyka. Każdy dostawca usług opartych o AI jest nią objęty. Narzędzia AI wysokiego ryzyka, w tym te wykorzystywane w infrastrukturze krytycznej, egzekwowaniu prawa lub edukacji, a także tzw. systemy AI ogólnego przeznaczenia (GPAIS), np. Chat GPT, są przedmiotem intensywnej kontroli. Ustawodawcy są obecnie zaangażowani w debaty na temat obowiązków takich firm jak OpenAI i klasyfikacji ich rozwiązań.
Magda Kotowska-Gawrylczyk, Data & Analytics Manager w polskim oddziale NatWest, przedstawia podejście NatWest do odpowiedzialnej sztucznej inteligencji.
– W NatWest, międzynarodowej instytucji finansowej z centrum finansowo-operacyjne w Polsce, postrzegamy AI Act jako dowód, że nasze odpowiedzialne podejście do sztucznej inteligencji było słusznym wyborem. Stworzone przez nas rozwiązania AI pozwalają na usprawnienie obsługi klienta za pomocą chatbotów po wykorzystanie uczenia maszynowego do zwiększenia cyberbezpieczeństwa naszych klientów. Globalnie, zespół NatWest odpowiada średnio na 50 milionów interakcji z klientami rocznie. Gdyby każda interakcja trwała tylko jedną minutę, równałoby się to 95 latom ciągłej rozmowy. Sztuczna inteligencja i automatyzacja skutecznie zarządzają taką liczbą interakcji, prowadząc do znacznych oszczędności czasu. Dzięki automatyzacji udało nam się odpowiedzieć na potrzeby klientów bez utraty jakości przy tak dużej skali. Rozumiemy jednak, że wraz z potęgą sztucznej inteligencji przychodzi odpowiedzialność za zapewnienie jej etycznego wykorzystania. Postrzegamy AI Act jako okazję do wzmocnienia naszego zaangażowania w przejrzystość i odpowiedzialność.. – mówi.
Zdjęcie zajawka: plusplus/Pixabay
Zostaw komentarz
You must be logged in to post a comment.