Firmy wykorzystujące sztuczną inteligencję będą odpowiadać za szkody, które wyrządzi ona użytkownikom. Chce tego Komisja Europejska.
Nowe przepisy, których projekt opublikowała wczoraj KE (https://ec.europa.eu/info/files/proposal-directive-adapting-non-contractual-civil-liability-rules-artificial-intelligence_en) , mają pomóc ludziom poszkodowanym przez urządzenia i programy wykorzystujące sztuczną inteligencję. Tzw. dyrektywa o odpowiedzialności za AI sprawi, że osoba poszkodowana nie będzie już musiała, jak było do tej pory, mozolnie analizować skomplikowaną mechanikę działania inteligentnych systemów, by udowodnić, że to one stoją np. za utraceniem przez nią danych, naruszeniem jej prywatności czy fizycznymi obrażeniami (np. potrąceniem przez autonomiczny samochód). Wystarczy, że ktoś taki wykaże związek przyczynowy między działaniem AI w danym urządzeniu a szkodą, której doświadczył. To tzw. domniemanie przyczynowości – nowa kategoria w przepisach mających sprawić, że prawo zacznie nadążać za postępami technologii.
Jeśli nowe przepisy zostaną przyjęte, za złe skutki działania inteligentnych maszyn i programów będą odpowiadali ich producenci. Dotychczas firmy tworzące media społecznościowe zasłaniały się wymówką, że przecież są one tylko platformami do publikacji cudzych materiałów, więc to, co jest w tych materiałach, jest problemem publikujących. A firmy produkujące np. drony twierdziły, że to przecież nie one nimi sterują, lecz bezpośredni użytkownicy.
Będziemy też mieli większy wgląd w systemy, w których wykorzystanie AI wiąże się ze szczególnie dużym ryzykiem wyrządzenia nam szkody czy krzywdy, stosowane dla kontrolowania granic, w transporcie czy w punktacji egzaminów.
Bo za złem, które czyni maszyna, koniec końców zawsze stoi człowiek, który ją skonstruował. A maszyny nic do nas nie mają. Na razie…
Zdjęcie zajawka: DeepMind/Unsplash
Zostaw komentarz
You must be logged in to post a comment.