Sądy na całym świecie coraz częściej wykorzystują sztuczną inteligencję – choć na razie w raczej rutynowych sprawach
Według raportu ”Podejmowanie decyzji w oparciu o sztuczną inteligencję i sądy: przewodnik dla sędziów, członków trybunałów i administratorów sądów”, wydanego właśnie przez Australijski Instytut Administracji Sądowej, zidentyfikowano przykłady wykorzystania sztucznej inteligencji nie tylko w Australii, ale i za granicą. Algorytmy stosowane są w różnych sądowych dziedzinach, od komputerowego oprogramowania do rozwiązywania sporów – po wykorzystanie kodu opartego bezpośrednio na regułach wnioskowania (logika) lub „sędziów AI”, którzy pomagają usuwać zaległości w orzekaniu. Sztuczna inteligencja staje się coraz większą częścią procesów sądowych.
W raporcie stwierdzono m.in., że narzędzie o nazwie COMPAS, używane w Stanach Zjednoczonych do profilowania więźniów, wzbudziło obawy dotyczące zgodności sztucznej inteligencji z wartościami prawnymi. COMPAS wykorzystuje 137 pytań do oceny prawdopodobieństwa ponownego popełnienia przestępstwa przez daną osobę oraz pytania typu: „Ile razy ta osoba była aresztowana jako osoba dorosła lub nieletnia?”
Narzędzie COMPAS może przynieść bardzo istotne wyniki, a sędzia użyje ich do podjęcia decyzji, czy oskarżony może zostać zwolniony za kaucją lub czy powinien kwalifikować się do zwolnienia warunkowego. Tak stało się w przypadku Australijczyka Zilly’ego, który ukradł kosiarkę ogrodową: COMPAS wskazał sędziemu wysokie ryzyko ponownego naruszenia prawa. Dlatego sędzia odrzucił ugodę i skazał złodzieja na dwa lata więzienia.
Z kolei estoński wymiar sprawiedliwości usuwa zaległości w części spraw, korzystając ze 100 „sędziów” opartych na sztucznej inteligencji, co daje sędziom – ludziom więcej czasu na rozwiązanie trudniejszych sporów. System AI używany jest do orzekania w przypadkach drobnych sporów, o wartości do 7000 euro. Strony dostarczają dokumenty i inne istotne informacje, a system generuje decyzję, od której (na szczęście) można się odwołać do ludzkiego sędziego.
Naukowcy radzą jednak postępować ostrożnie. Profesor Lyria Bennett Moses, która jest dyrektorem Hub for Technology, Law and Innovation oraz profesorem i zastępcą dziekana ds. badań na Wydziale Prawa i Sprawiedliwości na Uniwersytetu w Sydney, zauważa w rozmowie z dziennikarzami techbusinessnews.com.au, że „potrzebujemy ludzi do zadawania właściwych pytań i pomagania społeczeństwu w udzielaniu na nie odpowiedzi”.
– Mogą być zarówno ogromne korzyści, jak i poważne obawy, czy sztuczna inteligencja jest zgodna z podstawowymi wartościami – zauważa.
Zdjęcie zajawka: Gerd Altmann/Pixabay
Zostaw komentarz
You must be logged in to post a comment.