Aplikacja randkowa Bumble udostępniła na GitHub źródło swojego narzędzia AI, które wykrywa niechciane sprośne obrazy. Private Detector po raz pierwszy zastosowano w 2019 roku. Teraz każdy twórca aplikacji może z niego skorzystać.
Private Detector rozmywa pornografię na obrazach, wysyłanych przez aplikację Bumble. Ma to chronić użytkowników przed zgorszeniem. Teraz mają wybór, czy otwierać sprośne zdjęcia, czy nie.
– Chociaż liczba użytkowników wysyłających sprośne obrazy w naszych aplikacjach stanowi na szczęście znikomą mniejszość — to zaledwie 0,1% — nasza skala pozwala nam zebrać najlepszy w branży zestaw danych zarówno sprośnych, jak i niesprośnych obrazów – napisała firma w komunikacie prasowym.
Udoskonalona wersja sztucznej inteligencji jest dostępna na GitHub do użytku komercyjnego, dystrybucji i modyfikacji. Twórcy innych aplikacji randkowych czy jakichkolwiek innych, za pośrednictwem których można rozpowszechniać obrazy, mogą zintegrować narzędzie ze swoim oprogramowaniem.
– Należy zająć się tym problemem poza ekosystemem produktów Bumble i zaangażować się w szerszą rozmowę na temat tego, jak rozwiązać problem niechcianych obscenicznych zdjęć – znanych również jako cyberflashowanie – aby uczynić Internet bezpieczniejszym i milszym miejscem dla wszystkich – dodał Bumble.
Firma twierdzi, że system działa z dokładnością na poziomie 98 proc.
Private Detector jest dostępny TU
Zdjęcie zajawka: Unsplash
Zostaw komentarz
You must be logged in to post a comment.