Cyfrowa przyzwoitka teraz do wzięcia

Aplikacja randkowa Bumble udostępniła na GitHub źródło swojego narzędzia AI, które wykrywa niechciane sprośne obrazy. Private Detector po raz pierwszy zastosowano w 2019 roku. Teraz każdy twórca aplikacji może z niego skorzystać.

Private Detector rozmywa pornografię na obrazach, wysyłanych przez aplikację Bumble. Ma to chronić użytkowników przed zgorszeniem. Teraz mają wybór, czy otwierać sprośne zdjęcia, czy nie.

– Chociaż liczba użytkowników wysyłających sprośne obrazy w naszych aplikacjach stanowi na szczęście znikomą mniejszość — to zaledwie 0,1% — nasza skala pozwala nam zebrać najlepszy w branży zestaw danych zarówno sprośnych, jak i niesprośnych obrazów – napisała firma w komunikacie prasowym.

Udoskonalona wersja sztucznej inteligencji jest dostępna na GitHub do użytku komercyjnego, dystrybucji i modyfikacji. Twórcy innych aplikacji randkowych czy jakichkolwiek innych, za pośrednictwem których można rozpowszechniać obrazy, mogą zintegrować narzędzie ze swoim oprogramowaniem.

– Należy zająć się tym problemem poza ekosystemem produktów Bumble i zaangażować się w szerszą rozmowę na temat tego, jak rozwiązać problem niechcianych obscenicznych zdjęć – znanych również jako cyberflashowanie – aby uczynić Internet bezpieczniejszym i milszym miejscem dla wszystkich – dodał Bumble.

Firma twierdzi, że system działa z dokładnością na poziomie 98 proc.

Private Detector jest dostępny TU

Zdjęcie zajawka: Unsplash

Udostępnij:

Powiązane posty

Zostaw komentarz