To Geoffrey Hinton stworzył technologię, która doprowadziła do powstania systemów w rodzaju ChatGPT czy Boogle Bard, dlatego w jego ostrzeżenia warto uważnie się wsłuchać. Tym bardziej że możliwa przyszłość, jaką przed nami rysuje, jest mroczna.
Pojawienie się robotów zabójców, eksplozja fake newsów i gwałtowny wzrost bezrobocia – takie będą skutki przewyższenie ludzkiej inteligencji przed AI, do czego prawdopodobnie dojdzie najpóźniej do końca dekady – mówi Hinton w rozmowie z internetowym serwisem 60 Minutes.
– Wchodzimy w okres wielkiej niepewności, gdzie mierzymy się z rzeczami, którymi nigdy wcześniej się nie zajmowaliśmy – przestrzega. – A zwykle gdy mamy z czymś do czynienia z czymś po raz pierwszy albo coś po raz pierwszy robimy, popełniamy błędy bądź robimy to źle.
Tak było zawsze w dziejach człowieka, bo nasz postęp jest efektem zdolności uczenia się na własnych błędach. Tyle że w kwestiach związanych z AI nie możemy sobie pozwolić na najmniejszy błąd.
Za pięć lat karmiąca się naszą literaturą i treściami z mediów AI osiągnie poziom superinteligencji i będzie zdolna rozumować lepiej niż my
Problem polega jednak na tym, że w przypadku sztucznej inteligencji nie ma marginesu na najmniejszy błąd. Tymczasem szacuje się, że wkrótce AI przejdzie test Turinga i do 2045 r. osiągnie tzw. punkt osobliwości, czyli jej inteligencja stanie się niezależna od naszej. W praktyce oznacza to, że będzie się samoreplikować, tzn. pisać dla siebie kod poza jakąkolwiek naszą kontrolą, stając się coraz potężniejszym i coraz groźniejszym dla nas systemem. Za pięć lat karmiąca się naszą literaturą i treściami z mediów AI osiągnie poziom superinteligencji i będzie zdolna rozumować lepiej niż my.
Hinton nie wie, czy w ogóle – a jeśli tak, to jak można powstrzymać ten proces. Ale wie jedno: już teraz powinniśmy się tym martwić, bo „te rzeczy myślą”.
Całej rozmowy z Geoffreyem Hintonem wysłuchasz TU.
Zdjęcie zajawka: Ramsey Cardy/Collision via Sportsfile (Domena Publiczna CC BY 2.0)
Zostaw komentarz
You must be logged in to post a comment.