
Otóż zdaniem najbogatszego człowieka na świecie AI przeżuła już zasoby ludzkiej wiedzy, więc na ich bazie nie jest w stanie dalej się rozwijać. Szkolenie nowych modeli sztucznej inteligencji wymaga więc kreatywnego zwrotu: trzeba ją karmić danymi syntetycznymi, czyli tym, co w procesie uczenia sama AI wypluje z siebie wypluje, a potem sama przetworzy.
Przekonanie Muska wynika ze sposobu, w jaki uczy się sztuczna inteligencja w rodzaju Chat GPT-4. Systemy tego rodzaju są szkolone na wszystkim, co napisał człowiek – od Wikipedii po posty na Reddicie. W tych danych dostrzegają wzorce, by przewidzieć np. następne słowo w zdaniu. Tyle że zdaniem Muska studnia danych pochodzących od ludzi w zeszłym roku wyschła.
Sposobem na wyjście z impasu jest pisanie przez AI własnego materiału szkoleniowego, ocenianie go – i tak na okrągło. Niczym robot, który sam sobie zadaje pracę domową
Takie działania to nic nowego. Meta, Microsoft, Google i OpenAI zajmują się już syntetycznymi danymi i odnoszą na tym polu pewne sukcesy – np. Meta dopracowała swój model Llama AI przy użyciu danych stworzonych maszynowo. Musk ostrzega jednak przed poważną przeszkodą: halucynacjami AI, gdy sztuczna inteligencja wypluwa z siebie bzdury lub nieścisłości. Bo jeśli dane syntetyczne są wadliwe, to model zdobywa wiedzę śmieciową – i produkuje jeszcze większe śmieci.
Istotnie: poleganie na danych generowanych przez sztuczną inteligencję – jak ostrzega wielu uznanych ekspertów – może spowodować „załamanie modelu”, w którym spada jakość danych, maleje kreatywność i wkrada się stronniczość. Co gorsza, rosnąca ilość treści generowanych przez sztuczną inteligencję może zostać przypadkowo przetworzona do zestawów szkoleniowych, potęgując tylko te problemy.
Więcej na ten temat dowiesz się w wywiadzie, którego Musk udzielił w swoim serwisie społecznościowym X.
Zdjęcie zajawka: Gerd Altmann/Pixabay
Zostaw komentarz
You must be logged in to post a comment.