W komentarzu opublikowanym 10 października w czasopiśmie Joule założyciel Digiconomist pokazuje, że szerokie zastosowanie tego narzędzia może wiązać się z dużym śladem energetycznym, który w przyszłości może przekroczyć zapotrzebowanie niektórych krajów na energię.
– Biorąc pod uwagę rosnące zapotrzebowanie na usługi AI, jest bardzo prawdopodobne, że zużycie energii związane z AI znacznie wzrośnie w nadchodzących latach – mówi autor Alex de Vries, doktorant. kandydat na Vrije Universiteit Amsterdam.
Od 2022 r. generatywna sztuczna inteligencja, która może tworzyć tekst, obrazy i inne dane, uległa szybkiemu rozwojowi. Pokazuje to przykład ChatGPT OpenAI. Szkolenie narzędzi AI wymaga dostarczenia modelom dużej ilości danych, co jest procesem energochłonnym. Hugging Face, firma rozwijająca sztuczną inteligencję z siedzibą w Nowym Jorku podała, że jej wielojęzyczne narzędzie AI do generowania tekstu zużyło podczas szkolenia około 433 megawatogodzin (MWH). Wystarczyłoby to do zasilenia 40 przeciętnych amerykańskich domów przez rok, a jak wiadomo Amerykanie uwielbiają sprzęty na prąd.
Ślad energetyczny sztucznej inteligencji nie kończy się na szkoleniu algorytmów. Analiza De Vriesa pokazuje, że gdy narzędzie jest uruchamiane – generując dane na podstawie podpowiedzi – za każdym razem, gdy narzędzie generuje tekst lub obraz, zużywa ono również znaczną ilość mocy obliczeniowej, a co za tym idzie – energii. Na przykład uruchomienie ChatGPT może kosztować 564 MWh energii elektrycznej dziennie (zasilanie ok. 100 amerykańskich domów przez rok).
Podczas gdy firmy na całym świecie pracują nad poprawą wydajności sprzętu i oprogramowania AI, aby uczynić to narzędzie mniej energochłonnym, de Vries twierdzi, że wzrost wydajności maszyn często zwiększa popyt. Ostatecznie postęp technologiczny doprowadzi do wzrostu wykorzystania zasobów netto, co jest zjawiskiem znanym jako paradoks Jevonsa.
– Uczynienie tych narzędzi bardziej wydajnymi i dostępnymi może sprawić, że po prostu udostępnimy je większej liczbie zastosowań i będzie mogło z nich korzystać więcej osób – mówi de Vries.
Na przykład Google włącza obecnie generatywną sztuczną inteligencję do swojej usługi e-mail i testuje możliwości wykorzystania sztucznej inteligencji w swojej wyszukiwarce. Firma przetwarza do 9 miliardów wyszukiwań dziennie. Na podstawie tych danych de Vries szacuje, że gdyby każda wyszukiwarka Google korzystała ze sztucznej inteligencji, potrzebowałaby około 29,2 TWh energii rocznie. To tyle, ile zużywa rocznie Irlandia.
De Vries przewiduje, że w najbliższej przyszłości produkcja serwerów dla AI szybko wzrośnie. Na podstawie prognoz dotyczących produkcji serwerów AI do 2027 r. światowe zużycie energii elektrycznej związanej ze sztuczną inteligencją może wzrosnąć o 85 do 134 TWh rocznie.
Kwota ta jest porównywalna z rocznym zużyciem energii elektrycznej w takich krajach, jak Holandia, Argentyna czy Szwecja.
– Potencjalny wzrost pokazuje, że musimy bardzo uważać na to, do czego wykorzystujemy sztuczną inteligencję. Jest ona energochłonna, dlatego nie chcemy jej używać wszędzie tam, gdzie jej nie potrzebujemy – mówi de Vries .
Źródło: materiały Cell Press, zdjęcie zajawka: rawpixel.com
Zostaw komentarz
You must be logged in to post a comment.