Nowe Delhi:
Tradycyjne wyszukiwanie w Google zużywa średnio 0,0003 kilowatogodziny (kWh) energii, zgodnie z raportem Google z 2009 r. Ta energia może zasilić Twoją domową żarówkę (9 watów) przez około 2 minuty. Google średnio wykonuje około 8,5 miliarda wyszukiwań dziennie od 2023 r., co przekłada się na 2 550 000 kWh energii elektrycznej dziennie, co stanowi około 2000 razy więcej energii elektrycznej niż przeciętne zużycie Hindusa (1255 kWh) przez cały rok.
W maju Google ogłosiło, że firma zintegruje AI ze swoją wyszukiwarką, która będzie napędzana przez jej najpotężniejszy model AI – Gemini. Według Alexa de Vriesa, holenderskiego naukowca ds. danych, który rozmawiał na ten temat z The New Yorker, pojedyncze wyszukiwanie w Google ze zintegrowaną AI zużyje 10 razy więcej energii (3 kWh) niż tradycyjne wyszukiwanie w Google. To 20 000 razy więcej niż przeciętne zużycie Hindusa w ciągu roku.
Alex de Vries, który jest również założycielem Digiconomist — organizacji odpowiedzialnej za Bitcoin Energy Consumption Index — powiedział, że zużycie energii przez Google osiągnie około 29 miliardów terawatogodzin (TWh) rocznie, jeśli zdecydują się na integrację AI w wyszukiwarce. Ta liczba jest równa zużyciu energii elektrycznej w Irlandii i większa niż w Kenii.
Dlaczego systemy sztucznej inteligencji są tak łakome na władzę?
Systemy AI wymagają dużej mocy obliczeniowej do uruchamiania złożonych algorytmów w celu przetwarzania dużych zbiorów stale rosnących danych. Gdy wprowadzasz monit w ChatGPT, jest on przetwarzany przez chatbota przy użyciu jego serwerów hostowanych w centrach danych. Same te centra odpowiadają za 1-1,5 procenta całkowitego światowego zużycia energii elektrycznej, zgodnie z danymi Międzynarodowej Agencji Energetycznej.
„Myślę, że nadal nie doceniamy zapotrzebowania energetycznego tej technologii (AI)” — powiedział Sam Altman, CEO OpenAI, podczas publicznego wydarzenia w Davos w styczniu tego roku. Altman wyraził natychmiastową potrzebę „przełomowej” technologii, takiej jak fuzja jądrowa, aby zasilić operacje AI, biorąc pod uwagę prognozy wzrostu technologii pionierskiej. Jest to wyraźny sygnał, że lider branży chatbotów Large Language Model poszukuje sposobów na utrzymanie obecnego poziomu zużycia energii elektrycznej i zabezpieczenie przyszłego popytu.
Emisje dwutlenku węgla wytworzone przez AI – krok wstecz w realizacji celu ONZ dotyczącego zerowej emisji netto do 2050 r.?
Centra danych, które zasilają przetwarzanie w chmurze, a także systemy AI, wytwarzają od 2,5 do 3,5 procent globalnych emisji gazów cieplarnianych, według The Shift Project, francuskiej organizacji non-profit działającej na rzecz zmniejszenia zależności energetycznej od paliw kopalnych. Stanowi to taki sam poziom emisji gazów cieplarnianych, jaki generuje cały przemysł lotniczy.
Zużycie energii i późniejszy ślad węglowy różnych modeli AI różnią się znacząco. Na przykład projekt BigScience BLOOM, który jest modelem AI z 76 miliardami parametrów (zmiennych wewnętrznych, których model uczy się podczas treningu), zużywa 433 megawatogodziny (MWh) energii elektrycznej.
Dla porównania, GPT-3 firmy OpenAI z 2020 r., który miał porównywalną liczbę parametrów na poziomie 175 miliardów, zużył 3 razy więcej energii elektrycznej – 1287 MWh, zgodnie z danymi Raportu Wskaźnika Sztucznej Inteligencji 2024, opublikowanego przez Instytut Sztucznej Inteligencji Zorientowanej na Człowieka (HCAI) na Uniwersytecie Stanforda.
Ekwiwalent emisji CO2 (w tonach), czyli całkowita emisja gazów cieplarnianych wyrażona w przeliczeniu na dwutlenek węgla, w przypadku BLOOM wyniosła 25 ton, a w przypadku GPT-3 była aż 20-krotnie wyższa i wyniosła 502 tony.
W raporcie wskazano również, że twórcy sztucznej inteligencji wykazują się poważnym brakiem przejrzystości w kwestii wpływu swoich modeli na środowisko, a większość z nich nie ujawnia publicznie swojego śladu węglowego.
Niedawno opublikowany Raport Zrównoważonego Rozwoju Google 2024 odzwierciedla również zapotrzebowanie na energię wschodzącej technologii AI. Firma odnotowała wzrost emisji dwutlenku węgla o prawie 50 procent w ciągu ostatnich 5 lat dzięki zasilaniu swoich nowych technologii AI. Raport Zrównoważonego Rozwoju Microsoft 2024 pokazuje podobne trendy ze wzrostem emisji CO2 o 29 procent w 2023 r. w porównaniu z rokiem poprzednim.
Według SemiAnalysis, niezależnej amerykańskiej firmy zajmującej się badaniami i analizą AI, AI spowoduje wzrost zużycia energii elektrycznej w centrach danych do 4,5 procent światowej produkcji energii do 2030 r. Inne szacunki Międzynarodowej Agencji Energetycznej sugerują, że całkowite zużycie energii elektrycznej w centrach danych może się podwoić z poziomu z 2022 r. do 1000 TWh (równego obecnemu zużyciu energii elektrycznej w Japonii). Indie mają około 138 centrów danych, a według doniesień do końca 2025 r. ma być uruchomionych 45 kolejnych. Stany Zjednoczone mają największą liczbę centrów danych, 2701 z nich.
Ustawodawcy zaczynają oceniać sytuację. Unia Europejska przyjęła to do wiadomości i przyjęła nowe rozporządzenie w marcu tego roku. Zgodnie z programem wszyscy operatorzy centrów danych są zobowiązani do raportowania zużycia energii i wody (używanych w systemach chłodzenia). Są oni również zobowiązani do dostarczania informacji o wdrażanych środkach efektywności w celu zapewnienia redukcji.
W lutym amerykańscy Demokraci przedstawili ustawę o wpływie sztucznej inteligencji na środowisko z 2024 r. Ustawa proponuje powołanie Konsorcjum ds. Wpływu Sztucznej Inteligencji na Środowisko, składającego się z ekspertów, badaczy i interesariuszy z branży, którego zadaniem będzie zajęcie się kwestią wpływu sztucznej inteligencji na środowisko.