Blackout przez ChatGPT?
Okazuje się, że sztuczna inteligencja do swojego działania potrzebuje bardzo dużo energii. Jeśli będzie się tak dynamicznie rozwijała, to nawet grozi blackout i globalny kryzys energetyczny. Oczywiście to kwestia dalekiej przyszłości, jednak teoretycznie takie zagrożenie istnieje.
Jak podaje serwis rp.pl, Rene Haas, dyrektor generalny w koncernie Arm, zajmującym się produkcją chipów AI ostrzega: „jeśli AI [red. sztuczna inteligencja] będzie w dalszym ciągu stawała się coraz potężniejsza, bez jednoczesnego zwiększenia swojej efektywności energetycznej, centra danych będą zużywać ogromne ilości prądu. Chodzić może nawet o 25 proc. mocy wytwórczych".
Co to oznacza w praktyce i jakie mogą być tego konsekwencje? Jak podaje rp.pl, za sześć lat tylko w samych Stanach Zjednoczonych aż jedna czwarta wyprodukowanej przez elektrownie mocy będzie konsumowana przez centra danych obsługujące AI. I takie narzędzia jak ChatGPT będą po prostu pochłaniały bardzo dużo energii. Systemy LLM wymagają znacznie więcej mocy niż tradycyjne wyszukiwarki internetowe. Z czasem ten trend zapewne przesunie się dalej i będzie to już kwestia globalna.
Czy wyłączą nam prąd?
Czy można temu zapobiec? Jedynym wyjściem z sytuacji może być oszczędzanie energii i szukanie dodatkowego wsparcia wytwórczego w postaci odnawialnych źródeł energii itp. Jedno jest pewne, jeśli rozwój nowych technologii i nowych rozwiązań pochłaniających energię wymknie się spod kontroli i faktycznie zostanie zużycie energii będzie za duże, to niestety grozi nam światowy kryzys energetyczny, a nawet blackout, czyli przerwy w dostawie prądu.
A tymczasem już w przyszłym roku w krajowej sieci energetycznej może zabraknąć 1,4 GW mocy, a za 10 lat luka ta może sięgnąć 6,8 GW — wynika z szacunków Polskich Sieci Elektroenergetycznych, które dbają o bezpieczeństwo dostaw energii do naszych domów.
Zatem sytuacja robi się bardzo poważna.