Umělá inteligence sice mění lidstvo, ale náklady na energii jsou enormní. Co na tom stojí tolik?

15. 9. 2025 – 15:02 | Technologie | Miroslav Krajča | Diskuze:

Umělá inteligence sice mění lidstvo, ale náklady na energii jsou enormní. Co na tom stojí tolik?
AI interference | zdroj: ChatGPT

ChatGPT, Gemini, Claude a další – téměř každý den používáte chatbota. Ale málokdo si uvědomuje, jak moc energie stojí tyto konverzační AI modely. Učení obrovských modelů a jejich běh (inference) vyžaduje gigantické výpočetní zdroje, datová centra, chlazení a vrstvy infrastruktury, která je neviditelná, ale energeticky extrémně náročná.

Velký kus energetické odpovědnosti AI chatbotů spočívá ve dvou hlavních fázích: tréninku a běhu modelu („inference“) — každá z nich má své vlastní energetické náklady, často masivní. Trénink velkého modelu znamená spustit stovky či tisíce grafických jednotek (GPU) či jiných akcelerátorů, které spotřebovávají velké množství energie, často nonstop týdny či měsíce.

Inference, tedy když uživatel položí otázku a model vygeneruje odpověď, také není levná: i když se běžně jedná o menší zátěž než samotný trénink, součet dotazů milionů uživatelů denně znamená obrovský energetický odpad — a každý požadavek vyžaduje CPU, GPU, datovou síť, úložiště a chlazení datového centra.

Co určité množství energie znamená v praxi

  • Model, jehož trénink zabere dny či týdny, může spotřebovat energii srovnatelnou s roční spotřebou stovek domácností v rozvinutých zemích — nejen kvůli samotnému výpočetnímu procesu, ale kvůli chlazení serverů a udržování infrastruktury v provozu.

  • Při inference (odpovědi na dotazy) je spotřeba menší, ale frekvence dotazů je klíčová. Pokud milion lidí denně položí dotaz chatbota, kumulativní spotřeba může být extrémní.

  • Datová centra s vektorovými servery, které běží AI modely, často fungují v oblastech s vyšším podílem elektrických sítí, kde je elektřina ještě více závislá na fosilních zdrojích, což zvyšuje uhlíkovou stopu provozu.

Další faktory, které nároky zvyšují

  1. Velikost modelu – čím více parametrů model obsahuje, čím hlubší vrstvy, tím víc energie potřebuje při tréninku i při inference. Rozsáhlé jazykové modely (LLMs) jsou mnohem náročnější než jednodušší modely, které řeší konkrétní úkol.

  2. Optimalizace a hardware – úspěšnost AI spočívá i v tom, jak efektivně je model napsán, jak dobrý hardware se používá, jaký výkon mají GPU/TPU a jaká je účinnost chlazení. Starší nebo méně optimalizované architektury mohou mít obrovské ztráty.

  3. Datová infrastruktura a datová přenosnost – nejen výpočetní jednotky, ale i síťová infrastruktura (přenos dat), úložiště, zálohování, správa modelu – vše to spotřebovává energii.

  4. Velký počet uživatelů a rozsah použití – čím více lidí model používá, tím více dotazů, více požadavků na inference, více serverů v provozu, více chlazení, více energie potřebné k udržení provozu 24/7.

Co se už dělá, aby se spotřeba snížila

  • Některé společnosti pracují na efektivnějších modelech, které požadují méně parametrů pro stejný výkon, případně používají techniky jako kvantizaci, kompresi váh a distilaci modelu.

  • Optimalizace hardwaru – vývoj procesorů a GPU specializovaných pro AI, s nižší spotřebou energie a větší účinností.

  • Zlepšení chlazení datových center – použití obnovitelné energie, chlazení vodou nebo geotermálními zdroji.

  • Lepší správa inference, tj. spouštění modelu ve chvílích, kdy to má smysl, využívání cache, minimalizace redundantních dotazů, optimalizace infrastruktury, aby servery neběžely zbytečně.

Výzvy a limity současných řešení

  • Zatímco efektivnější modely a hardware mohou snížit spotřebu, rostoucí poptávka po AI funkcionalitách často způsobí, že celková spotřeba roste dál — tzv. Jevonsův paradox: čím efektivnější technologie je, tím více se používá, a tím více zdrojů spotřebovává.

  • Transparentnost: mnoho firem neuvádí veřejně údaje o spotřebě energie svých modelů, takže je těžké porovnat, kdo je efektivní a kdo plýtvá, a kolik energie konkrétně náročné modely skutečně spotřebují 

  • Oblast regulace je zatím slabě vyvinutá – jak kvantifikovat ekologickou daň AI, jak nastavit standardy, jak podpořit zelenou energie v datových centrech.

Možnosti pro budoucnost

  • Rozvoj zelených datových center napájených obnovitelnými zdroji – solární, větrná, hydro nebo geotermální. Pokud AI společnosti přesunou provoz tam, kde je elektřina šetrnější, uhlíková stopa výrazně klesne.

  • Zavedení standardních metrik pro spotřebu AI modelů – otevřené benchmarky, které udávají spotřebu při tréninku i inference. To umožní zákazníkům, vývojářům i investorům lépe posuzovat efektivitu.

  • Possible struktury licence nebo cenotvorby, které zohledňují energetické náklady – například poplatky či ceny podle náročnosti inference, nebo motivace pro efektivní využívání (méně dotazů, efektivní nasazení).

  • Výzkum, který bude srovnávat modely nejen podle výkonu, ale i podle energetické efektivity – tj. kolik energie je potřeba na jednotku výsledku (např. odpověď, přesnost, rychlost).

Zdroje:
Redaktor vědecko-popularizačního serveru Nedd.cz, kde pravidelně publikuje články zabývající se aktuálními tématy z oblastí jako příroda, technologie i lidské zdraví. Rád kombinuje dostupné výzkumy a studie se srozumitelným podáním, protože je k ničemu publikovat články, které ocení pět lidí v republice. Ve volných chvílích rád chodí po lese a nebo alespoň po městě.

Nejnovější články