Тъмната страна на изкуствения интелект - ненаситният консуматор на ресурси

Прогнозите са, че само до 2026 г. световната индустрия за ИИ ще консумира над 10 пъти повече енергия спрямо 2023г.

Зад всичко това стоят физически устройства, а те консумират енергия: чипове, графични процесори и центрове за данни

България е една от държавите, които се развиват бързо по отношение на ИИ

Изкуственият интелект (ИИ) има огромен потенциал за създаване на иновации, които да балансират между технологичен напредък и социална отговорност в сферите на екологията, образованието, медицината, инженерството, финансите и много други. Когато става дума за климатичните промени и овладяването на негативните последици например, ИИ може да се използва за подобряване на системите за възобновяема енергия: в оценката на ресурси, енергийно прогнозиране, системно наблюдение и стратегии за управление на рискове.

Въпреки този потенциал, често финансирането от и на ИИ компании се фокусира върху ползите на чисто организационно ниво и ИИ се експлоатира за спестяване на разходи чрез автоматично въвеждане на търсачки и приложения, подбор на служители и ботове, имитиращи човешки качества. При индивидуалното ползване на ИИ пък обичайно употребата му се свежда до лесни решения – за създаване на съдържание, често с неясна доствоверност, и оптимизиране на процеси, дори четенето на книга се свежда до кратко ИИ резюме.

Забравяме – покрай ентусиазма в медии и социални канали, както и дигитални термини като облачно пространство в ИИ инфраструктурата, че зад всичко това стоят физически устройства, а те консумират енергия: чипове, графични процесори и центрове за данни. Всеки път, когато питаме ИИ как да напишем публикация за социалните медии – това изразходва енергия.  Прогнозите са, че само до 2026 г. световната индустрия за ИИ ще нарасне и консумира над 10 пъти повече енергия от това, което се консумира през 2023 г.

Първоначално интересът към изкуствения интелект е само сред компютърни специалисти, психолози и други интердисциплинарни направления. Едва след 2022-2023 г. той се разраства с огромна сила и сред населението. Това е особено повлияно от влизането на пазара на ChatGPT на OpenAI, наред с ботове като Bing Chat на Microsoft и Bard на Alphabet. Този фурор и големи инвестиции в ИИ технологиите постави въпроса и за количествата енергията, която се консумира за тренирането на ИИ моделите и последващото им използване.

Подобни данни са рядко публични, но платформата Hugging Face показва, че например BLOOM моделът консумира 433 MWh за трениране на база данни. Други модели като GPT-3, Gopher и Open Pre-trained Transformer (OPT) използват съответно 1287, 1066, и 324 MWh за трениране на терабитове данни.
Наред с тренирането на модели, енергия се харчи и за сървъри. Според Chen (2025) данни от SemiAnalysis, ChatGPT се нуждае от 3,617 NVIDIA HGX A100 сървъра, с над 28,936 процесора (GPUs), за да работи. Това се равнява на около 564 MWh на ден. С над 195 милиона ChatGPT търсения дневно, това прави 2.9 Wh на търсене, сравнено с около 0.3 Wh за едно Google търсене, т.е. едно ChatGPT търсене използва около 10 пъти повече енергия от Google търсене.

Скокът в ИИ разработването от 2023 г. насам води и до търсене на чипове, като само за втората четвърт на 2023 г. гигантът NVIDIA отчита печалба от $13.5 милиарда. ИИ е интегрирано не само в търсачки и ботове, а и в онлайн пазаруване, фитнес приложения и много други ежедневни дейности, което изисква големи енергийни ресурси и оказва пагубно влияние върху климата.

Финансовите интереси обаче са по-силни от социалните и екологични рискове. Meta, Microsoft, Apple и Google имат нестихващи планове да инвестират милиарди в ИИ инфраструктура. Само преди месеци американският президент Тръмп – наред с OpenAI – обяви проекта Старгейт за $500 милиарда с цел създаване на центрове за данни, като всеки един би гълтал повече енергия отколкото тази, използвана от щата Ню Хемпшир (O’Donnell & Crowhart, 2025). Всъщност над 4.4% от използваната енергия в САЩ отива именно в такива центрове. До 2028 г. ИИ ще изразходва над половината от енергията в центровете за данни.

Големите технологични компании не споделят открито информация за енергийното потребление на своите ИИ системи. Според доклад на Berkeley Lab, до 2028 г. над половината от енергията, използвана в центровете за данни, ще бъде изразходвана от изкуствен интелект.

Липсата на прозрачност затруднява точното измерване на екологичния отпечатък. Освен това, разнообразието от езикови модели, ИИ платформи и енергийни източници – от възобновяеми до изкопаеми – допълнително усложнява картината. Това превръща енергийната устойчивост на ИИ в един от най-слабо разбраните и най-належащи проблеми в сферата на технологиите.

Консумацията на вода при изработване, трениране и използване на ИИ модели също е сериозно разхищение на ресурс и риск. Данни сочат, че за изработката на един чип отиват около 8300 л. вода, а пък за писането на един мейл от ИИ бот около ½ л. Допълнително центровете за данни харчат и вода за охлаждане. В свят, където климатичните промени вече ограничават наличието на прясна вода, все по-жадният за ресурси изкуствен интелект поставя допълнителен натиск върху и без това намаляващите водни запаси. Продължим ли така, най-вероятно ще консумираме повече вода, отколкото бъдещето реално ще може да ни осигури.

На фона на финансовите интереси, компаниите продължават да вменяват индивидуална вина и да пренасочват вниманието към малките стъпки като например това, че разлагащите се сламки в чая ни могат да спасят планетата.

Как големите компании да направят използването на ИИ по-енергийно ефективно Индивидуални стъпки не са достатъчни. Компаниите също трябва да предприемат действия и едно от тях е насочване към по-устойчиви модели и технологии.

Експерти сочат, че може да се премине от обработката на данни в облачни сървъри към такава на локално ниво (на самото устройство). Това може да се постигне чрез подходящи чипове, които да приоритизират енергийната ефективност пред самата изчислителна мощност на ИИ. Подобно действие би оптимизирало от 100 до 1000 пъти консумацията на енергия (Lokwon, 2025).

Друга стъпка е разработката на технологии, намаляващи потреблението на енергия и вода (особено за охлаждане) в центровете за данни. Още през 2023 г., Foy пише как лабораторният суперкомпютърен център Линкълн на Масачузетския технологичен институт разработва техники за намаляване на потреблението на енергия. Така например те се опитват да ограничат лимита на използвана енергия като увеличат времето за трениране на ИИ модел с до 3%, което не би било забележимо, и по този начин също намалят нуждата за охлаждане на устройствата.

Нужно е и по-добро планиране: регулиране на напрежението на процесорите спрямо натоварването, спазване на енергиен бюджет, балансиране на натоварването на мрежите като се работи извън пикови часове, вътрешни водни системи.

България е една от държавите, които се развиват бързо по отношение на ИИ. У нас имаме свой BgGPT например, който според създателите му дава предимство на потребителите в контекста на българската среда (разчитане на български закони и пословици например).  Страната ни е и една от шестте в Европа, в които скоро ще бъдат изградени нови фабрики за ИИ, т. нар. проект BRAIN ++. Това е огромна икономическа възможност, но подобни проекти крият неясни предизвикателства заради потреблението на енергия и консумацията на вода, особено предвид безводието в България, както и факта, че все още разчитаме до голяма степен на изкопаеми горива в енергетиката ни. Бързото разпространение на технологиите у нас и Европа обаче се нуждае от регулиране на потреблението на енергия и прозрачност на бизнесите, разработващи или използващи ИИ. Очаква се до 2026 г. потреблението на електроенергия от центровете за данни в ЕС да бъде с 30% по-високо от нивата преди две години именно заради нови съоръжения за данни, изчисления с изкуствен интелект и цифровизация на услуги.

От Климатека

Най-четени