Почему чат-боты с искусственным интеллектом потребляют так много энергии?

Чат-боты с искусственным интеллектом печально известны тем, что потребляют много энергии. Но почему они так сильно расходуют электричество?


alt

Для того чтобы задать вопрос большой языковой модели (БЯМ), требуется примерно в 10 раз больше электроэнергии, чем для обычного поиска в Google. (Изображение предоставлено: Ци Ян, Getty Images)


В последние годы популярность ChatGPT резко возросла: почти 200 миллионов пользователей ежедневно вводят в приложение более миллиарда запросов. Может показаться, что эти запросы появляются из ниоткуда.


Но за кулисами искусственный интеллект (ИИ) чат-боты потребляют огромное количество энергии. В 2023 году на центры обработки данных, которые используются для обучения и обработки ИИ, приходилось 4,4 % потребления электроэнергии в США. По всему миру на эти центры приходится около 1,5 % мирового энергопотребления. Ожидается, что эти цифры резко возрастут, как минимум удвоятся к 2030 году по мере роста спроса на ИИ.


«Всего три года назад у нас ещё не было ChatGPT», — сказал Алекс де Врис-Гао, исследователь в области устойчивого развития новых технологий из Амстердамского свободного университета и основатель Digiconomist, платформы, посвящённой выявлению непредвиденных последствий цифровых тенденций. «А теперь мы говорим о технологии, на которую будет приходиться почти половина энергопотребления центров обработки данных по всему миру».


Но что делает чат-ботов с искусственным интеллектом такими энергозатратными? Ответ кроется в огромных масштабах чат-ботов с искусственным интеллектом. В частности, больше всего энергии потребляют две составляющие ИИ: обучение и логический вывод, говорит Мошараф Чоудхури, специалист по информатике из Мичиганского университета.


Для обучения чат-ботов с искусственным интеллектом большим языковым моделям (LLM) предоставляются огромные наборы данных, чтобы ИИ мог учиться, распознавать закономерности и делать прогнозы. В целом, по словам де Фриз-Гао, при обучении искусственному интеллекту существует принцип "чем больше, тем лучше вера", когда считается, что более крупные модели, которые принимают больше данных, дают лучшие прогнозы.


«Когда вы пытаетесь провести обучение, происходит следующее: современные модели стали настолько большими, что не помещаются ни в один графический процессор [GPU], ни в один сервер», — рассказал Чоудхури Live Science.


Для сравнения: исследование 2023 года де Врис-Гао показало, что одному серверу Nvidia DGX A100 требуется до 6,5 киловатт энергии. Для обучения больших языковых моделей обычно требуется несколько серверов, на каждом из которых в среднем установлено восемь графических процессоров, работающих неделями или месяцами. В целом на это уходит огромное количество энергии: по оценкам, на обучение GPT-4 от OpenAI было потрачено 50 гигаватт-часов энергии, что эквивалентно энергопотреблению Сан-Франциско за три дня.


Выводы также требуют больших затрат энергии. Это процесс, в ходе которого чат-бот с искусственным интеллектом делает выводы на основе полученных знаний и генерирует ответ на запрос. Хотя для работы LLM после обучения требуется значительно меньше вычислительных ресурсов, выводы требуют больших затрат энергии из-за огромного количества запросов к чат-ботам с искусственным интеллектом.


По состоянию на июль 2025 года OpenAI заявляет, что пользователи ChatGPT ежедневно отправляют более 2,5 миллиардов запросов, а это значит, что для мгновенного ответа на эти запросы используется множество серверов. И это без учёта других широко используемых чат-ботов, в том числе Gemini от Google, который, по словам представителей компании, скоро станет опцией по умолчанию при поиске в Google.


«Так что даже при выводе данных вы не сможете сэкономить много энергии, — сказал Чоудхури. — Это не такие уж большие данные. Я имею в виду, что модель и так большая, но ею пользуется огромное количество людей».


Такие исследователи, как Чоудхури и де Врис-Гао, сейчас работают над тем, чтобы точнее определить эти потребности в энергии и понять, как их снизить. Например, Чоудхури ведёт таблицу лидеров по энергопотреблению в машинном обучении, в которой отслеживается энергопотребление моделей с открытым исходным кодом.


Однако конкретные требования к энергопотреблению других платформ генеративного ИИ в основном неизвестны. Крупные компании, такие как Google, Microsoft и Meta, держат эти данные в секрете или предоставляют статистику, которая мало что говорит о реальном воздействии этих приложений на окружающую среду, отмечает де Врис-Гао. Из-за этого сложно определить, сколько энергии на самом деле потребляет ИИ, каким будет спрос на энергию в ближайшие годы и сможет ли мир его удовлетворить.


Однако люди, которые пользуются этими чат-ботами, могут добиться большей прозрачности. Это не только поможет пользователям более ответственно подходить к использованию ИИ, но и будет способствовать принятию более строгих правил, обязывающих компании нести ответственность.


«Одна из фундаментальных проблем, связанных с цифровыми приложениями, заключается в том, что их влияние никогда не бывает очевидным, — сказал де Врис-Гао. — Задача политиков — поощрять раскрытие информации, чтобы пользователи могли начать что-то предпринимать».


Отправить комментарий

Новые Старые

Новости партнеров