Энергия ИИ: мифы о 400 чайниках и реальные потери в МВт
Разбираем утверждения о чрезмерном энергопотреблении нейросетей и 'Индексе Бессмысленного Тепла'. Сколько энергии потребляет ИИ на запрос, какие потери из-за бесполезных диалогов и исследования по оптимизации энергопотребления ИИ.
Насколько реальны утверждения о чрезмерном энергопотреблении нейросетей при генерации бесполезных ответов? Существует ли научная база для «Индекса Бессмысленного Тепла», согласно которому один диалог с нейросетью может эквивалентно вскипятить 400 чайников? Какое реальное количество энергии (в мегаваттах) тратится впустую из-за неоптимальных алгоритмов и бесполезных взаимодействий с нейросетями, и какие существуют исследования на эту тему?
Утверждение о «Индексе Бессмысленного Тепла» (один диалог = 400 чайников) — сильно преувеличено: реальные измерения показывают, что энергия ии на один текстовый запрос измеряется в ватт‑часах, а не в десятках киловатт‑часов. Если вам важно понять, сколько энергии потребляет ии на запрос и какова доля потерь, то текущие исследования дают диапазон ≈1–10 Вт·ч на текстовый запрос и указывают, что до ≈30 % энергии при обучении может уходить впустую; в масштабах крупных операторов «бесполезные» запросы при определённых допущениях дают потери на уровне единиц—десятков мегаватт в среднем.
Содержание
- Энергия ИИ — что измеряем и как читать цифры
- Индекс Бессмысленного Тепла: миф или наука?
- Сколько энергии потребляет один запрос/диалог на практике? (оценки и расчёты)
- Сколько тратится впустую из‑за неэффективности и «бесполезных» ответов (проценты и МВт)
- Какие исследования есть и как снижать потери (методы)
- Источники
- Заключение
Энергия ИИ — что измеряем и как читать цифры
Когда обсуждают «сколько энергии потребляет ии», надо сначала различать два понятия: энергия (кВт·ч, Дж) и мощность (кВт, МВт). Простая формула — энергия = мощность × время. Поэтому утверждение «диалог потребляет X мегаватт» бессмысленно без уточнения времени: мегаватт (MW) — это скорость расхода энергии, а не её объём.
Корешки перевода единиц:
- 1 Wh = 3 600 J (1 кДж = 0,2778 Wh).
- 1 kWh = 3,6 MJ.
- Чтобы перевести годовую энергию в среднюю мощность: MW ≈ (MWh в год) / 8 760.
Практическая подсказка: когда говорят «10 кДж на запрос», это ≈2,78 Wh (≈0,00278 kWh) — то есть доли ватт‑часа/несколько ватт‑часов, а не киловатт‑часов. Именно такие порядки и фиксируют измерения для текстовых запросов к крупным моделям (см. ниже). Для понимания масштаба: кипячение одного маленького чайника (~0,5 л) — порядка 50–80 Wh, т.е. десятки ватт‑часов, а не джулей.
Индекс Бессмысленного Тепла: миф или наука?
Откуда взялась идея «400 чайников»? В большинстве заметных материалов это — итог грубой агрегативной оценки: берётся большая суммарная цифра энергопотребления (иногда — обучение + инференс + инфраструктура), делится на число сессий или запросов, и результат подаётся как «энергия на диалог». При таких делениях не учитывают, что инфраструктура и обучение амортизируются между миллионами пользователей, что инференс идёт на очень разном оборудовании и что одна и та же модель обслуживает огромное число параллельных запросов — поэтому простая делёжка сильно искажает картину. Такую критику подробно разбирают в материале RBC, где прямо указывают, что «Индекс Бессмысленного Тепла» не подтверждён научной методикой и зависит от неверных допущений и агрегаций RBC.
Простая числовая проверка:
- 400 чайников × 50–80 Wh = 20–32 kWh (это энергия).
- Если один текстовый запрос ≈ 1–10 Wh (оценки — см. далее), то эквивалент 20–32 kWh составляет ≈2 000–20 000 таких запросов. Или, если принять оценку Nature ≈10 kJ (~2,78 Wh), то 20 kWh эквивалента ≈7 200 запросов. Вывод: чтобы один «диалог» потреблял энергию 400 чайников, этот диалог должен включать тысячи коротких запросов или одну чрезвычайно тяжёлую операцию — сценарий нереалистичный для обычных пользовательских диалогов.
Пара замечаний: многие громкие цифры (Joule и подобные сообщения в прессе) были неправильно масштабированы или переписаны без тех уточнений, которые делает научная статья; Habr и другие ресурсы детально разбирали случаи завышения оценок и ошибок агрегации Habr.
Сколько энергии потребляет один запрос/диалог на практике? (оценки и расчёты)
Ниже — краткие ориентиры по энергопотреблению, которые встречаются в открытых материалах:
- Текстовый запрос к LLM: порядка 1–10 Wh (0,001–0,01 kWh) по оценкам обзоров и очерков в медиа; статья в DTF приводит диапазон ≈0,001–0,01 кВт·ч (1–10 Вт·ч) на один запрос ChatGPT DTF.
- Оценка в Nature: «обычный запрос к ChatGPT ≈ 10 кДж» — это ≈2,78 Wh, т.е. в том же порядке величин Nature.
- Генерация изображения (вычислительно дороже): диапазон порядка 10–100 Wh (0,01–0,1 kWh) для популярных сервисов (Midjourney и др.) — то есть на порядок больше, чем текстовый запрос.
Примеры переводов в бытовой эквивалент:
- 1 текстовый запрос ≈ 1–10 Wh → это ~1–10 минут зарядки смартфона или доля энергии одного чайника.
- Сколько запросов = 1 чайнику (50 Wh)? При 2,8 Wh на запрос — ≈18 запросов; при 1 Wh — 50 запросов; при 10 Wh — 5 запросов.
- 400 чайников → 20–32 kWh → эквивалент ≈2 000–20 000 текстовых запросов в зависимости от допущений.
Короче: простые текстовые диалоги потребляют на порядок меньше, чем подразумевает «400 чайников». А вот если диалог включает генерацию сотен изображений, длинные многотокеновые ответы или внутренние вычислительные циклы, то энергопотребление растёт — но до уровня «кипятильник × 400» всё равно очень далеко для обычной сессии.
Сколько тратится впустую из‑за неэффективности и «бесполезных» ответов (проценты и МВт)
Надо разделять два источника потерь: 1) потери при обучении моделей; 2) потери при инференсе (в реальном времени) из‑за «бесполезных» или дублирующихся запросов.
- Потери при обучении.
Исследование Университета Мичигана и связанный материал показывают, что до ≈30 % мощности, используемой при тренировке больших моделей, может идти «в пустую» из‑за неравномерной загрузки процессоров, сетевых задержек, ожиданий при синхронном обучении и т. п.; при оптимизации алгоритма и инфраструктуры эту долю можно уменьшить и фактически удалось снизить расход энергии на ~30 % в экспериментальных подходах UMich. Это относительная оценка — абсолютная энергия зависит от масштаба тренировки.
Пример с числами (чтобы почувствовать масштаб):
- Пусть тренировка «большой» модели потребовала 1 000 MWh (1 GWh). При 30 % потерь впустую — это 300 MWh «потерь». Если тренировка длилась 10 суток (240 часов), то средняя потерянная мощность ≈300 MWh / 240 h ≈ 1,25 MW. Если та же потеря 300 MWh распологается за 30 суток — это ≈0,417 MW в среднем. Цифры иллюстративны: при больших тренировках (несколько GWh) потерянная средняя мощность уже тянет на несколько мегаватт.
- Потери при инференсе (бесполезные запросы).
По материалам, инференс сейчас часто составляет большую часть операционного потребления ИИ‑сервисов (в материалах приводят оценки 80–90 % от общего операционного энергопотребления ИИ); пример — оценки для крупных облачных провайдеров и разбор в RBC RBC. Если предположить, что 10 % запросов фактически бесполезны (спам, дубли, бессмысленные циклы), то это 10 % от инференс‑энергии, т.е. ≈8 % от общей энергии ИИ при допущении 80 % инференса.
Практический пример на базе Google (ориентир из обзора):
- Google — 21,8 TWh в 2022 г. (объём потребления электроэнергии). Если доля ИИ в этой сумме ≈10–15 %, то энергопотребление ИИ ≈2,18–3,27 TWh. Инференс — ≈80–90 % от этой доли → инференс ≈1,74–2,94 TWh. 10 % бесполезных запросов от инференса → потеря ≈0,174–0,294 TWh в год (174–294 GWh/год). Перевод в среднюю мощность: 174 000 MWh / 8 760 ≈ 19,9 MW; 294 000 MWh / 8 760 ≈ 33,6 MW. То есть при описанных допущениях масштаб «бесполезных» запросов даёт порядка 20–35 MW средней потери у одного крупного оператора — заметная, но не катастрофическая цифра в масштабах сети электроснабжения RBC.
Ключевая мысль: процент потерь (до 30 % на обучении, до ~8 % инференса при 10 % бесполезных запросов) — реальная и изучаемая величина; абсолютная мощность в MW зависит от масштаба оператора и времени, за которое считаем энергию (см. формулы выше).
Какие исследования есть и как снижать потери (методы)
Коротко по исследованиям и направлениям действий:
- Исследования по измерению и оптимизации инфраструктуры: Университет Мичигана показал, что до 30 % энергии при обучении уходит впустую и предложил методы планирования и синхронизации, которые сокращают этот процент и экономят десятки процентов энергии в рамках конкретных тренировок UMich.
- Аппаратные и алгоритмические улучшения: статью в Nature обсуждает прогресс в энергоэффективных ускорителях (включая in‑memory computing), где энергоэффективность может вырасти в разы (примерно 150 TOPS/W против ~24 TOPS/W у некоторых ускорителей); это уменьшает потребление на инференсе и обучение Nature.
- Системные практики: исправление «скрытых» неэффективностей (повторные загрузки данных, плохая предобработка, низкий процент заполнения ускорителей) — классический способ снижать лишние вычисления и уменьшать энергопотребление Computer.org.
- Контрмеры на уровне продукта и пользователя: кэширование ответов, использование компактных моделей (distillation), адаптивный выбор модели (light/medium/heavy) в зависимости от запроса, ограничение частоты запросов и агрегация запросов (batching) — всё это снижает общую энергию инференса.
- Перепроверка громких оценок: ряд разборов (в том числе на Habr) показал, что некоторые ранние оценки энергопотребления NAS и других задач были существенно завышены из‑за методических ошибок Habr.
Если коротко: и система (hardware + infra), и алгоритмы, и поведение пользователей влияют на “излишнюю” нагрузку; исследователи уже демонстрируют реальные способы сокращения потерь.
Источники
- Материал RBC: «Правда ли ИИ потребляет слишком много энергии» — https://trends.rbc.ru/trends/industry/669008889a79475ec7b5ac9c
- Разбор в DTF: «Сколько энергии жрёт нейросеть: почему вашему ChatGPT нужно столько же электричества как для заварки дошика» — https://dtf.ru/flood/3677084-energozatraty-nevrosetei-chatgpt
- Обзор в Nature: «Fixing AI’s energy crisis» — https://www.nature.com/articles/d41586-024-03408-z
- Университет Мичигана: «Up to 30% of the power used to train AI is wasted. Here’s how to fix it.» — https://news.engin.umich.edu/2024/11/up-to-30-of-the-power-used-to-train-ai-is-wasted-heres-how-to-fix-it/
- Разбор на Habr: «ИИ‑технологии потребляют слишком много энергии: правда или миф» — https://habr.com/ru/articles/812673/
- Статья о неэффективностях AI на Computer.org — https://www.computer.org/publications/tech-news/trends/ai-inefficiencies
Заключение
Коротко: идея «один диалог = 400 чайников» не выдерживает простых проверок — реальные измерения показывают энергию на запрос в ватт‑часах, а не в десятках киловатт‑часов. При этом проблема энергопотерь реальна: до ≈30 % расхода при обучении и заметные проценты при инференсе (зависит от доли «бесполезных» запросов) — это подтверждение исследований и практических разборов. В масштабах крупных операторов неэффективность может означать потерю энергии эквивалентную десяткам мегаватт средней мощности при определённых допущениях, но это не то же самое, что «вскипятить 400 чайников за один диалог». Хотите цифры под ваш конкретный сценарий (например, для сервиса с N запросов в сутки)? Напишите N и модель/тип запросов — посчитаю примеры и дам конкретные MWh / MW оценки.