🌏 Вопрос потребления электричества ИИ-моделями все никак не отпускает экспертов. Напомним, что глава OpenAI Сэм Альтман назвал цифру 0,34 ватт-часа - именно столько электроэнергии тратится на один запрос к ChatGPT (пара минут работы лампочки или секунда включенной духовки).Руководитель направления по климату в компании Hugging Face (да-да, у коллег есть и такая должность) Саша Луччиони весьма скептически прокомментировала озвученную Альтманом оценку:Да он эту цифру с потолка взял!(адаптированный нами перевод фразы «He could have pulled that out of his ass»)Учёл ли Альтман при этом энергию, затраченную на обучение модели? А на охлаждение ЦОДа? Да и что такое «средний запрос»? Ведь одно дело - генерить строку текста, и совсем другое - картинку или видео. К слову, сама Саша Луччиони вместе с коллегами из университета Carnegie Mellon год назад в своем исследовании пришла к выводу, что генерация одной картинки потребляет до 6 ватт-часов. Примерно столько нужно чтобы полностью зарядить смартфон. Тоже цифры с потолка взяла, хитрюга? Как бы то ни было, ситуация с расчетами действительно осложняется тем, что AI-гиганты совсем не раскрывают информацию о влиянии на климат (дружно подзабили на ESG? 🤔). Ну а исследования пришли к выводу, что 84% сегодняшнего LLM-трафика приходится на модели, не раскрывающие климатические данные. Эксперты подчеркивают, что любые озвученные сегодня цифры энергопотребления ИИ-моделями не имеют под собой каких-либо веских оснований. Сюда же можно отнеси например популярное заявление, что поисковый запрос в Google потребляет в 10 раз меньше энергии чем ChatGPT. Понятно, что на волне хайпа и огромного интереса к ИИ климат — далеко не первое, о чем должен думать потребитель. В погоне за долей рынка ИИ-платформы не стремятся объяснять пользователям чего стоит обработка их запроса (зачастую отправленного что называется «не приходя в сознание»). Наоборот, делается всё, чтобы клиенты получили ответ как можно скорее, не заскучали и не ушли к конкурентам. Однако тренд заметен: исследований на эту тему становится все больше. Иногда они приходят к весьма интересным выводам и идеям, например: ➖ если одни модели используют до 50% больше энергии, чем другие, логично было бы автоматически перенаправлять небольшие и простые запросы менее энергоёмким моделям, показывающим при этом достаточную для таких запросов точность;➖ регулятору пора озадачиться маркировкой классов энергоэффективности ИИ-моделей. По аналогии с бытовой техникой и лампочками. Ну или с автомобилями, где покупатель, как правило, обращает внимание на средний расход топлива на 100 км. А там гляди ИИ-платформы предложат новые «энерготарифы»: PAYG (pay-as-you-go, оплата по мере использования) вместо так сказать «общедомового учета».Пытливый ум автора статьи произвел нехитрые расчеты исходя из следующих вводных: средний запрос к ChatGPT потребляет 0,34 вт-часа энергии; все ИИ-ЦОДы - 7,5 Tвт-часа в месяц; ChatGPT обслуживает около 1 млрд запросов в день.Получается, что на OpenAI приходится всего 14% электроэнергии всех ИИ-ЦОДов мира. Выглядит так, будто Альтман чуть промахнулся, занизив средний показатель энергоемкости одного запроса в попытке балансировать между желанием угодить экологам и показать хорошую долю рынка.Анонимный Аналитик, специально для @antidigital