ChatGPT, возможно, не так жадна до ресурсов, как считалось ранее. Но, согласно новому исследованию, её аппетиты во многом зависят от того, как используется ChatGPT и какие модели AI отвечают на запросы.
Недавний анализ, проведённый Epoch AI, некоммерческим исследовательским институтом в области искусственного интеллекта, был направлен на то, чтобы подсчитать, сколько энергии потребляет типичный запрос в ChatGPT. Часто приводимая статистика гласит, что для ответа на один вопрос ChatGPT требуется около 3 ватт-часов энергии, что в 10 раз больше, чем для поиска в Google.
Используя в качестве ориентира последнюю модель ChatGPT по умолчанию от OpenAI, GPT-4o, Epoch обнаружила, что средний запрос ChatGPT потребляет около 0,3 ватт-часа — меньше, чем многие бытовые приборы.
«Потребление энергии на самом деле не так уж велико по сравнению с использованием обычных электроприборов, отоплением или охлаждением вашего дома или вождением автомобиля», — сказал TechCrunch Джошуа Ю, аналитик данных из Epoch, проводивший исследование.
Потребление энергии искусственным интеллектом — и его воздействие на окружающую среду в целом — является предметом ожесточённых споров по мере того, как компании, занимающиеся искусственным интеллектом, стремятся быстро расширить свою инфраструктуру. Только на прошлой неделе группа из более чем 100 организаций опубликовала открытое письмо, в котором призвала индустрию искусственного интеллекта и регулирующие органы позаботиться о том, чтобы новые центры обработки данных не истощали природные ресурсы и не вынуждали коммунальные предприятия полагаться на невозобновляемые источники энергии.
Ю сказал TechCrunch, что его анализ был основан на том, что он назвал устаревшими предыдущими исследованиями. Ю отметил, например, что автор отчёта, в котором приводится оценка в 3 ватт-часа, предположил, что OpenAI использует для работы своих моделей более старые и менее эффективные чипы.
«Я видел много публичных дискуссий, в которых правильно отмечалось, что в ближайшие годы AI будет потреблять много энергии, но не было точного описания того, сколько энергии потребляет AI сегодня, — сказал Ю. — Кроме того, некоторые из моих коллег заметили, что наиболее распространённая оценка в 3 ватт-часа на запрос была основана на довольно старых исследованиях и, судя по приблизительным расчётам, была завышена».
Конечно, показатель 0,3 ватт-часа для Epoch тоже является приблизительным; OpenAI не опубликовал детали, необходимые для точного расчёта.
В анализе также не учитываются дополнительные затраты энергии, связанные с такими функциями ChatGPT, как создание изображений или обработка ввода. Ю признал, что «длинные запросы» ChatGPT — например, запросы с прикреплёнными длинными файлами — вероятно, потребляют больше электроэнергии, чем обычный вопрос.
«Искусственный интеллект будет развиваться, и, вероятно, для его обучения потребуется больше ресурсов. В будущем он сможет выполнять больше задач и более сложные задания, чем те, которые сегодня выполняет ChatGPT», — отметил Ю.
Несмотря на то, что в последние месяцы произошли замечательные прорывы в эффективности искусственного интеллекта, ожидается, что масштабы внедрения искусственного интеллекта приведут к огромному расширению инфраструктуры, требующей больших затрат энергии. В ближайшие два года центрам обработки данных искусственного интеллекта может потребоваться почти вся мощность Калифорнии в 2022 году (68 ГВт), согласно отчету Rand. Согласно докладу, к 2030 году для обучения передовой модели может потребоваться мощность, эквивалентная мощности восьми ядерных реакторов (8 ГВт).
Только ChatGPT охватывает огромное и постоянно растущее число пользователей, что делает его серверы такими же востребованными. OpenAI вместе с несколькими инвестиционными партнёрами планирует потратить миллиарды долларов на новые проекты центров обработки данных AI в течение следующих нескольких лет.
Внимание OpenAI, как и остальной индустрии AI, также смещается в сторону моделей логического мышления, которые, как правило, более эффективны с точки зрения задач, которые они могут выполнять, но требуют больше вычислительных ресурсов для работы. В отличие от таких моделей, как GPT-4, которые отвечают на запросы практически мгновенно, модели логического мышления «размышляют» от нескольких секунд до нескольких минут, прежде чем дать ответ, и этот процесс требует больше вычислительных ресурсов и, следовательно, энергии.
«Модели-рассуждения будут всё чаще выполнять задачи, с которыми не справляются старые модели, и генерировать для этого больше данных, а для этого потребуется больше центров обработки данных», — сказал Ю.
Компания OpenAI начала выпускать более энергоэффективные модели для обработки данных, такие как o3-mini. Но, по крайней мере на данном этапе, маловероятно, что повышение эффективности компенсирует возросшие энергозатраты на «мыслительный» процесс моделей для обработки данных и растущее использование AI по всему миру.
Ю предложил людям, обеспокоенным энергозатратами AI, использовать такие приложения, как ChatGPT, нечасто или выбирать модели, которые минимизируют необходимые вычисления — насколько это возможно.
«Вы могли бы попробовать использовать меньшие модели искусственного интеллекта, такие как GPT-4o-mini от OpenAI, — сказал Ю, — и экономно использовать их таким образом, чтобы это не требовало обработки или генерации тонны данных».
Источник
Источник новости: habr.com