категории | RSS

Исследование показывает, что энергопотребление ChatGPT меньше, чем многие думают

ChatGPT, возможно, не так жадна до ресурсов, как считалось ранее. Но, согласно новому исследованию, её аппетиты во многом зависят от того, как используется ChatGPT и какие модели AI отвечают на запросы.

Недавний анализ, проведённый Epoch AI, некоммерческим исследовательским институтом в области искусственного интеллекта, был направлен на то, чтобы подсчитать, сколько энергии потребляет типичный запрос в ChatGPT. Часто приводимая статистика гласит, что для ответа на один вопрос ChatGPT требуется около 3 ватт-часов энергии, что в 10 раз больше, чем для поиска в Google.

Используя в качестве ориентира последнюю модель ChatGPT по умолчанию от OpenAI, GPT-4o, Epoch обнаружила, что средний запрос ChatGPT потребляет около 0,3 ватт-часа — меньше, чем многие бытовые приборы.

«Потребление энергии на самом деле не так уж велико по сравнению с использованием обычных электроприборов, отоплением или охлаждением вашего дома или вождением автомобиля», — сказал TechCrunch Джошуа Ю, аналитик данных из Epoch, проводивший исследование.

Потребление энергии искусственным интеллектом — и его воздействие на окружающую среду в целом — является предметом ожесточённых споров по мере того, как компании, занимающиеся искусственным интеллектом, стремятся быстро расширить свою инфраструктуру. Только на прошлой неделе группа из более чем 100 организаций опубликовала открытое письмо, в котором призвала индустрию искусственного интеллекта и регулирующие органы позаботиться о том, чтобы новые центры обработки данных не истощали природные ресурсы и не вынуждали коммунальные предприятия полагаться на невозобновляемые источники энергии.

Ю сказал TechCrunch, что его анализ был основан на том, что он назвал устаревшими предыдущими исследованиями. Ю отметил, например, что автор отчёта, в котором приводится оценка в 3 ватт-часа, предположил, что OpenAI использует для работы своих моделей более старые и менее эффективные чипы.

«Я видел много публичных дискуссий, в которых правильно отмечалось, что в ближайшие годы AI будет потреблять много энергии, но не было точного описания того, сколько энергии потребляет AI сегодня, — сказал Ю. — Кроме того, некоторые из моих коллег заметили, что наиболее распространённая оценка в 3 ватт-часа на запрос была основана на довольно старых исследованиях и, судя по приблизительным расчётам, была завышена».

Конечно, показатель 0,3 ватт-часа для Epoch тоже является приблизительным; OpenAI не опубликовал детали, необходимые для точного расчёта.

В анализе также не учитываются дополнительные затраты энергии, связанные с такими функциями ChatGPT, как создание изображений или обработка ввода. Ю признал, что «длинные запросы» ChatGPT — например, запросы с прикреплёнными длинными файлами — вероятно, потребляют больше электроэнергии, чем обычный вопрос.

«Искусственный интеллект будет развиваться, и, вероятно, для его обучения потребуется больше ресурсов. В будущем он сможет выполнять больше задач и более сложные задания, чем те, которые сегодня выполняет ChatGPT», — отметил Ю.

Несмотря на то, что в последние месяцы произошли замечательные прорывы в эффективности искусственного интеллекта, ожидается, что масштабы внедрения искусственного интеллекта приведут к огромному расширению инфраструктуры, требующей больших затрат энергии. В ближайшие два года центрам обработки данных искусственного интеллекта может потребоваться почти вся мощность Калифорнии в 2022 году (68 ГВт), согласно отчету Rand. Согласно докладу, к 2030 году для обучения передовой модели может потребоваться мощность, эквивалентная мощности восьми ядерных реакторов (8 ГВт).

Только ChatGPT охватывает огромное и постоянно растущее число пользователей, что делает его серверы такими же востребованными. OpenAI вместе с несколькими инвестиционными партнёрами планирует потратить миллиарды долларов на новые проекты центров обработки данных AI в течение следующих нескольких лет.

Внимание OpenAI, как и остальной индустрии AI, также смещается в сторону моделей логического мышления, которые, как правило, более эффективны с точки зрения задач, которые они могут выполнять, но требуют больше вычислительных ресурсов для работы. В отличие от таких моделей, как GPT-4, которые отвечают на запросы практически мгновенно, модели логического мышления «размышляют» от нескольких секунд до нескольких минут, прежде чем дать ответ, и этот процесс требует больше вычислительных ресурсов и, следовательно, энергии.

«Модели-рассуждения будут всё чаще выполнять задачи, с которыми не справляются старые модели, и генерировать для этого больше данных, а для этого потребуется больше центров обработки данных», — сказал Ю.

Компания OpenAI начала выпускать более энергоэффективные модели для обработки данных, такие как o3-mini. Но, по крайней мере на данном этапе, маловероятно, что повышение эффективности компенсирует возросшие энергозатраты на «мыслительный» процесс моделей для обработки данных и растущее использование AI по всему миру.

Ю предложил людям, обеспокоенным энергозатратами AI, использовать такие приложения, как ChatGPT, нечасто или выбирать модели, которые минимизируют необходимые вычисления — насколько это возможно.

«Вы могли бы попробовать использовать меньшие модели искусственного интеллекта, такие как GPT-4o-mini от OpenAI, — сказал Ю, — и экономно использовать их таким образом, чтобы это не требовало обработки или генерации тонны данных».

Источник



Источник новости: habr.com

DimonVideo
2025-02-12T18:50:06Z

Здесь находятся
всего 0. За сутки здесь было 0 человек
Яндекс.Метрика