Илон Маск поделился новыми деталями о планах xAI по созданию GPU-кластера для обучения модели искусственного интеллекта, получившего "элегантное" имя Grok. После прекращения сотрудничества с Oracle, xAI решила самостоятельно построить "самый мощный тренировочный кластер в мире" — напомним, что рангее Oracle предоставила 24 000 GPU Nvidia Hopper для обучения модели Grok 2, которая, по словам Маска, будет готова к выпуску в августе.
Маск считает, что создание системы из 100 000 GPU внутри компании необходимо для конкуренции с другими ИИ-компаниями и достижения "самого быстрого времени обучения". Он подчеркивает важность скорости для "фундаментальной конкурентоспособности" xAI. Правда, нигде не сказано, не придется ли ради этой скорости жертвовать безопасностью — будет очень грустно, если человечество погибнет от "рук" чего-то с именем Грок.
Система начнет обучение в этом месяце и, по мнению Маска, станет "самым мощным тренировочным кластером в мире, причем с большим отрывом".
Ранее Маск заявлял о планах построить многомиллиардную систему с использованием около 300 000 GPU NVIDIA Blackwell B200. Учитывая цены, озвученные главной Nvidia Дженсеном Хуангом, стоимость такой системы может достигать 9 миллиардов долларов.
Пока непонятно, каким образом и насколько активно аудитория пользуется Гроком. В отличие от ChatGPT, Claude и других систем, ИИ Маска доступен только через вкладку социальной сети X. Можно не сомневаться, что компания Маска очень активно прожигает деньги инвесторов в попытке догнать конкурентов.
Источник новости: shazoo.ru