Сегодня 01 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

«Больше, чем у кого-либо»: Цукерберг похвастался системой с более чем 100 тыс. Nvidia H100 — на ней обучается Llama 4

Среди американских IT-гигантов зародилась новая забава — соревнование, у кого больше кластеры и твёрже уверенность в превосходстве своих мощностей для обучения больших языковых моделей ИИ. Лишь недавно глава компании Tesla Илон Маск (Elon Musk) хвастался завершением сборки суперкомпьютера xAI Colossus со 100 тыс. ускорителей Nvidia H100 для обучения ИИ, как об использовании более 100 тыс. таких же ИИ-ускорителей сообщил глава Meta Марк Цукерберг (Mark Zuckerberg).

 Источник изображения: CNET/YouTube

Источник изображения: CNET/YouTube

Глава Meta отметил, что упомянутая система используется для обучения большой языковой модели нового поколения Llama 4. Эта LLM обучается «на кластере, в котором используется больше 100 000 графических ИИ-процессоров H100, и это больше, чем что-либо, что я видел в отчётах о том, что делают другие», — заявил Цукерберг. Он не поделился деталями о том, что именно уже умеет делать Llama 4. Однако, как пишет издание Wired со ссылкой на заявление главы Meta, их ИИ-модель обрела «новые модальности», «стала сильнее в рассуждениях» и «значительно быстрее».

Этим комментарием Цукерберг явно хотел уколоть Маска, который ранее заявлял, что в составе его суперкластера xAI Colossus для обучения ИИ-модели Grok используются 100 тыс. ускорителей Nvidia H100. Позже Маск заявил, что количество ускорителей в xAI Colossus в перспективе будет увеличено втрое. Meta также ранее заявила, что планирует получить до конца текущего года ИИ-ускорители, эквивалентные более чем полумиллиону H100. Таким образом, у компании Цукерберга уже имеется значительное количество оборудования для обучения своих ИИ-моделей, и будет ещё больше.

Meta использует уникальный подход к распространению своих моделей Llama — она предоставляет их полностью бесплатно, позволяя другим исследователям, компаниям и организациям создавать на их базе новые продукты. Это отличает её от тех же GPT-4o от OpenAI и Gemini от Google, доступных только через API. Однако Meta всё же накладывает некоторые ограничения на лицензию Llama, например, на коммерческое использование. Кроме того, компания не сообщает, как именно обучаются её модели. В остальном модели Llama имеют природу «открытого исходного кода».

С учётом заявленного количества используемых ускорителей для обучения ИИ-моделей возникает вопрос — сколько электричества всё это требует? Один специализированный ускоритель может съедать до 3,7 МВт·ч энергии в год. Это означает, что 100 тыс. таких ускорителей будут потреблять как минимум 370 ГВт·ч электроэнергии — как отмечается, достаточно для того, чтобы обеспечить энергией свыше 34 млн среднестатистических американских домохозяйств. Каким образом компании добывают всю эту энергию? По признанию самого Цукерберга, со временем сфера ИИ столкнётся с ограничением доступных энергетических мощностей.

Компания Илона Маска, например, использует несколько огромных мобильных генераторов для питания суперкластера из 100 тыс. ускорителей, расположенных в здании площадью более 7000 м2 в Мемфисе, штат Теннесси. Та же Google может не достичь своих целевых показателей по выбросам углерода, поскольку с 2019 года увеличила выбросы парниковых газов своими дата-центрами на 48 %. На этом фоне бывший генеральный директор Google даже предложил США отказаться от поставленных климатических целей, позволив компаниям, занимающимся ИИ, работать на полную мощность, а затем использовать разработанные технологии ИИ для решения климатического кризиса.

Meta увильнула от ответа на вопрос о том, как компании удалось запитать такой гигантский вычислительный кластер. Необходимость в обеспечении растущего объёма используемой энергии для ИИ вынудила те же технологические гиганты Amazon, Oracle, Microsoft и Google обратиться к атомной энергетике. Одни инвестируют в разработку малых ядерных реакторов, другие подписали контракты на перезапуск старых атомных электростанций для обеспечения растущих энергетических потребностей.

Источники:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
В iOS 27 появится улучшенная автокоррекции ввода для клавиатуры iPhone 9 ч.
Google представила ИИ-модель Veo 3.1 Lite для генерации видео до 8 секунд — он дешевле Veo 3.1 и Veo 3.1 Fast 10 ч.
«Нам говорили, что комедийные игры не продаются»: разработчики Dispatch похвастались новыми успехами проекта 10 ч.
Хакеры подсадили троян в одну из самых скачиваемых библиотек JavaScript 12 ч.
«Google Диск» научился выявлять программы-вымогатели и автоматически восстанавливать файлы пользователя 12 ч.
Ведущий дизайнер CI Games проговорился, когда выйдет Lords of the Fallen 2 13 ч.
Eidos Montreal спустя семь лет разработки и «сотни миллионов долларов» отменила AAAA-игру, ради которой умерла новая Deus Ex 13 ч.
Ещё больше ненастоящих кадров: Nvidia выпустила DLSS 4.5 с динамическим мультикадровым генератором и режимом MFG 6X 14 ч.
Google разрешила пользователям менять адрес электронной почты, но пока лишь в одной стране 15 ч.
«Куплю незамедлительно»: фанатов Auto Modellista заинтриговал трейлер гоночной аркады с открытым миром Rogue Stradale 15 ч.
Бум ИИ позволил Huawei достичь максимальной выручки за пять лет, практически вернув её к досанкционным уровням 2 ч.
По итогам нового раунда финансирования капитализация OpenAI выросла до $852 млрд 4 ч.
Новая статья: Обзор MSI MAG B850 GAMING PLUS MAX WIFI: плата для крутых игровых сборок в белом «кузове» 9 ч.
Rebellions привлёк $400 млн для выхода на международный рынок и дальнейшей разработки ИИ-ускорителей 9 ч.
Конец 40-летней памяти: Kioxia прекратит выпуск планарной 2D NAND к 2028 году 10 ч.
В России выделили частоты для прямого подключения смартфонов к спутникам связи 10 ч.
Razer выпустила клавиатуру Pro Type Ergo с двумя пробелами 10 ч.
Noctua завершила тестирование своих первых СЖО — выпуск намечен на второй квартал 10 ч.
NVIDIA инвестировала $2 млрд в Marvell, приобщив её к своей ИИ-экосистеме и NVLink Fusion 13 ч.
Toshiba начала поставлять образцы 3,5-дюймовых HDD с SMR и ёмкостью 30-34 Тбайт 13 ч.