Самые актуальные новости Hardware из авторитетных источников публикуются в этой категории. Благодаря автоматическому парсеру новости публикуются каждый час.
Tue, 19 Mar 2024 07:43:02 +0300Tue, 19 Mar 2024 07:43:02 +0300Менее чем за два года чипы Nvidia H100, которые используются почти каждой ИИ-компанией в мире для обучения больших языковых моделей, питающих такие сервисы, как ChatGPT, сделали компанию одной из самых дорогих (по капитализации) в мире. И это не предел. Только что компания анонсировала платформу следующего поколения под названием Blackwell, чьи чипы от 7 до 30 раз быстрее, чем H100, и потребляют в 25 раз меньше энергии.Генеральный директор Nvidia Дженсен Хуанг сказал на ежегодном мероприятии компании GTC в Сан-Хосе:Графические процессоры Blackwell — это двигатель, который будет питать новую промышленную революцию. Генеративный ИИ — определяющая технология нашего времени. Работая с самыми динамичными компаниями в мире, мы реализуем обещание ИИ для каждой отрасли.Чипы Blackwell от Nvidia названы в честь Дэвида Гарольда Блэквелла, математика, специализировавшегося на теории игр и статистике. NVIDIA утверждает, что Blackwell — самый мощный чип в мире. Он обеспечивает значительное повышение производительности для ИИ-компаний со скоростью 20 петафлопс по сравнению с всего 4 петафлопсами, которые обеспечивал H100. Большая часть этой скорости стала возможной благодаря 208 миллиардам транзисторов в чипах Blackwell по сравнению с 80 миллиардами в H100. Для достижения этого Nvidia соединила два больших кристалла, которые могут общаться друг с другом на скорости до 10 терабайт в секунду.А чтобы проиллюстрировать то, насколько современная революция ИИ зависит от чипов Nvidia, пресс-релиз компании включает отзывы семи генеральных директоров, которые в совокупности руководят компаниями стоимостью триллионы долларов. В их число входят:Глава OpenAI Сэм АльтманГлава Microsoft Сатья НаделлаГлава Alphabet Сундар ПичаиГлава Tesla Илон Маски ряд других топовых имен"В настоящее время для ИИ нет ничего лучше, чем аппаратное обеспечение Nvidia", — говорит Маск в заявлении. Альтман добавляет:Blackwell предлагает огромный скачок производительности и ускорит нашу способность предоставлять передовые модели. Мы рады продолжать работать с Nvidia для улучшения вычислений ИИ.Nvidia не раскрыла, сколько будут стоить чипы Blackwell. Сегодня H100 стоят от 25 000 до 40 000 долларов за штуку, а целые системы, работающие на этих чипах, могут доходить до 200 000 долларов. Однако, учитывая столь значительный прирост производительности и снижение энергопотребления, стоимость явно будет под стать.Несмотря на их стоимость, чипы NVIDIA пользуются высоким спросом. В прошлом году время ожидания доставки достигало 11 месяцев. А наличие доступа к ИИ-чипам Nvidia все чаще рассматривается как символ статуса для технологических компаний, стремящихся привлечь таланты в области ИИ.DimonVideo
Менее чем за два года чипы Nvidia H100, которые используются почти каждой ИИ-компанией в мире для обучения больших языковых моделей, питающих такие [...]
читать полностью
Tue, 19 Mar 2024 07:20:02 +0300Tue, 19 Mar 2024 07:20:02 +0300Ресурс CNBC по итогам выступления основателя и бессменного руководителя NVIDIA Дженсена Хуана (Jensen Huang) на открытии GTC 2024 опубликовал краткую выдержку по представленным на мероприятии новым техническим решениям этой марки. Во-первых, тот самый упоминаемый ещё представителями Dell ускоритель B200 оказался двухкристальным чипом с архитектурой Blackwell, который в совокупности насчитывает 208 млрд транзисторов и использует упаковку CoWoS-L (2.5D). Кристаллы в этой упаковке соединяются интерфейсом NV-HBI с пропускной способностью 10 Тбайт/с, с точки зрения программного обеспечения они работают как единое целое. Ранее NVIDIA выпускала монолитные чипы, но двухкристальная компоновка позволила значительно увеличить количество транзисторов на одной подложке, и об этом можно судить хотя бы по внешним размерам B200 при сравнении с H100.
Источник изображения: NVIDIA
По сторонам от кристаллов B200 расположились восемь стеков памяти типа HBM3E совокупным объёмом 192 Гбайт, они позволяют передавать по 8 Тбайт информации в секунду. На уровне печатной платы для объединения нескольких B200 в одной системе будет использоваться интерфейс NVLink пятого поколения, который способен симметрично передавать информацию со скоростью 1,8 Тбайт/с. Теоретически, при помощи специального коммутатора в одной системе можно объединить до 576 чипов B200.
С точки зрения производительности флагманским вычислительным решением нового поколения станет NVIDIA Grace Blackwell Superchip — ускоритель GB200, который на одной печатной плате сочетает пару чипов B200 и центральный процессор NVIDIA Grace с 72 ядрами на архитектуре Arm Neoverse V2. Потребляя до 2,7 кВт, такой ускоритель способен обеспечить быстродействие в операциях FP4 на уровне 40 петафлопс. По сравнению с базовым H100, такой ускоритель способен поднять быстродействие в 30 раз и улучшить энергетическую эффективность до 25 раз.
На GTC 2024 компания NVIDIA также представила специфические серверные системы HGX B100, HGX B200 и DGX B200, а также стоечную систему GB200 NVL72, объединяющую в себе 36 экземпляров GB200 с объёмом оперативной памяти до 30 Тбайт. В одном центре обработки данных решений NVIDIA позволяют объединять до 100 000 ускорителей GB200. Партнёры компании представят свои решения на базе B200 в этом году, но стоимость подобных ускорителей традиционно не раскрывается. Можно предположить, что базовый B200 будет дороже H100, который стоит от $25 000 до $40 000.DimonVideo
Ресурс CNBC по итогам выступления основателя и бессменного руководителя NVIDIA Дженсена Хуана (Jensen Huang) на открытии GTC 2024 опубликовал краткую выдержку [...]
читать полностью
Tue, 19 Mar 2024 07:20:02 +0300Tue, 19 Mar 2024 07:20:02 +0300Оставаясь главным поставщиком памяти класса HBM, южнокорейская компания SK hynix воспользовалась анонсом NVIDIA B200 и сопутствующих вычислительных решений для заявления о начале поставок с конца марта микросхем HBM3E, разработку которых она начала всего семь месяцев назад. Соответственно, массовое производство HBM3E компания начала первой в мире, как она утверждает. Это уже пятое поколение микросхем HBM.
Источник изображения: SK hynix
При формировании стеков памяти HBM3E этот производитель использует ту самую технологию массового оплавления MR-MUF, которую мечтает освоить и Samsung Electronics. Такой метод формирования изоляции между кристаллами памяти в стеке позволяет снизить механическое давление на них, улучшить условия теплоотвода на 10% и обеспечить стабильный выпуск продукции в условиях массового производства. Память HBM3E в исполнении SK hynix позволяет передавать информацию со скоростью 1,18 Тбайт/с. Подчёркивается, что клиент SK hynix, в котором угадывается NVIDIA, начнёт получать новую память с конца этого месяца.DimonVideo
Оставаясь главным поставщиком памяти класса HBM, южнокорейская компания SK hynix воспользовалась анонсом NVIDIA B200 и сопутствующих вычислительных [...]
читать полностью
Tue, 19 Mar 2024 07:13:02 +0300Tue, 19 Mar 2024 07:13:02 +0300Готовьтесь к тому, что ваш «Проводник» в Windows 11 станет еще умнее! Microsoft тестирует интеграцию ИИ-помощника Copilot, который позволит вам управлять файлами по-новому. Представьте, что вы можете просто щелкнуть правой кнопкой мыши по папке или документу, после чего отправить их Copilot. ИИ не только просуммирует содержимое файла, но и выполнит другие задачи, например, перефразирует текст, отредактирует изображение, удалит фон или повысит разрешение. Copilot – это умный помощник, основанный на технологии больших языковых моделей. Он уже интегрирован в панель задач Windows 11, Microsoft 365, Paint, Photos и другие приложения. Microsoft даже анонсировала клавиатуры с клавишей Copilot, чтобы вы могли еще быстрее получать доступ к его функциям. И хоть внедрение ИИ в «Проводник» пока находится в тестовом режиме, мы уже видим потенциал нововведения. Оно станет незаменимым инструментом для тех, кто хочет быстро работать с разным типом документов.DimonVideo
Готовьтесь к тому, что ваш «Проводник» в Windows 11 станет еще умнее! Microsoft тестирует интеграцию ИИ-помощника Copilot, который позволит вам управлять [...]
читать полностью
Tue, 19 Mar 2024 06:45:02 +0300Tue, 19 Mar 2024 06:45:02 +0300В честь предстоящего сериала Fallout компания Microsoft показала уникальную версию Xbox Series X, которую разыграет среди своих американских подписчиков в X (Twitter). Консоль размещена в специальном хранилище, выполненном в виде сейфа.«Волт-Бой бы одобрил», — говорится в описании кастомной Xbox Series X.Для участия в розыгрыше (только среди жителей США), подписчик должен сделать ретвит записи и дождаться итогов (14 апреля).Кстати, недавно Bethesda представила металлическую копию Pip-Boy за 18 тыс руб.Что касается сериала Fallout, его премьера состоится 11 апреля этого года.DimonVideo
В честь предстоящего сериала Fallout компания Microsoft показала уникальную версию Xbox Series X, которую разыграет среди своих американских подписчиков [...]
читать полностью
Tue, 19 Mar 2024 03:33:02 +0300Tue, 19 Mar 2024 03:33:02 +0300Nvidia представила свежую версию платформы для работы с ИИ-приложениями Nvidia AI Enterprise 5.0, которая включает микросервисы на базе загружаемых программных контейнеров для быстрого развёртывания приложений генеративного ИИ. Nvidia отметила, что уже микросервисы адаптируются ведущими поставщиками ПО и платформ кибербезопасности, а все функции AI Enterprise 5.0 вскоре будут доступны в облачных маркетплейсах AWS, Google Cloud, Microsoft Azure и Oracle Cloud.Микросервисы позиционируются компанией как эффективный инструмент для создания разработчиками современных корпоративных приложений в глобальном масштабе. Работая прямо в браузере, разработчики могут используют для создания приложений облачные API. Nvidia AI Enterprise 5.0 теперь включает предназначенные для развёртывания моделей ИИ микросервисы NIM и микросервисы CUDA-X. Сюда входит и Nvidia cuOpt, ИИ-микросервис для задачи логистики, который позволяет значительно ускорить оптимизации маршрута и расширить возможности динамического принятие решений, снижая затраты, экономя время и позволяя сократить выбросы CO2.Источник изображения: NvidiaNIM оптимизирует инференс-нагрузки для различных популярных моделей ИИ от Nvidia и партнёров. Используя ПО Nvidia для инференса, включая Triton Inference Server, TensorRT и TensorRT-LLM, NIM позволяет сократить развёртывание моделей с недель до минут и вместе с тем обеспечивает безопасность и управляемость в соответствии с отраслевыми стандартами, а также совместимость с инструментами управления корпоративного уровня. В настоящее время компания работает над расширением возможностей AI Enterprise.С выходом версии Nvidia AI Enterprise 5.0 платформа получила ряд дополнений. В частности, она теперь включает Nvidia AI Workbench, набор инструментов для разработчиков, обеспечивающих быструю загрузку, настройку и запуск проектов генеративного ИИ. ПО теперь общедоступно и поддерживается Nvidia. Nvidia AI Enterprise 5.0 также теперь поддерживает платформу Red Hat OpenStack. Кроме того, в Nvidia AI Enterprise 5.0 расширена поддержка широкого спектра новейших ускорителей Nvidia, сетевого оборудования и ПО для виртуализации.DimonVideo
Nvidia представила свежую версию платформы для работы с ИИ-приложениями Nvidia AI Enterprise 5.0, которая включает микросервисы на базе загружаемых программных [...]
читать полностью
Tue, 19 Mar 2024 03:33:01 +0300Tue, 19 Mar 2024 03:33:01 +0300Компания Nvidia представила микросервис NIM, входящий в платформу Nvidia AI Enterprise 5.0 и предназначенный для оптимизации запуска различных популярных моделей ИИ от Nvidia и её партнёров. Nvidia NIM позволяет развёртывать ИИ-модели в различных инфраструктурах: от локальных рабочих станций до облаков.Предварительно созданные контейнеры и Helm Chart'ы с оптимизированными моделями тщательно проверяются и тестируются на различных аппаратных платформах Nvidia, у поставщиков облачных услуг и на дистрибутивах Kubernetes. Это обеспечивает поддержку всех сред с ускорителями Nvidia и гарантирует, что компании смогут развёртывать свои приложения генеративного ИИ где угодно, сохраняя полный контроль над своими приложениями и данными, которые они обрабатывают. Разработчики могут получить доступ к моделям посредством стандартизированных API, что упрощает разработку и обновление приложений.Источник изображений: NVIDIANIM также может использоваться для оптимизации исполнения специализированных решений, поскольку не только использует Nvidia CUDA, но и предлагает адаптацию для различных областей, таких как большие языковые модели (LLM), визуальные модели (VLM), а также модели речи, изображений, видео, 3D, разработки лекарств, медицинской визуализации и т.д. NIM использует оптимизированные механизмы инференса для каждой модели и конфигурации оборудования, обеспечивая наилучшую задержку и пропускную способность и позволяя более просто и быстро масштабироваться по мере роста нагрузок.В то же время NIM позволяет дообучить и настроить модели на собственных данных, поскольку можно не только воспользоваться облачными API Nvidia для доступа к готовым моделями, но и самостоятельно развернуть NIM в Kubernetes-средах у крупных облачных провайдеров или локально, что сокращает время разработки, сложность и стоимость подобных проектов и позволяет интегрировать NIM в существующие приложения без необходимости глубокой настройки или специальных знаний.DimonVideo
Компания Nvidia представила микросервис NIM, входящий в платформу Nvidia AI Enterprise 5.0 и предназначенный для оптимизации запуска различных популярных [...]
читать полностью
Tue, 19 Mar 2024 02:33:02 +0300Tue, 19 Mar 2024 02:33:02 +0300Компании NVIDIA и Siemens сообщили о расширении сотрудничества с целью внедрения иммерсивной визуализации и генеративного ИИ в промышленное проектирование и производство. В частности, Siemens интегрирует новый программный интерфейс NVIDIA Omniverse Cloud API в свою платформу Xcelerator.Напомним, Omniverse Cloud представляет собой комплексный пакет облачных сервисов, позволяющих проектировать, публиковать, эксплуатировать и тестировать приложения метавселенной вне зависимости от местонахождения. В свою очередь, Xcelerator — интегрированный пакет ПО и сервисов для разработки приложений.NVIDIA и Siemens совмещают платформы Omniverse и Xcelerator, выводя промышленную автоматизацию на новый уровень. Партнёры объединяют обширную промышленную экосистему Xcelerator и физически точный механизм создания виртуального мира в реальном времени с поддержкой ИИ. Это позволяет создавать точные реалистичные цифровые двойники.В рамках сотрудничества Siemens, в частности, интегрирует NVIDIA Omniverse Cloud API в состав Teamcenter X (входит в Xcelerator). Облачная система Teamcenter X предоставляет пользователям безопасный доступ к данным управления жизненным циклом изделия (PLM) из любой точки мира, с любого устройства и в любое время. Благодаря использованию API Omniverse могут быть ускорены различные рабочие процессы при создании цифровых двойников, такие как изменение условий освещения, применение тех или иных материалов и пр.Источник изображения: NVIDIAОтмечается, что традиционно компании в значительной степени полагались на физические прототипы при реализации крупномасштабных промышленных проектов. Такой подход является дорогостоящим, ограничивает инновации и замедляет время выхода решений на рынок. Совместная инициатива Siemens и NVIDIA позволяет устранить указанные препятствия путём создания фотореалистичных цифровых двойников, учитывающих физику реального мира. Это означает, что такие компании, как HD Hyundai (занимается судостроением, тяжёлым оборудованием и машиностроением), могут унифицировать и визуализировать сложные инженерные проекты непосредственно в Teamcenter X.В частности, API USD Query позволяет пользователям Teamcenter X перемещаться и взаимодействовать с физически точными объектами, тогда как API USD Notify обеспечивает автоматическое обновление дизайна и сцен в режиме реального времени. В дальнейшем Siemens планирует внедрить технологии NVIDIA и в другие продукты Xcelerator.DimonVideo
Компании NVIDIA и Siemens сообщили о расширении сотрудничества с целью внедрения иммерсивной визуализации и генеративного ИИ в промышленное проектирование [...]
читать полностью
Tue, 19 Mar 2024 02:33:02 +0300Tue, 19 Mar 2024 02:33:02 +0300Компания NVIDIA объявила о запуске платформы облачных микросервисов Quantum Cloud, которая поможет учёным и разработчикам проводить исследования в сфере квантовых вычислений для различных областей, включая химию, биологию и материаловедение.В основу Quantum Cloud легла NVIDIA CUDA Quantum — открытая платформа, предназначенная для интеграции и программирования CPU, GPU и квантовых процессоров (QPU). Она даёт возможность выполнять сложные симуляции квантовых схем.На базе микросервисов Quantum Cloud пользователи смогут непосредственно в облаке создавать и тестировать новые квантовые алгоритмы и приложения. Это могут быть, в частности, гибридные квантово-классические системы. Утверждается, что Quantum Cloud обладает развитыми возможностями и поддерживает интеграцию стороннего ПО для ускорения научных исследований.Источник изображения: NVIDIAВ состав Quantum Cloud входит компонент Generative Quantum Eigensolver, разработанный в сотрудничестве с Университетом Торонто: он использует большие языковые модели (LLM), позволяющие квантовому компьютеру быстрее находить энергию основного состояния молекулы. Интеграция решений израильского стартапа Classiq помогает исследователям создавать большие и сложные квантовые программы, а также проводить глубокий анализ квантовых схем. В свою очередь, инструмент QC Ware Promethium решает сложные задачи квантовой химии, такие как молекулярное моделирование.«Квантовые системы представляют собой следующий революционный рубеж в сфере вычислений. Quantum Cloud устраняет барьеры на пути изучения этой преобразующей технологии и позволяет любому учёному в мире использовать возможности квантовых вычислений и воплощать свои идеи в реальность», — говорит Тим Коста (Tim Costa), руководитель NVIDIA по направлению HPC и квантовых вычислений.DimonVideo
Компания NVIDIA объявила о запуске платформы облачных микросервисов Quantum Cloud, которая поможет учёным и разработчикам проводить исследования [...]
читать полностью
Tue, 19 Mar 2024 01:33:01 +0300Tue, 19 Mar 2024 01:33:01 +0300Компания NVIDIA на конференции GTC 2024 приоткрыла завесу тайны над новым вычислительным кластером, предназначенным для решения ресурсоёмких задач в области ИИ. Полностью работоспособный дата-центр продемонстрирован в виде цифрового двойника на платформе Omniverse. Показанный кластер выполнен на платформе NVIDIA GB200 NVL72.Отмечается, что проектирование и создание современных ЦОД — очень трудоёмкий процесс, который требует объединения усилий самых разных команд специалистов. При этом должно учитываться огромное количество факторов, от которых зависят энергетическая эффективность, производительность, возможность масштабирования и пр. Цифровые двойники дают возможность упростить и ускорить процесс.Цифровой двойник создан на платформе Cadence Reality с применением Omniverse. Для создания цифровой копии будущего ЦОД, который заменит один из устаревших дата-центров NVIDIA, компания Kinetic Vision просканировала площадку с помощью носимого сканера NavVis VLX на основе лидара. В результате были получены высокоточные данные о физических характеристиках объекта и панорамные фотографии. Далее с помощью ПО Prevu3D была сформирована реалистичная 3D-модель ЦОД. Инженеры объединили и визуализировали несколько наборов данных САПР с высокой точностью с помощью платформы Cadence Reality.Источник изображения: NVIDIAПрограммные интерфейсы Omniverse Cloud обеспечили совместимость с другими инструментами, включая Patch Manager и NVIDIA Air. С помощью Patch Manager специалисты разработали физическую схему кластера и сетевой инфраструктуры, включая необходимые кабели с расчётом их длины. Кроме того, были рассчитаны воздушные потоки и параметры СЖО от таких партнёров, как Vertiv и Schneider Electric.NVIDIA показала, что цифровые двойники позволяют проектировать, тестировать и оптимизировать ЦОД полностью в виртуальной среде. Визуализируя производительность дата-центра, команды могут изучать различные варианты компоновки и оценивать всевозможные сценарии. Таким образом, можно добиться оптимальной структуры ЦОД ещё до создания физического объекта.DimonVideo
Компания NVIDIA на конференции GTC 2024 приоткрыла завесу тайны над новым вычислительным кластером, предназначенным для решения ресурсоёмких [...]
читать полностью