категории | RSS

Как сократить расходы на инференс LLM? Разберемся на вебинаре

Привет, Хабр! Присоединяйтесь к вебинару 22 августа в 16:00 мск. Особенно ждем ML- и MLOps-инженеров, Data Scientists и NLP-инженеров, CTO и менеджеров ML-проектов.

Поделимся опытом команды «Актион», которая сократила расходы на GPU на 60% и увеличила пропускную способность в 36 раз благодаря решению Compressa на инфраструктуре Selectel. 

Участникам дадим бесплатный двухнедельный тест LLM-платформы Compressa на инфраструктуре Selectel с GPU.

Зарегистрироваться →Программа

Проблемы внешних API и open-source моделей «из коробки»

Способы оптимизации LLM-моделей на своем сервере

Сравнение производительности и стоимости токенов после оптимизации LLM

Инфраструктура Selectel для инференса LLM моделей

Кейс «Актион» и Compressa. Оценка окупаемости решения и использование LLM в продакшене

Ответы на вопросы Спикеры

Владислав Кирпинский, директор по облачной интеграции, Selectel

Алексей Гончаров, CEO и founder, MIL Team

Валентин Шишков, ML Product Manager, MIL Team

Владимир Хаванских, Chief Data Scientist, Актион

Принять участие →



Источник новости: habr.com

DimonVideo
2024-08-15T12:50:05Z

Здесь находятся
всего 0. За сутки здесь было 0 человек
Яндекс.Метрика