Во время вчерашнего доклада Nvidia в рамках GTC, генеральный директор компании Дженсен Хуанг объявил о предстоящем выпуске Nvidia AI Foundations — набора фреймворков большой языковой модели (LLM), призванных оказать значительное влияние на различные отрасли.
Хуанг настолько уверен в потенциале AI Foundations, что сравнивает его с "TSMC для кастомных больших языковых моделей". Это уникальное сравнение идет рука об руку с его верой в то, что у ИИ уже был свой "момент iPhone" и дальше развитие пойдет только в гору.
Пакет AI Foundations включает в себя Picasso и BioNeMo — они предназначены для средств массовой информации и медицины соответственно. Кроме того, он включает NeMo, платформу для компаний, которые хотят включить большие языковые модели в свои рабочие процессы.
NeMo направлена на создание "кастомного языка и генерирующих моделей формата текст-в-текст" что позволит формировать то, что компания называет "интеллектуальными приложениями". С помощью метода под названием P-Tuning компании могут обучать свои языковые модели для создания контента для конкретных брендов, создания персонализированных электронных писем и даже резюмирования финансовых документов.
Языковые модели NeMo поделены на несколько версий: с 8 миллиардами, 43 миллиардами и 530 миллиардами параметров. Это значит, что компании смогут подбирать подходящий для своих целей уровень комплексности, так как далеко не все задачи требуют модели с сотнями миллиардов параметров. Для сравнения, исходный GPT-3 Chat GPT полагается на 175 миллиардов параметров, в то время как GPT-4, как предполагается, имеет около 1 триллиона параметров.
Хотя NeMo не может быть прямым конкурентом ChatGPT, ясно, что в качестве основы для разработки больших языковых моделей он окажет значительное влияние на множество отраслей.
Источник новости: shazoo.ru