категории | RSS

Генеральный директор Anthropic Дарио Амодей предупреждает о «гонке» за пониманием AI по мере его усиления

Сразу после завершения AI Action Summit в Париже соучредитель и генеральный директор Anthropic Дарио Амодей назвал это мероприятие «упущенной возможностью». Он добавил, что «необходимо уделять больше внимания и действовать быстрее по нескольким направлениям, учитывая темпы развития технологий», в заявлении, опубликованном во вторник.

Компания, занимающаяся искусственным интеллектом, провела в Париже мероприятие для разработчиков в партнёрстве с французским стартапом Dust, и TechCrunch получил возможность взять интервью у Амодея на сцене. На мероприятии он объяснил свою точку зрения и выступил в защиту третьего пути, который не является ни чистым оптимизмом, ни чистой критикой в отношении инноваций в области искусственного интеллекта и управления ими.«Раньше я был нейробиологом и зарабатывал на жизнь тем, что изучал работу настоящего мозга. А теперь мы изучаем работу искусственного мозга. Так что в ближайшие несколько месяцев мы добьёмся впечатляющих успехов в области интерпретируемости — мы действительно начинаем понимать, как работают модели», — сказал Амодей в интервью TechCrunch.

«Но это определённо гонка за создание более мощных моделей, которая невероятно быстра для нас и невероятно быстра для других — вы ведь не можете замедлиться, верно? … Наше понимание должно соответствовать нашей способности создавать вещи. Я думаю, что это единственный способ», — добавил он.

После первого AI summit in Bletchley в Великобритании тон дискуссий об управлении AI значительно изменился. Отчасти это связано с текущей геополитической ситуацией.

«Сегодня утром я здесь не для того, чтобы говорить о безопасности AI, как называлась конференция пару лет назад, — сказал вице-президент США Джей-Ди Вэнс на AI Action Summit во вторник. — Я здесь для того, чтобы говорить о возможностях AI».

Интересно, что Амодей пытается избежать этого противоречия между безопасностью и возможностями. На самом деле, он считает, что повышенное внимание к безопасности является возможностью.

«На первом саммите в Великобритании было много дискуссий о тестировании и оценке различных рисков. И я не думаю, что эти вещи сильно замедлили развитие технологий, — сказал Амодей на мероприятии Anthropic. — Если уж на то пошло, такого рода измерения помогли нам лучше понять наши модели, что в конечном итоге помогает нам создавать более качественные модели».

Амодей минимизировал технические достижения китайской компании DeepSeek, говоря, что реакция общественности на их работу была неестественной. Он упомянул, что видел базовую модель DeepSeek R1 в декабре и не был впечатлён, так как она соответствовала обычной тенденции снижения стоимости, наблюдаемой в других моделях.

Отметив, что модель была создана не в одной из ведущих лабораторий США, таких как Google, OpenAI и Anthropic, он заявил, что это имеет геополитическое значение, поскольку он не хотел бы, чтобы авторитарные государства доминировали в этой области.

Что касается утверждений о том, что обучение DeepSeek V3 было в 100 раз дешевле, чем в США, он назвал эти данные неточными и не основанными на фактах.

Хотя на мероприятии в среду Амодей не анонсировал ни одной новой модели, он рассказал о некоторых предстоящих релизах компании — и да, они включают в себя некоторые интеллектуальные функции.

«Как правило, мы сосредоточены на том, чтобы создать собственные модели рассуждений, которые будут более дифференцированными. Мы беспокоимся о том, чтобы у нас было достаточно ресурсов, чтобы модели становились умнее, и о вопросах безопасности», — сказал Амодей.

Одна из проблем, которую Anthropic пытается решить, — это проблема выбора модели. Например, если у вас есть учётная запись ChatGPT Plus, вам может быть сложно понять, какую модель выбрать во всплывающем окне выбора модели для следующего сообщения.

То же самое касается разработчиков, использующих API больших языковых моделей (LLM) для своих приложений. Они хотят найти баланс между точностью, скоростью ответов и затратами.

«Нас немного озадачила мысль о том, что существуют обычные модели и модели рассуждений и что они чем-то отличаются друг от друга, — сказал Амодей. — Если я с вами разговариваю, у вас нет двух мозгов, и один из них отвечает сразу, а другой ждёт дольше».

По его словам, в зависимости от входных данных должен быть более плавный переход между предварительно обученными моделями, такими как Claude 3.5 Sonnet или GPT-4o, и моделями, обученными с помощью обучения с подкреплением и способными генерировать цепочки мыслей (CoT), такими как o1 от OpenAI или R1 от DeepSeek.

«Мы считаем, что они должны существовать как единое целое. И, возможно, мы ещё не достигли этого, но Anthropic действительно хочет двигаться в этом направлении, — сказал Амодей. — Мы должны плавно перейти от этого к предварительно обученным моделям, а не просто сказать: «Вот вещь А, а вот вещь Б», — добавил он.

Поскольку крупные компании, занимающиеся искусственным интеллектом, продолжают выпускать более совершенные модели, Амодей считает, что это откроет большие возможности для того, чтобы разрушить крупный бизнес во всём мире в каждой отрасли.«Мы сотрудничаем с некоторыми фармацевтическими компаниями, чтобы использовать Claude для написания отчётов о клинических исследованиях, и они смогли сократить время, необходимое для написания отчёта о клиническом исследовании, с 12 недель до трёх дней», — сказал Амодей.

«Помимо биомедицины, есть юриспруденция, финансы, страхование, производительность, программное обеспечение, энергетика. Я думаю, что в сфере применения AI произойдёт, по сути, возрождение прорывных инноваций. И мы хотим помочь этому, мы хотим поддержать всё это», — заключил он.

Источник



Источник новости: habr.com

DimonVideo
2025-02-13T14:50:03Z

Здесь находятся
всего 0. За сутки здесь было 0 человек
Яндекс.Метрика