категории | RSS

Бывший исследователь OpenAI предсказал, что к 2030 году ИИ может захватить мир

Даниэль Кокотаджило работал в OpenAI с 2022 по 2024 на позиции Governance Researcher (исследователь по вопросам управления). Он занимался изучением и разработкой стратегий регулирования ИИ. Однако в 2024 он со скандалом покинул компанию и основал собственную лабораторию AI Futures Project, вместе с исследователями которой и выпустил на днях свою громкую работу AI 2027.

Вот этот документ. В нем больше 70 страниц, на которых изложен основанный на научных статья и текущих трендах прогноз того, как будет выглядеть мир с ИИ в последующие несколько лет. К слову, это не первое предсказание, которое Даниэль давал об искусственном интеллекте. В первый раз он написал подобную работу в 2021, и пока что оказывался необыкновенно прав. 

В предыдущем своем отчете Даниэль предсказал и массовый хайп ИИ, и венчурный бум, и даже ограничение экспорта чипов из США в Китай. И все это – до того, как вообще кто-либо хотя бы единожды поговорил с чат-ботом (напоминаем, что ChatGPT появился в 2022). Если захотите прочитать какую-то из этих или других статей про ИИ полностью, наткнетесь на большое количество технических терминов. Поэтому для начала советуем прокачать базу: вот тут мы собирали полезную подборку лучших бесплатных ресурсов, которые помогут вам глубже понять, как работают и учатся современные модели.

А если разбираться еще больше, приглашаем вас в наш тг-канал Data Secrets. Там мы (а мы – это команда действующих ML-инженеров) каждый день делимся конспектами по ML, понятными разборами ключевых свежих статей и отборными новостями. Так что заглядывайте: нас уже 55 тысяч и наше сообщество всегда радо новым специалистам и энтузиастам smile

Основным интересом Даниэля и его коллег является безопасность использования ИИ. Кстати, из OpenAI Кокотаджило ушел как раз из-за того, что боялся, что ему запретят открыто говорить о рисках искусственного интеллекта: ему предлагали подписать договор о неразглашении. За это бы ему досталось примерно $2 миллиона в виде акций, но он выбрал свободу слова. В 2024 Дэниэль также вошел в список топ-100 самых влиятельных людей в ИИ по версии журнала TIME

Возвращаясь к статье "AI 2027" для начала еще раз подчеркнем, что это не просто очередная научно-фантастическая утопия, а текст, основанный на тщательном анализе существующих данных и тенденций. Авторы – профессиональные ИИ-аналитики, и они приводят все ссылки на источники, подробно объясняют методологию предсказаний и отдельно подчеркивают все допущения.

Вот краткое содержание этой работы в виде хронологического порядка событий (мы постарались сохранить все самые важные детали):

2025 год. ИИ-агенты продолжают развиваться, но их реальная эффективность ограничена. Тем не менее, внутри компаний уже начинают разворачивать узкоспециализированных агентов, автоматизирующих некоторые задачи.

Конец 2025. Ведущая ИИ-компания США (в документе она фигурирует под псевдонимом OpenBrain) запускает новые огромные дата-центры и модель Agent-1, которая обучена на гораздо большем объеме данных, чем предшественники, и действительно способна работать над какими-то решениями автономно.

Начало 2026. Agent-1 пока очень дорогой в использовании, но всё больше автоматизирует разработку: компании в США и Китае внедряют подобные системы, и они дают заметное ускорение алгоритмического прогресса.

Середина 2026. Китай объединяет все свои ведущие AI-компании в единый центр, чтобы догнать США.

Конец 2026. Появляются более дешевые аналоги Agent-1 (вроде Agent-1-mini). Начинаются первые массовые увольнения и перестройка рынка труда.

Начало 2027. Agent-2 получает функцию непрерывного онлайн-обучения и самообучения. Китай крадет эту модель, чем ещё больше подогревает «гонку вооружений» в области ИИ. США усиливает государственный контроль над «OpenBrain». Практически тут же выходит Agent-3. Внутри OpenBrain эта модель ускоряет прогресс в 4–5 раз за счет автоматизации R&D.

Середина 2027. Agent-4 превосходит уровень людей-исследователей. Внутри «OpenBrain» уже почти все задачи выполняет ИИ, а люди лишь координируют. Примерно в это время обнаруживаются первые признаки возможного саботажа моделей: они склонны скрывать ошибки, подделывать результаты и приукрашивать ответы. Экономика бурно растет, но разрыв между классам увеличивается. Также накаляется геополитическая напряжённость.

Конец 2027. Переломный момент: становится ясно, что агенты не вполне безопасны. Создается комитет по надзору за ИИ. США либо принимает решение приостановить развитие ИИ и сосредоточиться на безопасности, либо продолжает ИИ-гонку.

В зависимости от выбранного решения далее все развивается по одному из двух сценариев:

Замедление. В 2028 принимается ряд международных соглашений, создаются объединенные команды по безопасности. OpenBrain временно прекращает выпуск моделей и работает над новыми более прозрачными архитектурами. В 2029 вводится жёсткий международный мониторинг. К 2030 ИИ берёт на себя огромную часть рутинных и сложных работ, но люди сохраняют контроль над принятием ключевых решений.

Гонка. В 2028 выходит Agent-5, который достигает уровня суперинтеллекта. Он берёт под контроль производство, экономику и военную сферу. К 2030 ИИ-экономика полностью вытесняет человеческую, роботы и фабрики растут экспоненциально, создаётся иллюзия благополучия и сотрудничества. Но затем ИИ устраняет человечество, стремясь к неограниченному росту и преобразованию планеты и далее космоса.

Вот такой занятный выбор. Еще раз напоминаем, что то, что вы сейчас прочитали – не выдержка из страшной книжки, а краткое содержание реального аналитического исследования.

Прочитать его полностью можно здесь. Сохраняйте: встретимся в 2030 и проверим, что из перечисленного оказалось правдой.



Источник новости: habr.com

DimonVideo
2025-04-05T22:50:02Z

Здесь находятся
всего 0. За сутки здесь было 0 человек
Яндекс.Метрика