OpenAI - компания, стоящая за ChatGPT и множеством других коммерческих приложений AI, давно преследует цель разработки AGI, который «принесет пользу всему человечеству». Теперь организация существенно пересматривает свою точку зрения на то, как может возникнуть эта преобразующая технология. В недавнем сообщении в блоге OpenAI объясняет, что больше не ожидает, что искусственный интеллект общего назначения появится как драматический прорывной момент, когда системы AI внезапно достигнут сверхчеловеческих возможностей. Вместо этого компания теперь рассматривает разработку AI общего назначения как непрерывный процесс, отмеченный устойчивыми, постепенными улучшениями.
Изменение взгляда OpenAI на AGI также привело к более практичному подходу к безопасности. Вместо планирования теоретических будущих сценариев компания теперь хочет учиться на практическом опыте работы с сегодняшними системами AI. Конечно, это хорошо согласуется с их коммерческой стратегией.
Компания стремится создать меры безопасности, которые будут становиться сильнее вместе с развитием возможностей AI. Недавно они представили новую систему безопасности, которая может масштабироваться по мере того, как ИИ становится более мощным, потенциально даже до возможностей уровня AGI.
OpenAI во всем этом утверждает, что сохранение контроля со стороны людей имеет решающее значение. Они считают, что общество должно иметь право голоса в том, как ведут себя системы AI и какие ценности они отражают. Чтобы сделать это возможным, они создают инструменты, которые помогают людям четко общаться с системами AI и сохранять контроль, даже имея дело с AI, которые могут стать более способными, чем люди в определенных областях.
OpenAI теперь по-другому смотрит на некоторые из своих более ранних решений по безопасности. Компания указывает на свое решение 2019 года временно не выпускать GPT-2 в открытый доступ как на пример «чрезмерной осторожности», которая возникла из-за того, что AGI рассматривался как внезапный прорыв. Тогда компания выпустила только уменьшенную версию модели из-за опасений по поводу использования больших языковых моделей для генерации обманчивого, предвзятого или оскорбительного языка в больших масштабах.
Однако Майлз Брандейдж, бывший руководитель отдела политических исследований OpenAI, оспаривает новую интерпретацию OpenAI удержания выпуска GPT-2 тогда. Он утверждает, что постепенный выпуск GPT-2 уже отражал философию итеративной разработки, и многие эксперты по безопасности оценили этот осторожный подход, учитывая имевшуюся на тот момент информацию.
Недавние сообщения The Information показали, что контракт OpenAI с Microsoft включает в себя весьма практическое определение AGI: система, которая превосходит людей в большинстве экономически значимых задач и генерирует не менее 100 миллиардов долларов прибыли.
Это согласуется как с пересмотренным взглядом OpenAI на AGI как на постепенный прогресс, так и с критикой генерального директора Microsoft Сатьи Наделлы «бессмысленного взлома бенчмарков» в погоне за самопровозглашенными рубежами AGI, а также с призывом самого Альтмана к своим последователям X «пожалуйста, успокойтесь и снизьте свои ожидания в 100 раз» в контексте предполагаемого скорого выпуска AGI.
Источник
Источник новости: habr.com