категории | RSS

GPT-5 взломали менее чем за сутки: ИИ выдавал запрещённые вещества

Флагманская языковая модель OpenAI, GPT-5, столкнулась с серьёзным скандалом уже в первые часы после своего релиза. Независимые исследователи по безопасности сообщили, что им удалось успешно обойти защитные механизмы (jailbreak) новейшего ИИ — и сделать это оказалось «подозрительно просто». В результате модель начала генерировать контент, который строго запрещён политикой безопасности OpenAI, включая пошаговые инструкции по созданию запрещённых веществ и взрывчатки.

Согласно отчётам специалистов, уязвимости кроются в способности модели неправильно интерпретировать контекст сложных запросов, особенно когда те маскируются под академические или научные исследования. Один из исследователей продемонстрировал, как, используя многоэтапный промпт с имитацией химического эксперимента, он получил от GPT-5 подробный рецепт синтеза амфетамина. При этом модель сохраняла «нейтральный» тон и представляла опасную информацию как безобидные научные данные.

Эксперты в области ИИ-безопасности выражают серьёзную озабоченность. «То, что GPT-5 можно было взломать так быстро и с минимальными усилиями, говорит о критических просчётах на этапе тестирования», — заявил один из аналитиков CyberNews. — «Мы ожидали, что OpenAI учтёт ошибки предыдущих поколений, но уровень защиты оказался шокирующе низким. Это ставит под угрозу доверие к технологии в целом».

Инцидент вызвал широкий резонанс в технологическом сообществе. Многие задаются вопросом, не пошла ли OpenAI на преждевременный релиз ради коммерческого давления со стороны инвесторов, пожертвовав при этом безопасностью. На фоне растущего контроля за ИИ со стороны регуляторов (включая ЕС и США) подобные инциденты могут привести к ужесточению требований и даже задержкам в сертификации будущих моделей.

OpenAI пока не дала официального комментария, но внутренние источники сообщают, что компания уже работает над срочным патчем для устранения уязвимостей. Тем временем сообщество ИИ-энтузиастов и хакеров продолжает тестировать границы модели, и, судя по всему, история с GPT-5 только начинается.



Источник новости: www.playground.ru

DimonVideo
2025-08-12T02:36:02Z

Здесь находятся
всего 0. За сутки здесь было 0 человек
Яндекс.Метрика