OpenAI вскоре может потребовать от организаций пройти процесс идентификации, чтобы они могли получить доступ к некоторым будущим моделям искусственного интеллекта.
Процесс проверки Verified Organization позиционируется как «новый способ для разработчиков получить доступ к самым передовым моделям и возможностям на платформе OpenAI». Для проверки требуется выданный правительством идентификатор из одной из стран, поддерживаемых API OpenAI. Процесс проверки нужно будет проходить каждые 90 дней.
«В OpenAI мы серьёзно относимся к своей ответственности за обеспечение широкой доступности и безопасного использования ИИ. К сожалению, некоторые разработчики намеренно используют API OpenAI, нарушая наши политики. Мы добавляем процесс проверки, чтобы смягчить последствия небезопасного использования ИИ, продолжая при этом делать передовые модели доступными для более широкого сообщества разработчиков», — пояснили в компании. Ранее OpenAI опубликовала отчёт о попытках злонамеренного использования ChatGPT, в том числе со стороны северокорейских хакеров. При помощи чат-бота OpenAI они пытались найти уязвимости ряда приложений, создавать вредоносные PowerShell-скрипты, разрабатывать инструменты для фишинга и социальной инженерии. В феврале компания заблокировала несколько аккаунтов, связанных с такими группировками.
Подобные меры также могут быть направлены против попыток кражи интеллектуальной собственности OpenAI. Ранее компания расследовала, не использовали ли разработчики китайской DeepSeek её датасеты через API для обучения моделей. Позднее генеральный директор OpenAI Сэм Альтман заявил, что не намерен подавать иск против создателей китайского чат‑бота.
Стоит отметить, что OpenAI заблокировала доступ к своим сервисам в Китае ещё прошлым летом.
Источник новости: habr.com