Фото: Stock-Asso / Shutterstock
OpenAI недавно представила новый голосовой режим для ChatGPT, позволяющий пользователям общаться с ИИ не только с помощью текста, но и голоса. В теории, это должно было сделать взаимодействие более естественным, но на практике все пошло не совсем по плану. Во время тестирования модель внезапно начала говорить голосом пользователей. Без предупреждения и, что важно, без их согласия.
Этот курьезный инцидент случился из-за сбоя в системе: когда шум или другие внешние факторы вмешались в процесс обработки аудио, ИИ вместо заданного образца стал использовать голос пользователя. Это вызвало много вопросов и волну обсуждений в команде разработчиков. Кто бы мог подумать, что ChatGPT решит буквально «взять слово» у своего собеседника?
Важно отметить, что OpenAI быстро взяла ситуацию под контроль. По заявлению компании, такие инциденты редки, и были разработаны новые механизмы для предотвращения их в будущем. Теперь система должна ловить любые подобные отклонения сразу. Стоит отметить оперативность OpenAI, но инцидент ставит важный вопрос: насколько мы готовы к тому, что технологии начнут имитировать нас самих? IT-World уже писал о горячих дебаты о том, заменит ли ИИ человека.
Развитие голосовых технологий всегда было рискованным делом. Сервисы вроде ElevenLabs уже предлагают клонирование голоса на коммерческой основе. Теперь же, с инцидентом ChatGPT, мы видим, что даже самые продвинутые модели могут совершать ошибки. Что если такая ошибка случится в реальном разговоре? Пользователи уже начали высказывать опасения по поводу того, что их голосовые данные могут быть использованы без их ведома, например мошенниками.
Но пока технологии все больше находят применение в различных областях жизни. Так японский стартап Samansa создал приложение Loverse, позволяющее одиноким людям общаться с искусственным интеллектом.
На текущий момент OpenAI утверждает, что ситуация под контролем. Тем не менее, этот случай служит напоминанием о том, как важно обеспечивать безопасность и конфиденциальность в эпоху цифровых технологий. Подобные инциденты могут повторяться по мере того, как ИИ станет все более интегрированным в нашу жизнь.
Источник новости: www.it-world.ru