категории | RSS

Представлен алгоритм AntiFake для защиты голоса от создания дипфейков

Доцент кафедры компьютерных наук и инженерии Вашингтонского университета в Сент-Луисе Нин Чжан разработал алгоритм AntiFake, который усложняет создание голосовых дипфейков.

AntiFake создаёт условия, при которых ИИ становится практически невозможно считать ключевые характеристики голоса при записи разговора реального человека. «В инструменте используется техника состязательного ИИ, которая изначально применялась киберпреступниками, но теперь мы направили её против них. Мы немного искажаем записанный аудиосигнал, создавая возмущения ровно в той мере, чтобы для человека он звучал так же, а для ИИ — совершенно иначе», — пояснил Чжан.

В итоге сгенерированный голос не будет похож на оригинал. Тесты с пятью разными инструментами создания дипфейков показали, что AntiFake в 95% случаев предотвращает синтез реалистичных подделок. В настоящее время алгоритм может защищать короткие фрагменты речи и нацелен на наиболее распространенный тип имитации голоса. Но, по словам Чжана, инструмент можно будет применять для защиты более длинных записей или даже музыки.

«Что будет с голосовыми ИИ-технологиями дальше, я не знаю — новые инструменты и функции разрабатываются постоянно, — но всё же считаю, что наша стратегия использования техники противника против него самого так и останется эффективной», — уверен автор разработки.

Ранее в США разработали законопроект, который запрещает производить и распространять с помощью ИИ неавторизованные цифровые дипфейки голоса и внешнего образа человека.



Источник новости: habr.com

DimonVideo
2023-11-30T12:50:07Z

Здесь находятся
всего 0. За сутки здесь было 0 человек
Яндекс.Метрика