OpenAI представила сразу несколько решений для этичного использования её инструментов генеративного искусственного интеллекта. Так, Media Manager позволит создателям контента и владельцам авторских прав на него сообщать компании о нарушениях. Кроме того, они смогут согласиться или отказаться от использования своего контента для обучения ИИ.
Инструмент находится на ранней стадии разработки и не будет запущен до 2025 года. Он позволит выявлять защищённый копирайтом контент любого формата (аудио, видео, текст) в разных источниках и отражать предпочтения авторов относительно его использования.
Также OpenAI работает над инструментом, предназначенным для выявления сгенерированных DALL-E изображений. Ранняя версия уже успешно идентифицировала более 98% таких изображений, а уровень её ошибок не превышает 0,5%. В настоящее время инструмент проходит частное тестирование в ряде «исследовательских лабораторий и некоммерческих организаций, занимающихся журналистикой». Пока нет информации о том, когда он станет общедоступным.
Наконец, OpenAI присоединяется к Руководящему комитету Коалиции по происхождению и аутентичности контента (Coalition for Content Provenance and Authenticity). Эта группа создаёт стандарты сертификации цифрового контента. OpenAI вместе с Microsoft вложат $2 млн в Фонд социальной устойчивости для финансирования ряда организаций, занимающихся «пониманием ИИ».
В 2022 году Coalition for Content Provenance and Authenticity (C2PA), в которую входят Adobe, Microsoft, Arm, Intel TruePic и BBC, объявила о разработке стандарта подтверждения подлинности видео и фото. C2PA намеревается внедрить этот стандарт повсеместно.
В 2023 году Google Deepind запустила инструмент SynthID для нанесения водяных знаков и идентификации изображений, созданных искусственным интеллектом. Технология размещает цифровой водяной знак среди пикселей изображения, делая маркировку незаметной для человеческого зрения, но видимой для идентификации.
Источник новости: habr.com