Страны-участницы G7 планируют согласовать кодекс для компаний-разработчиков систем искусственного интеллекта, пишет агентство Reuters. Принимая документ, члены «Большой семёрки» стремятся снизить риски и потенциальное неправильное использование технологии.
Кодекс станет ориентиром того, как крупные страны будут управлять ИИ, несмотря на проблемы конфиденциальности и риски безопасности.
В состав G7 входят США, Канада, Великобритания, Франция, Германия, Италия и Япония. Совместно с Евросоюзом лидеры «Большой семёрки» согласовали разработку кодекса в мае на министерском форуме Hiroshima AI process.
Документ из 11 пунктов «направлен на продвижение безопасного, надёжного и заслуживающего доверия ИИ во всём мире». Кодекс должен обеспечить добровольное управление действиями организаций, разрабатывающих самые передовые системы ИИ, включая передовые фундаментальные модели и генеративные системы ИИ.
Свод правил предназначен для того, чтобы помочь воспользоваться преимуществами и устранить риски и проблемы, связанные с этими технологиями.
Кодекс призывает компании принимать соответствующие меры для выявления, оценки и снижения рисков на протяжении всего жизненного цикла ИИ, а также устранять инциденты и случаи неправильного использования после выхода ИИ-продуктов на рынок.
Компании обяжут публиковать отчёты о возможностях, ограничениях, использовании и неправильном применении систем искусственного интеллекта, а также инвестировать в надёжные средства контроля безопасности.
ЕС стал одним из первых, кто приступил к регулированию ИИ, выпустив Закон об искусственном интеллекте. В то же время Япония, США и страны Юго-Восточной Азии заняли позицию невмешательства, чтобы стимулировать экономический рост.
Ранее в этом месяце глава Еврокомиссии по цифровым технологиям Вера Йоурова заявила, что кодекс станет прочной основой для обеспечения безопасности и будет служить мостом для тех пор, пока не будет введено регулирование.
Источник новости: habr.com