Microsoft экспериментирует с интеграцией искусственного интеллекта Copilot в игровые платформы, но обнаруженные детали вызывают беспокойство.
Согласно сообщениям энтузиастов, ИИ Gaming Copilot по умолчанию собирает и анализирует снимки экрана пользователей, выполняет на них оптическое распознавание символов (OCR) и отправляет извлеченный текст на серверы Microsoft для обучения своих больших языковых моделей (LLM).
Сбор данных "по умолчанию" и нарушение NDA
Участник форума Resetera под ником "RedbullCola" обнаружил, что приложение Gaming Copilot AI передавало данные на серверы Microsoft без его ведома во время тестирования игры, защищенной соглашением о неразглашении (NDA).
Эта ситуация создает серьезные проблемы безопасности:
Проверка и требования законодательства
Журналистские проверки подтвердили, что функция сбора данных со скриншотов действительно активирована по умолчанию. Единственная функция, которая отключена по умолчанию, — это обучение модели на голосовых чатах.
Согласно таким законам, как GDPR (General Data Protection Regulation), использование персональных данных (к которым может быть отнесен и текст, собранный таким образом) пользователей из ЕС для обучения ИИ требует прозрачного уведомления и явного информированного согласия. Автоматическое включение такой функции без надлежащего правового основания может привести к нарушению закона.
Как проверить и отключить функцию
Чтобы предотвратить отправку записей экрана в Microsoft для обучения LLM, пользователям необходимо вручную отключить эту опцию:
Особенно это важно для людей, работающих в игровой индустрии. В настоящее время ожидается официальное заявление Microsoft по поводу данного инцидента.
Павлик Александр
Источник новости: ru.gecid.com






