Google разослал своим сотрудникам предупреждение о необходимости использовать чат-боты с осторожностью, в том числе собственную разработку Bard.
В компании настоятельно попросили сотрудников не делиться конфиденциальными данными с чат-ботами Bard и ChatGPT. В Google пояснили, что возможность ИИ обучаться на запросах и ответах пользователей может привести к утечке определённых данных компании, включая конфиденциальную информацию.
Это предупреждение также касается сотрудников материнской компании Alphabet и всех её других компаний. Уведомление включено в политику защиты информации корпорации.
Вдобавок Google предупредил своих разработчиков, чтобы те избегали прямого использования компьютерного кода, сгенерированного чат-ботами Bard и ChatGPT из-за наличия там возможных закладок или скрытых отсылок к способам передачи определённых данных компании.
В компании выяснили, что другие пользователи могут читать чаты с чат-ботами в определённых условиях, а также у них получается выпросить ИИ воспроизводить данные, которые он получил во время обучения по другим запросам, создавая риск утечки корпоративной информации.
На просьбу СМИ прокомментировать эту ситуацию в Google пояснили, что чат-бот Bard может делать некорректные предложения по коду, но ИИ помогает программистам. В Google также заявили, что компания стремится быть прозрачной в отношении ограничений для своей технологии.
Эксперты пояснили СМИ, что осторожность Google отражает текущую ситуацию на IT-рынке, когда большинство IT-компаний вводят новые стандарты безопасности и стараются предупредить персонал об ответственности при использовании общедоступных чат-ботов.
В мае Apple запретила своим сотрудникам использовать в рабочих процессах ChatGPT, а также другие чат-боты и генеративные платформы искусственного интеллекта из-за необходимости соблюдения безопасности. Во внутренней служебной записке Apple предупредила всех сотрудников, что сторонние платформы с ИИ собирают конфиденциальные данные от сотрудников и получают доступ к внутренним документам компании, что неприемлемо. Apple пояснила, что нет гарантии, что критичная информация, переданная инженерами и менеджерами через чат-ботов, включая исходные коды или электронные письма, не попадёт к кому-то другому.
В апреле Samsung ограничила корпоративный доступ к чат-боту ChatGPT из-за соображений безопасности. Компания выяснила, что сотрудники неправомерно делились с ИИ закрытой информацией. В мае Samsung полностью запретила сотрудникам использовать ChatGPT, Google Bard и чат-бот Bing на рабочих устройствах.
Ранее Amazon попросила своих сотрудников не делиться конфиденциальной информацией с ChatGPT из-за появления в ответах чат-бота данных, очень похожих на внутренние материалы компании.
В конце февраля финансовые организации Bank of America, Citigroup, Deutsche Bank, Goldman Sachs Group, Wells Fargo и JPMorgan Chase запретили своим сотрудникам использовать чат-бота ChatGPT в рабочих целях даже в самых простых задачах. Компании выяснили, что инструмент искусственного интеллекта ChatGPT и подобные системы выдают часто неактуальную или ошибочную информацию, использование которой может привести к значительным просчётам на финансовом рынке и убыткам.
Источник новости: habr.com