категории | RSS

Google разослал своим сотрудникам предупреждение использовать чат-боты с осторожностью, в том числе собственный Bard

Google разослал своим сотрудникам предупреждение о необходимости использовать чат-боты с осторожностью, в том числе собственную разработку Bard.

В компании настоятельно попросили сотрудников не делиться конфиденциальными данными с чат-ботами Bard и ChatGPT. В Google пояснили, что возможность ИИ обучаться на запросах и ответах пользователей может привести к утечке определённых данных компании, включая конфиденциальную информацию.

Это предупреждение также касается сотрудников материнской компании Alphabet и всех её других компаний. Уведомление включено в политику защиты информации корпорации.

Вдобавок Google предупредил своих разработчиков, чтобы те избегали прямого использования компьютерного кода, сгенерированного чат-ботами Bard и ChatGPT из-за наличия там возможных закладок или скрытых отсылок к способам передачи определённых данных компании.

В компании выяснили, что другие пользователи могут читать чаты с чат-ботами в определённых условиях, а также у них получается выпросить ИИ воспроизводить данные, которые он получил во время обучения по другим запросам, создавая риск утечки корпоративной информации.

На просьбу СМИ прокомментировать эту ситуацию, в Google пояснили, что чат-бот Bard может делать некорректные предложения по коду, но ИИ помогает программистам. В Google также заявили, что компания стремится быть прозрачной в отношении ограничений для своей технологии.

Эксперты пояснили СМИ, что осторожность Google отражает текущую ситуацию на IT-рынке, когда большинство IT-компаний вводят новые стандарты безопасности и стараются предупредить персонал об ответственности при использовании общедоступных чат-ботов.

В мае Apple запретила своим сотрудникам использовать в рабочих процессах ChatGPT, а также другие чат-боты и генеративные платформы искусственного интеллекта из-за необходимости соблюдения безопасности. Во внутренней служебной записке Apple предупредила всех сотрудников, что сторонние платформы с ИИ собирают конфиденциальные данные от сотрудников и получают доступ к внутренним документам компании, что неприемлемо. Apple пояснила, что нет гарантии, что критичная информация, переданная инженерами и менеджерами через чат-ботов, включая исходные коды или электронные письма, не попадёт к кому-то другому.

В апреле Samsung ограничила корпоративный доступ к чат-боту ChatGPT из-за соображений безопасности. Компания выяснила, что сотрудники неправомерно делились с ИИ закрытой информацией. В мае Samsung полностью запретила сотрудникам использовать ChatGPT, Google Bard и чат-бот Bing на рабочих устройствах.

Ранее Amazon попросила своих сотрудников не делиться конфиденциальной информацией с ChatGPT из-за появления в ответах чат-бота данных, очень похожих на внутренние материалы компании.

В конце февраля финансовые организации Bank of America, Citigroup, Deutsche Bank, Goldman Sachs Group, Wells Fargo и JPMorgan Chase запретили своим сотрудникам использовать чат-бота ChatGPT в рабочих целях даже в самых простых задачах. Компании выяснили, что инструмент искусственного интеллекта ChatGPT и подобные системы выдают часто неактуальную или ошибочную информацию, использование которой может привести к значительным просчётам на финансовом рынке и убыткам.



Источник новости: habr.com

DimonVideo
2023-06-15T22:50:04Z

Здесь находятся
всего 0. За сутки здесь было 0 человек
Яндекс.Метрика