категории | RSS

Adobe запретила сотрудникам делиться корпоративными и личными данными при работе с чат-ботами на базе ИИ

Adobe запретила своим сотрудникам на рабочем месте делиться корпоративными и личными данными при работе с любыми чат-ботами на базе ИИ.

Сотрудникам Adobe нельзя использовать личную электронную почту и рабочие банковские карты при покупке подписок на ИИ-сервисы вроде ChatGPT. Также всем работникам компании запрещено давать чат-ботам согласие на использование своих данных в целях машинного обучения. Сотрудникам предписано не вводить персональные данные или конфиденциальную информацию компании при общении с чат-ботами.

Новые требования прописаны во внутренней инструкции Adobe по использованию инструментов на базе генеративного искусственного интеллекта на рабочем месте. Компания призвала сотрудников ответственно использовать подобные инструменты. «Как сотрудники вы обязаны обеспечить безопасность данных Adobe и наших клиентов и не использовать генеративный ИИ любым образом, который вредит или ставит под угрозу деятельность Adobe, её клиентов или сотрудников», — пояснила СМИ IT-директор Adobe Синди Стоддард.

В конце июня Палата представителей США установила новые правила в отношении того, как офисы американского Конгресса могут использовать ChatGPT. Там подчеркнули, что любые чат-боты, не относящиеся к решению OpenAI, ещё не авторизованы. Законодатели и сотрудники Конгресса теперь ограничены использованием ChatGPT Plus, платной версией чат-бота, из-за его расширенных функций конфиденциальности.

В середине июня Google разослала своим сотрудникам предупреждение о необходимости использовать чат-боты с осторожностью, в том числе собственную разработку Bard. В компании настоятельно попросили сотрудников не делиться конфиденциальными данными с чат-ботами Bard и ChatGPT. В Google пояснили, что возможность ИИ обучаться на запросах и ответах пользователей может привести к утечке определённых данных компании, включая конфиденциальную информацию.

Эксперты пояснили СМИ, что осторожность Google отражает текущую ситуацию на IT-рынке, когда большинство IT-компаний вводят новые стандарты безопасности и стараются предупредить персонал об ответственности при использовании общедоступных чат-ботов.

В мае Apple запретила своим сотрудникам использовать в рабочих процессах ChatGPT, а также другие чат-боты и генеративные платформы искусственного интеллекта из-за необходимости соблюдения безопасности. Во внутренней служебной записке Apple предупредила всех сотрудников, что сторонние платформы с ИИ собирают конфиденциальные данные от сотрудников и получают доступ к внутренним документам компании, что неприемлемо. Apple пояснила, что нет гарантии, что критичная информация, переданная инженерами и менеджерами через чат-ботов, включая исходные коды или электронные письма, не попадёт к кому-то другому.

В апреле Samsung ограничила корпоративный доступ к чат-боту ChatGPT из-за соображений безопасности. Компания выяснила, что сотрудники неправомерно делились с ИИ закрытой информацией. В мае Samsung полностью запретила сотрудникам использовать ChatGPT, Google Bard и чат-бот Bing на рабочих устройствах.

Ранее Amazon попросила своих сотрудников не делиться конфиденциальной информацией с ChatGPT из-за появления в ответах чат-бота данных, очень похожих на внутренние материалы компании.

В конце февраля финансовые организации Bank of America, Citigroup, Deutsche Bank, Goldman Sachs Group, Wells Fargo и JPMorgan Chase запретили своим сотрудникам использовать чат-бота ChatGPT в рабочих целях даже в самых простых задачах. Компании выяснили, что инструмент искусственного интеллекта ChatGPT и подобные системы выдают часто неактуальную или ошибочную информацию, использование которой может привести к значительным просчётам на финансовом рынке и убыткам.



Источник новости: habr.com

DimonVideo
2023-07-07T08:50:02Z

Здесь находятся
всего 0. За сутки здесь было 0 человек
Яндекс.Метрика