категории | RSS

Microsoft временно заблокировала доступ сотрудникам к ChatGPT на корпоративных устройствах из-за проблем с безопасностью

10 ноября 2023 года профильные СМИ сообщили, что Microsoft временно заблокировала доступ всем сотрудникам к ChatGPT на корпоративных устройствах из-за проблем с безопасностью данных. Спустя некоторое время блокировка была снята.

По информации представителей компании, специалисты по ИБ из IT-отдела проводили тесты по блокировке сторонних ИИ-сервисов, «чтобы гарантировать, что высокочувствительные корпоративные данные остаются в безопасности», но вместо нескольких узлов в корпоративной сети они случайно начали фильтровать доступ к ChatGPT и Canva у всех сотрудников.

При попытке зайти на сайты сторонних ИИ-сервисов с корпоративных устройств сотрудники получали предупреждение. что доступ заблокирован администраторами.

Источник внутри компании сообщил СМИ, что фильтрация доступа была случайно применена на всех сотрудников во время тестирования и не предполагала постоянного изменения кооперативной политики по ИБ. Также Microsoft порекомендовала сотрудникам использовать собственного чат-бота компании Bing Chat, основанного на модели GPT-4. В компании напомнили, что сервисы Bing Chat Enterprise и ChatGPT Enterprise обеспечивают более высокий уровень конфиденциальности и защиты.

В октябре Космическое командование ВС США (United States Space Command — SPACECOM) запретило всем сотрудникам ведомства использовать в служебной деятельности любые нейросети, включая большие языковые модели типа ChatGPT, Bard и чат-бота Bing. Это было сделано из-за опасений утечки секретной информации.

В июле 2023 года Adobe закрыла своим сотрудникам на рабочем месте доступ к любым чат-ботам на базе ИИ ради безопасности.

Google также разослала своим сотрудникам предупреждение о необходимости использовать чат-боты с осторожностью, в том числе собственную разработку Bard. В компании настоятельно попросили сотрудников не делиться конфиденциальными данными с чат-ботами Bard и ChatGPT. В Google пояснили, что возможность ИИ обучаться на запросах и ответах пользователей может привести к утечке определённых данных компании, включая конфиденциальную информацию.

В мае Apple запретила своим сотрудникам использовать в рабочих процессах ChatGPT, а также другие чат-боты и генеративные платформы искусственного интеллекта из-за необходимости соблюдения безопасности.

Samsung сначала ограничила, а потом полностью запретила сотрудникам использовать ChatGPT, Google Bard и чат-бот Bing на рабочих устройствах.



Источник новости: habr.com

DimonVideo
2023-11-10T14:50:04Z

Здесь находятся
всего 0. За сутки здесь было 0 человек
Яндекс.Метрика