10 ноября 2023 года профильные СМИ сообщили, что Microsoft временно заблокировала доступ всем сотрудникам к ChatGPT на корпоративных устройствах из-за проблем с безопасностью данных. Спустя некоторое время блокировка была снята.
По информации представителей компании, специалисты по ИБ из IT-отдела проводили тесты по блокировке сторонних ИИ-сервисов, «чтобы гарантировать, что высокочувствительные корпоративные данные остаются в безопасности», но вместо нескольких узлов в корпоративной сети они случайно начали фильтровать доступ к ChatGPT и Canva у всех сотрудников.
При попытке зайти на сайты сторонних ИИ-сервисов с корпоративных устройств сотрудники получали предупреждение. что доступ заблокирован администраторами.
Источник внутри компании сообщил СМИ, что фильтрация доступа была случайно применена на всех сотрудников во время тестирования и не предполагала постоянного изменения кооперативной политики по ИБ. Также Microsoft порекомендовала сотрудникам использовать собственного чат-бота компании Bing Chat, основанного на модели GPT-4. В компании напомнили, что сервисы Bing Chat Enterprise и ChatGPT Enterprise обеспечивают более высокий уровень конфиденциальности и защиты.
В октябре Космическое командование ВС США (United States Space Command — SPACECOM) запретило всем сотрудникам ведомства использовать в служебной деятельности любые нейросети, включая большие языковые модели типа ChatGPT, Bard и чат-бота Bing. Это было сделано из-за опасений утечки секретной информации.
В июле 2023 года Adobe закрыла своим сотрудникам на рабочем месте доступ к любым чат-ботам на базе ИИ ради безопасности.
Google также разослала своим сотрудникам предупреждение о необходимости использовать чат-боты с осторожностью, в том числе собственную разработку Bard. В компании настоятельно попросили сотрудников не делиться конфиденциальными данными с чат-ботами Bard и ChatGPT. В Google пояснили, что возможность ИИ обучаться на запросах и ответах пользователей может привести к утечке определённых данных компании, включая конфиденциальную информацию.
В мае Apple запретила своим сотрудникам использовать в рабочих процессах ChatGPT, а также другие чат-боты и генеративные платформы искусственного интеллекта из-за необходимости соблюдения безопасности.
Samsung сначала ограничила, а потом полностью запретила сотрудникам использовать ChatGPT, Google Bard и чат-бот Bing на рабочих устройствах.
Источник новости: habr.com