Специалисты по этике ИИ высказывают опасения по поводу развития генеративного ИИ и его потенциальной возможности «коммерциализации человеческих мотивов». Учёные при Кембриджском университете предупреждают, что инструменты ИИ, такие как чат-боты и виртуальные помощники, все чаще способны собирать персональные данные, такие как психологические и поведенческие модели, и даже влиять на них.
В недавней статье, опубликованной в Harvard Data Science Review, исследователи подчеркивают, что даже случайные разговоры с ИИ могут дать ему представление о намерениях человека. ИИ может делать выводы, прогнозировать и влиять на решения, тонко манипулируя мотивами. Такой уровень взаимодействия выходит за рамки простых чатов и открывает для ИИ возможность предсказывать и формировать будущее поведение человека, предупреждают эксперты.
Якуб Чаудхари подчеркнул, что уже сейчас разрабатываются ИИ-инструменты для сбора, записи и потенциального манипулирования планами и целями человека.
Источник новости: www.ferra.ru