Новое исследование показывает, что люди возлагают больше вины на искусственный интеллект (ИИ), если он обладает человекоподобными чертами. Исследование, проведенное под руководством Минджу Чжу из Женского университета Сукмынг в Сеуле, было опубликовано в журнале PLOS ONE.
Участникам показывали реальные примеры «неудач» ИИ, например, расистские пометки на фотографиях. Когда ИИ описывали с помощью человекоподобных признаков — например, имени, возраста или хобби, — люди винили его больше. В то же время при коллективном распределении вины они возлагали меньше вины на компанию, стоящую за ним.
Интересно, что когда их попросили оценить вину всех участников отдельно, вина компании не уменьшилась. Джу предупреждает, что эта тенденция может привести к тому, что ИИ будет использоваться в качестве «козла отпущения» за неудачи, снижая ответственность «заинтересованных лиц», таких как программисты или компании.
Источник новости: www.ferra.ru