Учёные из Университета Карнеги-Меллона и Технологического института Стивенса предложили новый подход к оценке справедливости решений, принимаемых искусственным интеллектом (ИИ), который получил награду. В своей работе они используют метод оптимизации социального благосостояния, который направлен на балансировку выгод и ущерба для различных групп людей.
Традиционные методы оценки справедливости ИИ часто сосредоточены на равных процентных ставках одобрений для различных групп. Однако новый подход учитывает, что отказ в ипотеке, например, может оказать более сильное негативное влияние на представителей социально незащищённых групп.
Профессор Джон Хукер из Университета Карнеги-Меллона, один из авторов исследования, представил работу на Международной конференции по интеграции программных ограничений, ИИ и исследования операций (CPAIOR) в Швеции. Исследование получило награду за лучшую работу.
Метод «альфа справедливости» позволяет гибко регулировать баланс между справедливостью и эффективностью в зависимости от конкретной ситуации. Соавторы исследования, Дерек Лебен и Вайолет Чен, подчеркивают, что их находки помогут разработчикам ИИ и политикам создавать более справедливые и эффективные модели, способствующие социальной справедливости.
Источник новости: www.ferra.ru