Генеративный искусственный интеллект может показаться магией, однако его создание и совершенствование — результат работы множества специалистов компаний, таких как Google и OpenAI. Эти инженеры-разработчики и аналитики отвечают за оценку точности ответов чат-ботов, чтобы улучшать их работу.
Однако, согласно информации от TechCrunch, новое внутреннее руководство для подрядчиков Google, работающих над проектом Gemini, вызвало обеспокоенность. Существует риск, что Gemini может предоставить неточные сведения по сложным темам, таким как здравоохранение. Подрядчиков из компании GlobalLogic, принадлежащей Hitachi, регулярно просят оценивать правдивость ответов, создаваемых АИ.
Ранее подрядчики могли не оценивать запросы, выходящие за пределы их компетенции, например, в кардиологии. Но недавно GlobalLogic сообщила о новых правилах Google: теперь подрядчикам запрещено пропускать такие запросы, даже если они не обладают специальными знаниями. Им предлагается оценивать те части, которые они понимают, и указывать, что некомпетентны в конкретной области.
Это изменение вызывает опасения относительно точности Gemini, так как подрядчикам может быть поручено оценивать сложные ответы АИ на темы, в которых они не разбираются. Один из подрядчиков выразил недоумение, считая, что пропуск был нацелен на повышение точности, передавая задачи более квалифицированным людям.
Теперь подрядчики могут пропускать запросы только в двух случаях: при полном отсутствии информации или наличии вредоносного контента, требующего специального согласия. На момент публикации Google не предоставила комментарии TechCrunch.
Источник
Источник новости: habr.com