категории | RSS

Даже «мизерный» объем дезинформации при обучении смог испортить ответы ИИ

Исследование Нью-Йоркского университета показывает, что внесение даже мизерного количества медицинской дезинформации в большие языковые модели (LLM) может существенно повлиять на их точность. Заменив всего 0,001% обучающих данных ложной информацией, исследователи обнаружили заметное снижение достоверности медицинских ответов.

LLM, часто обучающиеся на огромном количестве данных из Интернета, подвержены «отравлению» неверной информацией, что может произойти без прямого доступа к модели, просто путем размещения в Интернете недостоверного контента, который модель может включить в процесс обучения. Даже крошечная доля дезинформации может привести к неправильным или вредным результатам.

Так, исследование было сосредоточено на базе данных The Pile, используемой для обучения LLM, и показало, что поврежденные данные влияют не только на конкретные темы, но и на общую надежность модели. Попытки исправить модели после обучения были «в основном неэффективны».



Источник новости: www.ferra.ru

DimonVideo
2025-01-09T13:13:03Z

Здесь находятся
всего 0. За сутки здесь было 0 человек
Яндекс.Метрика