категории | RSS

Эксперт защитил галлюцинации у ИИ и назвал людей «багом»

Доминик Лигот, эксперт в области данных и ИИ, утверждает, что распространенная проблема больших языковых моделей (LLM) — «галлюцинации» — проистекает из «фундаментального недопонимания их назначения». В своей недавней статье он подчеркивает, что LLM никогда не предназначались для того, чтобы быть источниками абсолютной истины. Вместо этого они являются инструментами для генерации информации на понятном языке, помощи в творчестве и предоставления лучшего понимания информации. Ещё он назвал людей «багом».

Лигот отмечает, что LLM работают как статистические машины, предсказывая последовательности слов на основе шаблонов в обучающих данных, что приводит к неточностям. Ожидание, что LLM будут предоставлять фактическую информацию, не соответствует их возможностям (вы же не ждёте от калькулятора создания поэзии). Он призывает пользователей использовать LLM для «креативного мозгового штурма, написания черновиков и контекстуализации сложной информации», а не полагаться на них для проверки фактов.

Для эффективного использования Лигот выступает за «интеграцию человеческого контроля» в рабочий процесс, с проверкой выводов ИИ и их использования в качестве «отправных точек», а не «окончательных продуктов».



Источник новости: www.ferra.ru

DimonVideo
2024-10-03T09:13:02Z

Здесь находятся
всего 0. За сутки здесь было 0 человек
Яндекс.Метрика