Компания Anthropic признала, что сразу качество ответов сразу несколько версий Claude деградировало из-за ошибок. Вот список известных проблем:
5 августа — 4 сентября: отдельный баг ухудшал качество части запросов к Sonnet 4 (эффект усилился после 29 августа). Исправлено.
26 августа — 5 сентября: другой баг затронул Haiku 3.5 и Sonnet 4. Тоже исправлен.
25–28 августа: инцидент с качеством у Opus 4.1 (и 4.0) из-за обновления инференс-стека; видели «пониженную интеллектульность», «малформатные ответы», проблемы с tool-calling. Откатили изменения.
5–9 сентября: серия сопутствующих инцидентов (вплоть до временного выключения Opus 4.1 на claude.ai, повышенных ошибок и латентности.
На данный момент компания продолжает наблюдать за Opus 4.1, на производительность которого все еще поступают жалобы, а также за качество работы моделей в целом.
Падение производительности вызвало вал жалоб на Reddit и в X, причем некоторые пользователи обвиняют Anthropic в квантизации (упрощении) моделей для экономии на серверах. В Anthropic эти жалобы отвергли, сказав, что компания никогда умышленно не понижала качество ответов моделей.
P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.
Источник новости: habr.com