FutureHouse, некоммерческая организация, поддерживаемая Эриком Шмидтом, которая ставит своей целью в течение следующего десятилетия создать «ученого в области AI», выпустила свой первый крупный продукт: платформу и API с инструментами на базе AI, предназначенными для поддержки научной работы.
Многие, многие стартапы спешат разработать исследовательские инструменты AI для научной сферы, и некоторые из них имеют за спиной огромные объемы венчурного финансирования. Технологические гиганты, похоже, также настроены оптимистично в отношении AI для науки — в начале этого года Google представила «AI-соученого», который, по словам компании, может помочь ученым в создании гипотез и планов экспериментальных исследований.
Руководители компаний OpenAI и Anthropic утверждают, что инструменты AI могут значительно ускорить научные открытия, особенно в медицине. Однако многие исследователи сегодня не считают AI особенно полезным в руководстве научным процессом, во многом из-за его ненадежности.
FutureHouse в четверг выпустила четыре инструмента AI: Crow, Falcon, Owl и Phoenix. Crow может искать научную литературу и отвечать на вопросы о ней; Falcon может проводить более глубокий поиск литературы, в том числе в научных базах данных; Owl ищет предыдущие работы в заданной предметной области; а Phoenix использует инструменты для планирования химических экспериментов.«В отличие от других AI, FutureHouse имеют доступ к обширному корпусу высококачественных статей с открытым доступом и специализированным научным инструментам», — написала некоммерческая организация в своем блоге.
«Они также имеют прозрачные рассуждения и используют многоступенчатый процесс для более глубокого рассмотрения каждого источника. Объединяя эти AI вместе в масштабе, ученые могут значительно ускорить темпы научных открытий».
Примечательно, что FutureHouse еще не добилась научного прорыва или не сделала нового открытия с помощью своих инструментов искусственного интеллекта.
Частью проблемы в разработке «ученого AI» является предвосхищение неисчислимого количества мешающих факторов. AI может пригодиться в областях, где требуется широкое исследование, например, сужение обширного списка возможностей, но менее ясно, может ли он выполнять нестандартное решение проблем, которое приводит к подлинным прорывам.
Результаты систем AI, разработанных для науки, пока в основном не впечатляют. В 2023 году Google заявила, что с помощью одного из ее AI, называемого GNoME, было синтезировано около 40 новых материалов. Однако внешний анализ показал, что ни один из этих материалов на самом деле не был абсолютно новым.
Технические недостатки и риски AI, такие как его склонность к галлюцинациям, также заставляют ученых опасаться одобрять его для серьезной работы. Даже хорошо продуманные исследования могут оказаться испорченными некорректно работающим AI, которому трудно выполнять высокоточную работу.
Действительно, FutureHouse признает, что ее инструменты ИИ, в частности Phoenix, могут совершать ошибки. «Мы выпускаем это сейчас в духе быстрой итерации», — заявила компания в своем сообщении в блоге. «Пожалуйста, оставляйте отзывы по мере использования».
Источник
Источник новости: habr.com