DeepMind представила AlphaGeometry — систему, способную решить столько же задач по геометрии, сколько средний золотой медалист Международной математической олимпиады. AlphaGeometry с открытым исходным кодом решает 25 олимпиадных задач по геометрии за стандартное время, опередив предыдущую современную систему на 10.
«Решение геометрических задач олимпиадного уровня — это важная веха в развитии глубоких математических рассуждений на пути к более совершенным и общим системам искусственного интеллекта», — отмечают исследователи Триу Тринь и Тханг Луонг. «Мы надеемся, что AlphaGeometry поможет открыть новые возможности в области математики, науки и искусственного интеллекта».
DeepMind утверждает, что доказательство математических теорем или логическое объяснение того, почему теорема (например, теорема Пифагора) верна, требует как рассуждения, так и способности выбирать из ряда возможных шагов. Этот подход, по мнению исследователей, может оказаться полезным в разработке систем искусственного интеллекта общего назначения.
«Демонстрация того, что конкретная гипотеза верна или ложна, сегодня расширяет возможности даже самых передовых систем искусственного интеллекта», — заявили в DeepMind. «На пути к этой цели способность доказывать математические теоремы AlphaGeometry является важной вехой, поскольку она демонстрирует мастерство логического рассуждения и способность открывать новые знания».
Однако обучение системы ИИ решению задач по геометрии стало вызовом для учёных из-за сложности перевода доказательств в формат, понятный системам, и нехватки полезных данных по геометрии.
При разработке AlphaGeometry лаборатория объединила модель «нейронного языка», архитектурно подобную ChatGPT, с «механизмом символического вывода», который использует правила (например, математические) для вывода решений. Чтобы решить проблему отсутствия гибкости символьного механизма, особенно при работе с большими или сложными наборами данных, DeepMind заставила нейронную модель «направлять» механизм дедукции через возможные ответы на заданные геометрические задачи.
Вместо обучающих данных лаборатория создала собственные данные, сгенерировав 100 млн «синтетических теорем» и доказательств различной сложности. Затем на них обучили AlphaGeometry и оценили работу нейросети на олимпиадных задачах по геометрии.а) Большой набор случайных предпосылок теоремы. б) Механизм символической дедукции для получения дедуктивного замыкания с возвращением ориентированного ациклического графа операторов. Для каждого узла графа выполняется обратная трассировка, чтобы найти минимальный набор необходимых предпосылок и выводов о зависимостях. Например, для крайнего правого узла «HA ⊥ BC» обратная трассировка возвращает зелёный подграф. в) Минимальная посылка и соответствующий подграф составляют синтетическую задачу и её решение. В нижнем примере в доказательстве участвовали точки E и D, хотя они не имели отношения к построению HA и BC; поэтому они изучаются языковой моделью как вспомогательные конструкции.
Такие задачи основаны на диаграммах, в которые необходимо добавить «конструкции», прежде чем их можно будет решить, например, точки, линии или круги. Сверху: AlphaGeometry решает простую задачу: учитывая диаграмму и предпосылки (слева), модель (в центре) использует свой символьный механизм для вывода новых утверждений до тех пор, пока не будет найдено решение или пока утверждения не будут исчерпаны. Если решение не найдено, языковая модель добавляет одну потенциально полезную конструкцию (синюю), открывая новые пути вывода. Этот цикл продолжается до тех пор, пока не будет найдено решение (справа). Снизу: AlphaGeometry решает задачу 3 Международной математической олимпиады 2015 года (слева) и дает сокращенную версию решения (справа). Синие элементы — это добавленные конструкции. Решение AlphaGeometry состоит из 109 логических шагов.
Результаты работы AlphaGeometry опубликовали в журнале Nature.
Будучи гибридной символьно-нейронной сетевой системой, похожей на AlphaFold 2 и AlphaGo от DeepMind, AlphaGeometry, возможно, демонстрирует, что объединение двух подходов — манипулирования символами и нейронных сетей — является лучшим подходом в разработке общего ИИ.
«Наша долгосрочная цель кроется в создании систем искусственного интеллекта, которые могут обобщать различные математические области, разрабатывая сложные решения проблем и рассуждения, от которых будут зависеть общие системы искусственного интеллекта, при этом расширяя границы человеческого знания», — пишут Трин и Луонг. «Этот подход может определить, как системы искусственного интеллекта будущего будут открывать новые знания в математике и за её пределами».
Ранее стало известно, что исследователи DeepMin сделали первое в мире научное открытие, используя большую языковую модель. Они использовали большую языковую модель для написания решений задач в виде компьютерных программ. LLM работала в паре с «оценщиком», который автоматически ранжировал программы по степени их эффективности.
Источник новости: habr.com