DeepSeek научился находить и проверять свои математические доказательства

Китайская компания DeepSeek представила модель искусственного интеллекта DeepSeekMath-V2, которая способна не только решать сложные математические задачи, но и самостоятельно проверять правильность своих рассуждений. Модель набрала 118 из 120 баллов на престижном студенческом математическом конкурсе Уильяма Лоуэлла Патнэма 2024 года, превзойдя человека победителя конкурса, который набрал только 90 баллов.
Владимир Губайловский
Владимир Губайловский
DeepSeek научился находить и проверять свои математические доказательства
Nikolas Kokovlis/NurPhoto via Getty
Ранние модели машинного обучения для математики фокусировались на точности финального ответа. Однако правильный ответ не гарантирует правильных рассуждений — иногда это результат удачной ошибки. При доказательстве математических теорем логика рассуждений важнее итогового результата. Разработчики DeepSeek и Gemini Deep Think работают над преодолением этой проблемы, поощряя корректность рассуждений, а не просто правильность ответа.

DeepSeekMath-V2 показала результаты на уровне золотых медалистов Международной математической олимпиады 2025 года и Китайской математической олимпиады 2024 года. Результаты описаны в препринте, опубликованном на сервере arXiv.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Решаем задачу.
Решаем задачу.
https://medium.datadriveninvestor.com/

Особенность модели — система самопроверки математических доказательств. В отличие от ранних подходов, которые фокусировались на правильности финального ответа, новая система оценивает корректность логических рассуждений на каждом шаге. Модель включает верификатор, который анализирует математические доказательства и выявляет логические ошибки, а мета-система проверяет точность работы самого верификатора. Модель создает решения и оценивает собственную работу, совершенствуя аргументацию до устранения всех проблем.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Трудная математика пока не поддается искусственному интеллекту

Трудная задача.
Трудная задача.
https://www.getsmartpaper.com/

«Мы находимся в точке, где ИИ справляется с математикой так же хорошо, как умный студент-бакалавр», — говорит Кевин Баззард, математик из Имперского колледжа Лондона.

Система решила пять из шести задач Международной математической олимпиады 2025 года (83,3%), хотя самые сложные задачи остались нерешенными. Math-V2 использует самопроверку на естественном языке, что снижает потребность в участии человека и делает модель более экономичной по сравнению с конкурентами, такими как Gemini Deep Think, которая использует внешний символьный язык Lean.

Math-V2 — одна из немногих моделей такого уровня с открытыми весами, доступная для свободного скачивания и обучения исследователями.