2025-11-30 08:02:13
✨DeepSeek-Math-V2 — новий рівень математичних моделей
DeepSeek несподівано викотили другу версію своєї математичної моделі — вперше за майже два роки.
🔘Результати одразу вражають:
• рівень золотої медалі на IMO 2025 і CMO 2024
• 118/120 на Putnam 2024 — одній із найскладніших студентських олімпіад США та Канади
• З бенчмарками лише порівняння на IMO-ProofBench. Там модель упевнено обходить GPT-5 і наближається до рівня Gemini 2.5 Pro.
🔘Як працює DeepSeek-Math-V2
• Архітектура базується на DeepSeek-V3.2-Exp-Base.
• Пайплайн складається з двох моделей — генератора та верифікатора.
• Розв’язання формується поетапно:
1. Генератор створює розв’язання.
2. Верифікатор перевіряє кожен крок і знаходить помилки.
3. Зворотний зв’язок повертається генератору, і рішення переписується.
• До 16 ітерацій для однієї задачі та до 64 гіпотез одночасно — тобто сотні прогонів на одне доведення.
➡️ Нuggingface тут.
➡️ Github тут.
➡️ Детальніше тут.
➡️Запроси друга до Neirom🇺🇦
DeepSeek несподівано викотили другу версію своєї математичної моделі — вперше за майже два роки.
🔘Результати одразу вражають:
• рівень золотої медалі на IMO 2025 і CMO 2024
• 118/120 на Putnam 2024 — одній із найскладніших студентських олімпіад США та Канади
• З бенчмарками лише порівняння на IMO-ProofBench. Там модель упевнено обходить GPT-5 і наближається до рівня Gemini 2.5 Pro.
🔘Як працює DeepSeek-Math-V2
• Архітектура базується на DeepSeek-V3.2-Exp-Base.
• Пайплайн складається з двох моделей — генератора та верифікатора.
• Розв’язання формується поетапно:
1. Генератор створює розв’язання.
2. Верифікатор перевіряє кожен крок і знаходить помилки.
3. Зворотний зв’язок повертається генератору, і рішення переписується.
• До 16 ітерацій для однієї задачі та до 64 гіпотез одночасно — тобто сотні прогонів на одне доведення.
➡️ Нuggingface тут.
➡️ Github тут.
➡️ Детальніше тут.
➡️Запроси друга до Neirom🇺🇦