最近,英伟达在人工智能领域再创佳绩,推出了以数学推理为核心的OpenMath-Nemotron系列AI模型。这些创新的模型刷新了AIME(人工智能数学考试)准确率纪录,展示了AI在处理复杂数学逻辑推理方面的显著进步。
英伟达本次发布的OpenMath-Nemotron系列包括OpenMath-Nemotron-32B和OpenMath-Nemotron-14B-Kaggle两款模型。这些模型基于Qwen系列transformer架构,经过在OpenMathReasoning数据集上的深度微调,大幅提升了数学推理能力。
作为系列中的高端产品,OpenMath-Nemotron-32B拥有328亿参数,并采用BF16张量运算以优化硬件效率。该模型在AIME 2024、AIME 2025和HMMT 2024-25等多项基准测试中表现优异。在AIME24测试中,以工具集成推理(TIR)模式为例,其pass@1准确率达到78.4%,通过多数投票机制更是提升至93.3%,显示出强大的数学解题能力。
除了旗舰产品,英伟达还推出了参数更少的OpenMath-Nemotron-14B-Kaggle模型。此模型拥有148亿参数,专为AIMO-2 Kaggle竞赛优化,利用精选的OpenMathReasoning数据集子集进行微调,成功夺得竞赛冠军。在AIME24测试中,其链式思维(CoT)模式下pass@1准确率为73.7%,在生成式选择(GenSelect)模式下更是提升至86.7%。这款模型不仅保持了高质量的数学解题能力,还非常适合资源有限或需要低延迟的应用场景。
英伟达指出,OpenMath-Nemotron系列模型的推出,标志着公司在AI数学推理领域的一次重大进步。传统语言模型尽管能生成流畅文本,但处理复杂数学问题时常显得无能为力。这些问题要求不仅理解抽象概念,还需要多步骤逻辑推导。OpenMath-Nemotron系列通过深度学习和优化算法,成功解决了这些难题,实现了对数学问题的精准理解和高效解答。
值得注意的是,英伟达为这两款模型提供了开源管道,集成于NeMo-Skills框架中,支持数据生成、训练和评估的完整流程。开发者可以利用示例代码快速创建应用,获取逐步解答或简洁答案。此外,模型针对NVIDIA GPU(如Ampere和Hopper架构)进行了深度优化,利用CUDA库和TensorRT技术确保高效运行。同时,采用Triton Inference Server提供低延迟、高吞吐量的部署,BF16格式在内存占用与性能之间取得了平衡,支持大规模应用落地。
英伟达CEO黄仁勋在发布会上表示:“数学推理一直是AI领域的巨大挑战,但英伟达通过不断创新和优化,成功推出了OpenMath-Nemotron系列模型,刷新了AIME准确率纪录。这不仅是对我们技术实力的肯定,也为未来AI应用的无限可能性铺平了道路。我们坚信,随着AI技术的持续进步,OpenMath-Nemotron系列模型将在科研、教育、金融等多个领域发挥重要作用,推动人类社会的进步。”
此次英伟达发布OpenMath-Nemotron系列模型,不仅展示了公司在AI数学推理领域的深厚积累和创新实力,也为全球开发者提供了一个强大的工具平台。随着AI技术的发展和应用场景的不断拓展,英伟达将在推动产业智能化升级方面继续发挥引领作用,为社会带来更多福祉。
总结
英伟达的OpenMath-Nemotron系列模型展示了AI在数学推理领域的突破性进展,提供了强大的工具和开源资源,推动了AI应用在多个行业的广泛采用。随着技术的不断进步,英伟达将继续引领这一领域的发展,为人类社会创造更大的价值和机遇。