标签:预训练数据集

在AI模型小型化趋势愈发明显的今天,英伟达也加入了这场“小模型竞赛”,推出了自家的小型语言模型——Nemotron Nano v2

这款模型参数规模为9B(90亿),虽然体积小巧,但性能却不容小觑。根据技术报告,其在复杂推理任务中的准确率与Qwen3-8B相当甚至更优,同时在处理速度上提升了6倍。 与当前主流的大模型不同,Nemotron Nano v2的设计初衷是打造一个兼顾推理与非推理任务的统一模型。这意味着它不仅适用于日常的问答与指令执行,还能胜任逻辑推理、数学计算等高难度任务。英伟达还引入了“思考预算控制”功能,用户可以设定模型在推理过程中使用的token数量,从而在速度与准确性之间取得平衡。 值得一提的是,该模型支持跳过中间推理步骤,直...