返回 Signals Desk
Signals Desk // ai-news已核验简报

开源AI新风向:NVIDIA与Cohere领衔,领域模型全面开花

最新开源AI模型发布揭示行业新趋势,焦点从巨型通用模型转向多元化的领域专用模型。NVIDIA发布强大的Nemotron-3-Super,Cohere则推出采用Apache 2.0商用友好许可证的语音转录模型。印度SarvamAI的成功凸显了“主权AI”的价值。从代码编辑到多模态应用,开源生态正朝着一个由专业、高效、小型模型补充顶级大模型的健康方向发展。

开源AI模型
New Wave in Open-Source AI: NVIDIA and Cohere Lead the Charge as Specialized Models Flourish

近期开源AI社区一反常态,不再是Qwen、DeepSeek等巨头的大模型军备竞赛,取而代之的是一股“百花齐放”的新浪潮。从光学字符识别(OCR)到语音转录,再到代码编辑和数学定理证明,大量来自不同背景构建者的、面向特定领域的模型集中涌现,预示着开源生态正从“唯大是论”转向更加务实和多元化的发展路径。

巨头入局:NVIDIA与Cohere的开放新姿态

在这次发布潮中,NVIDIA和Cohere的表现尤为抢眼,它们不仅贡献了强大的模型,更在开放策略上迈出了重要一步。

NVIDIA期待已久的Nemotron-3-Super-120B终于亮相。这款模型总参数量为120B,激活参数12B,拥有高达100万token的上下文窗口。技术上,它首次在开源模型中采用了LatentMoE架构和NVFP4进行预训练,并配套发布了详尽的技术报告和绝大部分预训练数据集,展现了NVIDIA在开放生态建设上的诚意。

与此同时,Cohere推出的语音转录模型cohere-transcribe-03-2026也带来了惊喜。该模型基于Conformer架构,支持包括阿拉伯语在内的14种语言。最关键的是,它采用了Apache 2.0许可证,与Cohere以往的非商业许可证形成鲜明对比。这一转变意味着开发者可以将其用于商业产品,极大地激发了其应用潜力。

主权AI与垂直应用:新兴力量的崛起

除了科技巨头,来自世界各地的新兴力量也在特定领域展现出惊人的实力。印度初创公司SarvamAI发布的sarvam-105b模型就是一个典型案例。该模型在高达12-16T token的数据集上训练,其在印度语种上的表现远超其他同规模的SOTA开源模型。这不仅证明了“主权AI”的重要性,也为其他国家和地区发展本土化AI提供了范本。

这股“专精特新”的风潮也席卷了其他垂直领域:

  • 多模态:美团的LongCat-Next模型实现了文本、视觉和音频的输入与输出,而YuanLabAI发布的Yuan3.0-Ultra更是达到了万亿参数级别。
  • 代码编辑:开源代码编辑器Zed发布的zeta-2模型,基于用户选择性加入的数据进行训练,专注于代码编辑预测。
  • 数学与推理:美团的LongCat-Flash-Prover是针对Lean4数学证明的微调模型,而微软的Phi-4-reasoning-vision-15B则整合了SigLIP-2视觉编码器,强化了推理能力。

效率至上:架构创新与模型压缩

当模型规模不再是唯一追求时,推理效率和架构创新便成为新的竞争焦点。NVIDIA在这一方向上同样走在前列。其发布的gpt-oss-puzzle-88B模型,是利用神经架构搜索(NAS)框架对GPT OSS 120B进行专家剪枝的产物,旨在不牺牲甚至提升推理精度的前提下,大幅优化推理效率。

此外,NVIDIA-Nemotron-3-Nano-4B-BF16作为一款深度压缩模型,也体现了业界对轻量化、高效率模型的迫切需求。艾伦人工智能研究所(AI2)的Olmo-Hybrid-7B则通过混合注意力机制和门控DeltaNet(GDN)探索了模型架构的新边界。

行业展望:从“大而全”到“小而美”

本轮开源模型的集中发布,清晰地勾勒出AI行业的一个重要趋势:一个由少数顶级闭源大模型和海量开源领域专用模型互补的生态系统正在形成。当头部模型的竞争日趋白热化,这种遍布产业角落的、大规模的“修补与创新”反而成为推动AI技术落地和商业化的关键力量。未来,我们将看到更多针对特定场景、成本更低、效率更高的“小而美”模型,它们将与通用大模型协同工作,共同构建一个更加繁荣和稳健的AI未来。

引用与来源链接