Signals Desk に戻る
Signals Desk // ai-news検証済みブリーフ

オープンソースAIの新たな潮流:NVIDIAとCohereを筆頭に、特定領域モデルが百花繚乱

最新のオープンソースAIモデルのリリースは、業界の新たなトレンドを明らかにしています。その焦点は、巨大な汎用モデルから、多様な特定領域向けモデルへと移行しています。NVIDIAは強力な「Nemotron-3-Super」を、Cohereは商用利用可能なApache 2.0ライセンスを採用した音声文字起こしモデルを公開しました。インドのSarvamAIの成功は「ソブリンAI」の価値を浮き彫りにしています。コード編集からマルチモーダル応用まで、オープンソースのエコシステムは、専門的で高効率な小型モデルがトップクラスの大規模モデルを補完する、健全な方向へと発展しています。

开源AI模型
New Wave in Open-Source AI: NVIDIA and Cohere Lead the Charge as Specialized Models Flourish

最近のオープンソース人工知能(AI)コミュニティは、これまでの様相を一変させています。QwenやDeepSeekといった巨大企業による大規模モデルの開発競争は影を潜め、代わりに「百花繚乱」とも言える新たな波が押し寄せています。光学文字認識(OCR)から音声文字起こし、さらにはコード編集や数学の定理証明まで、様々なバックグラウンドを持つ開発者による特定領域向けモデルが次々と登場しており、オープンソースのエコシステムが「規模至上主義」から、より実用的で多様な方向へとシフトしていることを示唆しています。

巨大企業の参入:NVIDIAとCohereのオープンな新姿勢

このリリースラッシュの中で、特に注目を集めているのがNVIDIAとCohereです。両社は強力なモデルを公開しただけでなく、オープンソース戦略においても重要な一歩を踏み出しました。

NVIDIAは、待望の「Nemotron-3-Super-120B」を遂に発表しました。このモデルは総パラメータ数120B、アクティブパラメータ数12Bを誇り、最大100万トークンのコンテキストウィンドウを備えています。技術的には、オープンソースモデルとして初めてLatentMoEアーキテクチャとNVFP4を事前学習に採用し、詳細な技術レポートと事前学習データセットの大部分も併せて公開するなど、オープンなエコシステム構築に対するNVIDIAの本気度がうかがえます。

時を同じくして、Cohereが発表した音声文字起こしモデル「cohere-transcribe-03-2026」も驚きをもたらしました。このモデルはConformerアーキテクチャをベースとし、アラビア語を含む14言語に対応しています。最も重要な点は、Cohereがこれまで採用してきた非商用ライセンスとは対照的に、Apache 2.0ライセンスを採用したことです。この変更により、開発者は本モデルを商用製品に利用できるようになり、その応用ポテンシャルが飛躍的に高まりました。

ソブリンAIと垂直応用:新興勢力の台頭

巨大テック企業だけでなく、世界各地の新興勢力も特定分野で驚くべき実力を発揮しています。インドのスタートアップSarvamAIがリリースした「sarvam-105b」モデルはその典型例です。このモデルは最大12~16兆トークンものデータセットで学習されており、インド諸言語における性能は、同規模の他のSOTA(最先端)オープンソースモデルを遥かに凌駕します。これは「ソブリンAI(国家主権AI)」の重要性を証明すると同時に、他の国や地域が自国にローカライズされたAIを開発する上での手本となるでしょう。

この「特定分野への特化」という流れは、他の垂直領域にも広がっています。

  • マルチモーダル:美団(Meituan)の「LongCat-Next」モデルは、テキスト、画像、音声の入出力を実現しました。また、YuanLabAIが発表した「Yuan3.0-Ultra」は、パラメータ数が1兆に達しています。
  • コード編集:オープンソースのコードエディタZedがリリースした「zeta-2」モデルは、ユーザーがオプトイン形式で提供したデータに基づき学習を行い、コード編集の予測に特化しています。
  • 数学と推論:美団の「LongCat-Flash-Prover」は、数学的証明支援システム「Lean4」に特化してファインチューニングされたモデルです。一方、Microsoftの「Phi-4-reasoning-vision-15B」は、SigLIP-2ビジョンエンコーダを統合し、推論能力を強化しています。

効率至上主義:アーキテクチャの革新とモデル圧縮

モデルの規模だけが追求されなくなった今、推論効率とアーキテクチャの革新が新たな競争の焦点となっています。この分野でもNVIDIAは最前線を走っています。同社が発表した「gpt-oss-puzzle-88B」モデルは、ニューラルアーキテクチャ探索(NAS)フレームワークを用いて「GPT OSS 120B」を専門的に枝刈り(プルーニング)したもので、推論精度を犠牲にすることなく、むしろ向上させながら、推論効率を大幅に最適化することを目指しています。

さらに、高度に圧縮されたモデルである「NVIDIA-Nemotron-3-Nano-4B-BF16」も、業界における軽量で高効率なモデルへの強い需要を反映しています。アレン人工知能研究所(AI2)の「Olmo-Hybrid-7B」は、ハイブリッドアテンションメカニズムとGated DeltaNet(GDN)を通じて、モデルアーキテクチャの新たな可能性を追求しています。

業界の展望:「大規模・万能」から「小規模・特化」へ

今回の一連のオープンソースモデルのリリースは、AI業界の重要なトレンドを明確に描き出しています。それは、少数のトップクラスのクローズドな大規模モデルと、無数のオープンソースの特定領域向けモデルが相互に補完し合うエコシステムが形成されつつあるということです。トップモデル間の競争が激化する中で、産業の隅々で行われるこのような大規模な「改良と革新」こそが、AI技術の実用化と商業化を推進する重要な力となっています。今後は、特定のシナリオに特化し、より低コストで高効率な「スモール&ビューティフル」なモデルがさらに増えていくでしょう。これらのモデルは、汎用的な大規模モデルと連携し、より繁栄し、安定したAIの未来を共に築いていくことになります。

引用とソースリンク