アリババグループは2025年5月1日、大規模言語モデル(LLM)「通義千問(Qwen)」シリーズの最新世代となる「Qwen3」を発表しました。新モデルは、柔軟なスケーラビリティと高度な知的処理を両立させた「ハイブリッド推論」を採用し、AI開発における計算効率と表現力の向上を狙います。全8モデルがオープンソースで公開されており、開発者はさまざまな分野で自由に活用することが可能です。

Qwen3には、0.6Bから32Bまでの6つの通常型モデル(dense model)と、アクティブパラメータ数がそれぞれ3Bと22BのMoE(混合専門家)モデル2種が含まれます。これにより、モバイルデバイスやスマートグラス、自律走行車、ロボット分野など、次世代アプリケーションの幅広い開発ニーズに対応できる柔軟性が確保されています。

最大の特徴は「ハイブリッド推論」です。従来のLLMの機能に加え、複雑な演算や論理推論に対応する「思考モード」と、迅速な応答を行う「非思考モード」を状況に応じて切り替えることが可能です。APIを通じたアクセスでは、最大38,000トークンまでの「思考時間」制御が可能で、性能とコストのバランスを最適化しています。中でもQwen3-235B-A22Bモデルは、先進的な性能を維持しながら、展開コストの大幅な削減を実現しています。

Qwen3は、119の言語と方言に対応する多言語処理能力を備えており、翻訳や多言語指示処理において業界水準を上回る精度を示しています。また、Model Context Protocol(MCP)やファンクションコールにも標準対応しており、エージェント型タスクにおける活用にも適しています。数式処理やコーディング、自然な対話生成の分野でも、前世代のQwen2.5を大きく上回る性能を示しているといいます。

トレーニングには36兆トークンの大規模データセットが用いられており、学習手法も進化しています。思考連鎖(CoT)を用いた初期学習から始まり、推論に基づく強化学習、思考モードの統合、さらに汎用的な強化学習までの4段階を経て、高度な出力精度と柔軟性を実現しています。

Qwen3モデルは、数学推論(AIME25)、コーディング(LiveCodeBench)、ツール・関数呼び出し機能(BFCL)、命令調整型LLM性能(Arena-Hard)など、複数のベンチマークでトップクラスの結果を記録しています。

モデルはHugging Face、GitHub、ModelScope上で公開されており、専用チャットサイト「chat.qwen.ai」での試用も可能です。今後はアリババのAI開発プラットフォーム「Model Studio」を通じたAPI提供も予定されており、同社のAIアシスタントアプリ「Quark」への導入も進められています。すでにQwenシリーズは累計3億回以上ダウンロードされ、Hugging Face上では10万件を超える派生モデルが開発されるなど、世界でも有数の採用実績を持つオープンソースAIモデルとなっています。

レポート/DXマガジン編集部折川

情報提供元: DXマガジン_テクノロジー
記事名:「 中国の大手EC企業がオープンソースの言語モデル発表、高い処理能力ながら導入コストを抑えられるのが売り