中国AI業界を代表する2社、DeepSeek(深度求索)と寒武紀が、9月29日夕刻にほぼ同時刻で重要発表を行い、業界関係者の注目を集めた。
DeepSeekは29日18時07分、自社公式ウィーチャットを通じ「DeepSeek-V3.2-Exp」モデルのリリースを発表した。同モデルは「V3.1-Terminus」を基盤とする実験的バージョンであり、新たに「DeepSeek Sparse Attention」と呼ばれる稀疏注意機構を導入。長文処理における学習・推論効率の最適化を目指した試験的な取り組みと位置付けられる。

同時に公式アプリやウェブ、小プログラムもV3.2-Expへ更新され、API利用料も50%以上の値下げが実施された。DeepSeekは「開発者のコストを大幅に削減することで、多くのユーザーに体験とフィードバックをお願いしたい」としている。
そのわずか4分後、18時11分に寒武紀の開発者向け公式アカウント「寒武紀開発者」が記事を公開。DeepSeekの最新モデルV3.2-Expへの即時対応を発表するとともに、大規模言語モデル推論エンジン「vLLM-MLU」のソースコードを開放した。記事内にはコード入手先と利用手順も示され、寒武紀のソフト・ハード一体型プラットフォーム上でいち早く新モデルを体験できるようになっている。
寒武紀は声明で「当社は常に大規模モデルのソフトウェア・エコシステムを重視しており、DeepSeekをはじめとする主流のオープンソースモデルを積極的に支援している」と強調。過去にもDeepSeekシリーズに対し、チップとアルゴリズムを組み合わせた最適化で業界トップ水準の演算効率を実現してきたという。今回のV3.2-Expでも、Triton算子開発やBangC融合算子、計算・通信並列戦略を活用し「業界をリードする効率性」を達成したとした。

両社の発表がわずか数分差で行われた点について、業界関係者は「DeepSeekのV3.2-Expリリースに合わせ、寒武紀が“Day 0”で最適化を完了させていたことは、事前に両社が緊密に技術連携していた証左」と指摘する。
新型のSparse Attentionと寒武紀の演算効率を組み合わせることで、特に長文処理における学習・推論コストを大幅に抑えられると期待されており、顧客にとって競争力の高いソリューションが提供可能になる。
今回の同時発表は、AI技術とハードウェアの深度協調を象徴する出来事であり、中国AI産業が一層のエコシステム強化に向かっていることを印象付けた。
(中国経済新聞)