実業之日本フォーラム 実業之日本フォーラム
2025.02.10 外交・安全保障

DeepSeekインパクト——侮らず、正しく恐れ、利用せよ

渡部 晴人 池田 信太朗

 「DeepSeek R1はAIのスプートニク・ショックだ」

 かつてウェブブラウザの始祖「Mosaic」を開発し、近年ではTwitter、Facebook、Slackなどを見出したエンジェル投資家としても知られるマーク・アンドリーセンは1月27日、自身のXアカウントでこう投稿した。

 確かに、中国発AI「DeepSeek R1」が、AI開発において先行していると自認していた米国にもたらした驚愕と動揺は、まさに1957年に米国がソ連に抱いたそれと重なって見える。

 DeepSeekが低性能のGPU(画像処理半導体)を用いて高性能のAIを生み出したことから先端GPUの需要が落ちると見られ、同日、半導体大手エヌビディアの株価は前日比でおよそ17%下落し、ハイテク関連株も下げた。エヌビディアは翌日、R1の推論にも自社のチップが必要であるとのリリースを発表するなど火消しに追われる羽目に陥った。AI開発で首位を走る米OpenAIは、自社の優位性を改めて示すべくDeepSeek R1の性能を大幅に凌駕するプロダクトを急遽発表し、さらに巨額の投資を続けて中国勢を引き離す構えを見せた。

 一方で、DeepSeek社が発表した内容——対中輸出用に性能が制限されたエヌビディア製GPU「H800」をクラウド経由で使い、大幅に低廉な費用で開発したにも関わらず米国勢のAIに匹敵する性能を実現したという圧倒的なコスト競争力——の真偽を疑う声も出ている。不正入手した高性能なGPUを用いたのではないか、という疑惑だ。また、1月30日、ロイターは米オンライン分析会社グラフィカの分析を引用し、中国の外交官、大使館、国営メディアなどのアカウントがDeepSeek R1の性能やコストを誇示する内容の投稿をしていた事実を報じた。中国にとってR1が、米国の優位性に挑む姿を印象付ける認知戦上の武器になっていたことは間違いない。

 米中双方にとって、産業競争力や軍事力に破壊的なインパクトをもたらすと言われるAIは最も重要な戦略領域だ。両国ともにDeepSeek R1の衝撃を自国に有利なかたちで取り込もうと試み、喧伝するだろう。米国一強で凪いでいたAI開発競争にもたらされたこの荒波は、同盟国である日本にとっては脅威であると同時に、AI競争に後れを取っている一国としての日本にとっては好機でもある。私たちにはいま、米中両国が繰り広げる技術競争と認知戦の喧噪をかいくぐって、DeepSeek R1のもたらした革新の所在を正しく理解し、これをしたたかに利用する知恵が求められている。

DeepSeekが覆した米国の3つの戦略

 DeepSeek R1が覆したかのように見える米国の戦略は大きくわけて3つある。

 1つ目は、GPUという戦略物資の実質的な禁輸によって中国のAI開発能力を封じ込めるという戦略、いわゆるデリスキングだ。最先端GPUを生み出すためのプロセスにおいて、設計を米国企業のエヌビディア、製造を台湾のTSMCが事実上独占的に担っており、これらを中国企業が利用することを米国は阻んでいる。

 2つ目は、多額の資金で競合を圧倒的に凌駕する量のGPUを備えて学習に用いることでAIの性能を引き上げようという物量の戦略だ。2024年にはイーロン・マスク率いるxAIが10万基のエヌビディア製GPU「H200」を導入したことが話題になった。こうした爆発的なGPU需要がエヌビディアの高い企業価値を形成すると同時に、エヌビディアのGPUを調達したというニュースがAI技術の進展を期待させて米国AI企業の企業価値を向上させ、それを背景として調達した資金でまたGPUを購入するという強固な“共犯関係”が構築されていた。

 3つ目は、圧倒的な資金を閉鎖的で独占的な開発に投じて競合を引き離すという戦略だ。イーロン・マスク率いるxAIが同社の開発した大規模言語モデル「Grok-1」をオープンソースとして公開するなどの動きもあるが、AI開発競争を牽引する急先鋒のOpenAIはその社名に反してプロプライエタリ(ソフトウェア業界においてオープンの対義語として用いられる)な傾向が強く、とりわけ自社の技術の核心的な部分は公開していない。

 DeepSeek R1はこれらの戦略を覆して見せた。

 DeepSeek社はエヌビディア製GPU「H800」を2048基用いてV3を開発したと発表している。R1はV3をベースに強化学習で性能を強化したもので、用いられたGPUはV3と同等か、これより少ない可能性もある。

 このH800は、米国政府による輸出規制を回避するために、米国AI企業が競い合うようにして買い集めているH100、H200と比べてあえて性能が抑えられているものだ。

 H800は「1万6896」とH100と同じコア数( 並列で計算する頭脳に当たる)を持っているが、メモリ帯域幅やNVLink帯域幅が制限されている。メモリ帯域幅とはコアにデータを転送する速度を指し、NVLink帯域幅とはGPU同士のデータ転送の速度を指す。同じ数のコアが並んでいても、コアにデータを効率よく送れるかどうか、GPU同士で連携して大きなデータを効率よく扱えるかによって、生み出せる仕事量が大きく変わってくる。両指標とも、大きければ大きいほど性能が上がると見ていい。とりわけ扱うデータの規模が大きいほどその差は顕著になる。H800の帯域幅が2.9TB/s、H100のそれが3.35TB/s。H800のNVLink帯域幅が400GB/s、H100のそれが900GB/s。この差が、米国が中国のAI技術進展に課した制約だ。

 性能というGPUの「質」のみならず、2048基というGPUの「数」も米国勢AI企業のプロダクトが使用しているそれと隔絶している。単純比較できるものではないが、米メタの「Llama3」は、約2.4万枚のGPUで学習している。

 DeepSeekは、質量ともにハンデを背負ったGPU資源による学習で、V3、R1を生み出した。しかも、制約なき最新鋭GPUを大量に抱えている米AI企業のプロダクトに匹敵する性能を叩き出したというわけだ。

 以下は「Humanity’s Last Exam」の正答率を示している。DeepSeek R1のあとにOpenAIがリリースしたo3-miniには及ばないものの、o1よりは正答率が高い。


出典:Humanity’s Last Examサイト 

 「Humanity’s Last Exam」は、AIの能力が人間の専門家レベルにどれほど近づいているかを評価するためにCenter for AI Safety(CAIS)とScale AIによって設計されたAIベンチマークだ。数学、人文学、自然科学など、幅広い分野にわたる3000の質問で構成されており、正しい解を得るためには専門家レベルの知識と推論能力を必要とする。

 性能が高いだけではなく、上記のように開発コストを抑えたことで、ユーザーから見た利用コストも低く抑えられている。以下はAIモデルの性能比較サービス「Artificial Analysis」が掲出する各AIサービスを品質と価格でプロットしたものだ。左上に行けば行くほど、品質・価格とも優位であることを示している。DeepSeek R1が最強クラスの性能を提供しながら利用コストを抑えていることがよくわかる。


出典:Artificial Analysis 

米国に一矢報いたDeepSeekのエンジニアリング

 DeepSeekは、なぜ性能を抑制されたGPUでこのような性能のAIを生み出せたのか。

 1つには、そもそも「できていない」——つまり、DeepSeekが虚偽の情報を公開しているという可能性がある。

 これについては完全に否定することはできない。ただし、DeepSeekはソースコードを公開しており、そのコードで再現、検証できることもある。DeepSeekが何を秘密にして、何を公開しているかを正しく理解しておく必要がある。

 DeepSeekが公開しているのはソースコードと学習済みのモデル(の重み)。一方、公開していないのは、モデルの学習に使われたデータや、その学習プロセスの詳細だ。

 極めて乱暴な例えだが、ソースコードは「料理の作り方(レシピ)」、モデルは「素材」と考えてほしい。

 世界中の誰でもDeepSeekが公開している素材を使い、DeepSeekが公開しているレシピで料理を作ることはできる。その味(AIの性能)は評価が高い。一方で、DeepSeekから提供されている素材がどのように生産、加工されてきたものなのかは公表されていない。DeepSeekは低廉なGPUで作られた素材だとしているが、本当にそのGPUで実現できたのかは検証できない。DeepSeek自身、素材を作る費用として558万ドル(約8億5000万円)しかかからなかったと公表しつつ、その金額には「純粋な学習コスト」以外のものは含まれないとしている。この「それ以外」の金額がどの程度大きいのかはわからない。また、ほかのAIが生成した料理が素材に混ざっているかもしれない(OpenAIのAIが生成した解を取り込んでいるのではないかという疑惑が持たれている)。

 ただし、「素材」、モデルの作り方については、オープンソースとして完全には公開されてはいないものの、その概要は論文として公開されている。

 例えば、一般に、AI開発にはPythonという言語が用いられるが、DeepSeekはPTXという言語も用いている。Pythonは自然言語(英語)に近いインタプリンタと呼ばれる種類の言語で、人間にとって読み書きしやすい。一方のPTXは半導体に対する命令を直接記述するアセンブリと呼ばれる種類の言語で、人間には読み書きが難しいが、ハードとしての半導体を直接制御できる特徴がある。

 上記のようにメモリ帯域幅やNVLink帯域幅が制限されたGPUで大規模学習すると、通信がボトルネックとなってコアの稼働率が落ちる。これをDeepSeekは、PTXで直接半導体に命令を出して、遊んでいるコアを動かし、性能を引き出したというわけだ。

 データサイエンティストと呼ばれることもある米国AI企業のエンジニアたちの多くは、人間に読み書きしやすいPythonを書き、性能の不足を大量に調達した潤沢な先端GPUで補ってきた。その多くはPTXのようなアセンブリ言語を記述することはできない。一方、米国に課された制約を何とか回避しようと、DeepSeekのエンジニアたちは泥臭くアセンブリを書くことを覚え、半導体コアの1つとして無駄にしないために工夫を凝らした。

 ほかにも、一定程度の性能を維持しながら、演算精度を、一般に大規模AIモデルで用いられる16ビット浮動小数点(FP16)から8ビット浮動小数点(FP8)にあえて落として学習の高速化やGPUメモリ利用量の削減を図るなどの試みもなされている。

 こうした工夫から生まれたV3をベースに、R1では「強化学習」と呼ばれる手法を取り入れてさらに推論能力を飛躍させた。一般にAI開発においては、人間がモデルのトレーニングを繰り返す「人間のフィードバックによる強化学習(RLHF)」と呼ばれる手法を用いるが、DeepSeekは、R1の前身に当たるR1 Zeroにおいて、人間のフィードバックを用いずに、学習と報酬の体系を設計してAIが自身を強化し続けるという大胆なアプローチを試み、効率を引き上げた。R1では人間が微調整する監督微調整(SFT)と呼ばれるアプローチを加え、Zeroでの挑戦によって引き上げられた強化学習の効率を残しつつ、正確性を補った。

 DeepSeekが論文として発表しているこれらの内容が完全に正しいものであるかはわからない。ただ、米国のAI開発会社Hugging Faceは、論文の内容をもとにモデル学習のプロセスまでをオープンソースにしようという「Open-R1」というプロジェクトを始めている。こうした試みにより、DeepSeekが公開していない部分についても再現、検証がなされ、その真偽は明らかになっていくだろう。

 論文の内容が大部分または全部正しいとすれば、DeepSeekは、ハードウェアの制約をソフトウェア技術で乗り越えたということになる。米国が中国への先端GPU輸出を制限することがなければ、中国のエンジニアはこのような創意工夫を凝らすことはなかったかもしれない。皮肉にも、DeepSeekが生み出した革新の母は、米国の対中輸出規制だった。DeepSeek R1は、圧倒的な物量と資金に慢心した米国に中国のエンジニアたちが報いた一矢であり、その矢は、エヌビディアが築き上げた楼閣のような企業価値をひととき揺るがした。

 「オープンソース文化」vs「ビッグAIカルテル」

 本稿の冒頭に引いたマーク・アンドリーセンは2月6日、自身のXにこう書き記した。

 「規制の掌握とオープンソースAIの頭打ちを狙った恐怖政治。オープンソースAIの本質的な脅威はビッグAIカルテルにある」  「米国にはいま、2つの選択肢がある:オープンソースAIでの勝利も含め、AIで勝利するか。あるいは、中国にAIで勝たせるかだ。私は、私たちが勝利することが決定的に重要だと考えている。ビッグ・プロプライエタリなAIを守るために、米国のAIや米国のオープンソースAIを狙い撃ちにすることは、負けることを意味する」

 これは、元OpenAIメンバーが創設し、AIサービス「Claude」を提供するAnthropicのCEO、ダリオ・アモデイがDeepSeekの安全性に警鐘を鳴らす発言をしたのを批判したコメントだ。

 DeepSeekが米国の流儀に突き付けた3つの刃の最後が、アンドリーセンの言う「ビッグ・プロプライエタリなAI」、つまりOpenAIやAnthropicなどのようにオープンソース文化から距離を置き、競争力の源泉たるソースコードを公開せずに閉鎖的に開発を進める大手AIへの挑戦だった。アンドリーセンは、アモデイのDeepSeek批判を、この中国勢による挑戦に対する反撃と牽制と捉えているのだろう。

 DeepSeek創業者の梁文鋒は「36Kr」のインタビューに応えて、2024年7月に次のように発言している。

 「常識を打ち破る革新的な技術の前では、クローズドな環境で守られた競争優位性は一時的なものにすぎない。米OpenAIは今ソースコードを非公開にしたが、競合他社の追い上げを阻むことはできていない。我々はこうしたプロセスの中で成長し、多くのノウハウを蓄積することで、イノベーションを生み出せる組織や文化を形成していく。これこそが当社の強みと言える」

 DeepSeekだけではない。アリババはDeepSeek R1に先んじて2024年6月に「Qwen2」というAIプロダクトを公表しており、これも9月にオープンソース化している。「中国のソフトウェア・エンジニアのコミュニティには、オープンソースの文化が根付いている」と、AI業界関係者は言う。

 ソースコードを開くべきか閉ざすべきかという論争に正解と言える回答はない。ただ、社会・経済システムとは裏腹に、米国のOpenAIは巨額の資金を投じて資源を集中投下して得られた競争力を自社に囲い込もうとし、中国のDeepSeekは世界中のエンジニアのコミュニティを味方につけて「自由で開かれた」環境でイノベーションを起こそうと試みている。そして、囲い込み戦略で独走していたOpenAIの牙城に、オープンな姿勢を示すDeepSeekの手が届いた。この事実には向き合っておく必要がある。

 少なくともマーク・アンドリーセンは、プロプライエタリな「ビッグAIカルテル」が米国政府と結び、先端GPUを禁輸したようにDeepSeekを規制で排除したとしても、それによって「オープンソースAI」を抑え込み、最終的に米国を勝利に導くことは難しいと考えているということだろう。

米中AI開発競争の行方

 ポストDeepSeekの米中AI競争はどこへ向かうのか。

 米国がAI開発において先頭を独走しているという現実には変化はない。これまで見てきたように、DeepSeekは、米国が輸出を許しているGPUで学習したと自称するモデルと組み合わせることで、米国勢が提供するAIの多くを凌駕する性能を示し、一部を性能では敵わないもののコストで大きく下回るAIを生み出した。つまり、中国がAI開発競争で米国を上回ったのはただ1点、「効率」だ。

 投入資源に対して大きな効果を生む効率を手に入れた中国勢は、これまで以上の角度で成長曲線を描いて米国を凌駕しようと試みるだろう。迎え撃つ米国がこれを引き離すためにやれることは3つある。1つは、さらに大きな物量や資金を投入して、多少の効率改善を吹き飛ばすような成長曲線を実現すること。もう1つは、より強硬な規制を設けて中国のこれ以上の効率向上を阻止すること。最後の1つが、効率——それを実現するエンジニアリングや、そのエンジニアリングを生み出す文化——を中国から学び、取り入れて、物量と効率を兼ね備えるようになることだ。

 1つ目の動きはすでに見られている。現代の「マンハッタン計画」とも呼ばれるStargateプロジェクトは、OpenAI、ソフトバンクグループ、Oracle、MGXなどが4年間で総額5000億ドル(約77兆円)を投じて米国内にAIインフラを整備するというものだ。1957年にスプートニク1号によって打ち上げられた大気圏外を周回する衛星がもたらした焦燥は、米国に科学技術への投資を促した。換言すれば、スプートニク号の衝撃は、米国が民意とともに巨額投資に向かうことに利用された。DeepSeekの登場によって危機感が高まったことで、同じことが米国に起こるだろう。

 2つ目は、GPUの輸出規制が効率を生み出したという背景を冷静に学べば、さらなるハードの規制に踏み切ることの効果には懐疑的になるはずだ。だが、なりふり構わず実行しようという論調も生まれるかもしれない。また、DeepSeekのようなAIプロダクトの利用を規制することで収益化を阻害し、成長を止めようという動きも出てくるだろう。ダリオ・アモデイの「DeepSeek危険論」などはその一例だ。

 3つ目を米国が実現できるかどうかは未知数だ。物量の不足という制約を創意工夫で乗り越えていくエンジニアリングや、そうした発想を生み出すエンジニアを集めて育むオープンソース文化を米国の先端AI開発が取り込めるかどうか。マーク・アンドリーセンが望むようにそれができれば、米国のAI開発は物量と効率の2つをともに手に入れることができ、中国に対して競争優位を形成できる可能性が高まるだろう。

 最後に、DeepSeekショックが米中両国以外の国々にどのような地政学的なインパクトを与え得るかについても触れておきたい。

 DeepSeek R1は、学習済みのモデルとAIを動かすソースコード自体は公開されている。しかもMITライセンスと呼ばれる方式を取っており、ライセンスさえ正しく表示すれば、世界中の誰もがこのソースコードを無償でダウンロードし、利用、改変、再配布、商用利用ができる。学習済みモデルにさらに独自の学習を加味してチューニングすることもできる。

 中国本土で稼働するDeepSeek R1を利用しようとすると、そのやり取りの履歴は中国政府に対して提供されるリスクがある。そのため、各国政府は一斉にDeepSeekの利用を禁じた。しかし、公開されているソースコードを使って自国内の環境で動かせばそのリスクはない。自国で一からAIを開発できないあらゆる国にとってDeepSeek R1は福音になるだろう。

 しかし同時にそれは、通常の商取引で米国製AIを利用できないような経済制裁を受けている国々も、これを自国内で合法的に稼働させることができるようになったことを意味する。ただちに軍事転用されて効果を発揮するようなものではないが、認知戦などでは相応の威力を生む可能性もある。そうした技術基盤が無差別に世界にばらまかれた、という側面も押さえておく必要があるだろう。

 日本にとってはどうか。

 物量の米国に対して、エンジニアリングで挑む中国。その姿は、かつての日米間の産業競争にも重なる。しかし今日、AI開発競争において日本勢はDeepSeekを生み出せなかった。「どうせ資金力で敵わないから」。日本の産業界でしばしばささやかれているその諦めを、知恵と工夫で乗り越えて見せたのが中国勢だった。東京大学の松尾豊教授は日本経済新聞社の取材に応じてこう発言している。

 「日本も生成AIモデルの開発を頑張っていく必要がある。ディープシークのように必ずしもビッグテックのような大資本でない会社が世界の最先端の精度を出せることは、日本のスタートアップを勇気づけることにもなる。国内でもしっかり技術開発していけば、こうした飛躍の可能性がある」

 同盟国・米国の技術覇権に対する中国の挑戦だ。DeepSeekを利用するのは危ない。DeepSeekが本当の情報を公開しているとは限らない——。すべて正しい。だが、日米ともに、それでもDeepSeekが確かになしえたことを正しく見極め、学ぶべきところは学ばなければならないはずだ。

渡部 晴人

株式会社ワイルドマン代表取締役
2012年にSony HMZ-T2とOculus Rift DK1クラウドファンディングの二択で迷いOculus Rift DK1を購入。2013年春から同人活動でVRゲームの開発を始めコミックマーケット・BitSummit・デジゲー博などのイベントで頒布・出展を行う。2015年から本職もVRに転向し、株式会社gumi、SHOWROOM株式会社を経て現職。現在は株式会社ワイルドマンにて『パンツァードラグーンVoyage Record』の製作ほかに従事。

池田 信太朗

実業之日本フォーラム 編集長
2000年日経BP入社。2012年1月に『日経ビジネスDigital』編集長。2012年9月から香港支局特派員。2015年1月から『日経ビジネスオンライン』編集長。2019年『日経ビジネス電子版』編集長。2022年3月に実業之日本社に転じて現職。著書に『個を動かす』。

著者の記事