NVIDIA一強は崩れる?日本発AI半導体3つの衝撃
NVIDIA一強は「すぐに終わる」と断定できません。NVIDIAはGPUだけで勝っているのではなく、CUDAという開発環境と巨大な供給網で市場を握っています。
一方で、NVIDIA一強に“ひび”が入る条件はそろいました。最大の理由は、AIサーバーが限界に近づいているからです。計算性能ではなく、電力・熱・メモリコストがボトルネックになりました。
その状況を変えようとしているのが、日本発のAI半導体スタートアップ「レン(仮)」です。元PlayStationの半導体開発者が中心になり、NVIDIA GPUと別の構造で勝負します。
記事では、レンが採用する「CGLA」という構造が何を変えるのかを、初心者向けに整理します。技術の話を“読める言葉”に翻訳します。
結論
NVIDIA一強を崩す衝撃は3つです。
①電力問題の本丸が「計算」ではなく「データ移動」だと突いた。
②GPUでもTPUでもない第三の構造で「省電力×汎用性」を両立しようとしている。
③最大の壁であるCUDA依存が揺れ始め、GPU以外の選択肢が現実になった。
ただし短期での覇権交代は起きません。理由は、CUDAという巨大なソフト資産が強すぎるからです。レンが勝つ道は「置き換え」ではなく「電力が限界の領域から食い込む」戦略になります。
この記事を読むメリット
この記事を読むと、次のことが分かります。
・NVIDIAのGPUが強い本当の理由が分かる
・AI半導体のボトルネックが「計算」ではないと理解できる
・Google TPUと新構造CGLAの違いが整理できる
・日本発スタートアップが戦える理由と、苦しい理由の両方が分かる
・「NVIDIA一強は崩れる?」の答えを、根拠つきで判断できる
NVIDIA一強に“ひび”が入る3つの衝撃
衝撃① 電力の本丸は「計算」ではなく「データ移動」
AIサーバーの電力問題は、GPUが無駄に計算しているから起きたのではありません。AIサーバーの電力を食っている犯人は、メモリと計算器の間でデータを運ぶ行為です。
半導体は大きく言うと「メモリ」と「計算器」でできています。計算器は足し算や掛け算をします。メモリはデータを貯めます。AIは、この2つの間でデータを何度も行ったり来たりさせます。
ここで問題が起きます。計算そのものより、移動のほうが電力がかかるからです。提示された数字では、演算1回が20ピコジュールに対し、データが1mm移動するだけで26ピコジュールかかります。
数字が示す事実はシンプルです。
AIは計算より、運搬で電気を使っているのです。
この現実を突いた時点で、NVIDIA一強にひびが入ります。GPUの性能競争を続けても、電力の壁にぶつかるからです。
衝撃② GPUの弱点は「古い構造」と「メモリアクセス地獄」
NVIDIAのGPUは万能です。画像処理でもAIでも動きます。汎用性が高い設計です。汎用性は強みです。
しかし汎用性は、効率の悪さも抱えます。理由は、GPUが基本的にノイマン型アーキテクチャーの延長にあるからです。ノイマン型は、計算器がメモリへ何度も取りに行きます。
CPUの例が分かりやすいです。
・プログラムを取りに行く
・Aを取りに行く
・Bを取りに行く
・結果Cを書き戻す
1回の処理でも最低4回メモリアクセスが起きます。GPUはアクセスを束ねて取りに行くのでCPUよりは改善します。それでも、メモリと計算器のキャッチボールは大量に残ります。
AIサーバーが「熱い」「電気代が高い」「供給が足りない」と言われる根っこはここです。GPUが悪いのではありません。構造が電力時代に合わなくなったのが問題です。
衝撃③ GPU以外の選択肢が見え始めた
NVIDIAがAI市場の9割を握る理由は2つあります。
・GPUというハードの性能
・CUDAというソフトの覇権
CUDAは「空気」です。AI開発者は疑問なく device="cuda" と書きます。CUDAがあるから、AIソフトがそのまま動きます。CUDAがない半導体は参入しづらいです。
この壁がある限り、NVIDIA一強は崩れません。ここまでは事実です。
それでも風向きが変わりました。理由は、GoogleのTPUの存在です。TPUはGPUと違う構造でAIを動かします。しかもGoogleが外販を進めると報じられています。
市場の心理が変わります。
「AIはNVIDIAから買うしかない」が崩れます。
「GPU以外でも動く」が常識になります。
この空気の変化が、スタートアップに追い風になります。レンが「GPUではない選択肢」として受け入れられる土壌ができます。
GPU・TPU・CGLAの違いを1枚で理解する
具体例① CPUは“取りに行く”から電力を使う
CPUは計算器がメモリへ取りに行きます。処理のたびにデータを探し、持ち帰り、結果を戻します。汎用性は高いですが、電力効率はAI用途で不利です。
この構造は日常用途では問題になりません。AIのように巨大データを大量に回すと、弱点が爆発します。
具体例② GPUは“まとめ取り”で速いが、往復は消えない
GPUはアクセスを束ねます。まとめてメモリへ行き、まとめてデータを落とします。これで速度が出ます。
それでも、メモリと計算器の往復は残ります。AIサーバーでは、この往復が電力の半分以上を食うことになります。
GPUが「計算できる力」を伸ばしても、ボトルネックは「運ぶ力」になります。ここが苦しい点です。
具体例③ TPUは“上から流す”ので省電力だが用途が狭い
TPUはデータフロー型です。メモリ側が整えたデータを、計算器へストリーミングのように流します。計算器はデータを取りに行きません。
この構造は行列計算に強いです。生成AIの主力であるテンソル計算に特化しています。
弱点も明確です。用途が狭い点です。アルゴリズムが変わると最適ではなくなる可能性があります。
具体例④ CGLAは“流れを変えられる”から汎用性を残せる
レンが狙うCGLAのポイントは、データの渡し方を後から組み換えられる柔軟性です。
TPUのシストリックアレイは、データを渡す順番が固定です。固定だから強くて狭いのです。
CGLAは順番を固定しません。流れを変えられます。行列計算にも対応します。他の計算にも対応します。
レンが言う強みはここです。
「省電力」と「汎用性」を両立する。
具体例⑤ “5mm角チップ”が意味するもの
現状の装置は巨大でも構いません。重要なのは、TSMC製造で5mm角のチップが見込まれている点です。
半導体は作れたら終わりではありません。量産と採用の入口に立った時点で景色が変わります。
NVIDIA一強が崩れる条件と、崩れない理由
主張① 覇権交代は「性能」ではなく「電力」で起きる
AI半導体の戦いは、性能競争に見えます。現実は電力競争です。
データセンターは電力が上限です。電力が上限なら、計算性能は伸ばせません。電力が下がれば、同じ電源枠で台数を増やせます。
だから「電力9割減」という主張は刺さります。GPUの代替は性能で勝つ必要がありません。電力と総コストで勝てば良いのです。
主張② レンの勝ち筋は「全部置き換え」ではない
NVIDIA一強を崩すと言うと、GPUが消える未来を想像します。GPUは消えません。GPUは当面残ります。
レンの勝ち筋は、限定領域です。
・電力が限界のデータセンター
・推論専用の省電力枠
・特定業務のAI処理装置
・オンプレの電源制約環境
こうした「電力が最大の課題」の現場で、CGLAが採用されると勝ち筋が見えます。
主張③ 最大の壁はCUDAで、ここを越えない限り覇権は変わらない
厳しい現実も書きます。NVIDIAの本体はGPUではありません。CUDAです。
CUDAは開発者の習慣に埋まっています。ツール群、最適化、学習済み資産、サンプルコード、社内ノウハウが全部CUDAに寄っています。
CGLAがどれだけ省電力でも、「既存のAIソフトが動きにくい」状態では採用を遅らせます。レンはここを越える必要があります。
越え方は2つです。
・CUDA互換層を作る
・特定用途で「専用スタック」を完成させる
後者のほうが現実的です。電力が限界の現場では、ソフト変更コストより電気代と冷却のほうが重いからです。
主張④ NVIDIA一強は崩れる。ただし“崩れ方”は分散になる
結論はこうなります。
NVIDIA一強は崩れます。覇権交代ではなく、用途別の分散になります。
・GPUは汎用の王で残る
・TPUは行列特化で伸びる
・CGLAのような新構造が「省電力×汎用」で割り込む
この分散が進むほど、ユーザーの選択肢が増えます。企業は電力とコストで最適化できます。
日本発スタートアップが狙う価値はここです。NVIDIAを倒す話ではありません。電力の壁で詰んだ現場を救う話です。
まとめ
・AIの敵は計算不足ではない。データ移動が電力を食う
・GPUは万能だが、メモリアクセス地獄で電力が詰む
・TPUは省電力だが用途が狭い
・CGLAは省電力と汎用性を両立し、第三の選択肢になる
・NVIDIA一強は短期で終わらない。CUDAが強すぎる
・崩れる未来は「置き換え」ではなく「用途別分散」になる

