
2025年11月、NVIDIAが発表した好決算にもかかわらず、12月現在株価は伸び悩んでいます。
その原因がGoogleの「TPU」がNVIDIAの一強体制を崩すという論調。
しかし、「この「TPU」とは「ASIC」の一種だから、GPUとは違うので…」と言って伝わる人は決して多くないでしょう。
ですが、これはかつてのDeepSeekショックの時にも同じ議論がなされており、本来知っているべきものなのです。
今回の記事では、DeepSeek当時のASICの話題の記事を基に、ASICとは何かの理解を深めていきましょう。
(Fund Garage編集部)
右肩上がりのビジネス・トレンド
AI ASICの時代は終わったのか──Marvell TechnologyとBroadcom決算
Broadcom(AVGO)とMarvell Technology(MRVL)。いずれもAIブームの恩恵を受け、生成AI需要を背景に高成長を遂げた半導体企業である。今回、両社が発表した2025年4月期決算は、いずれも実績・ガイダンスともに市場予想を上回るものだった。BroadcomはAI関連売上が前年同期比で2倍近くに達し、Marvell TechnologyもData Center向け売上が87%の急増を示した。
ところが、両社の株価は決算発表後に大きく下落した。Broadcomは、好調なNASDAQ市場の中で4%超の下落、Marvell Technologyも同様に5%を超える下落を記録した。この不可解とも思える株価の動きは、市場が単なる「材料出尽くし」ではなく、より根源的な問題──すなわち“構造変化に対する遅れ”を見抜き始めていることを示唆している。
そもそもASICとは何か?
まず、今回の主題となる「ASIC」とは何かを簡潔に解説しておこう。
ASICとは「Application-Specific Integrated Circuit(特定用途向け集積回路)」の略であり、ある決まった用途に特化した電子回路を集積化した半導体チップのことを指す。たとえば、スマートフォンの中で暗号化処理を高速に行うための専用チップや、ビットコインのマイニング専用に設計されたチップなどが代表例だ。
AIの世界においても、特定のモデルや計算処理に特化したASICが開発されてきた。特にクラウド事業者(AWS、Google、Microsoftなど)は、自社でAIワークロードを高速に処理するため、Tensor Processing Unit(TPU)やTrainium、Inferentiaといった独自のASICを設計し、それを外部のファブレス半導体企業──たとえばMarvell TechnologyやBroadcomなどに製造を委託してきた。
この構造は、ある意味で「大量のAI推論需要を予測し、それに最適化された回路を用意することで、効率的にトークンを生成しよう」という“古典的”な推論型AIの時代においては極めて理にかなっていた。
DeepSeekショック──AIの推論構造が変わった
ところが、2025年前半、状況は一変する。背景には、「DeepSeekショック」と呼ばれるAI技術構造の急変がある。中国のDeepSeek R1が示した、Reasoningベースの推論モデルの登場は、従来のトークン生成型Inferenceとは異なるコンピューティング構造を要求する。
生成AIが行う処理は、大きく分けて「Prefill(準備)→Decode(生成)」というフェーズからなる。従来のInferenceでは、トークンを1個1個、直列的に生成することが主なタスクだったため、そこに特化したASIC設計が有効だった。
しかし、Reasoningモデルでは、単にトークンを並べるのではなく、文脈の理解、論理的整合性、事実ベースの選択など、より複雑で分岐的な計算が求められる。Decodeフェーズにおいて、膨大なキャッシュ(KVキャッシュ)へのアクセスが集中し、従来のASICが持つ固定的な構造では対処しきれない。
つまり、AIが“考える”ようになってしまったがゆえに、“特定の作業に特化したハードウェア”は足枷となり始めているのだ。この変化に、真っ先に対応したのがNVIDIAである。彼らは、単なるチップ設計ではなく、計算資源全体を設計する立場にある。
たとえば、Blackwell世代のB200 GPUは、従来比で大幅な演算性能向上を実現しただけでなく、Grace CPUと組み合わせて「GB200」として提供される。そして、それを72基束ねて一体化した「NVL72」は、トークン処理のスループットを従来比30倍にまで引き上げる。
さらに、NVIDIAはこの大規模処理を支えるために、超高速・低遅延の相互接続技術「NVLink」や、複数ノード間を束ねるNVSwitch、推論モデルの管理・実行を容易にする「NIMs」「NeMo」「Dynamo」など、ソフトウェアとハードウェアの垂直統合を進めている。これらはすべて、Reasoning型AI時代の到来を前提とした設計である。
取り残されるASICベンダー
一方で、BroadcomやMarvell Technologyは、自らAIチップを設計していない。彼らはクラウド顧客が描いた仕様に従って、回路設計やインターフェースチップを提供しているに過ぎない。その結果、クラウド側の戦略に変更があれば、容易に“構造から外される”リスクがある。
事実、今回のMarvell Technology決算説明では、AI向け売上の主力顧客における「デュアルソース化(供給元を分散する戦略)」が明言された。Broadcomとの併用が始まっているという。つまり、彼らが誇った大型AI ASICの案件ですら、顧客の戦略次第で容易に希薄化する構造であり、それは“構造的モノポリー”にはなり得ないことを示している。
さらに深刻なのは、AI ASICにとっての“設計寿命”が短くなっていることである。Marvell Technologyは2026年以降に新製品の量産を開始すると説明したが、その頃にはNVIDIAはすでにBlackwell Ultraを展開し、次世代アーキテクチャ「Ruben」に向けた準備を進めている。わずか1年半で、AIコンピューティングの基準が変わってしまう世界において、2年かけて投入されるASICは、もはや“時代遅れ”と見なされかねない。
BroadcomのEthernetも危うい理由
また、Broadcomの主力事業であるEthernetスイッチチップについても、AI時代の中核を担うには不十分な領域となってきている。AI推論では、極めて高い帯域と同期性が要求され、既存のEthernet規格では対応しきれない。すでにNVIDIAはInfiniBandからNVLink Fusionへの移行を加速しており、AIインフラの通信領域すらも「専用化」されつつある。つまり、Ethernetの生産量が多かろうと、利益率が高かろうと、AIの中核構造がそれを必要としなくなった時点で、Broadcomの技術的優位は崩れることになる。
結論として、AI ASICというカテゴリは、その“黄金時代”を終えつつある可能性がある。自ら設計せず、構造に乗るだけの企業は、AI革命の“供給網の支配”から脱落していく。現在の業績ではなく、未来の設計に関与できるかどうか──この視点が、今後の評価軸となる。今回の決算は、その転換点の始まりを静かに告げていたのである。
まとめ:ASICとGPUの違いを理解しなければ、納得のいく投資はできない
- ASICとは何か
- GPUとは何が違うのか
- AIの推論構造においてどこを担うのか
を理解することこそが、今のAI半導体に対する投資において重要な前提知識となっています。
編集部後記
こちらは、Fund Garageプレミアム会員専用の「プレミアム・レポート」の再編集版記事です。
公開から半年以上経った記事になりますので、現在の情勢とは異なる部分がございます。当時の市場の空気と、普遍的な知見の皆様にお届けできれば幸いです。
また、こちらは無料版記事のため、最新の情報や個別企業の解説についてはカットしております。
<FG Free Report では割愛>となっている箇所に関心をお持ちになられた方は、是非、下記ご案内よりプレミアム会員にお申し込みください。
有料版のご案内
Fund Garageのプレミアム会員専用の「プレミアム・レポート」では、個別銘柄の買い推奨などは特に行いません。
これは投資家と銘柄との相性もあるからです。「お宝銘柄レポート」とは違うことは予めお断りしておきます。お伝えするのは注目のビジネス・トレンドとその動向がメインで、それをどうやってフォローしているかなどを毎週お伝えしています。
勿論、多くのヒントになるアイデアは沢山含まれていますし、技術動向などもなるたけ分り易くお伝えしています。そうすることで、自然とビジネス・トレンドを見て、安心して長期投資を続けられるノウハウを身につけて貰うお手伝いをするのがFund Garageの「プレミアム会員専用プレミアム・レポート」です。

