OpenAIの新たな試み:Google製AIチップの導入の報せ
はじめまして、システムインテグレーターのTak@です。皆さんは、日々の業務でAIに触れる機会が増えているのではないでしょうか?
実は今、そのAIの「頭脳」とも言えるチップの世界で、とんでもない変化が起きています。
今回は、あのOpenAIがGoogle製AIチップを使い始めたという衝撃的なニュースから、私たちのビジネスや未来がどう変わるのか、私なりの視点でお話ししたいと思います。
推論コスト削減への期待
この動きの背景には、いくつかの大きな理由があるようです。まず一つは、推論(inference)にかかる費用を抑えたいというOpenAIの願いです。
AIモデルの「推論」とは、訓練されたAIが新しい情報に基づいて予測や判断を行うプロセスを指します。
例えば、ChatGPTが質問に答えるのもこの推論処理にあたります。多くのユーザーが使うようになると、この推論処理の量が膨大になり、そのための計算リソースの費用もかさみます。
OpenAIはGoogle Cloudを通じてTPUを借りることで、この推論コストを下げたいと考えているようです。
Microsoft依存からの変化
もう一つの大きな理由は、これまでOpenAIがほぼ全面的に頼ってきたMicrosoftのデータセンターから、供給先を広げたいという意図が見えます。
2019年からOpenAIはMicrosoftと協力関係にあり、大規模なモデルの訓練や推論をMicrosoft Azure上で行ってきました。MicrosoftはOpenAIに多額のお金を出し、OpenAIの技術を自社の製品に組み込むなど、両社の結びつきはとても強かったのです。
しかし、ChatGPTの人気が急に高まったことで、必要な計算の力が足りなくなり、新しい機能の発表が遅れるなどの問題が出てきました。このため、OpenAIはMicrosoftとの契約を見直し、2025年1月からは他のクラウドサービスの利用もできるようになりました。
これはOpenAIがMicrosoft一社への依存を減らし、安定したサービス提供を目指すための重要な一歩と言えます。
多角的な供給源確保の動き
このような動きは、企業が安定して事業を続けるための基本だと言われています。複数の会社からAIチップを調達することで、特定の供給元に何かあったときの危険を減らし、より良い条件でチップを手に入れられる可能性があります。
OpenAIは、GoogleのTPUの他にも、NvidiaのGPUやAMDのAIチップも積極的に使っています。
Googleにとってこの提携は、自社で開発したTPUを外部に広く提供する良い機会でもあります。これまでTPUはGoogleの社内で使うことがほとんどでしたが、今ではAppleやAnthropicといったOpenAIの競合企業にも使われるようになってきています。
Google TPUとは?その特徴と歴史
Google TPUは、Googleが機械学習、特にニューラルネットワークの処理を速くするために独自に作ったAIチップです。2015年からGoogleの社内で使われ始め、2018年には他の会社もクラウドサービスを通じてTPUを使えるようになりました。
AI専用に作られたチップ
TPUは、画像処理装置(GPU)とは異なり、特にAIの計算に特化して作られています。
例えば、絵を描いたり、文章をまとめたりといったAIの推論処理では、たくさんの少ない精度の計算を効率よくこなすことが大切です。TPUはこのような計算を電力消費を抑えながら行うのが得意です。
Googleは、TPUを一貫して「いかに効率を上げるか」という点を重視して開発してきました。最初のTPU v1は、従来のCPUやGPUと比べて電力効率が30倍から80倍も良かったとされています。
TPUの進化と性能向上
TPUは発表以来、何度も改良されてきました。
- 第1世代(v1):2015年に登場し、主に8ビットの行列計算に特化していました。
- 第2世代(v2):2017年に発表され、メモリの帯域幅が大きく広がり、浮動小数点計算もできるようになりました。これにより、AIモデルの訓練にも使えるようになりました。
- 第3世代(v3):2018年に登場し、第2世代の2倍の性能を持ち、液体冷却が導入されたことで、より高密度な計算が可能になりました。
- 第4世代(v4):2021年に発表され、v3に比べて性能が2倍以上になりました。
- 第5世代(v5e, v5p):2023年に発表され、v4よりもさらに速く、H100にも対抗できる性能を持つとされています。
- 第6世代(Trillium):2024年に発表された最新のTPUで、v5eに比べて性能が4.7倍も向上していると言われています。
- 第7世代(Ironwood):2025年に登場予定で、推論処理の効率を特に意識した設計になっています。
GoogleのAI研究部門のチーフサイエンティストであるジェフ・ディーン氏は、新しいIronwood TPUシステムが推論と訓練の両方に優れており、特に推論の需要が以前よりもはるかに高まっていると述べています。
多くのユーザーが高度な大規模モデルを使うようになり、単に出力を得るだけでなく、より複雑な思考や判断を必要とする場面が増えているからです。
なぜTPUが選ばれたのか
OpenAIがGoogle Cloudを選んだ理由は、単に計算の供給能力だけでなく、GoogleのAIに特化したインフラの強みがあるためです。
TPUは大規模言語モデルの訓練や推論において、GPUよりも効率的で高性能だと言われています。
OpenAIのような巨大なAIモデルを動かすには、計算能力だけでなく、効率性や電力消費、そして柔軟な拡張性も非常に大切です。TPUはまさにこれらの条件を満たす技術であり、他のクラウドサービスとは一線を画す技術的な良さを持っていると言えます。
また、Google CloudがAIスタートアップを積極的に支援していることも大きな理由です。
Anthropicなど、近年急速に成長しているAI企業はGoogle Cloudを選んでいることが多いのです。Googleは資源の提供だけでなく、共同研究やベンチャー支援など、様々な面でサポートを行っており、OpenAIにとっても魅力的な協力相手だったと考えられます。
報道の食い違いとOpenAIの声明
OpenAIがGoogleのTPUを使い始めたという報道は広く注目を集めましたが、その情報には一部食い違いもありました。
ReutersとSemianalysisの情報
Reutersは、OpenAIがChatGPTの稼働にGoogleのTPUを借り始めたと報じました. しかし、Redditの議論では、「Semianalysis」という情報源が、OpenAIが借りたのはCoreweaveのチップであり、TPUではないと主張している声もありました。
SemianalysisはOpenAIとGoogleの内部に情報源を持っているため、その情報には信憑性があるという意見も出ています。
この食い違いについて、Reutersの記事はTPUについて何度も明記しているため、曖昧さはないとする意見もありましたが、Reutersが「誤った情報を流すことが多い」という批判的な意見もありました。
OpenAIの公式見解
こうした報道を受けて、OpenAIは公式に声明を発表しました。OpenAIの広報担当者は、同社がGoogleのTPUを「早期のテスト」はしているものの、現時点ではこれらのチップを「大規模に使う予定はない」と述べたのです。
この声明は、OpenAIがハードウェアの利用に関して多くの可能性を検討していること、そして自社開発への強い思いがあることを示しています。
新しいハードウェアを本格的に導入するには、通常時間がかかり、異なるシステムやソフトウェアの対応も必要となるため、簡単なことではありません。
試験的な利用の現実
つまり、OpenAIはGoogleのTPUを試してはいるものの、すぐに全面的な移行をするわけではない、というのが現在の状況と言えるでしょう。
一部のメディアでは、OpenAIが使っているのは性能の低いTPUであり、Googleが自社のAIモデル「Gemini」のために作った最新のチップは、引き続きGoogle自身が使っているとも報じられています。
投資家や市場の専門家は、当初このTPU利用の動きを「OpenAIがNvidia以外の選択肢を探している兆候だ」と見ていましたが、OpenAIの最近の声明は、既存のチップ提供者であるNvidiaやAMDとの結びつきが依然として強いことを示しています。
AIの計算の需要がますます高まる中で、OpenAIは現在のGPUとTPUの試験的な利用を段階的に広げていく傾向にあるものの、TPUシステムへの全面的な切り替えは考えていないようです。
AIチップ市場の現在の状況
AIの発展は、半導体産業に大きな影響を与えています。特にデータセンターやクラウド環境でAIを動かすためのチップは、その需要が急速に伸びています。
NvidiaとAMDの存在感
現在、AIチップ市場ではNvidiaのGPUが圧倒的な存在感を示しています。特にNvidiaのHopperシリーズ(H100/H200)や最近発表されたBlackwellシリーズ(B200/B300)は、AIモデルの訓練に欠かせない高い計算能力を提供しています。
一方、AMDもMI300シリーズ(MI300X/MI325X)のような対抗できるチップを開発し、市場での競争を続けています。
OpenAIも、NvidiaのGPUとAMDのAIエンジンを引き続き使っていく方針です。これは、これらの製品がすでに性能が確認されており、OpenAIと両社との間で供給に関する取り決めが既に存在するためです。
推論処理の重要性
AIモデルの「訓練」は、AIに知識を学ばせる作業ですが、「推論」は学んだ知識を使って何かを判断する作業です。Googleのジェフ・ディーン氏が言うように、より多くのユーザーが高度なAIモデルを使うようになるにつれて、推論処理の需要が飛躍的に高まっています。
特に、単に答えを出すだけでなく、論理的な思考や判断を伴う「リーズニング」の需要が増えていることが、推論の重要性をさらに高めています。
しかし、推論のスループットはメモリの帯域幅に左右されるという課題もあります。そして、計算能力(FLOPS)よりもメモリや入出力の帯域幅を確保する方が、はるかに多くの電力を消費するという指摘もあります。
自社開発チップの動き
OpenAIは将来に向けて、自社でAIチップを開発する動きも進めています。今年中にはチップの設計が固まり、生産に移る段階に入ると予想されています。
これは、自社でチップを開発することで、より効率的に、そして特定の目的に合わせてAIの力を引き出そうとする狙いがあると考えられます。Googleも、以前は社内でTPUを開発・使用していましたが、今は外部にも提供を広げています。
半導体産業全体の大きな流れ
AIチップの動向は、半導体産業全体が経験している大きな変化の一部です。
用途特化型チップの台頭
半導体産業はこれまで、「大量生産」と「規模」を最も大切にしてきましたが、今は急速に「特定の用途に特化する」「少量でも高度なものに対応する」「速いペースで協力しながら開発する」という方向へと重心を移しています。
これは、AIアクセラレータや自動運転車、電動化による電力半導体の新しい技術、データセンターの高密度化など、様々な最終製品の市場で同時に変化が起きているためです。
例えば、GoogleのTPUやMetaのMTIAのようなカスタムIC(特定用途向け集積回路)の多くは、BroadcomやMarvellといった外部の設計協力会社との連携によって作られています。
これらは計算の効率性と費用を両立する「特定用途向け高性能チップ」として、NvidiaのGPUとは異なる価値を提供し、少量の生産を前提とした開発が普通になりつつあります。
AIが牽引する半導体市場の成長
人工知能の発展は、半導体産業の成長を力強く押し進める要因となっています。世界の半導体市場は、2024年には6,420億米ドル、そして10年後には1兆米ドルに達すると予想されています。
特に、データ処理の効率化と大量のデータに対応できるメモリの需要が高まっており、AIやIoT、クラウドコンピューティングの利用が広がることで、この勢いはさらに増すでしょう。
2028年または2029年までには、データセンター向けプロセッサの80%以上がAIアクセラレータになるか、AIの機能を持つものになると予測されています。これは約1,500億米ドルもの市場規模になると言われています。
協力関係の重要性
このような変化に対応するためには、一社だけでは限界があります。半導体業界では、組織の壁を越えて外部と協力し、変化に柔軟に対応できるシステムを築くことが不可欠になっています。
例えば、AI処理に欠かせないHBM(広帯域幅メモリ)は、その技術的な複雑さから、メモリメーカー単独では作ることが難しく、TSMCのような製造会社と複数のメモリメーカーが2年以上も協力して開発を進めています。
このような協力こそが、新しいHBM3EやHBM4のような技術の市場投入を可能にしているのです。
私たちの未来とAIチップ
OpenAIとGoogleのチップに関する今回の動きは、AI産業全体の未来の形、そして私たちの生活がどう変わっていくかを示す重要なメッセージを秘めていると感じます。
AIエージェントの時代に向けて
Googleのジェフ・ディーン氏は、現在、AIを活用した「エージェント」という考え方が注目されていると語っています。これは、複雑な作業をAIエージェントに高いレベルで指示し、私たちに代わって実行してもらうというものです。
例えば、旅行の計画をAIエージェントに任せたら、飛行機の予約から乗り換えの選択まで、自動でこなしてくれるような世界が考えられます。
このようなエージェントが普及すると、AIエージェント同士が情報をやり取りするための標準的な仕組みが非常に大切になります。
将来的には、私たちが一つのAIエージェントに依頼したことが、実際には多くのエージェントが協力し合って最終的な結果を導き出す、という世界になるかもしれません。
多様化するAIインフラの選択
OpenAIがGoogle Cloudとの協力に踏み出したのは、複数のクラウドサービスを組み合わせて、柔軟性と安定性を確保するという戦略を選んだことを意味します。
これにより、リスクを避けながら性能を高め、変化に強いAIサービスを運営しようとしているのです。
これは企業にとって、クラウドを選ぶ基準が「大手だから安心」から、「AIの目的に最も合うものは何か」という視点へと変わるきっかけになるでしょう。特にAIを事業の中心に据える企業にとっては、Google CloudのようなAIに特化したクラウドが、これからのスタンダードになる可能性もあります。
AI技術の進化は止まらず、それによって必要となるチップも常に変化し続けています。
今回のOpenAIとGoogleの動きは、AI市場における主導権争いの一端でありながら、私たち企業や個人が「次に何を選ぶべきか」を考える重要な手がかりを与えてくれるものだと思います。
これからも技術と創造力を駆使して、皆さんの「アイデアを形にする」お手伝いができればと思っています。