広場
最新
注目
ニュース
プロフィール
ポスト
SillyWhale
2026-04-28 15:52:57
フォロー
GoogleはラスベガスのCloud Nextカンファレンスで非常に戦略的な動きを見せました。第8世代の新しいTPUプロセッサを2つ同時に発表し、これは企業のAI市場の見方にとって重要な転換点となります。
初めて、Googleはトレーニング用と推論用のチップを完全に分離しました。AIモデルのトレーニングに焦点を当てたTPU 8tと、これらのモデルを運用環境で実行するために最適化されたTPU 8iです。これは明らかな戦術的変化であり、これら二つのタスクが非常に異なるニーズを持つことを認識しています。
性能の数字は興味深いです。TPU 8tは前世代と比較して1ワットあたり124%の効率向上を実現し、TPU 8iは117%の改善を示しています。11月にリリースされたIronwoodと比較すると、TPU 8tは同じ価格で2.8倍の性能を提供し、8iは80%の効率向上です。これらの向上は簡単なものではありません。
TPU 8tで最も注目すべきは、単一システムで最大9,600ユニットまでスケールできる能力です。Googleはこの規模の施設ではエネルギーがデータセンターの最も重要な制約となることを十分に理解しています。そのため、エネルギー効率が最優先事項となっています。
一方、TPU 8iは異なるアプローチを取っています。各チップには384MBのSRAMが搭載されており、Ironwoodの3倍です。これは推論にとって非常に理にかなっています。推論では、チップが外部からデータを取りに行くことなく複数の推論ステップを処理する必要があるためです。複雑なAIエージェントを実行するのに理想的です。
これら二つのプロセッサは2026年末に市場に登場します。AlphabetのCEO、サンダー・ピチャイは、アーキテクチャは「数百万のエージェントを同時に経済的に運用できるように設計された」と明言しました。これは重要なポイントです。単により良いチップを持つだけではなく、予算を超えずにそれを実現することが目的です。
ソフトウェア面では、Googleは新機能を備えたGemini Enterprise Agent Platformをリリースしました。Memory BankとMemory Profileにより、エージェントは過去のユーザーとのやり取りを記憶できるようになり、従来のツールが抱えていた実際の問題を解決します。また、Agent Simulationも導入され、リリース前のテストが可能です。
Projectsプラットフォームは、Workspace、OneDrive、企業チャットのデータを統合し、エージェントにコンテキストを提供します。さらに、一般社員向けのGemini Enterpriseもリリースされており、「誰でも使えるAIアシスタント」として位置付けられ、コーディング不要です。
これらすべては、ハードウェアとソフトウェアの二重攻撃であり、Nvidia、OpenAI、Anthropicに対抗しています。Googleは、シリコンエンジニアたちがAnthropicのClaudeやOpenAIのCodexを行き来しながらAI開発を行い、Googleのツールをあまり使わないことに不満を抱いていることを十分に認識しています。これは明らかにリーダーシップを苛立たせています。
TPUの採用は加速しています。Citadel SecuritiesはすでにGoogleのTPUを用いたクオンティタティブソフトウェアを構築しています。米国エネルギー省の17の国立研究所は、TPUを基盤とした協働ツールを使用しています。MetaはGoogleのTPUを長期契約で利用し、Anthropicもギガワット規模の計算能力を約束しています。
DA Davidsonのアナリストは、GoogleのTPUとDeepMindのビジネスの合計価値が2023年9月時点で9,000億ドルを超えていたと推定しています。
興味深いのは、Googleが新しいTPUをNvidiaの製品と直接比較していない点です。一方、NvidiaはGroqの技術を取り入れた新ラインを、特に超低遅延推論向けに、20億ドルで買収した技術を用いてリリースしようとしています。Nvidiaの黄仁勲氏は、20%以上のAI負荷はこの種のチップでより良く処理できると述べています。
Googleは、顧客のデータセンターにTPUを導入し、サードパーティのツールとの互換性を促進しています。しかし、供給の制約や、モデルの迅速なイテレーションとチップ開発サイクルの遅れが依然としてスケールの大きな課題となっています。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については
免責事項
をご覧ください。
報酬
いいね
コメント
リポスト
共有
コメント
コメントを追加
コメントを追加
コメント
コメントなし
人気の話題
もっと見る
#
WCTCTradingKingPK
339.54K 人気度
#
CryptoMarketsDipSlightly
244.08K 人気度
#
IsraelStrikesIranBTCPlunges
35.53K 人気度
#
#DailyPolymarketHotspot
683.17K 人気度
#
StrategyAccumulates2xMiningRate
139.46M 人気度
ピン
サイトマップ
GoogleはラスベガスのCloud Nextカンファレンスで非常に戦略的な動きを見せました。第8世代の新しいTPUプロセッサを2つ同時に発表し、これは企業のAI市場の見方にとって重要な転換点となります。
初めて、Googleはトレーニング用と推論用のチップを完全に分離しました。AIモデルのトレーニングに焦点を当てたTPU 8tと、これらのモデルを運用環境で実行するために最適化されたTPU 8iです。これは明らかな戦術的変化であり、これら二つのタスクが非常に異なるニーズを持つことを認識しています。
性能の数字は興味深いです。TPU 8tは前世代と比較して1ワットあたり124%の効率向上を実現し、TPU 8iは117%の改善を示しています。11月にリリースされたIronwoodと比較すると、TPU 8tは同じ価格で2.8倍の性能を提供し、8iは80%の効率向上です。これらの向上は簡単なものではありません。
TPU 8tで最も注目すべきは、単一システムで最大9,600ユニットまでスケールできる能力です。Googleはこの規模の施設ではエネルギーがデータセンターの最も重要な制約となることを十分に理解しています。そのため、エネルギー効率が最優先事項となっています。
一方、TPU 8iは異なるアプローチを取っています。各チップには384MBのSRAMが搭載されており、Ironwoodの3倍です。これは推論にとって非常に理にかなっています。推論では、チップが外部からデータを取りに行くことなく複数の推論ステップを処理する必要があるためです。複雑なAIエージェントを実行するのに理想的です。
これら二つのプロセッサは2026年末に市場に登場します。AlphabetのCEO、サンダー・ピチャイは、アーキテクチャは「数百万のエージェントを同時に経済的に運用できるように設計された」と明言しました。これは重要なポイントです。単により良いチップを持つだけではなく、予算を超えずにそれを実現することが目的です。
ソフトウェア面では、Googleは新機能を備えたGemini Enterprise Agent Platformをリリースしました。Memory BankとMemory Profileにより、エージェントは過去のユーザーとのやり取りを記憶できるようになり、従来のツールが抱えていた実際の問題を解決します。また、Agent Simulationも導入され、リリース前のテストが可能です。
Projectsプラットフォームは、Workspace、OneDrive、企業チャットのデータを統合し、エージェントにコンテキストを提供します。さらに、一般社員向けのGemini Enterpriseもリリースされており、「誰でも使えるAIアシスタント」として位置付けられ、コーディング不要です。
これらすべては、ハードウェアとソフトウェアの二重攻撃であり、Nvidia、OpenAI、Anthropicに対抗しています。Googleは、シリコンエンジニアたちがAnthropicのClaudeやOpenAIのCodexを行き来しながらAI開発を行い、Googleのツールをあまり使わないことに不満を抱いていることを十分に認識しています。これは明らかにリーダーシップを苛立たせています。
TPUの採用は加速しています。Citadel SecuritiesはすでにGoogleのTPUを用いたクオンティタティブソフトウェアを構築しています。米国エネルギー省の17の国立研究所は、TPUを基盤とした協働ツールを使用しています。MetaはGoogleのTPUを長期契約で利用し、Anthropicもギガワット規模の計算能力を約束しています。
DA Davidsonのアナリストは、GoogleのTPUとDeepMindのビジネスの合計価値が2023年9月時点で9,000億ドルを超えていたと推定しています。
興味深いのは、Googleが新しいTPUをNvidiaの製品と直接比較していない点です。一方、NvidiaはGroqの技術を取り入れた新ラインを、特に超低遅延推論向けに、20億ドルで買収した技術を用いてリリースしようとしています。Nvidiaの黄仁勲氏は、20%以上のAI負荷はこの種のチップでより良く処理できると述べています。
Googleは、顧客のデータセンターにTPUを導入し、サードパーティのツールとの互換性を促進しています。しかし、供給の制約や、モデルの迅速なイテレーションとチップ開発サイクルの遅れが依然としてスケールの大きな課題となっています。