Google獲Meta相助拓展AI市場 削弱輝達CUDA軟體優勢

發布時間:2025/12/18 12:20:00
更新時間:2025/12/18 12:20:00
FaceBookcopyLinkLine

圖、文/上報

路透獨家報導指出,Google正在推動一項新計畫,讓其人工智慧晶片能在全世界最廣泛使用、Meta的AI軟體系統PyTorch有更好的表現,意圖削弱輝達(Nvidia)在AI運算市場長期領先的地位。

Google獲Meta相助拓展AI市場 削弱輝達CUDA軟體優勢

 
Google正在積極計畫推動其開發的AI晶片TPU(Tensor Processing Unit,張量處理單元),取代輝達在市場領先的GPU,證明其對AI的投資可獲得利潤,而TPU已成為Google雲端收入重要的成長引擎。
 
不過硬體本身不足以帶動市場。消息來源指出,Google這項新的計畫「TorchTPU」的目標,是移除市場使用TPU緩慢的主要障礙,希望能讓其開發的TPU,能與已安裝PyTorch軟體的客戶能完全相容,對開發者友善。Google也考慮PyTorch的開源部分,以加速客戶採用的速度。
 
消息來源指出,Google之前已經支援PyTorch,但是這次投入更多組織的關注、資源和策略,希望能破除之前外界認為是軟體堆疊,導致TPU市場開拓受阻。
 
PyTorch是一種開源的計畫,大部分仰賴Meta的平台 Meta Platforms,而這是開發AI模型最廣泛使用的工具。在矽谷,很少開發商會寫輝達、超微(AMD)或Google生產的晶片的程式會真正執行。大部分的開發商都仰賴有如PyTorch的工具。PyTorch其實是一組已經寫好的程式資料庫和架構,在開發AI軟體時,可以自動執行許多共同的任務。PyTorch是在2016年推出,跟輝達的軟體架構CUDA緊密連結。
 
 

輝達GPU與PyTorch緊密結合

 
輝達的工程師一直確保與PyTorch研發的軟體,可以在其生產的晶片上有最好的表現。Google則有內部的軟體研發團隊,另行開發程式架構Jax,而其TPU晶片會使用一種名為XLA的工具,確保Jax有最佳表現。Google大部分的軟體堆疊和表現優化都是圍繞著Jax,進而導致Google使用晶片的方式,與客戶想要使用的方式,產生越來越大的鴻溝。Google的TPU過去都只供內部使用,從今年開始已經直接賣給客戶的數據中心。
 
Google雲端發言人拒絕針對該計畫置評,但表示會提供客戶選擇,「我們看到TPU和GPU兩種架構有大量及加速的需求」,「我們的重點是提供開發者需要的彈性和規模,無論他們選擇安裝什麼樣的硬體」。
 
消息人士指出,Google的企業客戶一直反映,比起輝達的GPU,TPU比較難以負荷AI工作負荷,因為TPU會要求開發者切換到Jax,而非大多數開發者使用的PyTorch。
 
消息人士透露,為了加速開發速度,Google正與PyTorch的創作者和管理者Meta密切合作,討論讓Meta取得更多TPU的資源。Google對Meta的初期提議是提供其託管的服務
像是Meta等客戶安裝Google設計的晶片,使用Google的軟體和模型,Google則會提供營運支援。知情人士透露,Meta對於能夠簡化TPU運作的軟體有興趣,希望能降低推論的成本,並使其人工智慧基礎設施,擺脫對輝達GPU的依賴,提升談判優勢。對此報導,Meta拒絕置評。
 
Google的「TorchTPU」計畫如果成功,將大幅降低企業尋找輝達GPU替代方案的成本。輝達的領先地位不僅得益於其硬件,也得益於其CUDA軟體生態系統。 CUDA軟體生態系統深度嵌入PyTorch,並已成為企業訓練和運行大型AI模型的預設方法。
 
 
 
 
 
 

延伸閱讀