
財經中心/綜合報導
美國媒體報導,Meta正洽談採購Google自研的AI推論晶片TPU,金額可能達數十億美元,象徵雲端大廠自研ASIC晶片開始走向對外商業化,並可能改寫輝達在AI伺服器晶片市場的主導地位。
美國媒體報導,Meta正洽談斥資數十億美元,採購Google研發、專為人工智慧(AI)推論打造的「張量處理器」(TPU)。業界解讀,雲端服務供應商(CSP)已經不只是利用自行開發的特殊應用IC(ASIC)降低成本,與輝達等AI晶片品牌廠競爭態勢再升高。

但Meta洽談採購Google自研AI晶片的傳聞,意味著CSP業者以前只供自用的ASIC晶片,往後也可以對外租售賺錢,與AI晶片品牌廠競爭態勢再升級。
輝達執行長黃仁勳近日對於自家晶片與CSP的ASIC晶片比較下了註解,他認為,加速計算可以進行資料處理、影像處理、電腦繪圖及各種類型的計算,而輝達的GPU是唯一能完成所有前述操作及AI的產品,ASIC晶片或許能實現AI,卻無法實現其他功能。
Meta採購Google自研AI晶片若達成協議,可望幫助Google的TPU成為輝達AI晶片的替代選項,並大幅推升Google的營收。
消息人士透露,Google雲端部門的一些主管曾表示,這項業務可能讓公司搶下輝達年營收的10%。依照輝達營收規模計算,這代表Google每年可增加數十億美元營收。
彭博分析,Meta開始採用Google TPU,顯示大型語言模型(LLM)的第三方服務業者近期可能開始以Google為第二家推論晶片加速器供應商。Meta針對2026年至少1,000億美元的支出,估計會有至少400億-500億美元投入推論晶片量能。
Google吸引客戶採用TPU的方式之一,是強調比昂貴的輝達晶片便宜。輝達晶片價格之高,使甲骨文(Oracle)等雲端服務供應商難以靠出租輝達晶片的運算能力,產生良好的毛利率。
輝達GPU和Google TPU都能執行AI任務,但設計不同,輝達GPU採用的是通用平行處理架構,能同時處理大量不同的任務,主要用來「訓練」AI模型,TPU則是專用晶片,在協助AI模型根據問題生成答案的這類運算較輕的「推論」過程中,能發揮極高效率,開發成本更低,而且在滿載運算時的耗電量更少。



















