我的頻道

* 拖拉類別可自訂排序
恢復預設 確定
設定
快訊

泰勒絲、楊紫瓊、林書豪畢典傳遞正能量 啟發學子迎接挑戰

巴西5月Google熱搜詞 「氣候變遷」驟增9成

Google宣稱第四代專用TPU比輝達A100效能更強更節能

Google 的 Bard 或 OpenAI 的 ChatGPT等大型語言模型就得分散成千上萬個晶片,然後合力運作數周或更久來訓練模型。(美聯社)
Google 的 Bard 或 OpenAI 的 ChatGPT等大型語言模型就得分散成千上萬個晶片,然後合力運作數周或更久來訓練模型。(美聯社)

Google 周二公布用於訓練人工智慧(AI)模型的超級電腦更多細節,宣稱他們的系統比輝達(Nvidia)同類系統更快速也更節能。

Google 自行設計一套名為 Tensor Processing Uinit(TPU)的專屬晶片,用於該公司 90% 以上的AI訓練工作,即通過模型輸入資料,成為人性化對話或生成圖像更有用的素材。

Google TPU 目前已經更新到第四代。Google 周二發表一份科學論文,詳細說明如何利用自行研發的光訊號交換器,將超過 4,000 個 Google TPU 串聯起來,形成一個超級電腦。

加強這些串連,已成為業者之間打造AI超級電腦的競爭重點,因為像Google 的 Bard 或 OpenAI 的 ChatGPT等大型語言模型規模太大,已非單一晶片存放得了。既無法存在單一晶片上,這些模型就得分散成千上萬個晶片,然後合力運作數周或更久來訓練模型。Google 的 PalM 模型是目前所公開最大的語言模型,由分成兩個各由 4,000 個晶片組成的超級電腦來進行訓練,耗時 50 天。

在論文中,Google表示,就規模相當的系統來比較,他們晶片的速度比基於輝達A100晶片的系統快1.7倍,功耗效率高1.9倍。A100大約和第四代TPU同時問世。

Google表示,第四代TPU並未和輝達當前旗艦圖形處理器(GPU)H100做比較,因為H100晶片是在Google晶片之後上市,且使用更新的技術。

Google 晶片 AI

上一則

美股撐住連三周漲勢 別指望科技大咖財報超標再掀漲勢

下一則

理財Q&A/借錢給親友 言明在先以防後患

延伸閱讀

超人氣

更多 >