我的頻道

* 拖拉類別可自訂排序
恢復預設 確定
設定
快訊

泰勒絲傳這1天大婚 還付重金要另1準新娘讓位

AAA圖輯/群星雲集 主持李俊昊張員瑛像新郎新娘

Nvidia推AR1模型 自駕車「有常識」辨別路況

Nvidia輝達(另稱英偉達)2日宣布,推出全球首款自動駕駛「推理視覺語言模型」,要透過AI視覺辨識等應用,打造「有常識」的自駕車,使其更趨近於人類駕駛,擁有常識判斷能力辨別路況與車景安全性,掀起全球自駕車新革命,也為物理AI應用邁大步。

輝達自駕車布局再進擊,台廠中,鴻海已攜手輝達、UBER與Stellantis,啟動打造無人車計畫。隨著輝達新模型問世,業界看好有助鴻海加快推出自駕車腳步,成為大贏家。

輝達在美國加州聖地牙哥NeurIPS AI大會上,宣布推出一系列新開放AI模型和工具,旨在加速自動駕駛和物理AI研究。其中最受矚目的,是全球首款自動駕駛「推理視覺語言模型」Alpamayo-R1(AR1)。

輝達說明,AR1是專為自動駕駛研究設計的開放式推理視覺語言模型,可將思維鏈(chain-of-thought)AI推理與路徑規劃相結合,路徑規畫是提升自駕車在複雜道路場景中的安全性,並實現Level 4自動駕駛的關鍵要素。

以往的自動駕駛模型在處理行人密集的十字路口、即將出現的封閉車道或自行車道上的並排停車等複雜場景時,經常面臨困境。

輝達表示,AR1賦予自駕車類似人類駕駛的常識判斷能力,透過分解場景,逐步進行推理來實現打造「有常識」的自駕車,並讓車輛自行評估所有場景發展可能,再運用情境資料選擇最佳路線。

輝達指出,例如自駕車行經行人密集區且鄰近自行車道時,透過AR1,車輛得以即時整合路徑資料、納入推理軌跡,作為採取特定行動決策依據,進而規劃後續路徑,包括遠離自行車道,或為可能違規穿越馬路的行人預作停車準備等。

業界分析,輝達、鴻海、Uber與Stellantis正合作開發和部署Level 4自駕計程車,隨著輝達發布AR1,可望加速Level 4自駕技術商業化應用,為四家公司推動全球自駕移動服務的普及更邁進一大步。

Level 4自駕技術需要複雜的技術堆疊,包括強大的運算、智慧電源管理、可靠的連接和有效的熱控制。它們還依賴各種感測器(例如 LiDAR、雷達和多視圖攝影機)協同工作來感知環境。

自駕車 輝達 AI

上一則

OECD示警 科技股價偏高 小幅調高主要經濟體成長率

下一則

美調降韓關稅至15% 溯及11/1生效

超人氣

更多 >