Nvidia推AR1模型 自駕車「有常識」辨別路況
Nvidia輝達(另稱英偉達)2日宣布,推出全球首款自動駕駛「推理視覺語言模型」,要透過AI視覺辨識等應用,打造「有常識」的自駕車,使其更趨近於人類駕駛,擁有常識判斷能力辨別路況與車景安全性,掀起全球自駕車新革命,也為物理AI應用邁大步。
輝達自駕車布局再進擊,台廠中,鴻海已攜手輝達、UBER與Stellantis,啟動打造無人車計畫。隨著輝達新模型問世,業界看好有助鴻海加快推出自駕車腳步,成為大贏家。
輝達在美國加州聖地牙哥NeurIPS AI大會上,宣布推出一系列新開放AI模型和工具,旨在加速自動駕駛和物理AI研究。其中最受矚目的,是全球首款自動駕駛「推理視覺語言模型」Alpamayo-R1(AR1)。
輝達說明,AR1是專為自動駕駛研究設計的開放式推理視覺語言模型,可將思維鏈(chain-of-thought)AI推理與路徑規劃相結合,路徑規畫是提升自駕車在複雜道路場景中的安全性,並實現Level 4自動駕駛的關鍵要素。
以往的自動駕駛模型在處理行人密集的十字路口、即將出現的封閉車道或自行車道上的並排停車等複雜場景時,經常面臨困境。
輝達表示,AR1賦予自駕車類似人類駕駛的常識判斷能力,透過分解場景,逐步進行推理來實現打造「有常識」的自駕車,並讓車輛自行評估所有場景發展可能,再運用情境資料選擇最佳路線。
輝達指出,例如自駕車行經行人密集區且鄰近自行車道時,透過AR1,車輛得以即時整合路徑資料、納入推理軌跡,作為採取特定行動決策依據,進而規劃後續路徑,包括遠離自行車道,或為可能違規穿越馬路的行人預作停車準備等。
業界分析,輝達、鴻海、Uber與Stellantis正合作開發和部署Level 4自駕計程車,隨著輝達發布AR1,可望加速Level 4自駕技術商業化應用,為四家公司推動全球自駕移動服務的普及更邁進一大步。
Level 4自駕技術需要複雜的技術堆疊,包括強大的運算、智慧電源管理、可靠的連接和有效的熱控制。它們還依賴各種感測器(例如 LiDAR、雷達和多視圖攝影機)協同工作來感知環境。

FB留言