訂閱
糾錯
加入自媒體

美國新勢力 Rivian 2025 Autonomy & AI Day :自研800TOPs芯片,L4“解放雙眼”自動駕駛路線圖

2025-12-15 15:26
vehicle公眾號
關注

在國內,所有人做輔助駕駛的人的目光基本都聚焦在 FSD 的技術產品方案,但是最近歐美新勢力Rivian 在其 AI 日上投下了一枚重磅炸彈。

他們不僅推出了價格極具競爭力的2,500美元的自動駕駛輔助套件 Autonomy+,更重要的是,他們公布了一張全面、激進且極度依賴硬件自研的路線圖。

這不再是一場軟件升級競賽,而是一場關乎AI 芯片、三維世界模型和數據飛輪效率的底層架構之戰。

從自研 800 TOPS 的 RAP1 芯片,到首次擁抱 LiDAR 激光雷達,再到打造端到端的 大型駕駛模型 (LDM),Rivian 正將自己武裝成一個真正的“AI 定義汽車”玩家。

這份深入的分析將帶您深入Rivian技術產品細節,直擊 Rivian 的 Gen 3硬件平臺、端到端軟件模型,以及其能否在 2026 年實現“點對點自動駕駛”甚至“脫手脫眼”的雄心壯志。

總體技術與和產品路線圖

Rivian的自動駕駛輔助套件 Autonomy+ 的售價為 2,500 美元(一次性付款)或每月 49.99 美元,包含一項通用脫手駕駛功能,可在美國和加拿大超過 350 萬英里的道路上使用。特斯拉FSD在北美的價格是8,000 美元的售價或每月 99 美元的訂閱價格。 

點到點導航(P2P,2026 年開始):車輛可以完全自動地從一個地址導航到另一個地址。

完全脫眼的:P2P 之后的下一個重大步驟,你可以雙手脫離方向盤、目光離開道路,看手機或讀書,不再需要積極參與駕駛

個人 L4 級自動駕駛(Personal L4):隨后的迭代,車輛將完全自主運行,可以接送孩子或接你從機場回來。

總體從宏觀上看,產品細節主要是L2的體驗,升級到L4自動駕駛。也符合當前的主流共識。

Rivian Gen 3 硬件系統深度解析

Rivian 的Gen 3 Autonomy 系統將于明年底在 R2 車輛平臺上推出。硬件的重點是三個領導領域:傳感器、自研芯片和整體產品集成。

Rivian采用多模態傳感器策略,為 AI 模型提供豐富多樣的數據集。

攝像頭:Rivian第三代輔助駕駛硬件平臺配備 11 個攝像頭,提供總計 65MP 的數據,比 R1 多 10MP。攝像頭是傳感器套件中的主力,生成模型所需的大部分數據。

雷達:Rivian第三代輔助駕駛硬件仍保留 5 個雷達(1 個前置高分辨率雷達和 4 個角雷達),彌補攝像頭在非理想光照(低光、強光或霧)下的不足。雷達通過射頻能夠在完全黑暗中視物,并提供物體的深度和速度。Rivian的角雷達支持短程和遠程雙模式,具有高空間分辨率,這樣使Rivian可以干掉超聲波傳感器。

LiDAR(激光雷達):Rivian第三代輔助駕駛硬件首次添加。它是一種光學傳感器,具有主動光源,能夠在黑暗中看得更好。另一個優勢是它能提供世界的 3 維視圖,而攝像頭提供的是 2 維視圖(需要 AI 模型推斷深度,準確性較低)。 

Rivian表示雷達和 LiDAR 非常有助于填補攝像頭感知上的“漏洞”,否則這些漏洞會引發長尾問題。

Rivian第三代輔助駕駛硬件平臺的激光雷達被很好地融入了車頭設計,避免了常見的“出租車頂”式突兀結構。

根據相關信息,Rivian的激光雷達可能來自于Luminar等美國品牌,至于之前一直談的速騰聚創等中國激光雷達,在當前的地緣政治環境下,基本不太可能。

Gen 3 自動駕駛計算平臺與 RAP1 自研芯片

Rivian之前智能輔助駕駛的芯片和國內其他公司一樣,采用來自英偉達的Orin系列芯片。

現在,推出的Gen 3 自動駕駛芯片稱為 Rivian Autonomy Processor (RAP1)。它是為物理 AI 構建的系列芯片中的第一款,采用多芯片模塊(MCM)架構,集成 Rivian 芯片和內存。

關于算力和能耗,Rivian宣稱它實現了比 Gen 2 計算平臺(也就是英偉達Orin) 4 倍的峰值性能,同時電源效率提高了 2.5 倍。

 核心規格:在臺積電 5nm 汽車級工藝上生產。核心是 Rivian 設計的AI神經引擎,具備 800TOPS 稀疏sparse INT8算力, 目前。

其中,Rivian 宣稱其新品采用多芯片模塊架構,RAP1 是首批將 MCM 封裝引入汽車高計算應用的 OEM 之一。這種緊密耦合實現了極高的內存帶寬,凈帶寬達到 205GB/秒。MCM 設計還簡化了 PCB 設計,使其更小、更簡單、層數更少,從而降低了成本。

Gen 3 自動駕駛計算平臺,采用兩塊RAP1芯片,合計1600TOPS。

關于芯片SoC 

結構:除了神經引擎,SoC 還包括 14 個高能效的 Arm Cortex-A720AE 內核(應用處理器)、用于功能安全和實時計算的 8 個 ARM Cortex-R52 內核(安全島和實時處理單元),以及 ISP、編碼器、GPU 等。

AI 支持:神經引擎支持最先進的深度學習模型,特別是在硬件中原生支持 Transformer 及其所有類型的注意力機制(如多頭注意力、可變形注意力)。它還包含特殊的硬件 Hook 來支持 LiDAR 和雷達處理。

此外,關于軟件和安全,Rivian宣稱其內部投入了大量資源開發了軟件工具和中間件棧,包括內部編譯器,以充分利用 RAP1 的能力。RAP1 從設計之初就考慮了功能安全,符合 ISO26262 ASIL 等級。

最后,Rivian宣稱其RAP1 芯片設計具有可擴展性。它可以通過 RivLink(高達 128Gbps)實現多芯片連接,允許傳感器數據在 SoC 間無縫共享,從而實現更高的性能。

目前首臺部署的R2 中部署的系統是液冷的,Rivian表示支持風冷系統。Gen 3 自動駕駛硬件系統能夠每秒處理 50 億像素的傳感器數據。

Rivian 軟件平臺與數據飛輪運營

Rivian將其輔助駕駛軟件模型稱為大型駕駛模型(LDM),并表示是完全內部自研,端到端訓練,直接從像素、雷達回波和激光雷達點生成軌跡。

LDM 使用基于 Transformer、自回歸預測和強化學習以及大型語言模型(LLMs)等算法技術。

傳感器輸入多模態通過早期融合(Early Fusion)將傳感器數據整合到單一的世界模型中。傳感器相互補充,增強了精度和預測信心。

進入AI算法網絡結構中,每個傳感器輸入被編碼、投影,然后結合成幾何特征空間。接著,基于 Transformer 的解碼引擎從這個融合的張量中生成一個完整的世界模型,包括行人、車輛、用于短程操作的致密 3D Occ占用概率,以及實時生成的局部地圖。

有了端到端的算法,下一步就是要有數據飛輪或者數據閉環能力。它能將真實世界的駕駛轉化為數據,不斷迭代模型。

Rivian構建了一個可查詢的動態駕駛場景數據庫。

車端部署了一個ADR 運行觸發代碼,可以根據世界模型看到的任何信號(如行人闖紅燈、模型預測軌跡與人類駕駛軌跡的差異)觸發記錄。 ADR 效率很高,大多數“無聊”的駕駛數據不會被捕獲。一旦觸發器觸發,事件發生前后的所有傳感器數據會被捕獲、標記、壓縮并上傳,然后可立即用于模型訓練、評估或模擬器回放。

此外,在Rivian配備 LiDAR 后,每輛 R2 都將成為一輛“地面真值”車輛。這為訓練數據提供了比其他 OEM 高出多個數量級的力量倍增器。此外,由于存儲了所有傳感器模態,可以利用大型離線模型對大部分訓練數據進行自動標注。

算法模型的訓練與發布

LDM 基于與大型語言模型(LLMs)相同的技術,使用 Transformer 和 tokens(代表軌跡的小部分)。它采用 GRPO 強化學習,但目標是安全、高性能和平穩駕駛,而非與人類價值觀對齊。

在訓練中,模型采樣多個軌跡,并通過道路規則排名器進行排序,從而訓練模型,使其遵循正確的道路規則。 

Rivian通過以下兩個方式驗證和確定發布新模型:

云模擬器:在每次發布時,通過數百萬英里的真實世界場景運行整個自動駕駛棧,以統計學上顯著的方式衡量安全性、舒適度和性能指標。

學徒模式(Apprentice Mode):在向客戶發布功能之前,新軟件版本會在后臺運行,與人類駕駛里程和舊版本進行對比監控,實現數千萬英里的評估。

這樣端到端模型車端部署,車端數據收集,云端訓練下發,形成數據飛輪,不斷向上提升和迭代軟件版本。

Rivian 統一智能(RUI)的智能座艙等應用

Rivian將其對AI應用,做了一個組合形成了RUI的概念。并表示RUI 是一個共同的 AI 基礎,理解Rivian的產品和運營,并個性化客戶體驗。 

Rivian改造了車輛操作系統以支持 AI。內部開發了一個多智能體、多 LLM、多模態智能平臺。RUI 跨越云端和邊緣。

對于邊緣 AI,R2 將擁有接近 100 TOPS 的邊緣 AI,專門用于座艙體驗。這將把大多數智能工作負載從云端轉移到邊緣,確保車輛離線時仍可使用完整的座艙 AI 體驗。

最重要的應用就是Rivian 助理,類似于語言助手,AI agent的體驗。它完全集成到用戶體驗和車載操作系統中。理解用戶、車輛和用戶所處的環境,并將于 2026 年初向所有 Gen 1 和 Gen 2 客戶提供。

Rivian 助理基于 AGENTIC 框架構建,允許集成到更大的生態系統和個人數字上下文。

個人上下文集成:助理可集成 Google 日歷。例如,詢問日程或通過自然語言指令(如“將我與 Tim 的電話會議改到下午 5 點”)來管理日程。

車輛上下文集成:助理與所有車輛應用集成,包括 EV 路線規劃和駕駛模式。例如,你可以要求導航到約會地點,并詢問到達目的地時剩余的電量。它還能在不指定具體模式的情況下(如“切換到更高效的駕駛模式”)自動切換到“Conserve Mode”。

復雜任務控制:助理能通過一個自然語言命令執行復雜的任務,例如“加熱除我以外的所有座椅”。

信息傳遞:助理提供了短信體驗。它完全集成到車載操作系統中,可以訪問所有應用和控制。它可以理解上下文(例如,你正在導航到某個地點),然后根據對話內容搜索附近的餐廳,并將選項和你的預計到達時間(ETA)整合到一條短信中發送給聯系人。

助理擁有記憶和上下文感知能力,代表了 Rivian 數字系統的新基礎。AI 正在以指數級速度拉大軟件定義車輛與傳統車輛架構之間的差距,而 Rivian 正處于從軟件定義車輛邁向 AI 定義車輛的獨特位置。

在工廠生產中,RUI的診斷智能體即時連接裝配線上的實時遙測數據,使Rivian在車輛離開工廠前驗證質量。

服務與維護:RUI 平臺基于真實的車輛數據進行訓練,賦能技術人員,幫助他們瞬間識別和確定故障的根本原因,將維修時間縮短數小時。該平臺還支持客戶通過車輛或移動應用智能地進行自助故障排除。

寫在最后

Rivian 的“Autonomy & AI Day”清晰地勾勒出其對 L4 級自動駕駛的堅定承諾,即通過 自研芯片 (RAP1) + 多模態傳感器 (視覺、雷達、LiDAR) 構建一個高冗余、高效率的系統。

至此,多傳感器融合方案陣營,在北美如我們之前文章《吳新宙帶領英偉達沖刺自動駕駛L4背后的VLA大模型算法》分享到的英偉達供應鏈方案,有Waymo,現在有了歐美新勢力Rivian的加入

這與特斯拉堅持的“純視覺”路線形成了汽車 AI 領域最鮮明的技術分歧。

現在,一個核心問題擺在我們面前:

 Rivian 激進的硬件方案和更具競爭力的 Autonomy+ 定價,是否會迫使特斯拉重新考慮其在硬件和定價上的策略?

在通往 L4 級的終極競賽中,您認為哪種技術范式——Waymo/英偉達/Rivian 等的多模態重裝方案還是特斯拉的純視覺極簡主義——將更早、更安全地贏得消費者的信任?

參考資料以及圖片

Rivian AI day .pdf

*未經準許嚴禁轉載和摘錄-

       原文標題 : 美國新勢力 Rivian 2025 Autonomy & AI Day :自研800TOPs芯片,L4“解放雙眼”自動駕駛路線圖

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

發表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號