訂閱
糾錯
加入自媒體

化解端到端“黑盒”,奔馳和AI建立信任的三部曲

2025-12-30 15:20
超電實驗室
關注

拆解白盒邏輯

編者按

智能汽車產業滾滾向前,在這摧枯拉朽的關鍵變革期,不斷涌現技術的交鋒。《TechLab》科技實驗室,將聚焦智能汽車產業重磅的科技創新,我們會深層次解析背后創新的原理,試圖撥開云霧,看到智能汽車下一個十年。

作者|秦章勇

如果總結2025年最火熱的詞,莫過于AI,一年的時間,各行各業仿佛都經過了AI的洗禮,具身智能就是AI涌現的集大成,生產制造則用AI提質增速,打工人經常用AI軟件做PPT、寫資料以及做海報,善男信女們也用AI算命。

我們習慣了用AI給出答案和結果,并堅信比我們人類計算的更精準,事實真是這樣嗎?

當企業進入AI應用深水區,更具象的問題就會逐漸凸顯出來,比如AI并不像想象中的那么容易落地,再有就是AI的輸出結果差強人意,難以完全獲得我們信任,對于自動駕駛行業來說,AI的一個差錯,就可能釀成大禍。

歸根到底,在于AI大模型先天具有“黑盒”特性,輸出的結果很難保證完全正確。

最近科技博主小Lin和北京通用人工智能研究院院長朱松純有一場對談,就涉及到這個核心問題——為什么AI難落地?

這個問題延展到到自動駕駛,怎么讓決策的邏輯“安全、可解釋”,也成為車企的頭等大事,車企和智駕企業逐漸演化出了VLM、世界模型等多條技術路線。

作為百年豪華車企,奔馳在處理這種問題就顯得輕車熟路,因為有安全這條絕對底線,奔馳嘗試把AI的黑箱變成“白盒”,自動駕駛的邏輯則是更安全、更負責、更守規矩。

01

AI大模型的邊界

和規則算法相比,AI系統可以通過數據訓練自動學習并適應新情況,無需顯式編程,這讓其更靈活且泛化能力更強,也是為什么AI大模型被稱為第四次工業革命的核心。

但成敗皆因此,不同于規則的強因果指導,很長一段時間,我們都不能理解AI是怎么做出決策和輸出的。

在這里我們先簡單熟悉一下,AI運轉的基本原理。

作為一種大模型,AI做出決策時并不會像我們人類一樣,對一個圖片、一句話或者一段文字整個做出理解,而且先將輸入的這些數據轉換為更小的單元,也就是Token(詞元),這些Token是模型處理和生成內容的基本單元。

隨后AI會在自己模型的內部結構中,根據輸入的Token來預測下一個Token,再把預測出來的Token轉化成輸出的結果。

開發人員可以決定算法和數據,投喂給AI大模型之后得到結果,至于中間的過程——AI是怎么推導結果的,就成為詭秘的“黑盒”。由于大模型的這種向量表達,讓其具有天然的不可解釋性。

所以關于AI有個形象的比喻——訓練大模型,就是科技界的現代煉丹術。

決策過程不透明,就會影響信任度,尤其是深度學習模型,依賴龐大的參數“煉丹”,但最終得出的結果往往差強人意,這種問題在法律或金融等高風險領域應用時,更容易凸顯出來。如果數據過于復雜且隨機,還容易出現大模型幻覺。

具體到自動駕駛,就是安全性堪憂,車輛在自動駕駛狀態下,有可能出現識別誤判,系統如果錯誤地把廣告牌識別為停止標志并緊急剎車時,就很難追溯是哪個特征觸發了錯誤判斷。

除了黑盒的不可解釋性,AI大模型需要大量數據進行訓練,這也涉及到了大模型的能力邊界問題——嚴重依賴數據質量。

這就比較容易理解了,大模型需要大量的數據訓練,這些數據的完整性和準確性,直接決定了大模型的可靠性。而大模型預訓練的核心原則是Scaling Law(規;▌t),也就是說,只要使用更多數據訓練更大模型,就能得到更好的結果。過去很長一段時間,都是Scaling Law指引著AI研究的方向。

但由于Scaling Law的數學關系遵循冪律分布,意味著模型的性能會隨規模擴大,在解決問題時呈現邊際效益遞減特征。

很多大模型預訓練初期會遵循大力出奇跡,數據量呈幾何式增長,但到了后期,新增數據對提升性能的邊際效益降低,導致損失函數下降速度減緩,這就出現了學習飽和‌現象。

但在實際應用時,就需要面對各種各樣復雜的場景,我們永遠無法把所有黑天鵝事件都放到大模型去訓練。

這也是自動駕駛行業常說的長尾場景,在交通中發生頻率比較低但種類非常多的情況,比如極端天氣、異形物體識別以及人類行為不可預測性等,都很難通過現實數據充分訓練。

面對大模型這些天生的缺陷,車企又該如何用好它?

02

以安全為底線的白盒邏輯

2023年12月,奔馳拿到北京L3級高速公路測試資格,2024年8月,又獲得L4級的測試資格,這讓奔馳成為第一家獲得北京指定城市道路和L4級自動駕駛測試批準的國際汽車制造商。更早的2021年,奔馳就已經在德國拿到政府批準的L3級商用自動駕駛系統。

在事故責任難以厘清的背景下,奔馳之所以能狂飆突進,一個很大的原因在于,奔馳可以在AI黑盒不可解釋性中,增加了法律層面的“可解釋性” 。

面對自動駕駛,奔馳一貫的策略是“以人為本”,也就是安全永遠都是第一位,基于此,奔馳對自動駕駛進行了多重安全冗余以及制約。

首先就是我們都能看到的物理冗余,奔馳在制動系統、轉向系統甚至車載電網等方面采用了‌冗余備份架構‌。比如奔馳的轉向控制,就用了雙回路架構,配合制動與供電系統的冗余備份,即使某一模塊故障,冗余系統仍能確保車輛可控,這也讓奔馳的“失效概率”可以壓縮至業內最低。

再有就是奔馳強大的安全系統,在奔馳的軟件架構中叫做安全力場SFF。

安全力場的全稱是自動駕駛安全防護場(Safety Force Field ),最早由英偉達提出,該框架是用數學驗證的計算模型保障自動駕駛安全,工作的邏輯是通過實時攝入傳感器數據,分析并預測環境動態,輸出相應動作,從而避免車輛碰撞,不引發危險場景。

如果說物理冗余是給車輛加了一層保險,那么安全力場SFF,則是用來約束、規范AI大模型的防護網。

我們都知道,AI容易出現幻覺或者面對長尾場景比較被動,比如車輛在面對一個不規則物體時,AI可能會認為是一個塑料袋,車輛可以直接加速穿過去。

這個時候,奔馳的安全力場就會介入,通過激光雷達傳來的物理數據來進行計算,判斷出前方有障礙物阻擋駕駛,意識到會對安全產生威脅,如果不剎車將會產生碰撞,所以車輛會終止AI大模型給出的加速指令,發揮AEB的功能,果斷剎車。

我們可以看到,以安全為前提的背景下,奔馳會利用系統2的物理規則,去約束系統1的直覺大模型,提前抹除交通隱患。

除了有安全力場用來確定性兜底,奔馳在數據方面也可以解釋合理性。

2024年1月,奔馳就申請了一項名為“用于存儲車輛數據的方法和系統,車輛和計算機程序產品”的專利,這是一種用于存儲車輛數據的方法,可以監測事件記錄的觸發條件,并基于與所述觸發條件關聯的信號判斷觸發條件是否滿足等。

如今奔馳已有一套完整的自動駕駛數據存儲系統(DSSAD),不僅可以記錄車輛的行駛軌跡,還可以記錄決策的邏輯,可以判斷是否是傳感器遮擋, 亦或者定位丟失等等。憑借這套記錄的數據,就可以重構決策的過程,也具備了法律層面的“可解釋性”。

03

建立信任的三部曲

奔馳為AI做多道防線的背后,是AI和人類社會脆弱的信任關系,這也是AI Agent落地難的癥結。

人與人之間建立信任,是一種直覺的反應,這種直覺可以通過行為判斷來善意,通過回應確認存在,也可以通過關系來衡量責任。但對于AI智能體來說,這個邏輯不在適用,因為我們創造了比我們更難理解的物體。

這也有AI大模型本身局限性原因,Next Token Prediction(預測下一個詞/動作)作為大模型的核心訓練范式,每次預測都依賴于前序生成結果,這就導致早期小問題會在后續步驟中無限放大,而且大模型缺乏對全局語義或跨概念關系的理解能力。

這種局限性在需要多步規劃或復雜推理的長尾任務中,就會徹底暴露出來。

針對人和AI如何建立信任,朱松純教授及其團隊提出了CUV架構,其中C代表認知架構,是智能體的控制中心,U是勢能函數集合,是智能體的技能庫。V則是價值函數集合,是管理智能體的價值觀、偏好和決策原則的系統。

在訓練過程中,認知架構是衡量U和V的關鍵,按照認知架構,可以決定是否以效率(U)為先,還是以價值觀(V)為先。

對應到汽車行業,目前很多自動駕駛會非常激進,比如搶黃燈、壓道變線,或者加塞等等,這些會被我們認為是非常“老司機”。

不過對于奔馳來說,人和AI需要建立一個強信任的關系,也就是說奔馳會把“V”放大,一切行動都應該建立在安全的基礎上,比如尊重規則,絕對不會去搶黃燈,即便在沒有紅綠燈的斑馬線上,也會禮讓行人。

給AI劃定紅線后,奔馳的AI和人類相處起來,也會更融洽。

解決了信任問題,AI Agent的下一步就是需要理解人,成為人類的朋友。

在很多情況下,AI Agent更像是一個冰冷的機器,甚至有觀點認為,AI不需要理解世界,也不會真正理解任何東西。

按照朱松純的觀點,讓AI Agent成為人類的朋友,需要給AI“立心”,除了上面所說的“V”之外,還需要讓AI擁有獨立心智,也就是“意圖理解”的能力。

奔馳也朝著這個方向努力,2025年9月,奔馳和字節跳動宣布戰略合作全面升級,新車搭載的豆包大模型,讓奔馳虛擬助手反應更快,同時擁有了短期記憶和上下文理解的能力。

當系統的安全屬性到足以抹除一切隱患,AI能夠真正理解需求、滿足需求,信任就會水到渠成,AI Agent落地也不再有阻礙。

這或許就是奔馳在“安全至上”的造車理念中,想要達到的本質目的。

       原文標題 : 化解端到端“黑盒”,奔馳和AI建立信任的三部曲

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

發表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號