訂閱
糾錯
加入自媒體

具身智能落地,開始補“感知”這一課

2026-04-23 16:30
星河頻率
關注

作者|向欣

具身智能行業的一個共識是,今年將會成為人形機器人的量產落地元年。

規模鋪開的同時,機器人面對的環境也在發生變化:實驗室里的結構化場景,正逐漸讓位于更加開放的現實世界。

機器人一旦進入真實環境,感知層的重要性就會迅速凸顯,而這一層能力在過去長期被低估。

機器人的執行閉環是「感知—決策—動作」。感知一旦掉鏈子,后續的操作和決策將無法有效執行。

最近的人形機器人半程馬拉松就是一個開放場景——長時間戶外奔跑、光照變化、路面起伏,讓不少機器人的感知系統暴露出不穩定的問題。

快到終點的人形機器人突然轉彎跑進人群

一套足夠穩定、精準的感知系統,是機器人能否在開放環境中可靠工作的前提。

也正因此,感知層那些原本低存在感的核心零部件,正在被重新估值,感知層,成為機器人落地的關鍵卡口之一。

順著這條邏輯往下看,機器人感知能力大致可以分為三層:環境感知、本體狀態感知,以及交互與操作感知。

看見世界——環境感知傳感器

環境感知是機器人進入真實場景的第一道門檻。它決定機器人能不能識別物體、理解空間、判斷距離,從而完成導航、避障和抓取定位。

在這一層,核心硬件主要包括兩類:

一是視覺傳感器,包括 RGB 相機、雙目相機、深度相機、魚眼相機,主要提供圖像、紋理和部分深度信息;

二是空間感知類傳感器,主要為激光雷達,提供穩定的距離和空間結構信息。

奧比中光Gemini 330系列雙目3D相機

不過,在真實環境中,采集到圖像信息,并不意味著機器人已經能看懂周圍環境。

例如,在復雜光照、動態人流和室內外交替的環境中,RGB 相機獲取的畫面很容易失真。逆光條件下,目標區域可能變得昏暗難辨;強反光會削弱物體邊緣和輪廓信息;到了夜間,圖像質量還會進一步下降。

環境中的人和物持續移動,也會增加識別和定位難度,視覺系統容易出現目標丟失、距離判斷偏差等問題。

除了復雜光照下穩定性不夠,動態場景理解難的問題,環境感知層面還有兩個難點。

一個是手眼協同要求高。視覺與激光雷達的觀測會隨肢體運動產生動態畸變、視角跳變、運動模糊,導致目標位置與深度測量出現瞬時誤差。

手、眼、物體三者的相對位姿需要亞厘米級甚至更高精度的實時匹配,稍有偏差就會導致抓取偏移、碰撞或跟蹤丟失。

另一個是算力與延遲壓力大。

視覺和激光雷達本身都是高數據量傳感器。攝像頭持續輸出圖像流,激光雷達持續輸出點云。而機器人通常需要裝多個傳感器,多目相機、深度相機、魚眼相機、激光雷達一起工作。

這樣一來,前端采集到的數據量會非常大,但多源信息融合、3D 建圖、目標檢測與跟蹤、動態障礙物分割等算法本身復雜度高,因此對端側算力提出很高要求。

其次,環境信息處理一旦不夠及時,哪怕只是數百毫秒的延后,經過層層傳遞,系統拿到的也可能已經落后于現場變化。

這會導致路徑判斷出現偏差,避障反應變慢,抓取位置不準,還會進一步影響整機動作的穩定性。

因此,機器人進入真實場景后,環境感知器件需要進行一輪明顯的升級,從基礎的視覺采集,升級為精準識別、穩定跟蹤與空間理解能力。

圍繞這些問題,行業當前的重點方向主要集中在深度感知和空間理解兩個方面。

所謂深度感知,就是讓機器人在識別目標之外,進一步獲得距離、輪廓和空間層次信息。

空間理解則是在此基礎上,對場景結構、障礙物分布、目標物體與周圍環境的關系形成更完整的判斷。

沿著這個方向,行業出現了兩種解法:

從二維看圖像升級到三維空間理解;

向多傳感器融合演進:從單一視覺升級到視覺+激光雷達等融合方案。

在這一過程中,一批代表性企業已經沿著不同路線展開布局。

奧比中光的重點落在深度視覺能力上。其 Gemini 330 系列雙目 3D 相機搭載面向機器人場景自研的深度引擎芯片 MX6800,結合主動與被動成像技術,能夠在黑暗、強光等差異較大的光照條件下輸出較為穩定的三維數據。

禾賽的思路更偏向空間數據采集與場景還原。其推出的空間智能 AI 硬件產品 Kosmo,將定制化激光雷達、多個攝像頭、空間感知算法和 AIGC 能力集成到一個小型設備中,能夠把物理三維世界還原為對應的數字化三維場景。

速騰聚創則在多傳感器融合和系統簡化方向上推進。其推出的 Active Camera,被定位為「機器人之眼」,將深度、色彩和姿態三類核心感知信息在芯片層面進行集成,實現毫秒級時空同步。

相比傳統多傳感器疊加方案,這種做法減少了系統復雜度,也有助于提升感知結果的一致性和響應效率。

各家廠商的側重點雖有不同,但目標一致:

讓機器人在復雜多變的真實場景中,獲得足夠穩定、精準的空間理解能力。

感知自己——本體狀態感知傳感器

光有對環境的基礎感知還不夠。機器人要想在動態中保持平衡、精確出力,還需要另一套「體內感官」——感知自己。

人形機器人是一個高動態系統,走路、轉身、上下坡、受擾動、落腳時,都需要實時知道自己的姿態、速度和受力變化,才能維持平衡、控制發力,并完成更穩定的動作執行。

支撐這一層能力的核心器件,主要可以分為兩類:

一類是慣性傳感器,代表產品是 IMU,它相當于具身智能機器人的「小腦」與前庭系統,核心用于測量自身角速度、線性加速度,支撐姿態估計與動態平衡。

另一類是力矩與力傳感器,包括關節扭矩傳感器、六維力傳感器和足底力傳感器,負責感知關節、腕部、足底等位置的受力變化。

本體狀態感知層的難點主要集中在三點。

第一,對響應速度和穩定性要求很高。

如果本體狀態感知出現延遲,后續控制就容易滯后,打亂動作節奏。同時,在執行高動態動作的過程中,震動、沖擊、快速轉向和落地反饋又會放大誤差,影響就會傳遞到整條控制鏈路中。

第二,量產階段對一致性提出了更高要求。

樣機能夠跑通,并不意味著批量產品在長時間運行中也能保持同樣穩定的表現。機器人進入量產后,傳感器的一致性和可靠性會變得更加關鍵。

第三,小型化、集成和成本壓力并存。

六維力和力矩傳感器通常要安裝在腕部、夾爪末端甚至靈巧手等空間有限的位置,既要做得足夠小,又要兼顧測量精度、結構強度和系統兼容性。

而且這類器件的成本一直偏高。以特斯拉機器人為例,雙腳所用的兩個六維力傳感器成本就達到 6700 美元。

因此,傳感器的小型化、高動態適應性和量產一致性,是當前行業攻堅的重點。

在這個領域內,出現了兩種代表性玩家。

一類是從智駕領域切入、在汽車體系里積淀深厚的玩家,以導遠科技為代表。

導遠科技推出了車規級 IMU 模組 IMU5146,并已向銀河通用交付。

該 IMU 模組姿態測量精度達到 0.05°,輸出頻率 1000Hz 且延遲極低,能夠實時捕捉機器人的微小傾斜與晃動,有效避免響應滯后導致的失衡。

更重要的是,導遠把車規級的可靠性、一致性和量產能力帶入了機器人自身感知層。

其產品支持-40℃至 105℃寬溫運行,可承受 2000g 極限沖擊,適配人形機器人在跳躍、翻滾等高強度動態下的感知需求。

此外,導遠擁有從底層芯片、算法軟件到模組系統及精密制造的全棧能力,能夠從芯片級開始定義產品邏輯,具備較高的靈活性。

基于這種可擴展、高可靠且經濟高效的時空智能解決方案,導遠已經成功從汽車向機器人、工程機械、可再生能源系統等領域快速擴張。

另一類是以坤維科技和鑫精誠為代表的專業力傳感器廠商。

坤維科技推出了專為人形機器人手腕和腳踝設計的 HRS 人形系列,最薄尺寸僅 10 毫米,重復精度優于 0.1%FS,已批量供貨優必選、智元、銀河通用等頭部企業。

鑫精誠則聚焦 MEMS 六維力傳感器,已完成試樣驗證并形成小批量訂單,正在建立覆蓋指尖、手腕、腳踝三大關鍵部位的自動化產線,布局更多指向后續的規;┙o能力。

接觸世界——交互與操作感知傳感器

有了視覺和本體感知,機器人可以走路、避障、站得穩。但要真正干活,比如插拔接口、捏起一顆雞蛋、整理柔軟的衣物——它還缺一層最接近皮膚的能力:觸覺。

很多具身智能的高價值任務,都是精細操作任務,拿起、放下、插接、裝配、抓柔性物體,都依賴細膩的觸覺反饋。

雖然觸覺感知傳感器還遠沒有像環境感知和自身感知那樣成熟,但它很可能成為下一階段靈巧操作的分水嶺。

現階段常見的觸覺傳感器主要包括電子皮膚、指尖觸覺、陣列式壓力傳感器和視觸覺傳感器。

它們分布在機器人手部、夾爪和末端執行器等位置,承擔接觸檢測、壓力感知、材質識別和形變判斷等任務。

這一領域面臨諸多難點。

首先,觸覺數據目前缺少足夠成熟產品和標準體系。

一位具身智能公司的創始人曾表示,目前市面上沒有成熟且可規模應用的觸覺傳感器產品。不同產品、不同方案之間的定義和采集方式并不統一,導致數據復用難度較高。

其次,耐久性仍然是一個現實問題。觸覺傳感器長期處在接觸、摩擦、擠壓的工作狀態中,對壽命和穩定性的要求很高。

而且,觸覺傳感器的集成難度同樣非常高。手指和末端執行器的空間有限,傳感器既要做得薄,還要兼顧靈敏度和穩定性。

同時,在算法上也難以融合。觸覺信號和視覺、動作控制之間的協同仍然比較復雜,算法融合還在持續摸索。

最后是同樣存在的成本問題,觸覺至今還沒有像視覺那樣走到大規模低成本普及的階段。

因此,在觸覺這一層,很多公司還在解決耐久性、成本和數據難題。

帕西尼感知的布局重點放在兩端,一端是傳感器產品本身,另一端是圍繞觸覺構建的數據體系。

產品層面,帕西尼推出了多維觸覺傳感器 PX-6AX-GEN3,可輸出六維力、力分布、材質、溫度、回彈等多類觸覺信息,具備耐磨抗穿刺與 1000 萬次的超高工業級使用壽命,在 0~50°C 的高低溫環境下,也能進行高一致性的觸覺信息輸出。

帕西尼還在建設全模態數據采集工廠,除了 2025 年 4 月在天津落成的全球最大全模態超級數據采集工廠 Super EID Factory 外,還計劃在江蘇宿遷、湖北武漢、四川自貢、江西贛州再建 4 座超級數據采集工廠;并與云廠商合作推進大規模具身智能數據云商城。

他山科技的切入點更偏底層芯片和感知能力融合。

其研發的數模混合 AI 觸感芯片,能夠支持高精度三維力感知,也能夠識別部分材質信息和近距離接觸特征。

戴盟機器人則把重點放在觸覺數據集建設上,聯合多家學術機構與企業,發布了全球最大規模含觸覺全模態物理世界具身數據集 Daimon-Infinity。

戴盟稱,Daimon-Infinity 提供了目前行業內最高質量的觸覺數據。

Daimon-Infinity 數據集依托于戴盟自研的二指夾爪及五指手套數據采集設備,其搭載的含 11 萬感知單元、120Hz 高頻率視觸覺傳感器,配合魚眼相機、編碼器、IMU、雙目相機,為數據集提供觸覺、視覺、動作軌跡、執行動作、語音文本等全維度信息。

總體來看,機器人感知能力的推進路徑,對應著三個層次的競爭焦點;

視覺為主的環境感知傳感器是入口,負責讓機器人看見并理解環境;

力覺為主的本體狀態感知傳感器是當下的卡點,決定了機器人在動態世界中能否站穩、發力、安全交互;

觸覺是下一階段的突破口,將真正區分「能動的機器人」和「能干的機器人」。

無論是馬拉松賽場、工廠產線,還是倉儲分揀、家庭服務,人形機器人的規;涞囟际加诟兄到y。

感知層采集的信息質量會層層傳導,影響后續決策和動作執行。

機器人的應用場景正從少量樣機驗證、單一環境部署,逐步拓展至更復雜的真實場景,同時需要滿足更長時間連續運行、更高頻率規模化部署的要求。

因此整套感知鏈路能否形成穩定、可復制、可量產的工業能力,會越來越明顯地影響機器人進入真實場景的速度。

這一層能力的突破,可能是決定機器人產業化進程的關鍵所在。

       原文標題 : 具身智能落地,開始補“感知”這一課

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

發表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號