訂閱
糾錯
加入自媒體

陸奇看好的90后,連續融資3輪

2026-04-15 14:15
鉛筆道
關注

作者 | 鉛筆道 松格編輯丨鉛筆道 王方封面圖丨動微視覺官網

你知道現在的機器人,為什么反應慢嗎?因為它的“視力”不好。

最近這個領域,跑出一個未來獨角獸:連續融資3輪,并且陸奇(奇績創壇創始人)投了。它就是動微視覺。

它的產品,像是一個反應靈敏的“相機”——事件相機(DVS):靜止的東西,它不怎么管;但只要哪里動了,它立刻能抓住。

DVS的技術發明人,是蘇黎世聯邦理工的教授Tobi。而動微視覺創始人劉敏,是Tobi的學生(博士)。商業化的第一年(2025年),動微視覺有了近千萬營收。

針對這個賽道的機會,鉛筆道與劉敏博士聊了聊,精華如下:

1、動微視覺,賣什么產品?

答:事件相機的核心零件——相機、模組、芯片,不做整機。

2、傳統相機哪里不行?

答:兩個硬傷:太快看不清,太亮太暗都瞎。

3、為什么現在做這件事?

答:技術等了15年,終于快熟了。

4、哪些行業痛點最大?

答:工業、自動駕駛、機器人、手機(拍照)等。

5、這行有多少人在做?

答:全球五六家公司,基本都是我導師帶出來學生。

以下為劉敏自述:

- 01 -91年博士后

我是2023年回國的,1991年生人,江西宜春人(袁州區)。在這之前一直在蘇黎世聯邦理工做學術,從博士到博士后。

我們現在做的產品,有點像特別靈敏的“電子眼”,是一種新型的事件相機(DVS)。它只盯著“變化”看:靜止的東西它不管,哪兒動了、哪兒光線變了,它立刻抓住。

它能解決客戶什么問題?比如工廠,可以用它來檢測產品瑕疵。

這個機會,我是怎么發現的?

因為技術到了。我一直在做事件相機(DVS),這個技術是我導師Tobi(蘇黎世聯邦理工的教授)在2008年發明的。等我2016年去讀博時,已經過去快10年了,但還是很“實驗室”——會玩的人不多,能用的場景也很零散,沒成氣候。

我當時的感覺是,它很像早期的CMOS(圖像傳感器芯片)。CMOS是90年代發明的,但一直不溫不火,直到2007年iPhone出來,智能手機大爆發,它才開始幾億幾億地出貨。

技術的爆發,需要應用場景點燃

所以2023年回國時,我覺得事件相機也到了“iPhone前夜”——技術成熟了,就等一個爆發的機會。

我正準備創業的時候,奇績創壇主動找到我,愿意支持這個方向。技術周期到了,加上有早期資本愿意賭,兩件事疊加,我就回國創業了。

跟奇績聊的時候,我沒講什么宏大的商業故事。他們投的就是“人”和“技術”——蘇黎世聯邦理工的背景夠硬,方向夠前沿,團隊夠匹配,這就夠了。

但我自己很清楚:最終要打進自動駕駛和機器人。

這兩個領域都需要視覺,但現在用的傳統攝像頭(RGB相機)有個硬傷——它像人眼的“靜態視力”,能看清細節,但對快速變化反應遲鈍。

事件相機干的就是這個,只對變化和運動響應,特別適合處理“鬼探頭”這種突發情況。

- 02 -讓反應快一點

之前的行業,存在哪些痛點?

第一個痛點賽道:工廠場景。

工廠里有兩類活兒,傳統攝像頭根本干不了。

一個是速度慢。像光纜、線纜這種產線,速度非?臁鹘y相機還在一幀一幀拍的時候,產品缺陷就已經錯過了。

而DVS幾乎是實時盯變化的,反應速度比傳統相機快上千倍,所以能抓住這些高速過程中的細節。

第二個是受復雜光照影響。

工廠里經常有強光、反光、明暗交替,傳統相機在這種環境下很容易失真、漏檢。但DVS的動態范圍很高,對這種復雜光線更“抗造”,基本不受影響。

第二個痛點賽道:自動駕駛,尤其是“鬼探頭”這類突發事件。

現在大家都在講視覺方案,比如特斯拉走的是純視覺路線。我其實認同視覺可以做自動駕駛,但問題在于:現在這套“視覺”,還不夠像人。

人類的視覺,其實有兩套系統:一套負責“看清楚”,比如看細節、識別物體;另一套負責“盯變化”,比如突然有東西動了,你會立刻注意到。

而現在的RGB相機,本質上更像前者,是偏靜態的。

DVS正好補的就是這一塊。它只對盯變化和運動,誰動了、哪里變了,它第一時間就知道。

比如自動駕駛里常見的“鬼探頭”,或者突然出現一個人或東西,RGB很難及時反應,而DVS更有優勢。

第三個痛點賽道:機器人——現在的主要問題有2個。

1、速度。傳統攝像頭速度不夠快,導致機器人反應慢。

2、功耗。機器人本身算力就比較緊張,而RGB攝像頭會把所有畫面全拍進來、全處理,產生大量冗余信息,這就會消耗更多算力和功耗。

現在的機器人就在做這件事,所有信息都在處理,沒有篩選機制。

我們最近在做一個挺有意思的方向——體育機器人。像打羽毛球、乒乓球、網球,這些場景對“快速反應”要求極高,F在機器人的問題不是不靈活,而是“它不知道該往哪動”。

你可以一秒移動過去,但前提是你得先感知到球的軌跡。所以我們本質上是在解決機器人“感知速度不夠”的問題。

第四個痛點賽道:手機拍照。

現在手機廠商,比如小米、華為、OPPO,其實都在測試類似的技術。它的應用場景是“去模糊”。

拍照模糊其實有兩種情況:一種是手抖,這個現在通過防抖已經能解決得不錯;另一種是拍攝對象在動,比如拍寵物,這種模糊用DVS能更好解決。

- 03 -全球玩家:5-6個

從全球來看,這個賽道其實玩家非常少:大約5-6家。國內兩家左右,國外三家,主要在歐洲。

而且比較有意思的是,這些公司創始人基本都是我師兄,要么在蘇黎世讀博,要么讀博后,都是同一個導師Tobi帶出來的,算是同一個技術源頭。

這兩年國內像北大、復旦也開始有團隊在研究這個方向,甚至在孵化公司,但整體來看,現在真正做得比較深的,還是我們這一批“蘇黎世系”的。

我們這些“同門公司”之間,交流挺多。因為這個行業還很早期,現在還談不上競爭,還沒有到一個需要你死我活的階段。

大家更多是在討論:哪些場景可以一起去做,怎么把這個技術推廣開。我們有一個共識——先讓更多人知道DVS,把蛋糕做大,比互相掐架重要。

還有一些產業,也在關注這個賽道,比如自動駕駛、機器人,甚至消費電子。

而且從產業邏輯來看,比如自動駕駛,如果未來真的上車,車企通常會要求至少三家供應商。所以即使最后落地,可能也就是我們這幾家一起分這塊肉,不會只剩一家獨吞。

所以目前大家的關系其實都還不錯。

- 04 -哪些客戶買單

產品做好后,哪些客戶更愿意買單?

比如光纜檢測這個場景,以前是沒有解決方案的,要么效果不好,所以很多產線沒有這套系統,我們進去之后,是幫他把這塊能力補上。

在這些場景里,我們的毛利率可以做到80%以上,而且別人暫時做不了。未來如果這個行業做大,價格可能會下降,但只要我們始終能保持“半個身位到一個身位的領先”,就不擔心競爭。

當然,也有一些行業,比如3C、半導體、電池,這些領域傳統RGB已經做得很好,我們沒有優勢,就不會去硬碰。

客戶為什么會買,本質上還是一件事:算賬。他們最關心的不是技術多先進,而是你能不能幫他降本。

比如在光纜行業,過去他們的退貨率可能接近10%。這對他們來說是很大的損失。我們的一套設備,大概十幾萬,但可以做到:缺陷識別率90%+,基本無誤報。而且是在出廠前就把問題發現并處理掉。

這帶來的收益不僅是減少退貨,更關鍵的是避免丟掉大客戶。像國網這種客戶,一旦出問題,可能直接就不用你了,所以這是一個非常明確的ROI。

現在來看,事件相機的市場接受度也越來越高了。

我剛回國那會兒(2023年),基本上是“見一個客戶講一遍”,所有人都不知道這個技術。

但現在不一樣了,大概20%~30%的客戶已經聽說過事件相機,甚至主動來找我們。但是就算聽過,老板最關心的還是一件事——能不能幫我賺錢、能不能降本。

我們公司的收入也在逐步起來。公司2023年成立,前兩年基本沒有營收,主要在做研發。去年大概做到了接近1000萬,今年目標是做到2000萬到3000萬。

工業是我們當前客戶的基本盤,但本質上我們是在往外拓,包括自動駕駛、機器人,我們正在重點布局。

尤其自動駕駛,現在大家都知道兩種主流傳感器,一個是攝像頭,一個是激光雷達。雷達的優勢其實很明確——它是做精準測距的,可以知道物體的形狀和距離。

但問題在于——不管是雷達還是傳統攝像頭,它們都不是為“高速動態場景”設計的。比如RGB相機,一秒30幀,對人眼來說已經夠了,但對車來說不夠。

我們最近也在做新一輪融資,計劃是上半年Close,大概是幾千萬規模。

本文不構成任何投資建議。

       原文標題 : 陸奇看好的90后,連續融資3輪

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

發表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號