訂閱
糾錯
加入自媒體

下次吃了毒蘑菇,別怪豆包傻

2026-05-06 18:02
羅超頻道
關注

用戶搜黎元洪,豆包給出了用范偉PS的照片。

圖片

(豆包搜索黎元洪出來范偉的PS照)

這是AI的常見錯誤,讓人意外的是:這事兒竟然也上了熱搜。

這不是AI第一次干這種「蠢事」,也不會是最后一次。之前,有小朋友拿著一個老鼠夾問AI是什么東西,AI說是「廢棄卡丁車小玩具」,說得有鼻子有眼:「方方的底盤、金屬的結構」,結果孩子手指被夾了;有用戶丟給AI毒蘑菇,AI判定為可食用杏鮑菇,結果……遇到這樣的情況,AI都會誠懇道歉。

圖片

(網友總結“豆包型人格”)

是豆包越來越傻了嗎?不是。當豆包月活漲到3.45億時,哪怕錯誤率是恒定的,分母膨脹了,分子自然會變大,翻車案例就會增多,并且每一次都會引發豆包用戶們的“共鳴”,吵上熱搜。所以說,AI翻車段子的數量,其實是AI滲透率的反向指標。

前幾年,總有人說百度地圖傻,但也有人說高德地圖笨,其實沒有誰比誰更聰明:看你用哪個App多,用得多了,總會遇到導航出錯的情況。

AI搜索騙你,是因為互聯網騙了AI

這次豆包錯將范偉當黎元洪,官方回應說是跟一部電影選角有關:范偉和黎元洪確實長得像,前者的PS圖當年被媒體大量報道、全網瘋傳,部分圖庫和百科頁面也曾誤收錄,所以AI檢索時優先命中了這些高頻傳播的錯誤圖片。

所以AI經常犯錯的根本原因是:互聯網的湯底里本來就沉著一堆錯料,AI拿勺子舀的時候,剛好把最大塊的那坨舀上來了。

這不是什么“豆包的問題”,這是“所有AI的問題”,并且AI生成的內容被網友海量發布到網上,交叉污染。NewsGuard在2025年8月發布的數據顯示,10款主流AI工具在新聞話題上重復虛假信息的比例是35%,而一年前只有18%。GPT-4.5的生成答案中,缺乏依據的主張比例達到了47%,Perplexity深度研究工具甚至出現了97.5%的驚人數字。

換言之,你看到的每一個AI搜索答案,從統計學原理上就已經包含了不可消除的噪聲。

有個朋友前幾天和我說,現在AI搜索99%是對的,1%的結果犯傻,我們只要識別出這1%就可以放心使用AI搜索。查了一組數據,發現AI搜索準確率比我們預期的還要低。根據Google內部測試數據,在4326條樣本中,Gemini AI概覽準確率已達91%,雖然非常高,但依然有每10條就錯1條的可能。中國AI搜索面臨的實際情況更復雜,「自媒體平臺」做號黨的內容創作制度讓中文互聯網的文本污染尤其嚴重,很多新媒體平臺今天的內容已是滿目瘡痍,大量的AIGC內容以及AI洗稿偽原創內容充斥其間,堪稱屎山一座。

從技術上,考慮到數據質量和大模型技術原理,99%的準確率對AI搜索是一個遙不可及的目標,100%的準確率如同「絕對零度」:可不斷接近,但永遠無法達到。

更何況,世界的某些問題本就沒有唯一正確答案。AI的知識來自互聯網,互聯網的信息來自人類,人類的知識不是全都已經明確的。斯坦福大學2025年發表在《自然·機器智能》上的論文說得很直白:最新的大語言模型在驗證事實性數據時的平均準確率最高只到91.5%,而面對用戶的錯誤信念時,AI幾乎無法可靠區分“他堅信的”和“事實”。這并不讓人意外——如果人類自己都沒搞明白有些情況是“我以為的事實”還是“事實”,我們又如何要求AI全都搞明白呢?

AI搜索好傻,為何人類卻越來越上癮?

真正有意思的問題不是“AI為什么犯錯”,而是“這么容易犯錯,為什么人們還在用”。

人類不是沒有選擇。拒絕AI搜索,起碼能用百度、Google等未摻和任何AI結果的傳統搜索。然而,每天被罵犯傻翻車的豆包月活3.45億,千問、文心、元寶、deepseek的用戶規模也在高速增長,AI搜索吞噬傳統搜索的進程肉眼可見。

傳統搜索引擎只負責提供一長串網頁鏈接,完成相關性排序,決定誰靠前。至于結果哪個是對的,由用戶自己打開網頁一個個分辨,效率低下。AI搜索將用戶獲取信息的效率提高了幾個數量級,因為它只提供「唯一」答案,但理論上來說這個結果必須是100%準確。

但「唯一答案」本就是一種低容錯設計。如果用戶將決策100%建立在可能錯誤的答案之上,一旦出問題就會很嚴重,輕則上熱搜鬧笑話,重則食用毒蘑菇去醫院。

這就像你問路:百度遞給你一張地圖讓你自己找,走錯了你認了還對百度心懷感恩;豆包告訴你往東走第三個路口左轉,你走到發現方向反了,哪怕豆包是無心之失也會被你回去痛罵一頓。

傳統搜索追求的是「召回率」高,搜出來的東西跟搜索詞能不能沾上邊;AI搜索追求的是「高效率」和「準確率」。既然AI搜索當前準確率才90%左右(以谷歌gemini為基準),為什么人們還是越來越愛用,而不是在“給你一堆結果你自己判斷”的傳統搜索逗留呢?

我在這里拋出一個暴論:人類對信息精確度的需求,實際上是被高估的。

在日常生活中,99%的搜索場景并不是用來做生死攸關的判斷。查天氣、做旅游攻略、研究護膚方法、整理想法、看八卦……信息稍微有些偏差并不會造成嚴重后果。就拿黎元洪這事來說,對99%的使用場景而言,這就是個茶余飯后的笑談,用戶不會因為這個搜索結果重新看待整個晚清史。

但是,如果一個人做學術研究、投資決策、醫療方案用AI搜索,那就不能怪AI犯傻。因為這些場景下,用戶得到的信息必須100%準確,AI搜索「答案僅供參考」。

對于大多數搜索場景來說,91%的準確率足夠用了。而且退一步說,在沒有AI搜索的年代,你在小紅書上看減肥筆記、在搜索引擎搜「皮膚科好的醫院」,看到的信息就是真的嗎?說不定是廣告。還有,手機能不能放枕頭下、大姨媽來了能不能喝冷水,這些問題本就沒有標準答案,AI不過是反映了人類的知識混亂。

正是這種普遍存在的“91%準確率夠用”的低風險需求,讓AI搜索日益普及:它的錯誤率雖然高,但只要錯誤不是徹底致命的,人們總是更在意「效率」而不是「精確」。

當你用AI搜索更復雜、更嚴肅、更「物理」的決策問題時,這個邏輯才徹底失效。比如你要確認某種蘑菇能否食用時……問題切入到生命、健康、財產、風險和決策地帶時,91%的準確率可能會讓你付出沉重的代價。

所以現在醫療、法律、金融這種「高后果」場景領域,出現了「專用AI」而非「通用AI」,比如面向醫療健康場景的螞蟻阿福,但即便是它們也無法保證100%不出錯。

責任在你:所有系統都有bug,AI也不例外

兩千年前,孟子說「盡信書不如無書」,既然書籍上的知識都不一定是對的,我們又如何敢100%絕對信任AI?「盡信AI不如無AI」。

有人開著一輛帶輔助駕駛功能的電車,在高速上雙手離開方向盤刷朋友圈,出事后甩鍋給車企,但廠商把“駕駛員是操作車輛的第一責任人”寫進了用戶協議,“小字沒看到”也無法轉移自己的責任。

在AI搜索獲取信息這個維度上,情形是完全一樣的。當人類越來越依賴AI時,我們不僅要期待廠商訓練AI更準確,更要努力訓練自己的判斷能力。在智商、情商后,AI時代人類的“信商”將越來越重要:也就是真假信息甄別的能力素養。沒有任何公司能給你一個100%準確的AI,你要做的就是把方向盤緊緊握在自己手里。

任何系統都有bug,任何AI吐出來的結果都可能是錯的。記住這個常識,是正確使用AI的第一步。

回到豆包身上。黎元洪變范偉其實并不影響“豆包該不該收費”的辯論,關于「好的AI為什么一定要收費」我已經在另外一篇文章《付費版68元/月!豆包也撐不住了?》中討論了。澎湃新聞說在AI大規模收費之前,或許應該“打掃干凈屋子再請客”。問題是,AI的屋子永遠都掃不干凈,掃干凈了還有灰塵。ChatGPT收費版也不能確保100%準確,因為沒有AI能做到100%絕對準確。就算是用于創作等生產力場景,AI結果也不能、不應拿來就用。

對結果的判斷、審核、識別也就是「正確使用」,是人在AI時代的核心價值。

所以:下次吃了毒蘑菇,千萬不要怪豆包。

       原文標題 : 下次吃了毒蘑菇,別怪豆包傻

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

發表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號