訂閱
糾錯
加入自媒體

告別昂貴訂閱費!英特爾發布混合AI方案:要讓Agent成為「水電煤」?

2026-04-22 09:39
雷科技
關注

新鮮龍蝦,本地白嫖?

開年這三個月,OpenClaw真是火得一塌糊涂。

我身邊不管是懂科技的,還是不懂科技的,大家都在幻想只要裝上這玩意,它就能幫你自動點鼠標、回郵件、整理本地文件夾,甚至連寫代碼、做課件、炒股票這種掉頭發的活兒都包圓了。

但現實情況卻是,這玩意兒不僅吃電腦配置,還需要你每個月給大模型交一筆不菲的Token費,直接勸退了一大票想要嘗鮮的普通人。

就在大家為了這筆錢發愁的時候,英特爾坐不住了。

2026年4月21日,英特爾在北京舉行了“以Hybrid AI加速推動Agentic AI”2026英特爾混合AI部署方案分享會,說是要和大家分享一下自家搞出的一套云端加本地的混合養蝦大法,不僅能省下高昂的訂閱費,還能保證你的私密文件不被偷窺。

06eef67afb3697487d6b9c68e0f49db0.jpg

(圖源:雷科技)

當然了,他們也是想借著這股東風,順便賣賣自家的新一代酷睿Ultra 300處理器。

雷科技今天受邀來到現場,趁機幫大伙好好扒一扒,這套方案到底是真的能普惠大眾,還是又一套吸引你更新換代的話術呢?

“智能體PC”:集成AI智能體的個人電腦

要搞清楚英特爾葫蘆里賣什么藥,咱們得先看看他們到底分享了什么東西。

這一開始呢,英特爾主講人就給咱們講產品定義了。

5b1753a51d0683b32d30d5a9cf42ff75.jpg

(圖源:雷科技)

英特爾在今天的分享會上提出了名為“智能體PC”的新概念,具體來說,就是內置或深度集成AI智能體的個人電腦,特別是搭載了第三代酷睿處理器的產品,主打端云協同和閑時功耗控制。

要知道,目前大家玩智能體最大的痛點就兩個,一個是純靠云端太貴而且不安全,另一個是純靠本地電腦算力又根本帶不動。

英特爾給出的解法非常討巧,他們把大模型的處理工作分成了兩半,搞出了一個云端和本地協同的Hybrid AI混合處理架構。

在英特爾的設想里,你電腦里的那些日常雜活,比如搜索本地文件、整理桌面、回復簡單的聊天消息,乃至圖片生成、視頻剪輯,甚至是簡單的代碼編輯,這些全部都可以交給你電腦自己的芯片來處理。

76f726614bac8b51bbcff48ecc61fa96.jpg

(圖源:雷科技)

他們在會上重點展示了搭載今年發布的第三代酷睿Ultra處理器,也就是代號Panther Lake處理器的筆記本電腦,這玩意的全平臺算力飆到了120 TOPS以上,差不多1秒鐘能算一百多萬億次。

理論上,只要你買了這批處理器賦能的新電腦,搭配上至少32GB運存,就可以運行目前最強的消費級本地大模型Qwen3.6-35B,讓你在完全斷網的情況下,讓AI更流暢地幫你處理那些涉及個人隱私的敏感工作。

哪怕是入門級的Ultra 325,也能在一定程度上運行更小體量的本地大模型來輔助。

0d122b63ddad672bbb386b3b401ad349.jpg

(圖源:雷科技)

但是,如果你讓這家伙去干點高級的活,比如寫個復雜的程序或者分析幾十頁的財報,本地那點算力肯定要罷工。

這時候,英特爾的智能路由就會把這些重體力活無縫甩給云端的超級大模型去算,算完再把結果傳回你電腦里執行。

這樣做的話,在本地大模型的加持下,云端大模型的計算量會顯著減少,用戶消耗的Token數量也會得到控制,既保護了用戶隱私,又減少了頻繁調用云端大模型帶來的按量計費成本。

客觀來說,這套方案確實踩中了目前行業的痛點。

本地部署不用愁,表現比預期要好

在這次分享會現場,英特爾也準備了一系列Demo的展示。

先說部署,之前咱們雷科技折騰OpenClaw的時候,整個公司就沒幾個人能弄明白這玩意究竟咋整,就連開始部署前的準備都要小半天。

當時某位同事不幸被抽到去這個項目,然后他為了在一臺Mac Mini上跑通這個開源項目,居然折騰了整整一天半,各種配環境、搞接口,稍微錯一行代碼整個系統就直接罷工。

就這上手門檻,可是硬生生催生出了一門黃牛生意。

到了英特爾這里,本地部署肯定是不用愁了,他們的合作伙伴基本上都有一套圖形化、一鍵式的OpenClaw部署應用,哪怕是傻瓜也能按步驟給自己的電腦整上龍蝦。

b07ddb5f1fbcc965d2b7e1cf2df1756d.jpg

(圖源:雷科技)

部署完成后,自然就來到了體驗環節。

從現場運行的Demo來看,英特爾在本地部署的是Qwen3.6-35B模型,這個參數量自然是經過控制的,但也恰好符合現場布置的這些電腦的硬件需求,用Arc B390核顯搭配上32GB顯存,剛好能達到60tokens/s的生成速度。

814ee466364cb51af73cd89084568c28.jpg

(圖源:雷科技)

要知道核顯畢竟是核顯,遇上更高參數的本地大模型,這套配置的生成速度必然會顯著下降。

現在的話,生成速度應該是剛剛好,60tokens/s屬于感受不到明顯延遲的水平。

至于本地模型的智商,那肯定是比不上完整的在線大模型,但是處理一下基礎的智能體任務倒是問題不大,什么資料檢索、文件搜集、定時推送,甚至針對特定文檔的結構分析都能完成。

我甚至用Z-image生成了幾張圖,用時都控制在1分鐘以內。

85ffe5ee569b13920d7834cae627622d.jpg

(圖源:雷科技)

你還別說,這個做法確實安全不少,畢竟誰也不想讓自己電腦里的學習資料或者公司機密全盤暴露在云端服務器上吧。

不過本地大模型,始終參數不夠到位,如果只用這玩意,任務稍微復雜一點就會開始胡言亂語,甚至執行到一半突然卡死。

現場給發票進行OCR的Demo演示,就很不巧地卡住了。

至于端云協同的部分,按理來說,在這個Demo里,本地大模型會把復雜的推理任務進行解構,只把最關鍵的搜索指令和邏輯框架打包發給云端的超級大模型。

等云端算完把結果傳回來,本地的模型再接著接手,默默幫你排版出圖。

0f87fb132607d2868820b36eb308d448.jpg

(圖源:雷科技)

但是實際上現場大部分任務都會自動走云端,或者推薦用戶走云端,要調用本地應用反而需要特定的指令。

好消息是,這一套組合拳打下來,后臺Token消耗應該能降低不少,至少不會像我們以前測試同類產品時動不動就燒掉幾十塊錢調用費了。

不過話說回來,這套混合體驗離完美還差得遠。

首先,這些應用加載的本地大模型間彼此是獨立運行的,32GB運存顯然不足以運行所有本地大模型,只能在需要調用時開啟對應的大模型進行操作,現場也只有一款設備是在同時運行多個本地大模型的。

66481e988c513d0721b6333ffbef12da.jpg

(圖源:雷科技)

其次,有時候本地和云端交接棒的時候還是會卡殼,甚至偶爾還會出現本地模型理解錯意思,導致鼠標在屏幕上原地轉圈圈的尷尬場面。

考慮到這些只是拿來分享的Demo,出現意外狀況也算是在情理中了。

與其指望云端算力降價,不如部署到終端設備

在我看來,英特爾今天搞的這場分享會,確實為目前的智能體落地指明了一條比較務實的方向。

要知道,在OpenClaw這類本地智能體應用爆火后,國內外的大模型廠商其實都有漲價,差距只在于漲多漲少而已,少一點的可能漲個50%,多一點的不但價格翻倍,就連Tokens消耗也要給你偷偷加上去。

罵的就是你,那個叫Claude的不人不鬼的玩意嗷。

你現在要還想用上滿血OpenClaw,消耗起碼是年初的一倍不止。在這種情況下,與其指望云端算力降價,不如把一部分負擔轉移到我們自己的終端設備上。

be94a939d2f374d48b92cec8aad30cd7.jpg

(圖源:雷科技)

到最后,這是一場典型的多贏局面:用戶省下了高昂的云端服務費,同時保住了大部分隱私;而芯片廠商和電腦品牌則有希望迎來久違的換機潮,在內存和存儲大漲價的今年,這樣的機會可謂彌足珍貴。

但仔細想想,這背后藏著一種難以言喻的諷刺感。

我們這代人發明了越來越聰明的AI工具,這個行為的本意是為了解放雙手,讓自己有更多的時間去感受真實的生活。

可結果呢?為了能讓這只龍蝦在電腦里跑得更順暢,我們不得不花更多的錢去升級硬件,花更多的時間去學習那些晦澀的部署教程。

我們在網上為了哪家廠商的模型參數更高、誰家的本地算力更強吵得不可開交,甚至有人為了一個尚未成熟的自動化工具,盲目交出自己的隱私,心甘情愿地被廠商編織的效率神話牽著鼻子走。

也許在這個萬物皆可AI的年代,真正被馴化的并不是那些代碼,而是屏幕前那個越來越離不開它們的我們。

英特爾OpenClawAgent

來源:雷科技

本文圖片來自:123RF 正版圖庫     

       原文標題 : 告別昂貴訂閱費!英特爾發布混合AI方案:要讓Agent成為「水電煤」?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

發表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號