訂閱
糾錯
加入自媒體

Meta 與牛津大學合作論文:從語言預訓練中揭開 LLM 視覺先驗的起源

大型語言模型 (LLM) 盡管僅基于文本進行訓練,卻意外地能夠發展出豐富的視覺先驗。這些先驗使得模型能夠利用相對少量的多模態數據來解鎖潛在的視覺能力,從而完成視覺任務。在某些情況下,甚至無需任何圖像即可執行視覺任務

Meta 與牛津大學研究團隊近日發布的一篇論文表示,LLM 的潛在視覺推理能力主要通過基于推理中心數據(例如代碼、數學、學術)的預訓練而發展,并且會逐步擴展。這種從語言預訓練中獲得的推理先驗具有可遷移性,并且普遍適用于視覺推理。

聲明: 本網站所刊載信息,不代表OFweek觀點?帽菊靖寮瑒战洉媸跈。未經授權禁止轉載、摘編、復制、翻譯及建立鏡像,違者將依法追究法律責任。

發表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號