• <option id="immmk"></option>
  • <noscript id="immmk"><kbd id="immmk"></kbd></noscript>
    發布時間:2025-05-29 15:46 原文鏈接: 首個視覺強化學習統一框架,開源!

      想象一下未來的智能體,無論是作為你的虛擬助手,還是幫你操控終端的機器人、自動駕駛,它們都必須具備超越簡單看圖識物的能力:不僅要“看懂”(精確感知環境),更要“想明白”(基于視覺信息進行復雜邏輯推斷、關系理解和行為預測)。而強化學習(RL),正是讓多模態模型實現這些核心能力的關鍵路徑。

      但在當前,在多模態強化學習領域,視覺感知和視覺推理任務往往被獨立或松散地處理,這就像兩條互不相干的鐵路,限制了信息的共享和協同優化的潛力。這正是V-Triune誕生的初衷——打破界限,讓它們在一個統一的框架下協同工作。

      5月28日,《中國科學報》從國內多模態AI獨角獸企業MiniMax獲悉,其技術團隊日前正式開源了其自主研發的首個視覺強化學習(Visual RL)統一框架——V-Triune。這項技術在國際權威基準測試MEGA-Bench上表現亮眼,32B模型性能提升高達14.1%,展現了中國AI技術創新的魅力。

      “V-Triune的核心貢獻在于,首次提出了一個能夠統一處理視覺感知和視覺推理任務的強化學習系統。”MiniMax相關技術負責人告訴《中國科學報》,它就像一位高明的指揮家,讓視覺語言模型(VLM)在一個訓練流程中同時學習這兩類任務,從而大幅提升視覺信息的綜合利用效率和模型的泛化能力。

      “V-Triune的開源,彌補了傳統RL方法無法兼顧多重任務的空白。”該技術負責人表示。

      據介紹,V-Triune在技術實現上有不少巧思妙想的設計。例如,它采用“樣本級數據格式化”,可以像“翻譯官”一樣讓來自不同任務的數據以統一且靈活的格式接入;它還把獎勵的評判邏輯抽離出來,形成一個個獨立的“裁判員”模塊,這種模塊化設計讓整個系統就像搭積木一樣,輕松擴展新任務。在算法層面,技術團隊為感知任務引入了一種新穎的動態IoU獎勵機制,它能根據訓練的進展,自適應地調整獎勵閾值的“嚴格度”,這也為實現更穩定、更可擴展的訓練過程提供了關鍵保障。實測顯示,在涵蓋440項真實世界視覺任務的權威 基準測試(MEGA-Bench Core)上,基于V-Triune訓練的Orsta模型取得了顯著突破,有力證明了統一技術路徑在提升VLM綜合視覺能力方面的巨大有效性和潛力。

      《中國科學報》在論文作者一欄發現,MiniMax創始人兼CEO閆俊杰也參與了這項研究。據介紹,本次V-Triune所呈現的工作,是創業團隊MiniMax在構建未來大規模多模態Agent模型視覺推理能力方面的一次有益探索和重要技術儲備。

      “這項工作為后續開發更強大、更通用、更聰明的視覺智能系統,提供了重要的思路和組件。”前述技術負責人表示。

  • <option id="immmk"></option>
  • <noscript id="immmk"><kbd id="immmk"></kbd></noscript>
    伊人久久大香线蕉综合影院首页