1月12日,千尋智能正式開源自研VLA基礎模型Spirit v1.5,就在前一天,該模型在全球具身智能模型評測平臺RoboChallenge上,綜合評測斬獲第一,超越了已經霸榜RoboChallenge數月之久的Pi0.5模型。
RoboChallenge網站顯示,千尋智能自研的具身智能模型Spirit v1.5在RoboChallenge評測中取得綜合排名第一,在任務得分與成功率兩個維度均超越Pi0.5。
千尋智能表示,為驗證榜單成績來源于自研模型且真實有效,千尋智能同步開源了Spirit v1.5的基礎模型權重、推理代碼以及使用樣例,接受公眾與研究社區的獨立檢驗。通過這一方式,研究者不僅可以復現榜單評測結果,也可以將Spirit v1.5作為具身智能基礎模型,在此基礎上開展進一步研究與創新。
公開資料顯示,RoboChallenge是2025年新成立的標準化評測體系,由Dexmal、Hugging Face等機構聯合發起,聚焦具身智能模型的跨平臺能力驗證,其評測任務覆蓋復雜指令理解、多步驟操作規劃以及跨場景執行穩定性等多個維度。
從評測結果來看,Spirit v1.5在多項任務中保持較高成功率,尤其在多任務連續執行、復雜指令拆解以及跨構型遷移等維度中表現穩定。截至最新評測周期,其綜合得分超過Pi 0.5 等此前領先模型,位列榜單首位。
在模型架構上,Spirit v1.5采用Vision-Language-Action(VLA)統一建模框架,將視覺感知、語言理解與動作生成整合在同一決策流程中,減少多模塊串聯帶來的信息損耗,并提升長程任務中的整體穩定性。
在訓練方法上,Spirit v1.5的一個核心特點是不依賴高度精選的“干凈”演示數據。千尋智能在技術博客中提出,過度腳本化、受控環境下采集的數據,雖然有利于模型快速收斂,但會限制其在真實世界中的泛化能力。
因此,Spirit v1.5在預訓練階段引入了開放式、多樣化的數據采集范式。數據采集不再嚴格限定任務腳本,而是以“完成有意義目標”為導向,允許操作過程中自然串聯多個子任務與原子技能。這種方式使模型在訓練階段接觸到更接近真實世界的復雜性,包括遮擋、失敗恢復以及任務之間的自然過渡。
相關消融實驗顯示,在相同數據規模下,基于多樣化數據預訓練的模型,在新任務上的遷移效率明顯高于基于傳統演示數據訓練的模型,達到相同性能所需的計算資源顯著減少。這一結果也解釋了Spirit v1.5在RoboChallenge多構型、未見任務評測中的穩定表現。
千尋智能(Spirit AI)成立于2024年,總部位于杭州,由前珞石機器人聯合創始人兼CTO韓峰濤發起創立,專注于具身智能機器人及通用人形機器人技術的研發與場景落地。其核心技術涵蓋視覺語言模型ViLa、部件約束模型CoPa以及世界領先的運動控制系統,致力于打造通用智能機器人平臺。
2025年7月,千尋智能完成近6億元PreA+輪融資,由京東領投,中國互聯網投資基金(簡稱“中網投”)、浙江省科創母基金、華泰紫金、復星銳正等知名機構跟投。千尋智能成立半年內相繼完成種子輪、天使輪融資,累計融資金額近2億元,其背后的資本網絡橫跨“中東系”“寧德系”“小米系”等,投資方包括弘暉基金、達晨創投、千乘資本等知名機構。