<li id="rnldf"></li>
<label id="rnldf"><fieldset id="rnldf"></fieldset></label>
    <small id="rnldf"><strong id="rnldf"></strong></small>

    1. <strike id="rnldf"></strike>
    1. <samp id="rnldf"></samp>
      亚洲国产精品久久无人区,亚洲中文字幕一区二区,亚洲一区二区av免费,JIZZJIZZ亚洲无乱码,欧洲免费一区二区三区视频,国内熟妇与亚洲洲熟妇妇,国产超碰人人爽人人做人人添,视频一区二区三区刚刚碰
      剛剛!DeepSeek,重大發布!
      來源:證券時報網作者:周樂2026-01-27 21:16
      字號
      超大
      標準

      國產AI大模型再度掀起熱潮。

      今日(1月27日),DeepSeek團隊發布《DeepSeek-OCR 2: Visual Causal Flow》論文,并開源DeepSeek-OCR 2模型,采用創新的DeepEncoder V2方法,讓AI(人工智能)能夠根據圖像的含義動態重排圖像的各個部分,更接近人類的視覺編碼邏輯。

      與此同時,國內人工智能初創公司月之暗面Kimi正式發布了新一代開源模型 Kimi K2.5。據介紹,Kimi K2.5基于原生多模態架構設計,支持視覺與文本輸入,將視覺理解與推理、編程、Agent等能力全部集成到一個模型當中。

      另外,阿里昨日(1月26日)晚間正式發布千問旗艦推理模型Qwen3-Max-Thinking,在多項關鍵性能基準測試中,千問表現超過了GPT-5.2、Claude Opus 4.5 和Gemini 3 Pro等頂尖模型,刷新全球紀錄,進一步拓展了AI系統的推理性能邊界。

      DeepSeek發布新模型

      1月27日,DeepSeek發布全新DeepSeek-OCR 2模型,采用創新的DeepEncoder V2方法,讓AI能夠像人類一樣按照邏輯順序“看”圖像。這項技術的核心創新在于改變了傳統AI處理圖像的方式。DeepEncoder V2讓AI基于圖像含義動態重新排列圖像片段,而非傳統的從左到右剛性掃描。這種方法模仿了人類追隨場景邏輯流的方式。

      根據DeepSeek公布的技術報告,DeepSeek-OCR 2在多項關鍵指標上展現出顯著優勢。在OmniDocBench v1.5基準測試中,該模型取得了91.09%的成績,相較于前代DeepSeek-OCR提升了3.73%。

      值得注意的是,該模型在保持極高精度的同時,嚴格控制了計算成本,其視覺Token數量被限制在256至1120之間,這一上限與Google的Gemini-3 Pro保持一致。 在實際生產環境中,該模型在處理在線用戶日志和PDF預訓練數據時的重復率分別下降了2.08%和0.81%,顯示出極高的實用成熟度。

      根據DeepSeek公布的技術報告,現有的視覺語言模型(VLMs)通常采用固定的光柵掃描順序(光柵掃描順序)處理圖像切片,即機械地從左上角掃描至右下角。DeepSeek團隊指出,這種方式引入了不必要的歸納偏差,與人類視覺感知背道而馳。人類在閱讀復雜文檔、表格或追蹤螺旋線條時,視線是受語義理解驅動的“因果流”,后一次注視往往因果依賴于前一次注視,而非單純的空間坐標移動。

      受此認知機制啟發,DeepSeek-OCR 2的核心組件DeepEncoder V2被設計用于賦予編碼器因果推理能力。通過引入可學習的“因果流查詢”(Causal Flow Queries),模型能夠在進入LLM解碼器進行內容解釋之前,先在編碼階段就對視覺信息進行智能重排序。這實際上構建了一個兩級級聯的1D因果推理結構:首先由編碼器在語義上重組視覺Token,隨后由解碼器對有序序列進行自回歸推理。

      這種設計不僅符合光學文本、表格和公式的非線性布局特征,還有效彌補了2D圖像結構與1D語言建模之間的鴻溝。

      DeepSeek-OCR 2的發布不僅是一次OCR性能的升級,更具有深遠的架構探索意義。DeepEncoder V2初步驗證了使用語言模型架構作為視覺編碼器的潛力。這種架構天然繼承了LLM社區在基礎設施優化方面的成果,如混合專家(MoE)架構和高效注意力機制。

      DeepSeek團隊認為,這為邁向統一的全模態編碼器提供了一條有希望的路徑。未來,單一編碼器可能通過配置特定模態的可學習查詢,在同一參數空間內實現對圖像、音頻和文本的特征提取與壓縮。DeepSeek-OCR 2所展示的“兩個級聯的1D因果推理器”模式,通過將2D理解分解為“閱讀邏輯推理”和“視覺任務推理”兩個互補子任務,或許代表了實現真正2D推理的一種突破性架構方法。

      阿里、月之暗面也有大動作

      同日,月之暗面Kimi正式發布了新一代開源模型 Kimi K2.5。

      此次升級通過靜默推送方式實現在官網聊天界面的自動更新,原K2模型已無縫切換為K2.5,用戶無需手動操作。更新旨在提升響應速度、推理能力與多輪對話穩定性,覆蓋全部Web端用戶。該版本未開放獨立入口或下載安裝包,僅以服務端模型替換形式落地。

      據介紹,作為Kimi目前最智能的模型,K2.5在HLE(人類最后的考試)、BrowseComp、 DeepSearchQA等多項agent評測中均取得全球開源模型的最佳成績。

      作為一個全能型模型,Kimi K2.5基于原生多模態架構設計,支持視覺與文本輸入,將視覺理解與推理、編程、Agent等能力全部集成到一個模型當中。

      Kimi創始人、CEO楊植麟表示:“我們重構了強化學習的基建,并專門優化了訓練算法,以確保它能達到極致的效率和性能。”

      另外,阿里巴巴26日晚間正式發布千問旗艦推理模型Qwen3-Max-Thinking,在多項關鍵性能基準測試中,千問表現超過了GPT-5.2、Claude Opus 4.5 和Gemini 3 Pro等頂尖模型,刷新全球紀錄,進一步拓展了AI系統的推理性能邊界。

      通過總參數、強化學習、推理計算的極致規模擴展,千問新模型實現了性能的大幅飛躍,刷新科學知識(GPQA Diamond)、數學推理(IMO-AnswerBench)、代碼編程(LiveCodeBench)等多項關鍵性能基準測試的全球紀錄。

      具體來看,在關鍵的模型推理能力提升中,千問新模型采用了一種全新的測試時擴展(Test-time Scaling)機制,推理性能提升的同時還更經濟。

      阿里方面表示,Qwen3-Max-Thinking總參數超萬億,進行了更大規模的強化學習后訓練,并通過推理技術的系列創新,最終完成模型性能的大幅飛躍。其還大幅增強了自主調用工具的原生Agent能力,模型可像專業人士一樣邊用工具邊思考。同時,模型幻覺也大為降低,為解決真實復雜任務打下基礎。目前,普通用戶可通過千問PC端和網頁端試用新模型,千問APP也即將接入,所有用戶都可免費體驗。

      排版:楊喻程

      校對:呂久彪

      責任編輯: 高蕊琦
      聲明:證券時報力求信息真實、準確,文章提及內容僅供參考,不構成實質性投資建議,據此操作風險自擔
      下載"證券時報"官方APP,或關注官方微信公眾號,即可隨時了解股市動態,洞察政策信息,把握財富機會。
      用戶評論
      登錄后可以發言
      網友評論僅供其表達個人看法,并不表明證券時報立場
      發表評論
      暫無評論
      時報熱榜
      換一換
        熱點視頻
        換一換