3月12日,根據英偉達公司向美國證券交易委員會(SEC)提交的財務文件,英偉達將在未來5年累計投入260億美元(約合1788億元人民幣)巨資,全力推進開源AI大模型的研發。這一投資規模遠超OpenAI訓練GPT-4時所耗費的30億美元。英偉達公司也正式開啟了從“芯片制造商”向“全棧式AI頂尖實驗室”的戰略轉型。
根據規劃,英偉達此次260億美元的投入并非單純聚焦于單一模型研發,而是覆蓋開源AI大模型全產業鏈,資金將在未來18至24個月內逐步落地,首批自研開源AI模型最快將于2026年底至2027年初正式問世。
在技術路線上,英偉達選擇了一條“開放權重”(Open-weight)的“中間道路”。這一模式介于OpenAI的完全閉源與Meta旗下Llama系列的完全開源之間。具體而言,英偉達將公開模型的關鍵參數(權重),允許企業和開發者免費下載,并在自己的設備或私有云上運行、微調,從而滿足企業對數據隱私、定制化和成本控制的需求。但模型的訓練數據和代碼可能不會完全公開。
在核心模型研發上,英偉達將重點研發多模態、多領域前沿大模型,覆蓋語言、代碼、科學計算、智能體等多個方向,目前英偉達已秘密完成一個5500億參數超大模型的預訓練工作,為后續開源模型研發完成了技術驗證與壓力測試。
值得一提的是,英偉達于近日同步發布了其新一代開源大語言模型——Nemotron 3 Super。該模型專為應對企業級多智能體(Agentic AI)系統的復雜挑戰而設計,擁有1200億 總參 數,采用高效的混合專家(MoE)架構,原生支持100萬Token的超長上下文窗口,能夠一次性處理整部小說或數千頁的財務報告,有效解決了多智能體工作流中因交互歷史激增而導致的“上下文爆炸”和“目標漂移”難題。
英偉達長期以來的核心優勢集中在芯片硬件領域,全球AI芯片市占率超過80%,但在AI模型層的話語權相對較弱,此前大模型的技術標準、訓練范式大多由OpenAI、Meta等廠商定義。此次英偉達下場自研頂級開源模型,核心目的就是要從底層定義AI模型的技術路線,讓自家的硬件架構、軟件棧成為整個AI行業的事實標準,通過開源模型拉動算力需求。
金融分析師預測,如果英偉達在鞏固其硬件霸主地位的同時,能在基礎模型市場成功攫取10%的份額,此舉有望在三年內為公司每年額外貢獻高達500億美元的營收。
英偉達應用深度學習研究副總裁Bryan Catanzaro表示,推動開源生態發展完全符合英偉達的核心利益,此次巨額投資并非盲目跟風,而是經過長期行業研判后的戰略抉擇。
英偉達企業生成式AI軟件副總裁Kari Briski強調,英偉達開發這些前沿模型不僅為了測試算力,更是為了對存儲、網絡及超算級數據中心進行極限壓力測試,從而為公司下一代硬件架構的發展路線圖指明方向。