今日,騰訊混元正式宣布其模型矩陣的全面升級,包括 旗艦快思考模型混元TurboS、深度思考模型混元T1升級,并基于TurboS基座,新推出視覺深度推理模型T1-Vision和端到端語音通話模型混元Voice。
另外,騰訊混元圖像2.0、騰訊混元3D v2.5及混元游戲視覺生成等一系列多模態(tài)模型同步“上新”。此次升級不僅增強了混元在 AI 領域的競爭力,也標志著騰訊在多模態(tài)技術上的新進展。
在2025騰訊云 AI 產(chǎn)業(yè)應用峰會上,騰訊集團高級執(zhí)行副總裁湯道生表示,混元 TurboS 模型在全球公認的 Chatbot Arena 評測平臺上已躋身前八名,成為國內(nèi)僅次于 DeepSeek 的優(yōu)秀模型。TurboS 憑借其在代碼和數(shù)學等理科領域的強大能力,躋身全球前十名。該模型的出色表現(xiàn)歸功于其創(chuàng)新的預訓練和后訓練技術,使得理科推理能力提高了超過10%。
騰訊混元的另一款深度思考模型 T1也在不斷迭代中,近期迎來了新升級。T1在競賽數(shù)學和常識問答等多個領域的能力得到了顯著提升,其中,競賽數(shù)學成績提升了8%,而復雜任務的 Agent 能力提升了13%。這種持續(xù)的技術進步體現(xiàn)了騰訊在 AI 領域的堅定投入和創(chuàng)新精神。
新發(fā)布的 T1-Vision 模型具備原生長思維鏈,支持多圖輸入,使得模型在理解圖像時更加高效,其整體效果比之前的級聯(lián)方案提高了5.3%,理解速度也提升了50%。
而混元 Voice 模型則實現(xiàn)了低延遲語音通話,相比于舊版,響應速度提高了30%,將延遲降低至1.6秒。
在多模態(tài)生成方面,混元圖像2.0以超高的準確率和快速的生成能力引領行業(yè),滿足了用戶對實時交互體驗的需求。此外,混元3D v2.5模型在生成能力和可控性方面也取得了突破,使得其在多個生成類目中表現(xiàn)優(yōu)異。
為了更好地服務于各行各業(yè),騰訊混元還計劃推出大規(guī)??陕蔚?D 場景生成模型,助力游戲、智能等行業(yè)的創(chuàng)新。同時,混元致力于開源技術的推進,已實現(xiàn)圖像、視頻、3D 等全模態(tài)的開源,并為參與的合作伙伴提供免費的模型資源和技術支持。
劃重點:
騰訊混元升級模型矩陣,推出視覺深度推理模型 T1-Vision 和端到端語音通話模型混元 Voice。
混元 TurboS 在全球評測中排名前八,理科能力顯著提升。
騰訊混元致力于開源技術,支持多模態(tài)模型的持續(xù)迭代與行業(yè)應用。