当前位置:首页 > 科学新闻 > 正文

DeepSeek双模型发布:话少助手+偏科天才

 作者:王姗姗 来源:科技日报 发布时间:2025/12/4 10:14:08 字体大小:

12月1日,DeepSeek(深度求索公司)同时发布两个正式版模型:DeepSeek-V3.2和DeepSeek-V3.2-Speciale。在公开推理测试中,V3.2水平达到了开放人工智能公司(OpenAI)今年8月推出的大模型GPT-5水平,略低于谷歌(Google)的Gemini3 Pro,国产大模型再一次吸引全球目光。

两款模型各有所长

“简单来说,区别于聊天机器人式大模型,DeepSeek-V3.2更像一位‘话少活好’的助手。”DCCI互联网研究院院长、365体育投注:社会科学院大学数字365体育投注:研究院特聘研究员刘兴亮解释道,这位助手主打高性价比与日常使用,具备更强的推理能力和智能体(Agent)能力,未来有望成为“数字劳动力”,完成自动生成报表、编写代码等复杂工作。

而V3.2-Speciale更像一位“偏科”的科研天才,专攻高难度数学问题求解、学术研究逻辑验证、编程竞赛解题等,旨在将开源模型推理能力推向极致。

工业和信息化部信息通信经济专家委员会委员盘和林表示,新模型有两个质的突破:引用DSA(领域专用架构)和思考型工具调用技术。

盘和林用了一个形象的比喻解释DSA技术:“如果把大模型比作图书管理员,以往旧模型在找书时,每次都要从头一本一本找,词元消耗多且效率低。而DSA让它只需检索最关键信息,可以大幅缩小书架寻找范围,进而提升效率、降低消耗。”

思考型工具调用技术,则瞄准大模型“一思考手就停”的短板。“此前大模型多限于单轮问答,无法像人类一样,在解决复杂问题时进行多轮思考和查阅资料。”盘和林说,“这项新技术让模型得到指令后,能先思考再调用代码执行、数据库查询等工具接口,然后根据结果继续思考、再次调用,如此交替反复,并保留记录供后续推理使用。”

“这是DeepSeek首次将思考融入工具使用,改变了以往模型依赖人‘喂’数据的发展范式,实现AI的自我训练和进化。”盘和林说。

开源模型大有可为

过去一年,大语言模型快速发展,以Google、OpenAI等为代表的闭源社区在复杂任务中表现得愈发优越,而开源社区受制于架构、资源分配及智能体能力等方面的关键缺陷,与闭源社区性能差距进一步扩大。

DeepSeek团队称,这是他们发布新模型的根本动力来源。

刘兴亮认为,新模型缩小了当前开源模型与闭源模型间的差距,证明了闭源大模型的巅峰并非不可逾越,为我国乃至全球开源大模型的发展注入强心剂。

盘和林表示,从今年初发布R1大模型,以深度思考模式和超低成本预算实现365体育投注:人工智能发展弯道超车后,DeepSeek的发展主线始终聚焦实用性和泛化能力,让“赶超闭源”从美好愿景变为闭源厂商的现实压力。“最重要的是,DeepSeek为全球开发者提供了一个强大、可控且经济的模型底座,助力大语言模型融入千行百业、形成商业闭环。”他说。

同时,盘和林也提醒,新模型为大语言模型带来了新的治理难题。“需警惕工具调用风险,以及学术造假、自动化生成代码漏洞、产业不公平竞争等挑战,推动开源模型向‘少说话多办事更安全’跃升。”

据悉,DeepSeek的官方网页端、App和API(应用程序编程接口)均已更新为正式版DeepSeek-V3.2,但Speciale版本目前仅以临时API服务形式开放,供社区评测与研究。

信源地址:/html/shownews.aspx          
分享1
版权声明
?本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。
? Copyright ? 2014 北京今日创见科技有限公司 All Rights Reserved.
关于我们 | 网站声明 | 服务条款 | 联系方式
京ICP备 14047472号-1   京公网安备 11010502030844号