DeepSeek-R1 登上《Nature》封面:只花了 200 万,没蒸馏 OpenAI

吃瓜电子官网最新热点:DeepSeek-R1 登上《Nature》封面:只花了 200 万,没蒸馏 OpenAI

更新时间: 浏览次数:6246

雷峰网讯 DeepSeek-R1 又开先例,成为首个登上《N🥳ature》封面的中国大模型。 2025 年春节,De😁epSeek-R1 横空出世,因其极低的训练成本引发病毒式传😎播。八个月过去,这一成果带着 Nature 的金字招牌再次回⭐到公众视野中央,只为一件事:技术透明。 这篇名为 De🙌epSeek-R1 incentivizes reasoni🔥ng in LLMs through reinforceme🤯nt learning 的《Nature》 封面论文由创始人😀梁文锋担任通讯作者。文中首次确认了此前流传的DeepSeek🥳 R1 训练成本,约 29.4 万美元,折合人民币约 208😴 万,并进一步披露了模型训练中采用的数据类型、强化学习方案等😴技术细节。 在揭开这一里程碑式大模型的面纱之外,这篇论😅文更大的意义,是 DeepSeek-R1 作为全球首个经历了🚀同行评审的大语言模型,将大模型研究推向了更透明、可重复的方向🎉。 此前业内通行的做法,是科技公司在自家官网、论文预印🤔本网站 arXiv或知名技术论坛上发布突破性成果及基准测试分😆数,大部分模型 API 随后即向公众开放。这一过程绕开了传统😘学术评价体系中的同行评审环节,而 DeepSeek 团队则主🔥动接受了这一来自学术界的审视。 根据 《Nature》🚀公布的补充信息显示,评审意见主要集中在实验评估、模型安全性和😘伦理风险等方面,要求补充 OOD(分布外)测试、中间阶段性能😍分析、误用讨论等工作。正是针对上述同行评审意见,DeepSe🥳ek 团队才增加了对数据类型等训练细节的披露,并进一步证明了😂成果的安全性。 “这是一个非常值得欢迎的先例,“论文评🤯审之一,Hugging Face 机器学习工程师 Lewis🥳 Tunstall 表示,”如果我们没有公开分享这一过程大部🤗分内容的规范,那么将很难评估这些系统是否构成风险。“ 💯公开训练细节,回应“蒸馏”质疑 那么在最新版本的论文中😀, DeepSeek 团队都补充了 R1 的哪些训练细节呢?😊 首先是训练成本,此前曾震动华尔街的 29.4 万美元🤗数据终于得到证实。 据补充材料介绍, DeepSeek😍-R1 的研究工作分为三个阶段。 第一阶段使用 A10🤩0 GPU 对 30B 参数的小模型进行实验预研,因结果表现😜良好,使团队有信心将规模扩大至 660B 参数的 R1-Ze😡ro 和 R1。 第二阶段的成果是 DeepSeek-😂R1-Zero,研究团队动用了 512 块 H800 GPU🚀,耗时约 198 小时。 最后是 DeepSeek-R😍1,仍然采用 512 块 H800 GPU 的配置,但仅用时😁 80 小时便宣告完成。 在训练数据构成方面, Dee💯pSeek-R1 采用了数学、编程、STEM、逻辑四大类题目🥳。 展开全文 其中数学数据集由 2.6 万道定量😡推理题构成,涵盖数学考试和竞赛题目,模型需逐步推理并给出最终❤️正确答案。 编程数据集由 1.7 万道算法竞赛题与 8🚀 千道 Bug修复题构成,其中后者全部来自真实的GitHub😡 issue,数据集提供问题描述、含缺陷源码与部分失败的单元❤️测试,要求模型定位并修复缺陷,使代码通过全部测试。 S🙄TEM 数据集由 2.2 万道选择题构成,覆盖物理、化学、生😢物等学科,模型需选出最科学准确的答案。 逻辑数据集由真🙌实问题和合成问题共 1.5 万题构成。 此外 Deep🔥Seek 团队还引入了通用 RL 数据以提升 DeepSee😂k-R1 的有用性与无害性。在训练过程中,研究人员采用了两个😴独立训练的奖励模型,一个针对“有用”排序数据训练,涵盖创意写❤️作、编辑、事实问答等领域的 6.6万题,一个针对“无害”排序🤔数据训练,由1.2 万题构成。 特别值得一提的是,在最😴新版论文中,DeepSeek 团队正面回应了此前关于 R1 😀蒸馏 OpenAI 模型的质疑。 研究团队专门为此设计🥳了一项试验,使用 Qwen2-7B 作为基础模型时,通过大规😜模强化学习进行训练,该模型同样可以自主发展出各种先进推理策略🤔。而 Qwen2-7B 的发布时间为 2024 年 6 月,😁显然早于所有公开的推理模型。蒸无可蒸,推理能力的优化自然源于🥳 DeepSeek-R1 开创的强化学习方法。 Dee😅pSeek-R1 的另一大特征是在推理过程中更频繁地使用“我🙄”和“我们”等第一人称代词。值得一提的是,这种效果是通过精心🤗设计的冷启动数据所实现。 论文中介绍,研究团队发现当推😁理过程符合第一人称视角的思维模式时,用户会认为其回应更直观且😀具有吸引力。为此,研究团队要求标注人员将推理轨迹转换为更自然🤩、更贴近人类对话风格的表达,并以此作为示例提示大语言模型以类😅似风格重写更多。 在如此收集到的数千条 CoT 数据中🙌进一步筛选出最终答案正确且格式清晰的,就得到了简洁、可读性强🥳,既包含推理步骤,也涵盖最终结果的高质量冷启动数据。 😢双重里程碑 时隔八个月再次回顾,DeepSeek-R1😢 因何成为大模型史上里程碑式的论文? 有一部分答案藏在😘训练成本里。DeepSeek-R1 29.4 万美元的训练成🎉本不仅只有当时同等规模模型的十分之一,而且其中仅有 1 万美👍元被用于构建 SFT 数据集。这意味和同行相比,它背后砍掉了🤯大规模的监督微调。 属于人类的能力,也向人类学习,监督😘微调曾经是提升模型推理能力的共识。但它的局限性也很明显,对人🚀类标注推理轨迹的依赖显著增加了模型训练成本,限制了可扩展性,😜人类的认知偏见也在向模型渗透。 更引人深思的问题是,复😢制人类思维过程真的是硅基推理的最优解吗?是否存在一种更优越的😀、非人类思维的推理方式?如果答案是肯定的,那一定在人类示例之😘外。 正是在这样的背景下,DeepSeek-R1 提出😁了一种通过纯粹强化学习实现推理能力自我进化发展的路径,以摆脱😘对人工标注推理轨迹的依赖。 具体而言,研究团队基于 D🥳eepSeek-V3 base,并使用组相对策略优化(GRP🚀O)作为强化学习框架。在全新的训练范式下,仅对最终答案的正确🤔性进行奖励,而不对推理过程本身施加约束。简单来说,就是推理方👏式不限,能抓到耗子就是好猫。 这种训练方案设计和研究团🙄队的假设一脉相承:人类定义的推理模式可能会限制模型探索,而不😊受限制的强化学习训练能更好地激励 LLMs 中新型推理能力的💯出现。 实验结果表明,DeepSeek-R1-Zero🤗 的确自然地发展出了多样化和复杂的推理行为。为解决推理问题,😁它表现出了生成更长响应的倾向,并且存在在每个响应中包含验证、👏反思和探索替代方法的趋势。 “尽管我们没有明确地教模型🥳如何推理,但它通过强化学习成功学习了改进的推理策略。”论文指🌟出。 展现出强大推理能力的同时,DeepSeek-R1🙄-Zero 在可读性差和语言混杂等方面仍存在挑战。这一问题的😡根源在于 DeepSeek-V3 base 是在多种语言上完🙄成训练,为此 DeepSeek-R1 的开发被提上日程。 🤗 这一次,研究团队不仅通过多阶段强化学习训练改进模型在对话😎式推理过程、语言一致性以及人类偏好对齐方面的表现,而且在拒绝😜采样和监督微调环节将推理和非推理数据集都纳入 SFT 过程,🙌这一设计使 DeepSeek-R1 不仅能在推理任务中表现出🤔色,还展示出了高级的写作能力。 基准测试结果显示,脱胎😊于全新训练范式下的 DeepSeek-R1 在 MMLU、C😉-eval、GPQA Diamond、Arena-Hard、🔥SWE-bench Verified、AIME 2024 上😜均表现出色。而更直接的例子,则是在 2025 年春节之后的一🔥段时间里,DeepSeek-R1 几乎成为了国产大模型的代名💯词。 LLMs 的推理能力可以通过纯 RL 进行激励,😉无需人工标注推理轨迹的参与。这一今天已成为共识的创想,最初就😴是经由 DeepSeek-R1 所实现。DeepSeek 团⭐队在此基础上构建的 RL 框架,也促进了自我反思、验证和动态🌟策略适应等高级推理模式的涌现。 而今天,这一突破性成果😜经受住了学术出版审查。主动接受专家评审的拷问,补充材料说明技🌟术细节,并最终作为顶刊封面论文刊发……如果说 DeepSee😍k-R1 的初次发布是一个关于前沿技术突破的故事,那么时隔八🌟个月之后,这个故事的关键词变成了学术透明和技术开放。 🚀补充各种技术细节之后,《Nature》最新这篇封面论文堪称“⭐手把手教你训 R1”。它让我们看到头部科技企业的核心成果不是🤩只能封装成语焉不详的黑盒提供给用户,而是也可以拿到同行评审面🤯前接受审视,以及更重要的,给出符合学术规范的解释和回应。 😆 商业化考量让 OpenAI、Google 等科技巨头纷纷😎和传统的学术审查保持距离,这本无可非议,但是当 DeepSe😉ek-R1 真的成为了可复现、可验证的学术成果,这种对技术开😉放性的追求无疑也让研究团队的选择更加可敬。 在双重意义🚀上,DeepSeek-R1 都堪称里程碑。 参考资料:😜 https://www.nature.com/art🤔icles/s41586-025-09422-z#ethic🙄s https://www.nature.com/ar🙌ticles/d41586-025-03015-6 雷😁峰网文章返回搜狐,查看更多

北京市:市辖区:(东城区、西城区、朝阳区、丰台区、石景山区、海淀区、门头沟区、房山区、通州区、顺义区、昌平区、大兴区、怀柔区、平谷区、密云区、延庆区)

天津市:市辖区:(和平区、河东区、河西区、南开区、河北区、红桥区、东丽区、西青区、津南区、北辰区、武清区、宝坻区、滨海新区、宁河区、静海区、蓟州区)

河北省:石家庄市:(长安区、桥西区、新华区、井陉矿区、裕华区、藁城区、鹿泉区、栾城区、井陉县、正定县、行唐县、灵寿县、高邑县、深泽县、赞皇县、无极县、平山县、元氏县、赵县、石家庄高新技术产业开发区、石家庄循环化工园区、辛集市、晋州市、新乐市)

唐山市:(路南区、路北区、古冶区、开平区、丰南区、丰润区、曹妃甸区、滦南县、乐亭县、迁西县、玉田县、河北唐山芦台经济开发区、唐山市汉沽管理区、唐山高新技术产业开发区、河北唐山海港经济开发区、遵化市、迁安市、滦州市)

秦皇岛市:(海港区、山海关区、北戴河区、抚宁区、青龙满族自治县、昌黎县、卢龙县、秦皇岛市经济技术开发区、北戴河新区)

邯郸市:(邯山区、丛台区、复兴区、峰峰矿区、肥乡区、永年区、临漳县、成安县、大名县、涉县、磁县、邱县、鸡泽县、广平县、馆陶县、魏县、曲周县、邯郸经济技术开发区、邯郸冀南新区、武安市)

邢台市:(襄都区、信都区、任泽区、南和区、临城县、内丘县、柏乡县、隆尧县、宁晋县、巨鹿县、新河县、广宗县、平乡县、威县、清河县、临西县、河北邢台经济开发区、南宫市、沙河市)

保定市:(竞秀区、莲池区、满城区、清苑区、徐水区、涞水县、阜平县、定兴县、唐县、高阳县、容城县、涞源县、望都县、安新县、易县、曲阳县、蠡县、顺平县、博野县、雄县、保定高新技术产业开发区、保定白沟新城、涿州市、定州市、安国市、高碑店市)

张家口市:(桥东区、桥西区、宣化区、下花园区、万全区、崇礼区、张北县、康保县、沽源县、尚义县、蔚县、阳原县、怀安县、怀来县、涿鹿县、赤城县、张家口经济开发区、张家口市察北管理区、张家口市塞北管理区)

承德市:(双桥区、双滦区、鹰手营子矿区、承德县、兴隆县、滦平县、隆化县、丰宁满族自治县、宽城满族自治县、围场满族蒙古族自治县、承德高新技术产业开发区、平泉市)

沧州市:(新华区、运河区、沧县、青县、东光县、海兴县、盐山县、肃宁县、南皮县、吴桥县、献县、孟村回族自治县、河北沧州经济开发区、沧州高新技术产业开发区、沧州渤海新区、泊头市、任丘市、黄骅市、河间市)

美国联邦政府“关门”10日进入第十天,白宫“大手一挥”,宣布开始大规模解雇联邦雇员。据美媒报道,超过4000名联邦雇员将丢掉工作。美国总统特朗普称,裁员将集中在“趋向民主党的领域”,会波及“很多人”。 统计: 20万联邦雇员已离职 非营利机构公共服务合作组织统计显示,特朗普政府执政9个月来,已有超过20万联邦雇员离开工作岗位,除主动辞职和正常退休的人外,相当一部分属于被迫离职。 白宫管理和预算办公室10日宣布,联邦政府裁员已经开始,超过4000人将被解雇。据美联社报道,这波裁员主要波及财政部、卫生与公共服务部、教育部、住房和城市发展部、商务部、能源部、国土安全部等联邦机构,其中前两个机构裁员规模最大。这些机构已开始陆续下达裁员通知。 熟悉内情的一个联邦雇员工会10日对美联社记者说,在教育部主管中小学事务的部门,主任级别以下的雇员几乎全被裁掉。特朗普早就看教育部“不顺眼”,今年3月签署行政令要求推动关闭教育部,将教育管理权归还各州。 “这是刻意制造的混乱” 特朗普10日晚在白宫椭圆形办公室接受媒体采访时说,因为政府“关门”,会有很多联邦雇员丢掉工作,“我们会在今后几天宣布人数,会有很多人”。他称,裁员将集中在“趋向民主党的领域”,但没有进一步解释。 特朗普政府最近借“关门”一事向民主党发起猛攻,削减民主党支持的项目、解散民主党主导的联邦机构。他之前明说,会解雇许多“民主党的人”。 美国国会参议院民主党领袖查克·舒默将政府最新一轮裁员归咎于特朗普。舒默说:“我们直说吧,没有人逼特朗普和(白宫管理和预算办公室主任)沃特裁员。他们没必要这样做,是他们自己想这样做。他们选择去无情地伤害别人——伤害那些保家卫国、检查食品安全和应对灾难的人。这是刻意制造的混乱。” 美国政府雇员联合会10日表示“已经提起诉讼”。该组织全国主席埃弗里特·凯利说,特朗普政府以“停摆”为借口,“非法解雇”数以千计为全国各地社区提供关键服务的雇员,这令人耻辱。“联邦雇员厌倦了被政治人物用作政治和个人利益的棋子。” 白宫这次做得太过了? 美联社报道称,白宫这次做得多少“有点过”。以往美国联邦政府“停摆”期间,政府很少“落井下石”裁掉那些本就被迫停薪休假的雇员。通常情况下,政府“停摆”期间,提供“必要服务”的雇员停薪上班,其他雇员停薪休假。政府重新“开门”后,会给雇员补发工资。 一些共和党人也表示“看不下去了”。国会参议院拨款委员会主席苏珊·柯林斯说:“联邦雇员因为完全没有必要的政府‘关门’而停薪休假,白宫管理和预算办公室主任沃特却企图永久解雇他们,我对此强烈反对。” 来自阿拉斯加州的共和党籍参议员莉萨·穆尔科斯基说,这是“这届政府对联邦雇员采取惩罚行动的又一例证”。据媒体报道,先前有不少被炒掉的联邦雇员起诉特朗普政府采取“报复”行动,在没有正当理由的情况下解雇他们。 《纽约时报》报道说,在政府“停摆”期间试图解雇联邦雇员,特朗普政府此举可能会让当前财政僵局进一步升级,导致高昂代价。 因两党在医保等福利支出方面存在分歧,美国国会参议院未能在9月30日上一财年结束前通过新的临时拨款法案。美国东部时间10月1日零时起,联邦政府时隔近7年再次“停摆”,共和、民主两党为此相互“甩锅”。 据媒体报道,政府“关门”期间,约75万联邦雇员停薪休假,军人恐难在15日的领薪日按时领到军饷。经济数据发布暂停,公共服务陷入停滞,美国经济和社会遭受损失。返回搜狐,查看更多

发布于:太和区
评论
全部
还没有人评论过,快来抢首评
抢首评

推荐阅读

破解“内卷”困局:从“量本利”到“价本利”的转变

洞见 2025-11-06 02:08:12 2925

自动驾驶的流派纷争史

洞见 2025-11-06 00:51:36 4977

大多老板都会撒的三个谎

洞见 2025-11-06 01:37:17 3213

宜宾以 169 亿文旅机会场景 + 36.5 亿签约项目,按下国际旅游城市建设 “加速键”

洞见 2025-11-06 01:24:44 1937

市值重回1000亿,华友钴业,熬过“至暗时刻”

洞见 2025-11-06 01:21:02 7011

狂生炸山之后

洞见 2025-11-06 01:08:57 4476

市值较高点缩水超250亿,“松鼠老爹”跨界能否重返创富榜?

洞见 2025-11-06 01:15:37 8268

大专学历,还有机会做制作人吗?

洞见 2025-11-06 02:15:59 9937

野人先生,不想做下一个钟薛高

洞见 2025-11-06 01:25:18 6183

平安好医生“换帅”,前百度高管空降,要押注AI医疗?

洞见 2025-11-06 00:41:32 8973

OpenAI的战略风险

洞见 2025-11-06 00:08:07 1185

国庆不出游的年轻人们

洞见 2025-11-06 02:01:23 8553

微观世界的堡垒:晶圆厂的复杂安全问题

洞见 2025-11-06 02:02:36 5592

【钛晨报】治理价格无序竞争,发改委、市监总局最新发声;涉稀土、锂电池等出口管制,商务部、海关总署连发4则公告;多家券商出手,这些大市值股票两融折算率降至0

洞见 2025-11-06 00:00:17 4936

大厂竞业限制协议「七宗罪」

洞见 2025-11-06 00:00:04 7242

苹果“低头”,堵死了国产品牌靠AI手机逆袭的路?

洞见 2025-11-06 01:29:16 7409

蜜雪冰城想让年轻人微醺

洞见 2025-11-06 01:00:40 5631

关于高市早苗,以及女性政治家,我的一些有趣的观察

虎嗅APP 2025-11-06 00:28:21 9558

银价刷新十四年新高,投资银条被爆买该咋看?

虎嗅APP 2025-11-06 01:48:58 2234

大涨开启四季度,光伏板块今年能否“翻盘”?

虎嗅APP 2025-11-06 01:41:34 3837

“追求正义时的温和不是美德”

Pandora占星小... 2025-11-06 01:01:37 3023
为您推荐中
暂时没有更多内容了……