DeepSeek-R1 登上《Nature》封面:只花了 200 万,没蒸馏 OpenAI
吃瓜电子官网最新热点:DeepSeek-R1 登上《Nature》封面:只花了 200 万,没蒸馏 OpenAI
更新时间: 浏览次数:9951
雷峰网讯 DeepSeek-R1 又开先例,成为首个登上《N😊ature》封面的中国大模型。 2025 年春节,De😅epSeek-R1 横空出世,因其极低的训练成本引发病毒式传🤔播。八个月过去,这一成果带着 Nature 的金字招牌再次回👏到公众视野中央,只为一件事:技术透明。 这篇名为 De😡epSeek-R1 incentivizes reasoni😴ng in LLMs through reinforceme😜nt learning 的《Nature》 封面论文由创始人😆梁文锋担任通讯作者。文中首次确认了此前流传的DeepSeek😍 R1 训练成本,约 29.4 万美元,折合人民币约 208😡 万,并进一步披露了模型训练中采用的数据类型、强化学习方案等🤗技术细节。 在揭开这一里程碑式大模型的面纱之外,这篇论🤗文更大的意义,是 DeepSeek-R1 作为全球首个经历了🔥同行评审的大语言模型,将大模型研究推向了更透明、可重复的方向😉。 此前业内通行的做法,是科技公司在自家官网、论文预印🙄本网站 arXiv或知名技术论坛上发布突破性成果及基准测试分😍数,大部分模型 API 随后即向公众开放。这一过程绕开了传统😀学术评价体系中的同行评审环节,而 DeepSeek 团队则主😢动接受了这一来自学术界的审视。 根据 《Nature》😆公布的补充信息显示,评审意见主要集中在实验评估、模型安全性和🤔伦理风险等方面,要求补充 OOD(分布外)测试、中间阶段性能🙌分析、误用讨论等工作。正是针对上述同行评审意见,DeepSe😴ek 团队才增加了对数据类型等训练细节的披露,并进一步证明了😀成果的安全性。 “这是一个非常值得欢迎的先例,“论文评🎉审之一,Hugging Face 机器学习工程师 Lewis❤️ Tunstall 表示,”如果我们没有公开分享这一过程大部😍分内容的规范,那么将很难评估这些系统是否构成风险。“ 😢公开训练细节,回应“蒸馏”质疑 那么在最新版本的论文中🙄, DeepSeek 团队都补充了 R1 的哪些训练细节呢?🥳 首先是训练成本,此前曾震动华尔街的 29.4 万美元⭐数据终于得到证实。 据补充材料介绍, DeepSeek🙄-R1 的研究工作分为三个阶段。 第一阶段使用 A10🤯0 GPU 对 30B 参数的小模型进行实验预研,因结果表现🤔良好,使团队有信心将规模扩大至 660B 参数的 R1-Ze😢ro 和 R1。 第二阶段的成果是 DeepSeek-🌟R1-Zero,研究团队动用了 512 块 H800 GPU😅,耗时约 198 小时。 最后是 DeepSeek-R🤗1,仍然采用 512 块 H800 GPU 的配置,但仅用时🙌 80 小时便宣告完成。 在训练数据构成方面, Dee😉pSeek-R1 采用了数学、编程、STEM、逻辑四大类题目🥳。 展开全文 其中数学数据集由 2.6 万道定量😜推理题构成,涵盖数学考试和竞赛题目,模型需逐步推理并给出最终🙌正确答案。 编程数据集由 1.7 万道算法竞赛题与 8🌟 千道 Bug修复题构成,其中后者全部来自真实的GitHub😆 issue,数据集提供问题描述、含缺陷源码与部分失败的单元😀测试,要求模型定位并修复缺陷,使代码通过全部测试。 S❤️TEM 数据集由 2.2 万道选择题构成,覆盖物理、化学、生😊物等学科,模型需选出最科学准确的答案。 逻辑数据集由真💯实问题和合成问题共 1.5 万题构成。 此外 Deep😢Seek 团队还引入了通用 RL 数据以提升 DeepSee😡k-R1 的有用性与无害性。在训练过程中,研究人员采用了两个🙌独立训练的奖励模型,一个针对“有用”排序数据训练,涵盖创意写🚀作、编辑、事实问答等领域的 6.6万题,一个针对“无害”排序😎数据训练,由1.2 万题构成。 特别值得一提的是,在最🚀新版论文中,DeepSeek 团队正面回应了此前关于 R1 😀蒸馏 OpenAI 模型的质疑。 研究团队专门为此设计💯了一项试验,使用 Qwen2-7B 作为基础模型时,通过大规❤️模强化学习进行训练,该模型同样可以自主发展出各种先进推理策略🚀。而 Qwen2-7B 的发布时间为 2024 年 6 月,😉显然早于所有公开的推理模型。蒸无可蒸,推理能力的优化自然源于⭐ DeepSeek-R1 开创的强化学习方法。 Dee🤯pSeek-R1 的另一大特征是在推理过程中更频繁地使用“我😂”和“我们”等第一人称代词。值得一提的是,这种效果是通过精心😅设计的冷启动数据所实现。 论文中介绍,研究团队发现当推🤯理过程符合第一人称视角的思维模式时,用户会认为其回应更直观且🙌具有吸引力。为此,研究团队要求标注人员将推理轨迹转换为更自然😘、更贴近人类对话风格的表达,并以此作为示例提示大语言模型以类😘似风格重写更多。 在如此收集到的数千条 CoT 数据中💯进一步筛选出最终答案正确且格式清晰的,就得到了简洁、可读性强😴,既包含推理步骤,也涵盖最终结果的高质量冷启动数据。 😉双重里程碑 时隔八个月再次回顾,DeepSeek-R1🤯 因何成为大模型史上里程碑式的论文? 有一部分答案藏在👍训练成本里。DeepSeek-R1 29.4 万美元的训练成❤️本不仅只有当时同等规模模型的十分之一,而且其中仅有 1 万美🔥元被用于构建 SFT 数据集。这意味和同行相比,它背后砍掉了🔥大规模的监督微调。 属于人类的能力,也向人类学习,监督🤔微调曾经是提升模型推理能力的共识。但它的局限性也很明显,对人😅类标注推理轨迹的依赖显著增加了模型训练成本,限制了可扩展性,💯人类的认知偏见也在向模型渗透。 更引人深思的问题是,复🌟制人类思维过程真的是硅基推理的最优解吗?是否存在一种更优越的🎉、非人类思维的推理方式?如果答案是肯定的,那一定在人类示例之😀外。 正是在这样的背景下,DeepSeek-R1 提出😎了一种通过纯粹强化学习实现推理能力自我进化发展的路径,以摆脱😢对人工标注推理轨迹的依赖。 具体而言,研究团队基于 D⭐eepSeek-V3 base,并使用组相对策略优化(GRP⭐O)作为强化学习框架。在全新的训练范式下,仅对最终答案的正确😴性进行奖励,而不对推理过程本身施加约束。简单来说,就是推理方🤩式不限,能抓到耗子就是好猫。 这种训练方案设计和研究团😢队的假设一脉相承:人类定义的推理模式可能会限制模型探索,而不😎受限制的强化学习训练能更好地激励 LLMs 中新型推理能力的🙄出现。 实验结果表明,DeepSeek-R1-Zero😎 的确自然地发展出了多样化和复杂的推理行为。为解决推理问题,😅它表现出了生成更长响应的倾向,并且存在在每个响应中包含验证、🤯反思和探索替代方法的趋势。 “尽管我们没有明确地教模型😀如何推理,但它通过强化学习成功学习了改进的推理策略。”论文指🚀出。 展现出强大推理能力的同时,DeepSeek-R1😴-Zero 在可读性差和语言混杂等方面仍存在挑战。这一问题的😜根源在于 DeepSeek-V3 base 是在多种语言上完🌟成训练,为此 DeepSeek-R1 的开发被提上日程。 😉 这一次,研究团队不仅通过多阶段强化学习训练改进模型在对话👏式推理过程、语言一致性以及人类偏好对齐方面的表现,而且在拒绝🤗采样和监督微调环节将推理和非推理数据集都纳入 SFT 过程,👏这一设计使 DeepSeek-R1 不仅能在推理任务中表现出🤗色,还展示出了高级的写作能力。 基准测试结果显示,脱胎🔥于全新训练范式下的 DeepSeek-R1 在 MMLU、C🎉-eval、GPQA Diamond、Arena-Hard、😆SWE-bench Verified、AIME 2024 上🌟均表现出色。而更直接的例子,则是在 2025 年春节之后的一🤯段时间里,DeepSeek-R1 几乎成为了国产大模型的代名😂词。 LLMs 的推理能力可以通过纯 RL 进行激励,🚀无需人工标注推理轨迹的参与。这一今天已成为共识的创想,最初就👍是经由 DeepSeek-R1 所实现。DeepSeek 团🔥队在此基础上构建的 RL 框架,也促进了自我反思、验证和动态🌟策略适应等高级推理模式的涌现。 而今天,这一突破性成果😡经受住了学术出版审查。主动接受专家评审的拷问,补充材料说明技🥳术细节,并最终作为顶刊封面论文刊发……如果说 DeepSee❤️k-R1 的初次发布是一个关于前沿技术突破的故事,那么时隔八😅个月之后,这个故事的关键词变成了学术透明和技术开放。 😀补充各种技术细节之后,《Nature》最新这篇封面论文堪称“👏手把手教你训 R1”。它让我们看到头部科技企业的核心成果不是😴只能封装成语焉不详的黑盒提供给用户,而是也可以拿到同行评审面😡前接受审视,以及更重要的,给出符合学术规范的解释和回应。 🙄 商业化考量让 OpenAI、Google 等科技巨头纷纷🤯和传统的学术审查保持距离,这本无可非议,但是当 DeepSe🤩ek-R1 真的成为了可复现、可验证的学术成果,这种对技术开😍放性的追求无疑也让研究团队的选择更加可敬。 在双重意义🌟上,DeepSeek-R1 都堪称里程碑。 参考资料:😢 https://www.nature.com/art🚀icles/s41586-025-09422-z#ethic😢s https://www.nature.com/ar😉ticles/d41586-025-03015-6 雷😊峰网文章返回搜狐,查看更多
北京市:市辖区:(东城区、西城区、朝阳区、丰台区、石景山区、海淀区、门头沟区、房山区、通州区、顺义区、昌平区、大兴区、怀柔区、平谷区、密云区、延庆区)
天津市:市辖区:(和平区、河东区、河西区、南开区、河北区、红桥区、东丽区、西青区、津南区、北辰区、武清区、宝坻区、滨海新区、宁河区、静海区、蓟州区)
河北省:石家庄市:(长安区、桥西区、新华区、井陉矿区、裕华区、藁城区、鹿泉区、栾城区、井陉县、正定县、行唐县、灵寿县、高邑县、深泽县、赞皇县、无极县、平山县、元氏县、赵县、石家庄高新技术产业开发区、石家庄循环化工园区、辛集市、晋州市、新乐市)
唐山市:(路南区、路北区、古冶区、开平区、丰南区、丰润区、曹妃甸区、滦南县、乐亭县、迁西县、玉田县、河北唐山芦台经济开发区、唐山市汉沽管理区、唐山高新技术产业开发区、河北唐山海港经济开发区、遵化市、迁安市、滦州市)
秦皇岛市:(海港区、山海关区、北戴河区、抚宁区、青龙满族自治县、昌黎县、卢龙县、秦皇岛市经济技术开发区、北戴河新区)
邯郸市:(邯山区、丛台区、复兴区、峰峰矿区、肥乡区、永年区、临漳县、成安县、大名县、涉县、磁县、邱县、鸡泽县、广平县、馆陶县、魏县、曲周县、邯郸经济技术开发区、邯郸冀南新区、武安市)
邢台市:(襄都区、信都区、任泽区、南和区、临城县、内丘县、柏乡县、隆尧县、宁晋县、巨鹿县、新河县、广宗县、平乡县、威县、清河县、临西县、河北邢台经济开发区、南宫市、沙河市)
保定市:(竞秀区、莲池区、满城区、清苑区、徐水区、涞水县、阜平县、定兴县、唐县、高阳县、容城县、涞源县、望都县、安新县、易县、曲阳县、蠡县、顺平县、博野县、雄县、保定高新技术产业开发区、保定白沟新城、涿州市、定州市、安国市、高碑店市)
张家口市:(桥东区、桥西区、宣化区、下花园区、万全区、崇礼区、张北县、康保县、沽源县、尚义县、蔚县、阳原县、怀安县、怀来县、涿鹿县、赤城县、张家口经济开发区、张家口市察北管理区、张家口市塞北管理区)
承德市:(双桥区、双滦区、鹰手营子矿区、承德县、兴隆县、滦平县、隆化县、丰宁满族自治县、宽城满族自治县、围场满族蒙古族自治县、承德高新技术产业开发区、平泉市)
沧州市:(新华区、运河区、沧县、青县、东光县、海兴县、盐山县、肃宁县、南皮县、吴桥县、献县、孟村回族自治县、河北沧州经济开发区、沧州高新技术产业开发区、沧州渤海新区、泊头市、任丘市、黄骅市、河间市)
美国联邦政府“关门”10日进入第十天,白宫“大手一挥”,宣布开始大规模解雇联邦雇员。据美媒报道,超过4000名联邦雇员将丢掉工作。美国总统特朗普称,裁员将集中在“趋向民主党的领域”,会波及“很多人”。 统计: 20万联邦雇员已离职 非营利机构公共服务合作组织统计显示,特朗普政府执政9个月来,已有超过20万联邦雇员离开工作岗位,除主动辞职和正常退休的人外,相当一部分属于被迫离职。 白宫管理和预算办公室10日宣布,联邦政府裁员已经开始,超过4000人将被解雇。据美联社报道,这波裁员主要波及财政部、卫生与公共服务部、教育部、住房和城市发展部、商务部、能源部、国土安全部等联邦机构,其中前两个机构裁员规模最大。这些机构已开始陆续下达裁员通知。 熟悉内情的一个联邦雇员工会10日对美联社记者说,在教育部主管中小学事务的部门,主任级别以下的雇员几乎全被裁掉。特朗普早就看教育部“不顺眼”,今年3月签署行政令要求推动关闭教育部,将教育管理权归还各州。 “这是刻意制造的混乱” 特朗普10日晚在白宫椭圆形办公室接受媒体采访时说,因为政府“关门”,会有很多联邦雇员丢掉工作,“我们会在今后几天宣布人数,会有很多人”。他称,裁员将集中在“趋向民主党的领域”,但没有进一步解释。 特朗普政府最近借“关门”一事向民主党发起猛攻,削减民主党支持的项目、解散民主党主导的联邦机构。他之前明说,会解雇许多“民主党的人”。 美国国会参议院民主党领袖查克·舒默将政府最新一轮裁员归咎于特朗普。舒默说:“我们直说吧,没有人逼特朗普和(白宫管理和预算办公室主任)沃特裁员。他们没必要这样做,是他们自己想这样做。他们选择去无情地伤害别人——伤害那些保家卫国、检查食品安全和应对灾难的人。这是刻意制造的混乱。” 美国政府雇员联合会10日表示“已经提起诉讼”。该组织全国主席埃弗里特·凯利说,特朗普政府以“停摆”为借口,“非法解雇”数以千计为全国各地社区提供关键服务的雇员,这令人耻辱。“联邦雇员厌倦了被政治人物用作政治和个人利益的棋子。” 白宫这次做得太过了? 美联社报道称,白宫这次做得多少“有点过”。以往美国联邦政府“停摆”期间,政府很少“落井下石”裁掉那些本就被迫停薪休假的雇员。通常情况下,政府“停摆”期间,提供“必要服务”的雇员停薪上班,其他雇员停薪休假。政府重新“开门”后,会给雇员补发工资。 一些共和党人也表示“看不下去了”。国会参议院拨款委员会主席苏珊·柯林斯说:“联邦雇员因为完全没有必要的政府‘关门’而停薪休假,白宫管理和预算办公室主任沃特却企图永久解雇他们,我对此强烈反对。” 来自阿拉斯加州的共和党籍参议员莉萨·穆尔科斯基说,这是“这届政府对联邦雇员采取惩罚行动的又一例证”。据媒体报道,先前有不少被炒掉的联邦雇员起诉特朗普政府采取“报复”行动,在没有正当理由的情况下解雇他们。 《纽约时报》报道说,在政府“停摆”期间试图解雇联邦雇员,特朗普政府此举可能会让当前财政僵局进一步升级,导致高昂代价。 因两党在医保等福利支出方面存在分歧,美国国会参议院未能在9月30日上一财年结束前通过新的临时拨款法案。美国东部时间10月1日零时起,联邦政府时隔近7年再次“停摆”,共和、民主两党为此相互“甩锅”。 据媒体报道,政府“关门”期间,约75万联邦雇员停薪休假,军人恐难在15日的领薪日按时领到军饷。经济数据发布暂停,公共服务陷入停滞,美国经济和社会遭受损失。返回搜狐,查看更多
推荐阅读
海运脱碳:星辰大海,惊涛骇浪
6628
中际旭创半年涨六倍,“烟台首富”王伟修出手减持
9200
莫干山民宿的“狼”来了?
6845
涪陵榨菜的创业者们陆续退场
9531
地平线再融58亿,自动驾驶芯片赌的是未来
6930
35岁失业后的“宅系工作”,80、90后靠兴趣边玩边赚钱
5692
【钛晨报】细化餐饮服务连锁企业食品安全主体责任,市场监管总局发布新规;龙蟠时代已于9月25日停产,预计11月正式复产;八部门:适时丰富重要有色金属期货交易品种和金融衍生品种
2122
慕思X鸿蒙智选联合发布智能床新品;FILA发布品牌网球战略并官宣小布;甜啦啦联名《茶啊二中》|消研所周报
5228
3000亿天价算力协议背后:OpenAI的“资本大戏”与AGI的泡沫边界
5500
两大千亿能源巨头筹划重组,河南能源格局15年后再重构
1976
谁在为AI的狂欢埋单?
6261
小米大家电进军欧洲;美团Keeta将在迪拜上线;泡泡玛特美国网站访问量翻番 |一周大公司出海动态
4590
【钛晨报】央行例会最新定调:抓好政策执行,加力支持小微、外贸等;开源鸿蒙新进展:未来可支持全尺寸类人型机器人;零跑汽车回应成失信被执行人
8187
银行杀入科创债战场,抢先切分2600亿增量蛋糕 | 巴伦精选
7383
中国的“气电迷思”:新能源第一大国能否绕过“最清洁”的化石燃料
4693
【钛晨报】世贸组织大幅下调2026年全球货物贸易增长预期;马斯克旗下的xAI有望融资200亿美元,英伟达是股权投资者之一;特斯拉推出售价39990美元的新版Model Y
1986
谁在偷走“鸡排哥”六块钱的快乐
6792
两月暴涨500%!东方甄选,股价惨遭“腰斩”
3517
挣扎的万科
9814
滨化股份14亿跨界新能源,是转型捷径还是冒险赌注?
6352
暴涨背后,铜将成为AI时代的“新石油”
3869