从少样本到千样本!MachineLearningLM给大模型上下文学习装上「机器学习引擎」

吃瓜电子官网最新热点:从少样本到千样本!MachineLearningLM给大模型上下文学习装上「机器学习引擎」

更新时间: 浏览次数:5129

尽管大型语言模型(LLM)拥有广泛的世界知识和强大的推理能力😜,被广泛视为优秀的少样本学习者,但在处理需要大量示例的上下文😍学习(ICL)时仍存在明显局限。 已有工作表明,即使提🔥供多达上百甚至上千条示例,LLM 仍难以从中有效学习规律,其🔥表现往往很快进入平台期,甚至对示例的顺序、标签偏差等较为敏感😘。在利用上下文学习解决新任务时,LLM 往往更依赖于自身的强🤩先验以及示例的表面特征,而难以真正挖掘出示例中潜在的因果机制😁或统计依赖。 这项名为 MachineLearning🥳LM 的新研究突破了这一瓶颈。该研究提出了一种轻量且可移植的😉「继续预训练」框架,无需下游微调即可直接通过上下文学习上千条❤️示例,在金融、健康、生物信息、物理等等多个领域的二分类 / 💯多分类任务中的准确率显著超越基准模型(Qwen-2.5-7B😁-Instruct)以及最新发布的 GPT-5-mini。 🙌 相比于已有的用于表格数据的机器学习方法,Machine🚀LearningLM 几乎完全保留了 LLM 通用能力,这意😡味着它可以无缝集成到更复杂的对话工作流中。 论文链接:🥳 https://arxiv.org/abs/2509.06😉806模型和数据集: https://huggingface😎.co/MachineLearningLM代码: https😜://github.com/HaoAreYuDong/Mac😜hineLearningLM 核心创新一:百万级合成任😍务「授人以渔」 研究团队旨在赋予 LLM 一种「举一反🤔三」的元能力 —— 不依赖对真实任务数据的机械记忆,而是通过👏海量且多样化的合成任务,从根本上训练模型在大量上下文示例中挖😢掘规律并进行预测的能力。 传统的指令微调方法通常基于有😅限规模(约为千数量级)的真实任务数据,这在很大程度上限制了模😀型向新任务的泛化能力。与之相比,MachineLearnin😆gLM 构建了一个超过 300 万合成任务的大规模预训练语料👏库。 任务生成器基于结构因果模型(Structural😢 Causal Model, SCM)来采样生成二分类及多分😁类任务。SCM 通过有向无环图(DAG)和结构方程(采用神经👏网络与树模型实现)明确定义变量间的因果关系,能够精确控制特征😀的边际分布、类型(如数值型或类别型)以及标签生成机制。 😎 该方法确保预训练数据与下游真实评估集没有任何重叠,从而保证😅评估过程对模型泛化能力的检验具备充分公平性。同时,通过控制示😜例数量从数个到 1024 个不等,该机制能够专门训练模型处理🔥「多示例」场景的推理能力。 核心创新二:随机森林模型「😴循循善诱」 在海量合成任务上直接训练大型语言模型(LL😍M)容易因任务质量不一致 —— 例如存在信号微弱或类别极度不😜平衡等情况 —— 而导致训练崩溃或陷入局部最优。为解决这一问😆题,本研究引入随机森林(Random Forest)模型,利😉用其强大且稳健的建模能力,设计了如下两级过滤机制: 样😎本级共识过滤(热身训练阶段):在热身训练中,为每个合成任务训🔥练一个随机森林模型,并引导 LLM 学习模仿其预测行为。具体🌟而言,仅保留随机森林预测结果与真实标签一致的那些样本用于 L⭐LM 的训练。该方法通过提供清晰且高置信度的监督信号,使 L🤯LM 初步建立起准确的上下文建模能力,尤其是数值建模能力,为🙄后续过渡到自主上下文学习奠定基础。 任务级过滤(全程训练阶段😜):在整个训练过程中,除为每个任务构建随机森林模型外,还引入🤔保守随机基线(如随机猜测或坍塌到多数类的预测方法),以剔除那🤗些随机森林表现未显著优于基线的无效任务。评估指标包括机会校正👍一致性、失衡鲁棒准确率、宏平均准确率以及避免预测坍塌等指标。🥳 展开全文 为何选择随机森林?除了强大且稳健的建😡模能力,随机森林具有高度透明的决策过程,可分解为清晰的规则路🔥径与特征重要性评估,这种可解释性与 LLM 的思维链(Cha👍in-of-Thought, CoT)推理模式天然契合,有助⭐于后续推进思维链预测及解释性预测任务。 同时,随机森林🤔能够提供预测置信度,为进一步减少 LLM 幻觉问题引入置信度🚀机制提供了可能。 核心创新三:高效上下文示例编码「多维🎉扩容」 在大模型时代,如何高效地在上下文学习中处理海量🙄表格数据,是一项重要挑战。传统的「自然语言描述」方式(例如:😉「收入是 29370,职业是博士,年增长率是 - 12.34😜% → 标签:1」),占用 token 多、计算开销大,严重😂限制了实际应用中可支持的示例数量;数值型特征经分词器处理时,🔥一个小数可能被拆成多个 token,既浪费长度又可能导致数值😎比较错误,如模型容易误认为「1.11」(1|.|11)比「1😁.9」(1|.|9)大。 为此,作者提出了三项核心优化💯策略,显著提升了上下文学习的数据容纳能力与推理效率: 🙄告别「小作文」,样本用表格来组织:SpreadsheetLL🤗M 等研究已广泛证明,LLM 能很好地理解结构化表格,因此作🙄者放弃相关工作将结构化数据展开成冗长自然语句的做法,转而采用🚀紧凑的表格编码格式。 把数字「打包」成整数,告别 to😀ken 碎片化:先遵循机器学习工程的常见操作,将所有数值基于👏训练集数据分布逐列进行 z-score 标准化;然后将 z-👍norm 下 ±4.17(绝大多数情况)的浮点数区间整体线性😂映射到 [0, 999] 的整数区间。这样,每个数值在 GP⭐T 和 LLaMA 3 的词表中仅需 1 个 token 表😆示(Qwen 分词器也仅需 1 到 3 个 token),既😅节省空间,还避免了小数点和正负号单独切词带来的数值理解错误。😡该流程只是改进了传统机器学习中的数值标准化,而没有改变 LL🙄M 原生分词器,因此模型的数值推理能力可以全部继承。 🥳推理也要「团购」:序列级批量预测——传统上下文学习一次只处理🤩一个查询,在多样本学习时效率极低。作者将多个查询(如 50 😢条)拼成一条序列,统一前向推理,一次性输出所有预测结果。这不🙌仅大幅提升推理速度,还能在训练阶段提高自回归稳定性。 😅惊艳效果:多项能力突破 MachineLearning😜LM 的继续预训练方案无需改变模型架构或分词器,只使用了 Q😴wen2.5-7B 基座模型和低秩适配(LoRA rank=💯8)这种轻量级配置,MachineLearningLM 展现😜出了前所未有的上下文样本利用能力: 「千示例」上下文学😡习:模型性能随着提供的示例数量增加而持续稳定提升,从 8 条😉示例到 1024 条示例,准确率单调增长。这样的上下文样本效🤯率是已有 LLM 都难以做到的。 远超 GPT-5-mini😊 等强大基准模型:在金融、生物信息、物理信号和医疗健康等领域💯的表格分类任务上,其纯上下文学习的准确率平均超越 GPT-5😎-mini 等强大基准模型约 13 到 16 个百分点。 ❤️ 在无需任何任务特定训练的情况下,其准确率已能达到与需要任😜务级参数更新的随机森林模型相差无几的水平(平均相对差距在 2💯% 以内),并显著优于 K 近邻(kNN)算法。 通用🤔能力无损:最关键的是,注入 ML 能力后,模型原有的对话、知🌟识和推理能力几乎完好无损。在 MMLU 基准测试中,其零样本👏准确率达 73.2%,50 样本设置下达 75.4%,与基准😴通用 LLM(Qwen-2.5-7B-Instruct)持平😂,甚至在特定领域(如统计和物理)有一定提升,这意味着它可以无🥳缝集成到更复杂的对话工作流中。 实证研究表明, Mac👏hineLearningLM 能够同时处理数值特征与自然语言🔥描述,无需像传统方法那样对文本进行分桶或转换为嵌入向量,实现😡了真正的异构(多模态)输入推理。然而,该模型仍存在一定局限,❤️例如在面对非独立同分布的时间序列数据以及类别数量极其庞大的数🙌据集时,性能尚有待提升,这也为后续研究指明了改进方向。 😁 应用领域 基于大幅提升的多样本上下文学习和数值建模能😅力,MachineLearningLM 有望在金融、医疗健康❤️与科学计算等广泛场景中扩展大型语言模型的实际应用边界。 😢 未来展望 MachineLearningLM 为未来😉研究开辟了多个充满潜力的方向。以下是论文里列出的几个重点方向😢: 超越文本与数字:合成多模态分类任务,使 Machi🤗neLearningLM 能够直接在海量合成数据上练习处理异🙄构信号的多模态上下文预测,这依然可以建立在表格预测的框架之上💯,例如利用 HTML 表格来嵌入图像。 通过系统优化突破上下🚀文长度限制:例如采用张量 / 流水线并行、高效内存注意力与 🔥KV 缓存等系统优化技术。 不确定性预测 (Uncertai🤯nty):预测的同时输出置信度(比如利用随机森林的置信度做热😀身训练),以减少模型 OpenAI 近期提出的由于缺乏承认不🤔确定性(Ho nesty a bout uncertaint🔥y)引发的幻觉(Hallucination)。 提升可解释性🥳 (Interpretability):叙事蒸馏与推理增强学🙄习,既可以利用底层的 SCM(变量、关系与机制)作为预测任务👍的辅助目标,也可以从集成模型中蒸馏规则,形成紧凑、人类可读的🎉推理链条。 集成检索增强方法(RAG):为 MachineL😡earningLM 集成一个检索模块,使其能在预训练和推理时❤️动态注入最相关的示例。 赋能智能体(Agent):与 Age🙄nt 记忆机制(Memory)深度融合,提升其在复杂环境中利👍用多样本的上下文学习,赋予智能体强大的从大量经验记忆中挖掘和🎉学习的能力。 作者介绍 本文作者:董浩宇(中国科😆学院大学)、张鹏昆(华南理工大学)、陆明哲(中国科学院大学)😘、沈言祯(斯坦福大学)、柯国霖(个人贡献者) 董浩宇:🌟中国科学院大学在读博士(预计 2025 年底毕业)。研究方向😘涵盖表格与半结构化数据理解与推理、LLM 后训练与强化学习、😅数据集与评测基准等。曾提出 SpreadsheetLLM 并❤️获得 Hugging Face Paper of the D😢ay、联合发起并持续共同组织 NeurIPS 2022–20🚀24 表格表征学习(TRL)系列研讨会,推动表格智能社区发展🙄。返回搜狐,查看更多

北京市:市辖区:(东城区、西城区、朝阳区、丰台区、石景山区、海淀区、门头沟区、房山区、通州区、顺义区、昌平区、大兴区、怀柔区、平谷区、密云区、延庆区)

天津市:市辖区:(和平区、河东区、河西区、南开区、河北区、红桥区、东丽区、西青区、津南区、北辰区、武清区、宝坻区、滨海新区、宁河区、静海区、蓟州区)

河北省:石家庄市:(长安区、桥西区、新华区、井陉矿区、裕华区、藁城区、鹿泉区、栾城区、井陉县、正定县、行唐县、灵寿县、高邑县、深泽县、赞皇县、无极县、平山县、元氏县、赵县、石家庄高新技术产业开发区、石家庄循环化工园区、辛集市、晋州市、新乐市)

唐山市:(路南区、路北区、古冶区、开平区、丰南区、丰润区、曹妃甸区、滦南县、乐亭县、迁西县、玉田县、河北唐山芦台经济开发区、唐山市汉沽管理区、唐山高新技术产业开发区、河北唐山海港经济开发区、遵化市、迁安市、滦州市)

秦皇岛市:(海港区、山海关区、北戴河区、抚宁区、青龙满族自治县、昌黎县、卢龙县、秦皇岛市经济技术开发区、北戴河新区)

邯郸市:(邯山区、丛台区、复兴区、峰峰矿区、肥乡区、永年区、临漳县、成安县、大名县、涉县、磁县、邱县、鸡泽县、广平县、馆陶县、魏县、曲周县、邯郸经济技术开发区、邯郸冀南新区、武安市)

邢台市:(襄都区、信都区、任泽区、南和区、临城县、内丘县、柏乡县、隆尧县、宁晋县、巨鹿县、新河县、广宗县、平乡县、威县、清河县、临西县、河北邢台经济开发区、南宫市、沙河市)

保定市:(竞秀区、莲池区、满城区、清苑区、徐水区、涞水县、阜平县、定兴县、唐县、高阳县、容城县、涞源县、望都县、安新县、易县、曲阳县、蠡县、顺平县、博野县、雄县、保定高新技术产业开发区、保定白沟新城、涿州市、定州市、安国市、高碑店市)

张家口市:(桥东区、桥西区、宣化区、下花园区、万全区、崇礼区、张北县、康保县、沽源县、尚义县、蔚县、阳原县、怀安县、怀来县、涿鹿县、赤城县、张家口经济开发区、张家口市察北管理区、张家口市塞北管理区)

承德市:(双桥区、双滦区、鹰手营子矿区、承德县、兴隆县、滦平县、隆化县、丰宁满族自治县、宽城满族自治县、围场满族蒙古族自治县、承德高新技术产业开发区、平泉市)

沧州市:(新华区、运河区、沧县、青县、东光县、海兴县、盐山县、肃宁县、南皮县、吴桥县、献县、孟村回族自治县、河北沧州经济开发区、沧州高新技术产业开发区、沧州渤海新区、泊头市、任丘市、黄骅市、河间市)

2025-09-25 18:22:24 作者:狼叫兽 😍2025年9月25日,爱奇艺在年度内容分享会上宣布将正式进军😡线下文旅领域,计划打造以自有IP为核心的沉浸式主题乐园。公司🤯创始人兼首席执行官龚宇表示,未来发展战略将涵盖线上与线下双轨🤩并行,线上持续输出影视、综艺等内容产品,线下则重点布局主题乐😍园及IP衍生品开发。 据悉,新型主题乐园将定位于小型化🤯、强互动与快速迭代,融合国创IP与前沿科技,构建集文化、娱乐❤️与消费于一体的城市文旅空间。项目规划面积在5000至2000🥳0平方米之间,强调科技赋能的全感官数字体验。 目前,多😡个乐园项目已在推进中,覆盖扬州、开封及北京等城市。园区内将设🥳置全感交互体验区、限量版衍生品零售、沉浸式演出互动、主题餐饮😴等多元业态,致力于提供超过4小时的深度内容体验。 在运😘营模式上,企业将主导技术搭建、内容创作与整体运营,主要收益来😆源为门票收入及园内二次消费,旨在打造可持续发展的新型文化消费😁场景。 返回搜狐,查看更多

发布于:道县
评论
全部
还没有人评论过,快来抢首评
抢首评

推荐阅读

即时零售闪电仓加盟:风口上的伪命题?

脑洞冲浪基地 2025-11-11 05:33:24 2998

朱兴明再送女儿7.7亿元股份,身家较高点缩水超50亿

泰西娱乐 2025-11-11 06:49:55 1611

BBA的纯电焦虑,中国市场解不了

新浪财经 2025-11-11 02:02:54 4895

2.4秒造1部手机、70天建厂投产,“望城速度”如何再造一个千亿级产业?

篮球铁粉 2025-11-11 01:18:06 9133

【钛晨报】吴清最新发声,透露资本市场四大未来路线;鼎信通讯连续两涨停,再次澄清与平头哥合作;科创成长层首家新发行企业来了

素材梦影视 2025-11-11 00:30:36 2242

当虹科技战略升级 迈向“AI多模态+空间视频+行业”全新发展阶段

如抱琵琶半遮面 2025-11-11 05:45:07 5698

极致产品参数vs降低创作门槛:大疆和影石谁能赢得未来

卿羽飞 2025-11-11 03:32:05 3102

在中国做关系必须理解江湖

木乔简科 2025-11-11 02:15:15 5537

留给石头科技的赛道不多了

鲁网淄博 2025-11-11 03:40:29 4279

售价数万、毛利超90%,AI玩具跑出下一个泡泡玛特?

谈事说史 2025-11-11 01:19:24 2685

英伟达50亿投英特尔,图啥?

云梦说娱 2025-11-11 00:44:54 6399

市场开始对碳化硅“刮目相看”

花哥扒娱乐 2025-11-11 04:16:18 7151

国产存储,“黄金窗口” 已至

阿文杂谈 2025-11-11 04:50:26 8337

关于户晨风被封,我所想到的二三事

小熙熙 2025-11-11 05:26:16 5878

始祖鸟品牌的绿色谎言

大咖医生谈 2025-11-11 06:05:33 7616

【钛晨报】国家医保局:第十一批药品集采遵循稳临床、保质量、防围标、反内卷原则;国务院食安办等部门积极推进预制菜国家标准制定和餐饮环节使用明示;摩尔线程科创板IPO将于9月26日上会

犀利强哥 2025-11-11 02:56:00 6053

百元餐饮品牌的悲歌

LJ666 2025-11-11 05:55:57 7243

西贝陨落全景图

抱负不凡 2025-11-11 03:34:22 3283

特朗普前经济顾问警告:关税或是就业市场恶化的推手!

唯物历史观 2025-11-11 06:03:27 7201

最后的“摊牌”!民主党人计划本周四与特朗普当面对决

科学佣人 2025-11-11 06:10:09 4964

全世界都在等他“划重点”!鲍威尔会给出市场想要的鸽派信号吗?

昕昕局 2025-11-11 01:38:52 2317
为您推荐中
暂时没有更多内容了……