您的当前位置:首页 > 焦点 > 斯坦福新论文:微调已死,自主上下文当立 正文
时间:2025-11-24 03:55:38 来源:网络整理 编辑:焦点
时令 发自 凹非寺量子位 | 公众号 QbitAI是时候为传统微调献上挽歌了。一项全新研究,刚刚又给微调致命一击。来自斯坦福大学、SambaNova Systems公司和加州大学伯克利分校的研究人员,
时令 发自 凹非寺
量子位 | 公众号 QbitAI
是斯坦上下时候为传统微调献上挽歌了。
一项全新研究,福新刚刚又给微调致命一击。论文立钦州市某某展览服务经销部
来自斯坦福大学、微调文当SambaNova Systems公司和加州大学伯克利分校的已死研究人员,在新论文中证明:
依靠上下文工程,自主无需调整任何权重,斯坦上下模型也能不断变聪明。福新
![]()
他们提出的论文立方法名为智能体上下文工程ACE。
ACE不依赖模型重新训练,微调文当而是已死让上下文自主进化,通过反复生成、自主反思并编辑自己的斯坦上下提示,直至成为一个自我完善的福新钦州市某某展览服务经销部系统。
在智能体和特定领域的论文立基准测试中,ACE能同时优化离线上下文(如system prompt)和在线上下文(如agent memory),并稳定优于强力基线模型。
![]()
下面具体来看。
ACE框架
现在很多AI应用(比如自动处理财务数据的工具、能调用APP的智能助手)都靠 “上下文适配” 来提升能力。
简单来说,就是不给模型改底层参数,而是在输入里加指令、策略或证据,但老方法有两个大问题:
简洁偏置
为了让输入简短,把关键细节丢了。比如只说 “处理财务数据”,却没说 “要按XBRL格式核对数值”,导致模型犯错。
上下文崩溃
反复修改输入时,模型会把之前积累的有用信息越改越短、越改越没用。比如原本有1.8万个token的实用策略,准确率为66.7,改一次就剩122个token,效果却下降到57.1。
![]()
ACE就是为了解决这两个问题来的,与将知识压缩为简短摘要或静态指令的方法不同,它将上下文视为不断演化的操作手册,能够随时间不断累积、优化并组织策略。
基于Dynamic Cheatsheet的智能体设计,ACE把模型的 “上下文优化” 拆成分工明确的三个角色。
![]()
如上图所示,工作流程首先由生成器针对新查询生成推理轨迹,这些轨迹既能呈现有效策略,也会暴露常见错误。
随后,反思器对这些轨迹进行评析,从中提炼出经验教训,并可选择通过多轮迭代加以优化。
接着,整理器将这些经验合成为简洁的增量条目,再经由轻量级的非LLM逻辑,以确定性的方式将其合并至现有上下文中。
由于更新内容被逐项分解并局部化,多个增量得以并行合并,从而实现大规模的批量适应。
此外,ACE还支持多轮次适应机制,即对同一组查询进行反复学习,逐步强化上下文质量。
ACE在两大场景中全面超越基线
实验结果表明,在智能体和财务分析两大场景中,ACE稳定优于Base LLM(无适配)、ICL(少样本演示)、GEPA(主流prompt优化)、Dynamic Cheatsheet(动态备忘单)等方法。
在智能体测试中,研究团队采用的是AppWorld,它是一套自主智能体任务集合,涵盖API理解、代码生成和环境交互。
结果显示,ReAct+ACE相比ReAct+ICL和ReAct+GEPA分别领先12.3%和11.9%,优势显著。这表明,与固定的演示示例或单一优化指令提示相比,结构化、可演进且精细化的上下文能够更有效地促进智能体学习。
这一优势在在线场景中同样得以延续:ACE平均以7.6%的性能提升领先于Dynamic Cheatsheet等现有自适应方法。
![]()
在财务分析中,研究者选用FiNER和Formula来测评模型的金融推理能力,其任务依赖可扩展商业报告语言(XBRL)。
在离线环境下,当模型获得训练集中的真实答案作为输入时,ACE以平均10.9%的优势明显超越了ICL、MIPROv2和GEPA。
![]()
此外,ACE在降低自适应成本(如尝试次数和token输入/生成的费用)与延迟方面展现出显著优势。
具体而言,在AppWorld的离线自适应任务中,与GEPA相比,ACE将自适应延迟降低了82.3%,并将尝试次数减少了75.1%。
在FiNER的在线自适应场景中,与DC相比,ACE实现了91.5%的自适应延迟降低,并在token输入与生成的相关费用上节省了83.6%。
![]()
华人出品
这项研究的两位一作都是华人。
![]()
Qizheng Zhang,斯坦福大学计算机科学系四年级博士生。此前在芝加哥大学获得了数学、计算机科学和统计学三个专业的学士学位。
本科期间,他就与Junchen Jiang和Ravi Netravali两位教授合作开展计算机网络研究,专注于面向视频流与分析的网络系统设计。
此外,他还在美国阿贡国家实验室数学与计算机科学部(MCS)和微软研究院实习过。
![]()
Changran Hu,本科毕业于清华大学,硕士毕业于加州大学伯克利分校。
20岁时,他就成为了一家AI音乐生成公司DeepMusic的联合创始人,成功获得来自中国顶级企业的1000万美元投资,并与多位中国流行歌手(如周杰伦、李健)建立合作。
随后,他以应用科学家实习生的身份加入微软,并于2021年成为Sambanova Systems研究工程师,随后晋升为技术主管兼经理,主要负责模型后训练与智能体AI相关研发工作。
冬天要有的鞋子!显高!显腿长!还显瘦!2025-11-24 03:48
齐豫演唱会键盘手、著名编曲家屠颖在广州去世2025-11-24 02:44
中新健康丨专家:科技创新与国际合作是突破肿瘤防治瓶颈的关键2025-11-24 02:39
清风满校园,廉洁伴成长!——青岛五十三中学开展校园廉洁系列活动2025-11-24 02:39
8场大战!欧洲2队将直通世界杯:C罗缺席 葡萄牙赢球=出线2025-11-24 02:31
张纪中回应前妻指控涉嫌职务侵占2025-11-24 02:28
TTS新传论文带读:新词新词!!!来看看什么叫做“报格”!!!2025-11-24 02:19
德国法兰克福购物中心巨响疑似因燃放烟花引发2025-11-24 01:49
电建地产降价,自戴“三冠王”2025-11-24 01:43
特朗普称尚未认真考虑向乌克兰提供“战斧”导弹2025-11-24 01:21
冬天最火的4组“同色系穿搭”,谁穿谁美!2025-11-24 03:54
中新健康丨专家:肿瘤防治战略要前移到“癌前病变”2025-11-24 03:39
决赛观赛人数刷新纪录 球员自述“苏超”的那些瞬间2025-11-24 03:32
郑智化微博被清空2025-11-24 03:06
别这样P图了,真的好假!2025-11-24 02:56
中美11月10日将互降关税2025-11-24 02:46
洪秀柱给郑丽文的建议:依法谋求统一2025-11-24 02:27
湖南道县:砂糖橘丰收2025-11-24 01:37
王楚钦:一日三赛还是比较累,能为团体赢下比赛值得开心2025-11-24 01:30
27岁热刺门将,夺冠后退役当导演2025-11-24 01:11