最新 AI 论文盘点(2026-03-18):6 篇新作看记忆、长上下文、医疗评测、机器人策略与世界模型
最新 AI 论文盘点2026-03-186 篇新作看记忆、长上下文、医疗评测、机器人策略与世界模型今天这批新论文里我觉得有几条线特别值得看。一条是 LLM / Agent 的记忆与长上下文讨论怎么把“记住信息”和“真正用好上下文”这两件事拆开来做。一条是医疗与真实场景评测重点不再是静态 benchmark而是更贴近临床和工作流的真实使用偏好。还有一条是机器人与具身智能不少工作开始把重点放在“少改模型、更多利用结构和搜索”上而不是一味增大训练规模。这篇挑 6 篇我认为更值得盘的论文尽量少复述摘要多讲它到底在解决什么问题、方法核心新在哪里、为什么值得关注、局限和边界是什么。1. NextMem给 LLM Agent 做“潜在事实记忆”论文NextMem: Towards Latent Factual Memory for LLM-based Agents链接https://arxiv.org/abs/2603.15634这篇论文关注的是一个很实际的问题Agent 的事实记忆到底该怎么存现在主流做法一类是文本记忆简单但上下文越来越长、检索开销越来越高另一类是参数化记忆更“内生”但容易灾难性遗忘更新和维护也贵。NextMem 的思路是往中间走一步做 latent factual memory也就是潜在空间里的事实记忆。作者用自回归自编码器把事实压缩进 latent memory再保证还能准确重建训练上用了两阶段策略并加入量化来降低存储开销。我觉得它最值得注意的地方不是又做了一个 memory module而是在回答一个越来越重要的问题Agent 的长期记忆不一定非得是可读文本也不一定非得是参数更新它可以是介于两者之间的可操作压缩表示。如果这个方向继续成熟后面很可能影响个人助理型 agent、长期研究 agent、复杂任务 agent 的记忆设计。不过 latent memory 的代价也很明显更难解释更难排错。2. SRLM长上下文不只是扩窗口关键是怎么搜索“读法”论文Recursive Language Models Meet Uncertainty: The Surprising Effectiveness of Self-Reflective Program Search for Long Context链接https://arxiv.org/abs/2603.15653长上下文这两年有个很典型的问题模型窗口变长了不代表它真的更会用长上下文。这篇论文沿着 Recursive Language Models 那条线往前推但一个很有意思的结论是真正有效的未必是 recursion 本身而可能是更好的 program search。他们提出的 SRLM在程序化上下文交互里加入 uncertainty-aware self-reflection用 self-consistency、reasoning length、verbalized confidence 这些内部信号去比较不同上下文交互程序。这篇有两个启发第一长上下文问题很可能不是纯架构问题而是搜索与控制问题第二递归策略如果选不好不但不会更强反而可能拖后腿。对 Agent 系统来说这个提醒很重要。3. MedArena医疗 LLM 评测开始从静态题库转向真实临床偏好论文MedArena: Comparing LLMs for Medicine-in-the-Wild Clinician Preferences链接https://arxiv.org/abs/2603.15677这篇我觉得非常值得看尤其如果你关心医疗 AI。它在做一件很对的事别再只拿静态医疗 benchmark 当全部答案了。作者提出 MedArena一个让临床医生直接拿自己的真实医疗问题去比较模型的平台。结果里最有意思的不只是模型排名而是作者发现只有大约三分之一的问题像传统 MedQA 那样偏事实回忆大多数问题其实是治疗选择、临床文书、患者沟通这类真实任务医生在解释偏好时更常提到的是深度、细节、清晰度和临床表达质量而不只是“谁更像标准答案”。这说明一个老问题正在被重新摆上台面benchmark 高分不等于临床工作流里更有用。所以 MedArena 的价值不只是又一个新榜单而是代表了一种更合理的评测方向把真实使用者偏好重新放回评估中心。4. MiroThinker-H1研究 Agent 开始把 verification 内置进推理流程论文MiroThinker-1.7 H1: Towards Heavy-Duty Research Agents via Verification链接https://arxiv.org/abs/2603.15726研究型 Agent 现在的问题已经越来越清楚不是不会搜也不是不会写而是长链条推理容易漂多步工具调用容易积累误差最终答案和证据链可能脱节。MiroThinker-H1 的核心卖点就是把 verification 直接嵌进 reasoning 过程而不只是最后加一个 checker。作者做了 local level 和 global level 两层验证前者评估和修正中间推理步骤后者审计整条推理轨迹确保最终答案和证据链一致。这背后的方向我很认同因为很多 agent 系统的 verification 现在太后置了。前面路径一旦偏了后面很难真正救回来。verification 内生到推理里通常意味着更高成本但也意味着更高稳定性。5. Golden Ticket机器人生成式策略里初始噪声居然能变成可搜索的杠杆论文Youve Got a Golden Ticket: Improving Generative Robot Policies With A Single Noise Vector链接https://arxiv.org/abs/2603.15757这篇是我今天觉得最有意思的机器人论文之一。问题设定很巧很多 diffusion policy 或 flow matching policy 都从随机初始噪声开始采样动作。大家通常把这个噪声当成起点但这篇在问如果不随机采样而是找到一个特别好的固定噪声向量会怎样作者把这个向量叫做 golden ticket并用 Monte-Carlo policy evaluation 去搜索它。在不改模型参数、不训练新网络的前提下就能明显提升下游任务表现。这篇真正有价值的地方是它提醒大家生成式策略里的随机性不只是不可控噪声也可能是一个可优化接口。我会把它看成一种低成本的 inference-time steering 方法而不是训练范式革命但正因为便宜才值得关注。6. SimDist世界模型的 sim-to-real 迁移更强调“先蒸馏结构再在线适配”论文Simulation Distillation: Pretraining World Models in Simulation for Rapid Real-World Adaptation链接https://arxiv.org/abs/2603.15759sim-to-real 一直是机器人里的硬问题。很多方法的问题不在于 idea 不好而在于真实世界数据贵、在线探索风险大、长时 credit assignment 太难。SimDist 的核心思路是先在仿真里把结构先学出来再把真实世界适配问题尽量压缩成短时系统辨识问题。作者把 simulator 里的结构先蒸馏到 latent world model 里同时把 reward 和 value model 直接从仿真迁过去真实部署时主要做 online planning 和 supervised dynamics finetuning。这类思路我很看好因为它和最近机器人方向的大趋势一致不把真实世界当主训练场尽量在 sim 里吸收结构先验到真实世界只做必要的快速对齐。今天这 6 篇能看出什么趋势如果把今天这批论文放在一起看我觉得至少有 4 个信号很明显LLM / Agent 正在从“会不会推理”转向“怎么管理记忆与控制过程”评测正在从静态题库转向真实使用场景机器人里inference-time 优化和结构蒸馏越来越重要比起单纯堆大模型更会利用结构的工作更值得看我会优先建议你看哪几篇如果时间有限我会这样排第一梯队NextMem、SRLM、MedArena第二梯队MiroThinker-H1、Golden Ticket、SimDist结语今天这批论文给我的整体感觉是AI 系统正在从“把模型做得更强”逐渐转向“把系统做得更稳”。这里的稳包括记忆更稳、长上下文读取更稳、评测更贴近真实使用、Agent 推理链更可验证、机器人策略更可控、sim-to-real 迁移更可落地。真正进入工作流的 AI最后拼的从来不只是峰值能力而是在复杂环境里能不能持续、可靠、可控地做对事。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2425738.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!