当因果机制不再"跳变":连续机制演化下的因果表征学习
论文标题:TRACE: Trajectory Recovery for Continuous Mechanism Evolution in Causal Representation Learning
阅读全文论文标题:TRACE: Trajectory Recovery for Continuous Mechanism Evolution in Causal Representation Learning
阅读全文蚂蚁集团 2026 届春招现已全面开启本次释放超 70% AI 相关岗位聚焦大模型、多模态、智能体AI Infra 及具身智能等前沿方向想在春招投递中抢占先机?点击关注「蚂蚁集团招聘」公众号后台回复「
阅读全文今天跟大家分享一篇来自中国科学技术大学、香港城市大学、华为诺亚方舟实验室、大连理工大学的论文,已被 ICLR 2026 接收。针对传统单粒度记忆建模难以建立跨会话、多层次关联,且容易出现关键信息检索不
阅读全文近期,林俊旸离开千问团队的消息在全网引发了广泛关注。而这篇近期上线 arXiv 的论文,或许是他在千问交出的最后一份答卷。当前,大型推理模型(LRMs,如 Qwen3-Thinking 系列)在复杂数
阅读全文该工作提出了一种名为 WMSS(Weak Agents Can Make Strong Agents Stronger)的新型后训练范式,旨在解决大语言模型在监督微调(SFT)后期普遍面临的优化饱和问
阅读全文学术界长期以为大值激活与 Attention Sink 强绑定,LeCun 团队打破了这一常识。在 Transformer 架构中,长期存在两个如影随形的内部计算现象:大值激活(Massive Act
阅读全文©作者 | 郑晨宇单位 | 中国人民大学研究方向 | 机器学习理论概要muP 由于其能够保持模型特征学习稳定、解锁超参迁移能力的优良特性,已经被广泛应用于大模型的宽度 scaling 之中。然而,相较
阅读全文128K 长文本频频失忆?陈丹琦团队提出纯解码算法 DYSCO,免微调让推理性能提升 25%。当前各大模型厂商在技术报告中都宣称支持 128K 甚至更长的上下文窗口。然而,实际测试表明,随着输入长度的
阅读全文研究背景不同行业的图数据具有天然的差异化特性,使得图模型的学习面临着更严峻的多域多任务泛化挑战。在图学习领域,基础模型范式——“预训练 + 下游微调”的范式成为主流。研究者通常先在大规模图数据上进行自
阅读全文当大模型还在验证,小模型已算好下一步。全异步架构彻底终结解码串行等待。大模型推理的核心瓶颈长期在于自回归解码的串行本质。投机解码(Speculative Decoding, SD)通过引入一个轻量级的
阅读全文过去几年,机器学习在系统领域的“下沉”非常明显:它不再只做单纯的推荐、内容分类、搜索排序,还开始直接参与系统里的底层决策,例如基于 ML 模型的调度算法、缓存算法、负载均衡算法等。同时,ML for
阅读全文显存暴降至 50MB!Sakana AI 提出更新成本摊销,打破长文本 KV-Cache 瓶颈。面对十万乃至百万级别的超长序列输入,Transformer 架构中呈二次方增长的注意力计算与 KV-Ca
阅读全文PaperWeekly × 星弧 STARC 科研觉醒AI前沿讲座 直播主题 迈向安全可靠的 AI 智能体 直播嘉宾 肖超玮JHU 助理教授、NVIDIA Research 研究员 直播时间 202
阅读全文你的 Mac 桌面,刚刚变成了一台超高能效的 AI 超算。苹果 M4 芯片内置的神经网络引擎(ANE)原本有着严格的官方定位:仅限推理,其底层权限被彻底封锁。但在近期,一项系统级开源项目硬是砸开了这个
阅读全文拒绝原地打转!通义实验室开源多端 GUI 基座,会反思、能调用工具,让 Agent 真正把活干完。说起 GUI Agent,最尴尬的时刻大概不是它点错按钮,而是它一本正经地操作了半天,最后把你带回了原
阅读全文我们每天都在跟进最新的顶会和明星模型,但纸面上的精妙公式在实际训练中总是无懈可击吗?©作者 | 谢天单位 | 微软亚洲研究院研究员研究方向 | 大模型预训练算法最近几周在学习 DeepSeek mHC
阅读全文前不久 Nature 主刊上的 OpenScholar 把「用 AI 做科学文献综述」又推了一把:检索增强、4500 万篇开放获取论文、引用准确度媲美人类专家,而通用大模型在引用上动辄 78%–90%
阅读全文《Science》近日证实,中科院拟停止支付高昂 OA 版面费,《Nature Communications》、《Science Advances》等 30 多种期刊在列。2026 年春节前夕,有多位
阅读全文弃用 SFT!Li Auto 团队发布多目标强化学习新框架,文本摘要直接媲美GPT-4。文本摘要作为自然语言处理(NLP)的核心任务,其质量评估通常需要兼顾一致性(Consistency)、连贯性(C
阅读全文告别算力苦等 KV 缓存,DeepSeek 全面重构底层链路,令多轮推理吞吐量翻倍。随着大模型全面向 Agent 智能体演进,系统推理的瓶颈已实质性转移至 KV-Cache 的存储 I/O 环节。面对
阅读全文论文标题:Does LLM Focus on the Right Words? Mitigating Context Bias in LLM-based Recommenders论文作者:王博浩、陈佳
阅读全文把最高权限交给跑分无敌的基座模型,换来的不是自主智能体,而是删库与死循环的灾难。平时看各大模型在 Benchmark 上疯狂刷榜,似乎离真正可用的自主 Agent 只差临门一脚。但真把底层工具调用权限
阅读全文Sapient Intelligence 与清华大学近日在 arXiv 的一项横跨两类训练方法、3 种网络架构、7 大任务的系统性研究发现:元强化学习训练出的具身智能体,会通过神经状态空间中稳定区域的
阅读全文Transformer 到底能有多小?这场全网狂卷的加法挑战,把极限压到了 121。构建一个能完美完成 10 位数字加法的 Transformer,最少需要多少参数?这个问题源于微软研究院研究员 Di
阅读全文数据翻倍性能腰斩?GAPL 用原型学习以 90.4% 准确率实现破局。在AIGC 技术快速演进的背景下,图像生成模型已经从早期的 GAN,发展到 Diffusion,再到近年来兴起的 Flow Mat
阅读全文打通 Vibe Researching 闭环,AI 图秒转可编辑 LaTeX 与 PPT。AIGC 生成流程图、架构图只要几秒,但微调一个错别字却要半天?当用户还在拼运气重绘和手动重画之间反复横跳时,
阅读全文在大模型后训练阶段,训练数据的多样性直接决定了下游任务的最终表现。为了覆盖尽可能多的长尾场景,当前主流的做法往往是不断扩大合成数据的规模。然而,构建后训练数据时,现有方法大多依赖基于文本层面的指标(如
阅读全文比起算力规模,那些在工程一线沉淀的系统决策,才是模型性能的胜负手。大模型的演进往往给外界一种算力即一切的错觉。但对于真正的一线研发团队而言,决定模型最终性能的,往往是那些隐藏在海量参数背后的系统工程决
阅读全文高效的随机优化器需要平衡两个核心目标,在确定性区域保持良好的更新方向,以及具备适应随机梯度扰动的机制。长期以来,Adam 及其变体 AdamW 利用坐标级别的自适应矩估计提升了训练稳定性,是大型语言模
阅读全文突破大模型无限上下文瓶颈的核心解法是什么?MIT 团队给出的答案出乎意料的朴素:线性回归。尽管挑选核心键(Key)仍需依赖启发式或贪心搜索,但最耗时的特征拟合已被 MIT 的最新研究彻底转化为经典的线
阅读全文