陈丹琦团队反直觉发现:打破正向反馈迷信,「以罚代奖」才是推理Scaling真相
只要模型做对了就给糖吃?这可能是我们对 RLVR 最大的误解。在 DeepSeek-R1 确立了 GRPO 这一训练范式后,学术界和工业界在提升大模型推理能力时,普遍遵循正向反馈优先的原则,即通过强化
阅读全文只要模型做对了就给糖吃?这可能是我们对 RLVR 最大的误解。在 DeepSeek-R1 确立了 GRPO 这一训练范式后,学术界和工业界在提升大模型推理能力时,普遍遵循正向反馈优先的原则,即通过强化
阅读全文还记得 DeepSeek OCR 刚发布时引发的轰动吗?通过将文本转换为图像再进行压缩,实现了 10 倍的 token 压缩率,同时保持 97% 的 OCR 准确率。这一创新让整个 AI 圈为之振奋,
阅读全文博一全年蛰伏零产出,首篇论文即登 Nature 正刊。复旦博士生用深度学习“强解”裸眼 3D 数十年难题,展示了计算如何重构物理世界的底层逻辑。在现在的学术圈,如果一个博士生整整一年没有任何会议投稿、
阅读全文大语言模型(LLM)的智能浪潮席卷全球,它们凭借卓越的上下文理解和文本生成能力,正重塑我们的信息获取方式。然而,其强大的能力背后却隐藏着可靠性的系统性风险——幻觉(hallucination)。简而言
阅读全文这是一次充满黑色幽默的“回旋镖”,也是学术圈今年最响亮的一记耳光。Apple 研究团队投给 ICLR 2026 的一篇论文,标题起得很有哲学意味:《推理究竟哪里出错了?》(Where Did the
阅读全文本文提出了 RacketVision,涵盖乒乓球、网球、羽毛球的大规模多运动基准,旨在统一球体与球拍的视觉分析。RacketVision 首次提供了大规模高精度的球拍关键点标注。论文标题:Racket
阅读全文别猜是谁给你打 0 分了,OpenReview 刚才把审稿人的户口本都泄露了——不仅知道他是谁,连他导师是谁都看得一清二楚。如果说之前的投稿是一场“蒙面大逃杀”,那么今天,OpenReview 的程序
阅读全文摘要论文提出了 SparseDiT,一种通过空间(Model Structure)和时间维度(Timestep)的 token 稀疏化来提高 Diffusion Transformer(DiT)计算效
阅读全文当 Ilya Sutskever 宣告 Scaling 时代终结,NeurIPS 用七篇最佳论文补上了实锤:在算力红利吃尽的今天,AI 终于从炼丹术回归到了 First Principles。就在今天
阅读全文视频生成模型在近两年实现了肉眼可见的飞跃:分辨率更高、镜头更稳、物理细节更逼真。然而,当关注点从“好看”转向“能不能正确做事”时,核心问题浮现——这些模型是否具备类似大语言模型(LLM)的“推理能力”
阅读全文还在苦苦清洗 TB 级数据集?MIT 和 NYU 的研究告诉你:扔掉数据,你的模型反而能学得更好、跑得更快。在生成式 AI 的竞速赛道上,扩散模型(Diffusion Models)和流模型(Flow
阅读全文本文精选了美团技术团队在国际顶会NeurIPS 2025中发表的10篇论文,研究方向覆盖了大模型、多模态、自然语音处理、计算机视觉、基础技术、因果推断等技术领域,希望相关研究能给同学们带来一些帮助或启
阅读全文NeurIPS 2025在星光与海风之外,我们也为现场的小伙伴准备了更“走心”的相遇方式——一场轻松惬意的滨海美式晚宴,以及一份贴心的冬日温暖伴手礼。无论你是来聊研究、交换灵感,还是想和同行随性聊两句
阅读全文近年来,多模态大语言模型在视频理解领域展现出巨大潜力。然而,现有评估基准仍存在明显短板——要么忽视音频或视觉单一模态,要么以逻辑不一致的方式整合双模态,难以全面衡量模型的真实推理能力。为填补这一空白,
阅读全文它是最近 AI 圈的顶流,但我发现,它被严重低估了。当所有人都在用 Nano Banana Pro 生成网红图时,我用它干了件正经事:搞科研。结果?它画的方法图,直接把我过去三年的手搓水平按在地上摩擦
阅读全文“这款模型在 Python 错误修复上表现惊艳,但在 Java 功能实现上却惨不忍睹”,“同一个模型在 Web 开发场景游刃有余,面对基础设施代码却束手无策”——这些开发者社区的常见吐槽,折射出现有代
阅读全文GPT-5 第一次被推入真正的科研现场,不再是辅助工具,而是正式参与者。跨数学、物理、生物的顶尖学者与 OpenAI 在联合评估中发现:它的推理能力,已经开始逼近人类研究者。这篇论文不是一般的模型测试
阅读全文当联邦学习遭遇 “两难抉择”:增加隐私噪声,还是维持模型精度?某三甲医院与社区诊所正协同训练心脏病预测模型——前者拥有高清影像数据(如 CT、MRI 影像),可支撑细微病灶的精准识别,后者则积累了大量
阅读全文ICLR 2026 论文区还在卷,审稿区却直接演成了春晚。今年的 ICLR,吃瓜才是主线剧情。ICLR 每年都卷,但今年的 OpenReview 多少有点离谱。一边是模型层出不穷。另一边,是审稿人、作
阅读全文AI 的“记忆系统”正在快速演化,但幻觉(Hallucination)问题依旧普遍存在。要让 AI 真正拥有“可靠记忆”,我们首先要弄清楚幻觉从哪里来、如何传播。▲ 图1 HaluMem与现有记忆系统
阅读全文合适的工作难找?最新的招聘信息也不知道?AI 求职为大家精选人工智能领域最新鲜的招聘信息,助你先人一步投递,快人一步入职!小红书小红书审核基础算法团队,致力于研究并落地多模态、大模型、Agent、Re
阅读全文过去两年,AIME 等数学基准几乎被主流大模型打到了 90% 以上。可当同一批模型面对 AMO-Bench 时,最高得分也只有 56.0%。这组反差让一个被忽略已久的疑问重新浮上台面:我们以为已经“很
阅读全文过去的大模型,再强也扛不住长链路:几十步稳、几百步飘、几万步基本要翻车。而这次,一个系统把 1,048,575 步跑到最后、零失误。这是在重写 LLM 的能力边界。在大模型的世界里,“一步错,全盘崩”
阅读全文2020年以来,OpenAI提出的 Scaling Law 引领着大模型的快速发展 —— 模型参数和训练数据规模越大,产生的智能能力越强。然而进入 2025 年,训练开销不断扩增这一路径面临严峻的可持
阅读全文今年2月,威立发布了基于对近5000名科研人员进行调研的研究报告ExplanAItions。时隔半年,依托新一轮调研中由全球2430位科研人员反馈的最新数据,威立重磅推出ExplanAItions 2
阅读全文本来只是一条技术帖:“RIP JSON”。结果短短 48 小时内,TOON、VSC、GOON、BONER 五花八门的格式像烟花一样在工程师圈子里连续炸开。人人都在造新格式,人人都在玩梗,人人都在做对比
阅读全文本文精选了美团技术团队在国际顶会NeurIPS 2025中发表的10篇论文,研究方向覆盖了大模型、多模态、自然语音处理、计算机视觉、基础技术、因果推断等技术领域,希望相关研究能给同学们带来一些帮助或启
阅读全文我把自己一周的博士日常全塞进了千问 APP——读论文、啃图表、跑实验、写 related work、救火 debug……结果用着用着,我突然有点怀疑:这手机里的模型,可能比我更像个 PhD。这两年,大
阅读全文引言视觉-语言导航(Vision-and-Language Navigation, VLN)作为具身智能的关键研究领域,旨在赋予智能体遵循自然语言指令在未知三维环境中导航的能力。近年来,多模态大语言模
阅读全文最近 ICLR 出了一个让学术圈纷纷停下来围观的瓜:一篇明显由大模型生成的投稿论文,不但顺利进入了评审流程,还拿到了两个 8 分——给分给得挺爽,但从评语里看不太出来 reviewer 到底理解了多少
阅读全文