Scaling Law的焦虑差距可以由「交互深度」解决,MiroMind用Qwen3-72B在GAIA中超越GPT5
在过去五年,AI领域一直被一条“铁律”所支配,Scaling Law(扩展定律)。它如同计算领域的摩尔定律一般,简单、粗暴、却魔力无穷:投入更多的数据、更多的参数、更多的算力,模型的性能就会线性且可预
阅读全文在过去五年,AI领域一直被一条“铁律”所支配,Scaling Law(扩展定律)。它如同计算领域的摩尔定律一般,简单、粗暴、却魔力无穷:投入更多的数据、更多的参数、更多的算力,模型的性能就会线性且可预
阅读全文随着Gemini 3.0、GPT-5.1的接连发布,AI 的能力边界再次被拓宽。一个令人兴奋的命题已然浮现:LLM 能否突破“解题者”的范畴,进化为能提出新颖科学假设的“科学家”,像爱因斯坦提出相对论
阅读全文Google昨天伴随Gemini3.0pro一同发布了他们的AI IDE产品Antigravity《与Gemini 3.0一起发布的AI IDE「Antigravity」究竟有多厉害?》。其震撼性的三
阅读全文就在几小时前,Gemini 3.0重磅发布。随着而来的还有其颠覆性的AI原生IDE产品——Antigravity,这不只是一个新工具那么简单。谷歌的这次发布,将三个核心开发工具,AI代理(Agent)
阅读全文当我们谈论大型语言模型(LLM)的"强化学习"(RL)时,我们在谈论什么?从去年至今,RL可以说是当前AI领域最炙手可热的词汇。在过去很长一段时间里,这个词几乎等同于 RLHF(人类反馈强化学习)一种
阅读全文如何构建一个真正意义上的“自主代理”(Agent),而不是一个“带LLM的高级工作流”? 让钢铁侠中的“贾维斯”(J.A.R.V.I.S.)真正来到现实,不仅能对话,还能调动资源、控制机械、在复杂战局
阅读全文谷歌在第三天发布了《上下文工程:会话与记忆》(Context Engineering: Sessions & Memory) 白皮书。文中开篇指出,LLM模型本身是无状态的 (stateless)。如
阅读全文我们长期把LLM当成能独闯难关的“单兵”,在很多任务上,这确实有效。可一旦问题牵涉多步依赖、分支探索和中途验证,顺序思考 (Sequential Thinking)的推理链条就开始吃力,甚至崩溃,链条
阅读全文和我们第一次在高速上驾驶汽车一样,在这种高压时刻,我们的大脑展现出一种惊人的能力:我们不会为了“规划变道”这个复杂任务而“暂停”当前的“反应”任务。我们更不会闭上眼睛思考30秒,让车自动驾驶,当然现在
阅读全文2025年末,谷歌通过Kaggle平台,以前所未有的力度,连续推出了两个为期五天的线上强化课程。这不仅仅是两次普通的线上分享,更像是一场由谷歌顶级机器学习(ML)研究员和工程师亲自引领的、深入探索生成
阅读全文本文基于研究者的系统性综述,围绕“AI Scientist(AI科学家)”这一新的概念展开,核心线索是研究者的六阶段方法论与三阶段演进轨迹;您如果正搭建一个可验证、可协作、可扩展的研究自动化体系,这篇
阅读全文大型语言模型(LLMs)正迅速成为从金融到交通等各个专业领域不可或缺的辅助决策工具。但目前LLM的“通用智能”在面对高度专业化、高风险的任务时,往往显得力不从心。为了弥合这一差距,我们目前高度依赖领域
阅读全文如果你也在做 RAG 或智能体应用,大概经历过这些瞬间:文档切得太碎,答案失去上下文;切得太大,又召回不准;加了更多提示词,效果可能更不稳定。Weaviate 团队比我们更早碰到这些问题,这是一家总部
阅读全文在几天前,上海交大发布了一篇名为 《上下文工程2.0:上下文工程的上下文》(Context Engineering 2.0: The Context of Context Engineering) 的
阅读全文最近出现了一篇题为《远程劳动力指数:衡量AI对远程工作的自动化》(Remote Labor Index: Measuring AI Automation of Remote Work)的重磅研究。这篇
阅读全文读者,您好!今天想跟您聊一个硬核又极具启发性的项目——HGM(Huxley-Gödel Machine)。我刚刚一起花了几个小时,从环境配置的坑,一路“打怪升级”到让它最终跑完,相信您可能已经从别的公
阅读全文编码智能体(Coding Agents),这些智能体能够处理复杂的编程任务,与开发环境交互,执行测试,甚至进行自我调试。这一飞跃催生了一种范式转变,带来了一种引人思考的新开发方法论,尽管“Vibe C
阅读全文DeepSeek-OCR这段时间非常火,但官方开源的文件是“按 NVIDIA/CUDA 习惯写的 Linux 版推理脚本+模型权重”,而不是“跨设备跨后端”的通吃实现,因此无法直接在苹果设备上运行,对
阅读全文从“AI没什么用”到“AI三年内将终结人类工作”,这片巨大的认知鸿沟,就是我们身处的2025年。在这片喧嚣和迷雾之中,我们迫切需要一个清晰的导航图。而Jason Wei正是提供这份地图的最佳人选之一。
阅读全文大型语言模型(LLM)本身很强大,但知识是静态的,有时会“胡说八道”。为了解决这个问题,我们可以让它去外部知识库(比如维基百科、搜索引擎)里“检索”信息,这就是所谓的“检索增强生成”(RAG)。但这还
阅读全文您可能已经听过“Brain Rot(脑腐烂)”这个词,它在2024年被牛津大学(Oxford)评为年度热词,本意描述的是人类长期沉浸浅层信息流带来的注意力、记忆与社交认知的耗损。Texas A&M U
阅读全文DeepSeek昨天开源了它们的多模态模型DeepSeek-OCR,主打用视觉压缩技术重新定义文本处理,长上下文难题迎来新解法!这个家伙厉害在能覆盖100多种语言,除了整页文字,还能对图表、化学式、几
阅读全文每隔一阵子,总有人宣告“RAG已死”:上下文越来越长、端到端多模态模型越来越强,好像不再需要检索与证据拼装。但真正落地到复杂文档与可溯源场景,你会发现死掉的只是“只切文本的旧RAG”。当图、表、公式与
阅读全文通用人工智能AGI可能是人类历史上最重要的技术,但这个词本身长期模糊不清、标准不断挪动。随着窄域 AI 把越来越多“看似需要人的智慧才能干”的活干得有模有样,人们对“什么才算 AGI”的门槛就跟着改,
阅读全文中科院的这篇工作解决了“深度搜索智能体”(deep search agents),两个实打实的工程痛点,一个是问题本身不够难导致模型不必真正思考,另一个是上下文被工具长文本迅速挤爆导致过程提前夭折,研
阅读全文上周写了两篇关于GEPA的文章《Agent多步误差咋破?看下GEPA,反思自进化+帕累托前沿,超过DSPy的MIPROv2》《别被提示词优化困住!用DSPy.GEPA把Prompt做成可演进的工程(万
阅读全文PyMC Labs 和个人护理领域的龙头企业高露洁-棕榄一起发了篇论文,核心想法很简单:传统消费者调研又贵又慢,还容易被面板偏差、迎合式作答这些老问题拖后腿。两家就想找一条更省钱省时、还能和现有流程配
阅读全文Meta提出早期经验(Early Experience)让代理在无奖励下从自身经验中学习:在专家状态上采样替代动作、执行并收集未来状态,将这些真实后果当作监督信号。核心是把“自己造成的未来状态”转为可
阅读全文编者按:调模型不如“管上下文”。这篇文章基于 ACE(Agentic Context Engineering),把系统提示、运行记忆和证据做成可演化的 playbook,用“生成—反思—策展”三角色加
阅读全文写给正在落地 AI 产品的工程师。一些代码直接可改造复用;另一些,是我踩坑后的经验之谈。为什么是 DSPy.GEPA,而不是“再手搓一次提示”DSPy是一个2024年5月修猫曾反复推荐给大家的一个AI
阅读全文