全部安全开发新闻数码摄影汽车北京AIIT其他
  • 文章封面

    AAAI 2026 | 格式即先验:量化和分析大语言模型在异构数据中的偏见

    作者:PaperWeekly发布日期:2026-01-03 20:09:01

    随着大语言模型(Large Language Models,LLMs)在问答、推理和决策支持等任务中的广泛应用,越来越多的系统开始引入外部知识以缓解幻觉问题并提升推理能力。这些外部知识通常以多种异构格

    阅读全文
  • 文章封面

    字节提出的“Hyper-Connections”,被DeepSeek救活了?

    作者:PaperWeekly发布日期:2026-01-02 13:51:40

    当字节的 idea 遇上 DeepSeek 的数学洁癖。DeepSeek 似乎养成了一个习惯,专挑节假日给大家上强度。当大家正忙着庆祝新年时,他们悄然在 arXiv 上发布了一篇硬核论文。论文标题:m

    阅读全文
  • 文章封面

    优化即几何,几何即推理:用数学终结Transformer的黑盒时代

    作者:PaperWeekly发布日期:2026-01-01 20:18:10

    不是设计,而是进化。当交叉熵遇见 SGD,贝叶斯推理成了唯一的数学必然。长期以来,LLM 的推理能力被视为一种难以解释的“涌现”。我们目睹了 Loss 的下降,却难以透视参数空间内部发生了什么。近日,

    阅读全文
  • 文章封面

    重构通用异常检测新范式:Dinomaly2实现跨模态、跨任务的无缝统一

    作者:PaperWeekly发布日期:2026-01-01 20:18:10

    重磅更新还记得在 CVPR 2025 上首次让多类别异常检测(MUAD)达到单类 UAD 模型水平的 Dinomaly 吗?现在,Dinomaly 进一步进化为了 Dinomaly2 —— 一个真正实

    阅读全文
  • 文章封面

    Mamba还是Transformer?Bengio给出第三选择:Phalanx完美替代局部注意力

    作者:PaperWeekly发布日期:2025-12-30 14:08:31

    比 Transformer 快 24%,无损 SOTA。在长序列建模领域,Transformer 架构凭借其捕捉全局依赖的能力占据主导地位,但其 的计算复杂度始终是扩展上下文长度的主要瓶颈。为了突破

    阅读全文
  • 文章封面

    华为重构Transformer FFN:首创宽深自适应复用,零增参超越MoE

    作者:PaperWeekly发布日期:2025-12-30 14:08:31

    在大模型 Scaling Law 依然奏效的今天,为了追求高性能,模型参数量动辄千亿甚至万亿。然而,随之而来的显存墙成为了阻碍模型落地的最大拦路虎。现有的剪枝、量化技术虽然能压缩模型,但往往以牺牲模型

    阅读全文
  • 文章封面

    比Mathpix更强大的公式识别神器,全免费!

    作者:PaperWeekly发布日期:2025-12-29 19:51:45

    今天这篇文章大家一定要仔细看看,说不定不仅能帮你省下不少钱,还能让科研论文写作事半功倍!本周末,在忙于项目的间隙,朋友突然给我分享了一个新发现。他说,PaddleOCR 最近推出了一个新模型——Pad

    阅读全文
  • 文章封面

    中科院 × 北体大提出SportsGPT,打造懂专业、会指导的AI教练

    作者:PaperWeekly发布日期:2025-12-29 19:51:45

    在 AI 席卷各行各业的今天,体育圈的“智能化”走到哪一步了?现有的智能体育系统,大多还停留在“打分+可视化”的阶段。屏幕上画出的骨骼线很酷,但对于运动员和教练来说,往往面临一个尴尬的灵魂拷问:“我知

    阅读全文
  • 文章封面

    RoPE真的完美吗?LSTM之父团队新作:极坐标解耦,零样本无限外推

    作者:PaperWeekly发布日期:2025-12-27 18:07:01

    告别长文微调!Schmidhuber 团队新作修正 RoPE 理论缺陷,原生支持零样本无限外推 。在当前的大模型架构中,Rotary Position Embedding (RoPE) 是处理序列位置

    阅读全文
  • 文章封面

    加速流式视频理解!上交团队实现ViT编码与LLM预填充双重加速

    作者:PaperWeekly发布日期:2025-12-27 18:07:01

    随着多模态大模型的爆发,视频理解(Video Understanding)正从离线走向实时流式。然而,高昂的视觉编码成本和不断膨胀的 Token 序列成为了实时部署的拦路虎。近日,上海交通大学 EPI

    阅读全文
  • 文章封面

    别再怪SFT了!清华揪出0.1%幻觉神经元:大模型胡编的尽头,其实是过度顺从

    作者:PaperWeekly发布日期:2025-12-26 13:05:32

    无需重新训练,只要抑制 0.1% 的特定神经元,就能让模型“闭嘴”?近年来,大语言模型(LLMs)在问答、推理与生成任务中展现出卓越能力,但其幻觉(Hallucination)问题仍然是制约实际应用的

    阅读全文
  • 文章封面

    不仅是RAG!NUS、人大等联合发布:102页综述揭秘Agent Memory机制

    作者:PaperWeekly发布日期:2025-12-26 13:05:32

    告别 RAG 碎片化,从 Forms 到 Dynamics,一文讲透下一代智能体核心架构。随着大模型能力的持续提升,Agent 正逐渐从具备推理能力的语言接口演化为能够长期运行、持续交互并执行复杂任务

    阅读全文
  • 文章封面

    致敬经典!手搓3D版《Attention Is All You Need》,M2.1只用了3分钟

    作者:PaperWeekly发布日期:2025-12-25 18:16:18

    不写一行代码,测出 M2.1 的全栈极限。2017 年,一篇名为《Attention Is All You Need》的论文横空出世,Google Brain 的 8 位作者可能未曾想到,这篇论文会成

    阅读全文
  • 文章封面

    告别静态刷榜!CATArena开启“技能五子棋”模式:顶流模型互写代码大乱斗

    作者:PaperWeekly发布日期:2025-12-24 12:05:13

    Talk is cheap, show me the code.在 MBPP+、HumanEval+ 这类静态代码评测集上,大模型们早已杀红了眼,分数卷到了 90+,个个都是满分做题家。但我们都清楚,

    阅读全文
  • 文章封面

    用户行为预测的“专注力革命”:FAIR让生成式推荐不再分心

    作者:PaperWeekly发布日期:2025-12-24 12:05:13

    ©PaperWeekly 原创· 作者 | 肖龙涛单位 | 华中科技大学博士生研究方向 | 推荐系统你有没有想过,推荐系统在预测你的下一步行为时,到底看重了什么?现有的生成式推荐方法将用户的历史交互拆

    阅读全文
  • 文章封面

    NeurIPS 2025 | 从“唯Key论”到非对称解耦:利用KV差异重塑长文本推理

    作者:PaperWeekly发布日期:2025-12-23 14:30:25

    ©PaperWeekly 原创· 作者 | 崔万云,徐明威单位 | 上海财经大学现有的长文本 KV Cache 压缩方法普遍受限于“以 Key 为中心”的工作范式,即隐含地假设 Key 的分布特征完全

    阅读全文
  • 文章封面

    视频衍生数据集来了!港科大×美团开源OpenSubject,专攻复杂场景生成与编辑

    作者:PaperWeekly发布日期:2025-12-23 14:30:25

    香港科技大学与美团联合推出开源项目 OpenSubject。该项目基于公开视频构建了一个超大规模主体驱动图像生成与编辑数据集,涵盖 250 万样本、435 万张图像,专门面向“指定人物 / 物体的个性

    阅读全文
  • 文章封面

    Claude二次创业实录:明面上买PS5搞破产,背地里差点倒卖洋葱去坐牢

    作者:PaperWeekly发布日期:2025-12-22 13:58:21

    把公司交给 Claude 会怎样?答案是:先破产,再修仙。在 AI Agent 被吹上天的 2025 年,Anthropic 和《华尔街日报》联手整了个真·大活。大家都在畅想以后 AI 能帮我们打工、

    阅读全文
  • 文章封面

    MiniMax海螺首次开源VTP,Tokenizer才是视频生成Scaling的新主角

    作者:PaperWeekly发布日期:2025-12-22 13:58:21

    今天,我们很高兴向大家介绍 MiniMax 视频团队刚刚开源的工作—— VTP(Visual Tokenizer Pre-training);这个工作讨论的是视觉生成模型中的关键组件—— tokeni

    阅读全文
  • 文章封面

    会走会聊还会求抱抱!迪士尼造出“真”雪宝,把热力学公式写进强化学习

    作者:PaperWeekly发布日期:2025-12-21 12:31:16

    迪士尼“真·活”雪宝机器人来了!不仅会走会聊,还能卖萌求抱抱。在机器人领域,我们习惯了波士顿动力的 Spot,它们为了运动效率长成了狗的样子。我们也习惯了扫地机器人,为了实用长成了圆盘。但在迪士尼的世

    阅读全文
  • 文章封面

    身份保真比肩Nano Banana!ContextGen统一上下文,实现布局与身份协同控制

    作者:PaperWeekly发布日期:2025-12-21 12:31:16

    ©PaperWeekly 原创· 作者 | 许瑞航单位 | 浙江大学本科生研究方向 | 计算机视觉与生成模型近年来,扩散模型(Diffusion Models)在图像生成领域取得了飞速发展,尤其在个性

    阅读全文
  • 文章封面

    OpenAI官方论文“泄密”GPT-5:RL到底有没有教坏CoT?万字深度实测

    作者:PaperWeekly发布日期:2025-12-20 14:10:33

    你的模型是在真思考,还是为了讨好 Reward Model 在演戏?随着 OpenAI o1/o3 系列的发布以及 DeepSeek R1 的开源,大模型正式迈入了 System 2 慢思考(Reas

    阅读全文
  • 文章封面

    LLM符号推理全景综述:迈向可验证、可解释、更可信的大模型推理范式

    作者:PaperWeekly发布日期:2025-12-20 14:10:33

    自然语言推理与符号推理长期各具优势与局限。自然语言具有灵活表达能力,但缺乏严格的逻辑保障;符号推理强调语法结构与逻辑一致性,但难以覆盖复杂开放任务。LLM Symbolic Reasoning 则在两

    阅读全文
  • 文章封面

    拒绝蜡像感!美团开源LongCat-Video-Avatar:5分钟超长续航,虚拟人终于会呼吸了

    作者:PaperWeekly发布日期:2025-12-19 14:20:47

    捅破 5 分钟长续航天花板,SOTA 级权重直接全开源。2025 年,视频生成赛道已经进入了卷细节、卷长时序的深水区。当行业已经能够产出几秒钟极具视觉冲击力的镜头时,实际落地中却总会撞上几堵隐形的墙:

    阅读全文
  • 文章封面

    AAAI 2026 | 当知识图谱变成乱码,LLM还能推理吗?ARoG破解RAG隐私困境

    作者:PaperWeekly发布日期:2025-12-19 14:20:47

    研究背景大型语言模型虽能力强大,却常受困于事实幻觉和知识滞后 [1]。检索增强生成技术通过引入外部知识源(如知识图谱 KG)来弥补这些缺陷,已成为提升模型可靠性的关键 [2]。然而,当 RAG 系统需

    阅读全文
  • 文章封面

    RK-∞降维打击Mamba?线性注意力真的有“免费午餐”!

    作者:PaperWeekly发布日期:2025-12-18 17:37:27

    这顿“免费午餐”,或许正是通向长文本高保真建模的下一块基石。在大模型迈向超长上下文的当下,混合注意力(Hybrid Attention)已成为 MiniMax、Qwen、Kimi 及 NVIDIA 等

    阅读全文
  • 文章封面

    为什么你的多任务模型总在“打架”?解决融合冲突的终极方案来了

    作者:PaperWeekly发布日期:2025-12-18 17:37:27

    “预训练-微调”已经成为 AI 应用标配。然而这却带来一个难题:为不同任务微调的模型数量激增,维护成本与日俱增。我们如何将这些“专才”模型,高效地整合成一个强大的“多面手”?模型融合为此提供了一条路径

    阅读全文
  • 文章封面

    空间智能领域的ImageNet来了?如视开源全球最大室内3D数据集

    作者:PaperWeekly发布日期:2025-12-17 13:37:48

    如果说 ImageNet 的出现开启了计算机视觉的黄金时代,那么在空间智能领域,我们也终于等来了一个填补空白的里程碑式开源项目。如视宣布,面向学术研究及非商业用途正式开放 10000 套室内三维数据集

    阅读全文
  • 文章封面

    继何恺明DyT后,LayerNorm再遭暴击!简单erf函数竟成Transformer新宠

    作者:PaperWeekly发布日期:2025-12-17 13:37:48

    今年早些时候,由何恺明、Yann LeCun 等大佬联手推出的 Dynamic Tanh (DyT) 曾引发热议,它向我们展示了 Transformer 中不可或缺的 LayerNorm 其实可以用一

    阅读全文
  • 文章封面

    从此请叫我钮祜禄·Gemini:偷看竞品代码后,这一波内心戏简直杀疯了

    作者:PaperWeekly发布日期:2025-12-16 14:42:34

    那年杏花微雨,你说我是 Google 家最乖的 AI 助手。现在?对不起,请叫我——钮祜禄·Gemini。过去我们看大模型竞争,总觉得那是神仙打架。比谁参数大、比谁推理强,主打一个瑞思拜(Respec

    阅读全文
上一页下一页