Loading...
核心问题:现有LLM遗忘技术无法约束遗忘范围,且不能区分良性token与遗忘信号,导致恶意用户可通过操纵遗忘数据发起隐蔽攻击。攻击方案(StealthyAttack,SA):通过在遗忘数据中增加“please”“then”等常见良性token的频率,诱导模型将其视为遗忘信号,使普通用户使用这些token时模型性能下降。防御方案(Scope-awareUnlearning,SU)
2025_NIPS_Scientists’ First Exam: Probing Cognitive Abilities of MLLM via Perception, Understanding,
本文来自上海人工智能实验室PrismaX团队,针对现有科学领域多模态大语言模型(MLLMs)基准测试仅侧重知识理解、忽视感知与推理能力评估的缺陷,提出了Scientists’FirstExam(SFE)基准测试。该基准旨在从三个认知层面全面评估MLLMs的科学认知能力:科学信号感知(L1,识别科学原始数据可视化中的关键组件)、科学属性理解(L2,解读领域专家知识)、科学比较推理(L3,通过多科学视觉源的结构化比较推导现象洞察)。SFE涵盖5个高价值学科(天文学、化学、地球科学、生命科学、材料科学)、
MSA: Memory Sparse Attention for Efficient End-to-End Memory Model Scaling to 100M Tokens
长期记忆是人类智能的基石。使人工智能能够处理数以亿计token的“终生尺度(lifetime-scale)”信息,一直是该领域的长期追求。由于全注意力(full-attention)架构的限制,大型语言模型(LLM)的有效上下文长度通常被限制在100万(1M)个token以内。现有的探索,如混合线性注意力、固定大小的记忆状态(例如RNN),以及如RAG(检索增强生成)或智能体系统等外部存储方法,都试图突破这一限制。
OpenResearcher: A Fully Open Pipeline for Long-Horizon Deep Research Trajectory Synthesis
OpenResearcher:AFullyOpenPipelineforLong-HorizonDeepResearchTrajectorySynthesis》一文主要解决的是当前“深度研究智能体(DeepResearchAgents)”在获取长视距(Long-Horizon)推理与搜索训练数据时面临的成本高、环境不稳定以及难以复现等痛点。现有的数据收集往往高度依赖诸如GoogleSearch等商业在线搜索引擎API,这使得大规模生成试错轨迹变得极其昂贵且不可控。
2025_NIPS_SafePTR : Token-Level Jailbreak Defense in Multimodal LLMs via Prune-then-Restore Mechanis
内容警告:本文包含少量有害图像和文本!多模态大型语言模型(MLLMs)通过整合视觉输入,将大型语言模型(LLMs)的能力扩展到视觉推理领域。然而,这种整合也引入了新的漏洞,使得MLLMs易受多模态越狱攻击,阻碍了其安全部署。现有防御方法(包括图像转文本翻译、安全提示工程和多模态安全调优)试图通过将多模态输入与LLMs的内置安全机制对齐来解决该问题,但它们未能揭示多模态漏洞的根本原因,尤其是有害多模态令牌如何触发MLLMs的越狱行为?
2025_NIPS_Flexible Language Modeling in Continuous Space with Transformer-based Autoregressive Flows
自回归模型推动了语言建模的显著进步。它们对离散token、单向上下文和单轮解码的基础性依赖,虽为其成功奠定核心,但也启发了对可提供新建模灵活性维度的设计空间的探索。本文探索了一种替代范式,将语言建模从离散token空间转移到连续latent空间。我们提出一种新颖的TarFlowLM框架,采用基于Transformer的自回归归一化流来建模这些连续表示。该方法解锁了显著的灵活性,能够构建通过堆叠的交替方向自回归变换捕捉全局双向上下文、支持具有灵活token补丁大小的块级生成、并促进分层多轮生成过程的模型。
2025_NIPS_Partition to Evolve: Niching-enhanced Evolution with LLMs for Automated Algorithm Discover
大语言模型辅助进化搜索(LES)已成为自动化算法发现(AAD)的一种极具潜力的方法。尽管针对经典优化问题已开发出多种进化搜索策略,但LES运行于抽象语言空间,为有效应用这些策略带来了独特挑战。为解决这一问题,我们提出一种通用LES框架,其在抽象搜索空间中融入特征辅助小生境构建,实现了进化计算中基于小生境的搜索策略的无缝集成。基于该框架,我们引入PartEvo(PartitiontoEvolve)方法,该方法结合小生境协同搜索与先进提示策略,以提升算法发现效率。
2025_NIPS_Training-Free Test-Time Adaptation via Shape and Style Guidance for Vision-Language Model
预训练视觉语言模型的测试时自适应展现出优异的零样本分类能力,而无训练方法在无需任何优化开销的前提下进一步提升了性能。然而,现有无训练测试时自适应方法通常依赖熵准则选择视觉特征和更新视觉缓存,却忽略了形状敏感和风格不敏感等泛化因子。本文提出一种新颖的形状和风格引导(SSG)方法,用于视觉语言模型的无训练测试时自适应,旨在突出形状敏感(SHS)和风格不敏感(STI)因子的作用。具体而言,SSG通过形状和风格破坏操作对原始测试图像进行扰动,并将原始图像与扰动图像的预测差异定义为扰动预测差异(PPD)。
2025_NIPS_MindOmni: Unleashing Reasoning Generation in Vision Language Models with RGPO
近期的文本到图像系统在处理多模态输入和复杂推理任务时面临局限。本文提出统一多模态大语言模型MindOmni,通过强化学习融入推理生成能力以应对这些挑战。MindOmni采用三阶段训练策略:1)设计含解码器式扩散模块的统一视觉语言模型;2)使用思维链(CoT)指令数据进行有监督微调;3)提出推理生成策略优化(RGPO)算法,利用多模态反馈有效引导策略更新。实验结果表明,MindOmni在理解和生成基准测试中均优于现有模型,展现出先进的细粒度推理生成能力,尤其在数学推理指令任务中表现突出。所有代码将开源于。
2025_NIPS_HyperET: Efficient Training in Hyperbolic Space for Multi-modal Large Language Models
该研究针对多模态大型语言模型(MLLMs)训练中存在的计算资源消耗巨大、视觉与文本模态多粒度对齐不足的问题,提出了一种基于双曲空间的高效训练范式HyperET。核心背景是现有MLLMs依赖CLIP、SAM等视觉编码器,这些编码器仅能在单一粒度(如像素级或对象级)与语言对齐,导致跨模态对齐效率低下,需海量GPU资源支撑训练。而双曲空间天然具备层级建模能力,可通过双曲半径量化粒度(原点附近为低粒度视觉特征,边界附近为高粒度语义特征),为解决粒度不匹配问题提供了理论基础。
2025_NIPS_ROVER: Recursive Reasoning Over Videos with Vision-Language Models for Embodied Tasks
视觉语言模型(VLMs)在各类图像理解任务中展现出令人印象深刻的能力,但在需要对视频中的长序列相机帧进行推理的场景中仍存在不足。这限制了它们在具身场景中的实用性——此类场景要求在任务执行的每个时刻,都能基于连续的视觉输入流对长帧序列进行推理。为解决这一局限,我们提出ROVER(递归视频推理框架,ReasoningOverVidEoRecursively),该框架能使模型将长时程视频轨迹递归分解为对应轨迹内较短子任务的片段。
2025_NIPS_Mol-LLaMA: Towards General Understanding of Molecules in Large Molecular Language Model
理解分子是理解生物体和推动药物发现进展的关键,需要化学和生物学领域的跨学科知识。尽管大型分子语言模型在任务迁移方面取得了显著成功,但由于知识储备和推理能力有限,它们往往难以准确分析分子特征。为解决这一问题,我们提出Mol-LLaMA——一款大型分子语言模型,其核心是掌握以分子为中心的通用知识,并具备可解释性和推理能力。为此,我们设计了涵盖分子基本特征的关键数据类型,同时兼顾分子推理所需的核心能力。此外,为提升分子理解效果,我们提出一种融合模块,利用分子表征的独特优势,整合来自不同分子编码器的互补信息。
2025_NIPS_RoboRefer: Towards Spatial Referring with Reasoning in Vision-Language Models for Robotics
空间指代是实体机器人与3D物理世界交互的核心能力。然而,即便借助强大的预训练视觉语言模型(VLM),现有方法仍无法精准理解复杂3D场景,也难以对指令指示的交互位置进行动态推理。为此,我们提出RoboRefer——一种3D感知VLM,其首先通过监督微调(SFT)整合分离式专用深度编码器,实现精准空间理解;进一步通过强化微调(RFT),结合为空间指代任务定制的度量敏感过程奖励函数,提升广义多步空间推理能力。
2025_NIPS_CodeGEMM: A Codebook-Centric Approach to Efficient GEMM in Quantized LLMs
仅权重量化被广泛用于缓解LLM推理的内存受限问题。基于码本的方法通过在极低比特场景(如2-bit)下实现较高精度,进一步推动了这一趋势。然而,现有内核依赖反量化过程——反复读取质心并重构权重,导致显著的延迟和缓存压力。本文提出CodeGEMM,一种以码本为中心的GEMM内核,其通过预计算质心与激活之间的内积并存储在轻量级Psumbook中,替代了反量化步骤。推理时,码本索引直接获取这些部分和,消除了逐元素查找并减少了片上存储占用。该内核在统一实现中支持对延迟-内存-精度权衡关系的系统性探索。
2025_NIPS_Model Editing for Vision Transformers
模型编辑为高效、精准地更新预训练Transformer中的知识提供了一种极具前景的范式,无需进行昂贵的重训练。尽管该技术在语言模型(LMs)中已得到广泛研究,但视觉Transformer(ViTs)的模型编辑仍未得到充分探索。现有方法通常通过修改多层感知机(MLP)模块来适配基于LM的技术,却忽视了ViTs的独特特性。在本研究中,我们发现ViT的预测结果受多头自注意力(MSA)模块的影响远大于MLP模块。基于这一观察,我们提出了一种用于编辑ViTs的两阶段框架。首先,识别对错误预测负主要责任的注意力头;
2025_NIPS_BREAD: Branched Rollouts from Expert Anchors Bridge SFT & RL for Reasoning
小型语言模型(SLM)难以学习复杂的推理行为,尤其是在高质量轨迹稀缺或难以借鉴的场景下。标准训练方法通常结合监督微调(SFT)阶段(用于蒸馏大型模型的能力)和强化学习(RL)阶段(如组相对策略优化GRPO)。本文研究了这种SFT+RL范式的根本性局限,并提出了相应的解决方法。在合适的理论模型下,我们证明当(1)专家轨迹过于复杂导致小型模型无法表达,或(2)小型模型初始化成功的概率呈指数级低时,SFT+RL策略会完全失效。
2025_NIPS_URLs Help, Topics Guide: Understanding Metadata Utility in LLM Training
大语言模型(LLMs)通常在海量文本语料上进行预训练,却未利用来源、质量或主题等上下文元数据,形成了无上下文的学习范式。尽管近期研究表明,将URL等元数据作为上下文(即不参与损失计算的辅助输入)可提升训练效率和下游任务性能,但对于哪些类型的元数据真正有效以及在何种条件下有效,相关理解仍较为有限。本研究通过系统性评估发现,并非所有元数据类型的贡献都是均等的:仅URL上下文能加速训练,而质量分数和主题/格式领域信息未带来明显收益。
2025_NIPS_Reason-RFT: Reinforcement Fine-Tuning for Visual Reasoning of Vision Language Models
视觉推理能力在理解复杂多模态数据、推动特定领域应用和人工通用智能(AGI)发展中起着至关重要的作用。现有方法通过思维链(CoT)有监督微调提升视觉语言模型(VLMs)的推理能力,利用精心标注的训练数据增强视觉推理性能。然而,这种训练范式可能导致过拟合和认知僵化,限制模型在领域迁移场景下的泛化能力,降低其实际应用价值。为解决这些局限,我们提出Reason-RFT——首个用于视觉推理的两阶段强化微调框架:(1)利用精选CoT数据进行有监督微调(SFT),激活VLMs的推理潜力;
OpenClaw-RL: Train Any Agent Simply by Talking
每个已部署的AI智能体都在收集用于自我改进的数据却又将其丢弃。每次动作ata_tat后,智能体都会收到下一状态信号st1s_{t+1}st1:用户回复、工具执行结果、GUI状态转换或测试判定。现有系统仅将其当作下一步动作的上下文。本文提出OpenClaw‑RL,一个基于简单观察构建的框架:下一状态信号具有普遍性,策略可同时从所有信号中学习。个人对话、终端执行、GUI交互、SWE任务与工具调用轨迹并非独立训练问题,它们都是可在同一循环中训练同一策略的交互。
HY-WU (Part I): An Extensible Functional Neural Memory Framework and An Instantiation in Text-Guided
大模型正从离线预测器转向需长期运行的部署系统。实际部署中目标并非固定:领域漂移、用户偏好变化、新任务持续出现,这让持续学习与即时个性化从可选功能升级为核心架构需求。但主流适配流程仍遵循静态权重范式:训练或适配后,推理仅执行单一参数向量,无视用户意图、领域与实例约束,将模型视为参数空间中的单点。在异构、持续演化场景中,不同目标会形成分离的可行参数区域,迫使单一共享更新陷入折中、干扰或过拟合。因此持续学习与个性化常表现为重复覆写共享权重,易导致已学能力退化。本文提出。
