Loading...
该研究针对时空轨迹数据因设备故障、网络不稳定导致的稀疏化问题,提出了基于预训练语言模型(PLM)的轨迹恢复模型PLMTrajRec。模型聚焦三类核心挑战:大规模密集轨迹数据集稀缺、不同采样间隔下的泛化困难、缺失点道路条件提取复杂,通过双轨迹提示、间隔感知轨迹嵌入器和PLM基轨迹编码器三大组件,实现高效、可扩展且泛化能力强的地图匹配式轨迹恢复。在成都和波尔图的四个公开数据集上,通过三种采样间隔的实验验证,模型在准确性、MAE、RMSE等指标上显著优于12种基线方法,且仅需20%训练数据即可达到优异性能。
2025_NIPS_OpenAD: Open-World Autonomous Driving Benchmark for 3D Object Detection
开放世界感知旨在开发一种能够适配新领域和多种传感器配置,并能理解罕见目标与极端案例的模型。然而,当前研究缺乏足够全面的开放世界3D感知基准和鲁棒的泛化方法。本文提出OpenAD,首个面向3D目标检测的真实开放世界自动驾驶基准。OpenAD基于整合了多模态大语言模型(MLLM)的极端案例发现与标注流水线构建,该流水线以统一格式为5个自动驾驶感知数据集的2000个场景标注极端案例目标。此外,我们设计了评估方法,并对各类开放世界模型及专用2D/3D模型进行了评估。
2025_NIPS_Probing Knowledge Holes in Unlearned LLMs
该研究聚焦大语言模型(LLMs)的机器遗忘(machineunlearning)技术,核心发现现有遗忘方法在移除有害知识时,会意外导致良性知识丢失(即“知识漏洞”),而传统静态基准测试无法捕捉这类隐藏损失。核心问题:现有机器遗忘技术虽能在TruthfulQA、MMLU等标准基准上维持性能,却存在未被发现的“知识漏洞”——对与有害知识相关的“邻近知识”和语义无关的“潜在知识”,遗忘后的模型会生成无关、不完整甚至无意义的响应。
2025_NIPS_LTD-Bench: Evaluating Large Language Models by Letting Them Draw
本文针对当前大型语言模型(LLMs)评估范式的核心缺陷——依赖模糊的数值指标,无法直观反映模型空间推理能力,且与实际物理世界应用需求脱节——提出了LTD-Bench(LetThemDrawBenchmark)评估框架。该框架通过让模型生成可视化输出(点阵图或可执行绘图代码),将抽象的模型能力转化为直接可观察的视觉结果,填补了统计性能与直观评估之间的鸿沟。双路径评估:涵盖生成任务(空间想象力,将文本描述转化为视觉表征)和识别任务(空间感知力,将视觉模式解读为语言),全面测试语言-空间双向映射能力;
2025_NIPS_Progress Reward Model for Reinforcement Learning via Large Language Models
传统强化学习(RL)算法在处理具有稀疏奖励的长期任务时面临显著局限性。近年来的研究进展利用大型语言模型(LLMs)的世界知识进行任务规划和奖励生成,从而增强强化学习的性能。然而,基于规划的方法通常依赖预定义的技能库,且无法优化低层控制策略;而基于奖励的方法由于任务复杂性,需要大量的人类反馈或穷尽式搜索。本文提出了强化学习进度奖励模型(PRM4RL),这是一种融合任务规划和稠密奖励的新型框架,用于增强强化学习的性能。
2025_NIPS_Avoiding exp(R) scaling in RLHF through Preference-based Exploration
本文聚焦在线RLHF(基于人类反馈的强化学习)的样本效率问题,提出SE-POPO算法,首次实现样本复杂度与奖励范围的多项式相关,解决了现有算法奖励范围指数级依赖的痛点,理论与实证均验证其优于现有基线算法。基于人类反馈的强化学习(RLHF)已成为大语言模型(LLM)对齐的关键技术。本文研究在线RLHF场景,聚焦提升其样本效率。现有所有在线RLHF算法(无论被动探索还是主动探索)的样本复杂度均随奖励函数范围呈指数级增长。这种统计低效性使其在偏好高度倾斜的场景(如具有客观正确答案的问题)中效果受限。
2025_NIPS_In-Context Learning of Linear Dynamical Systems with Transformers: Approximation Bounds an
本文研究了Transformer在表示一类带噪声线性动力系统时,上下文学习能力的逼近理论特性。我们的首个理论结果建立了多层Transformer在L2L^2L2测试损失下的逼近误差上界,该损失在不同任务上统一定义。这一结果表明,对数深度的Transformer能够达到与最小二乘估计器相当的误差界。相比之下,第二个结果建立了一类单-layer线性Transformer的逼近误差非衰减下界,这表明Transformer在动力系统上下文学习中存在深度分离现象。
2025_NIPS_Linearly Constrained Diffusion Implicit Models
我们提出了线性约束扩散隐式模型(CDIM),这是一种利用扩散模型解决带噪线性逆问题的快速准确方法。传统基于扩散的逆问题求解方法,除了无条件去噪步骤外,还依赖大量投影步骤来保证测量一致性。CDIM通过动态调整投影步骤的数量和大小,使残差测量能量与其在正向扩散过程中的理论分布对齐,从而将投影步骤减少10-50倍。这种自适应对齐机制在保持测量一致性的同时,显著加速了约束推理过程。对于无噪线性逆问题,即使现有方法失效,CDIM也能通过少量投影步骤精确满足测量约束。
2025_NIPS_Context-Aware Hierarchical Learning: A Two-Step Paradigm towards Safer LLMs
大型语言模型(LLMs)已成为各类应用的强大工具。然而,其统一的令牌处理范式在指令处理中引入了关键漏洞,尤其在对抗性场景下暴露无遗。本文识别并提出了一类新型漏洞——工具完成攻击(Tool-CompletionAttack,TCA),该攻击利用函数调用机制破坏模型行为。为评估LLMs对此类威胁的鲁棒性,我们引入Tool-Completion基准——一个全面的安全评估框架,结果表明即使最先进的模型仍易受TCA攻击,且攻击成功率高得惊人。
2025_NIPS_Sharp Analysis for KL-Regularized Contextual Bandits and RLHF
本文聚焦KL正则化在上下文老虎机和人类反馈强化学习(RLHF)中的作用,通过理论分析揭示其样本复杂度优势。核心结论是:当参考策略覆盖充分时,KL正则化能将样本复杂度从无正则化的O1ϵ2O1/ϵ2提升至O1ϵO1/ϵ(ϵ足够小),且提出两阶段混合采样算法实现这一优化,同时证明了匹配的下界。文章还分析了参考策略覆盖系数对样本复杂度的影响,为更高效的算法设计提供理论支撑。
2025_NIPS_Accurate KV Cache Eviction via Anchor Direction Projection for Efficient LLM Inference
本文聚焦大语言模型(LLM)推理中的KV缓存淘汰优化,针对现有方法依赖注意力权重、忽略向量空间中令牌价值状态空间关系的缺陷,提出锚点方向投影(AnDPro)方法。通过将KV缓存淘汰建模为组合优化问题并松弛为稀疏优化问题,AnDPro以预淘汰输出方向为“锚点方向”,利用令牌价值向量在该方向上的投影衡量令牌重要性,实现更精准的缓存保留决策。
2025_NIPS_LLM Interpretability with Identifiable Temporal-Instantaneous Representation
该研究聚焦大语言模型(LLMs)可解释性问题,针对现有稀疏自编码器(SAEs)缺乏时序依赖建模、瞬时关系表示及理论保证,且因果表示学习(CRL)难以适配LLMs高维概念空间的缺陷,提出一种可识别的时序-瞬时因果表示学习框架。框架以线性模型为基础,同时捕捉概念间的时滞因果关系和瞬时约束,通过观测重建、独立噪声估计和稀疏正则化实现优化,在合成数据集、半合成数据集及真实LLM激活数据上验证了有效性,成功揭示了LLMs内部有意义的概念关联模式。尽管大型语言模型(LLMs)具备卓越能力,但其内部表示的理解仍面临挑战。
2025_NIPS_MoPFormer: Motion-Primitive Transformer for Wearable-Sensor Activity Recognition
基于可穿戴传感器的人体活动识别(HAR)面临着可解释性有限的挑战,这严重影响了跨数据集泛化能力。为解决这一问题,我们提出了运动基元Transformer(MoPFormer),这是一种新颖的自监督框架,通过将惯性测量单元信号编码为具有语义意义的运动基元来增强可解释性,并利用Transformer架构学习丰富的时序表示。MoPFormer包含两个阶段:第一阶段将多通道传感器流分割为短片段,并将其量化为离散的“运动基元”代码;
2025_NIPS_Towards Building Model/Prompt-Transferable Attackers against Large Vision-Language Models
尽管大型视觉语言模型(LVLMs)展现出令人印象深刻的多模态能力,但它们对对抗样本的脆弱性引发了严重的安全担忧。现有LVLM攻击方法仅优化易过拟合特定模型/提示的对抗图像,导致其在迁移攻击不同模型/提示时失效。受这一研究缺口的启发,本文旨在开发一种更强大的攻击方法,能够迁移至不同结构的黑盒LVLM模型和不同语义的任务感知提示。具体而言,我们引入信息论的新视角,通过探索LVLM模型输出与输入对抗样本之间的相对依赖关系,研究LVLMs的迁移特性。
2025_NIPS_Order-Level Attention Similarity Across Language Models: A Latent Commonality
本文聚焦语言模型(LMs)上下文聚合模式的共性,提出阶数级注意力(OLA)概念,揭示不同LMs间同阶OLA的显著相似性(OLAS现象),且OLA天然编码句法知识。基于此,设计可迁移OLA适配器(TOA),实现无需训练的跨模型适配器迁移,在关系抽取、命名实体识别等4类任务中,显著提升未见过目标模型的性能(如LLaMA3-3B训练的TOA迁移到Qwen2-1.5B,关系预测准确率从7.69%提升至34.90%)。本文探讨了一个重要但此前被忽视的问题:不同语言模型(LMs)的上下文聚合模式是否存在共性?
2025_NIPS_LiveCodeBench Pro: How Do Olympiad Medalists Judge LLMs in Competitive Programming?
近期有报告称,大型语言模型(LLMs)在竞技编程中已超越精英人类。基于一组国际算法竞赛奖牌得主的专业知识,我们重新审视这一说法,探究LLMs与人类专家的差异及仍存在的局限性。我们推出LiveCodeBenchPro基准测试集,该数据集由Codeforces、ICPC和IOI的题目组成,且持续更新以降低数据污染风险。一支由竞赛奖牌得主组成的团队为每道题目标注算法类别,并对模型生成的失败提交进行逐行分析。
2025_NIPS_Mix Data or Merge Models? Balancing the Helpfulness, Honesty, and Harmlessness of Large La
实现大型语言模型(LLMs)在有用性、诚实性和无害性(3H优化)方面的平衡对齐,是负责任人工智能的核心支柱。现有数据混合策略等方法存在依赖专家知识和优化信号冲突等局限性。尽管模型融合通过整合专用模型参数提供了参数级冲突解决策略,但其在3H优化中的潜力尚未得到充分探索。本文首次系统对比了模型融合与数据混合方法在构建3H对齐LLM中的效果,揭示了此前被忽视的3H维度间的协作与冲突关系,并探讨了数据混合(数据级)和模型融合(参数级)方法在缓解冲突、实现平衡3H优化方面的优缺点。
2025_NIPS_Activation-Informed Merging of Large Language Models
本文聚焦大语言模型(LLMs)的模型融合问题,提出了一种名为激活感知融合(Activation-InformedMerging,AIM)的技术。模型融合是将多个基于同一预训练基础模型微调的任务专用模型的参数与嵌入结合,以在保持计算效率的同时提升多任务性能,但现有方法多仅关注权重空间,忽略了激活空间的关键信息,且易出现“灾难性遗忘”(即丢失基础模型的通用能力)或受低质量微调模型影响。
2025_NIPS_Praxis-VLM: Vision-Grounded Decision Making via Text-Driven Reinforcement Learning
现有视觉语言模型(VLMs)在多模态任务中表现出色,但缺乏复杂场景下的情境推理能力,难以支撑机器人、交互式助手等领域的决策需求。传统增强VLMs推理能力的方法依赖大规模图文配对数据,这类数据标注成本高、获取难度大,尤其在多样化现实决策场景中存在明显瓶颈。视觉语言模型(VLMs)在各类任务中展现出令人印象深刻的性能,但往往缺乏复杂决策所需的精密情境推理能力。本文研究表明,当视觉场景被文本描述替代时,VLMs能实现出人意料的强决策性能——这意味着基础推理能力可通过语言有效学习。
2025_NIPS_RobustMerge: Parameter-Efficient Model Merging for MLLMs with Direction Robustness
微调预训练模型以适配自定义数据,已产生大量面向特定任务的专家模型。将这些模型融合为一个具备多任务能力的通用模型,同时避免数据泄露,已成为研究热点。随着数据和模型规模的扩大,参数高效调优已成为高效获取任务特定模型的常规做法。然而,专门针对高效融合的方法极少,且为全量微调设计的现有融合方法在高效融合场景下效果不佳。为解决该问题,本文通过低秩分解分析揭示:融合过程中的方向鲁棒性对高效模块的融合至关重要,且弥补显著奇异值之间的差距有助于提升方向鲁棒性。
