Loading...
大型语言模型(LLMs)是优秀的上下文学习模型。然而,提示中包含的数据敏感性引发了隐私担忧。我们的研究首先证实了这些担忧的合理性:我们实现了一种简单但高效的成员推理攻击,专门针对用于提示LLM的数据。为解决这一漏洞,一种方案是放弃提示学习,转而采用已知的私有梯度下降算法对LLM进行微调。但这会牺牲提示学习所具备的实用性和高效性。因此,我们提出了“私有提示学习”的概念。我们首先证明,通过对下游数据进行梯度下降,可以私有地获取软提示。
2025_NIPS_SheetCopilot: Bringing Software Productivity to the Next Level through Large Language M...
计算机终端用户每年花费数十亿小时完成表格数据处理、项目时间规划等日常任务。这些任务大多具有重复性且容易出错,但大多数用户缺乏自动化这类繁琐工作的技能。随着大型语言模型(LLMs)的出现,通过自然语言指令操控软件已成为可实现的目标。本文提出SheetCopilot智能体,它能接收自然语言描述的任务并控制电子表格软件完成需求。我们设计了一套“原子动作”作为电子表格软件功能的抽象接口,并为LLMs构建了基于状态机的任务规划框架,以实现与电子表格的稳健交互。
2025_NIPS_Trust Region-Based Safe Distributional Reinforcement Learning for Multiple Constraints
本文提出一种基于信任区域的安全分布强化学习算法(SDAC),旨在解决安全关键型机器人任务中的多约束处理和低偏差风险规避约束估计问题。核心创新包括梯度整合方法(同步处理多约束以快速达成可行性)和TD(λ)目标分布(降低约束估计偏差),实验验证其在单/多约束任务中均优于现有基线,约束满足效率和违规率表现更优。在安全关键型机器人任务中,必须减少潜在故障并满足多重约束,例如避碰、限制能耗和保持平衡。因此,在这类机器人任务中应用安全强化学习(RL)需要处理多重约束,并使用风险规避约束而非风险中性约束。
2025_NIPS_Distributional Pareto-Optimal Multi-Objective Reinforcement Learning
多目标强化学习(MORL)旨在针对多竞争目标,学习适用于各种可能回报偏好的控制策略。然而,现有MORL算法未能考虑对多元回报的分布偏好——这在自动驾驶等实际场景中尤为重要。为解决该问题,我们将MORL中的帕累托最优概念扩展为分布帕累托最优,其核心关注回报分布的最优性而非仅期望值。我们提出的方法名为分布帕累托最优多目标强化学习(DPMORL),能够学习分布帕累托最优策略,在平衡多目标的同时考虑回报不确定性。
2025_NIPS_On Evaluating Adversarial Robustness of Large Vision-Language Models
大型视觉语言模型(VLMs)如GPT-4,在响应生成方面取得了前所未有的性能,尤其是在处理视觉输入时,相比ChatGPT等大型语言模型,能够实现更具创造性和适应性的交互。尽管如此,多模态生成加剧了安全担忧——攻击者可能通过巧妙操纵最脆弱的模态(例如视觉模态),成功规避整个系统。为此,我们提出在最现实且高风险的场景下评估开源大型VLMs的鲁棒性:攻击者仅拥有黑盒系统访问权限,却试图欺骗模型返回目标响应。
2025_NIPS_FlowLLM: Flow Matching for Material Generation with Large Language Models as Base Distr...
该研究针对晶体材料生成中离散原子类型与连续晶格/坐标参数难以同时建模的核心挑战,提出了混合生成模型FlowLLM。预训练与微调:基于LLaMA-2模型,在晶体材料文本表示数据集上微调,使其学习亚稳态晶体的基础分布,能够通过自然语言提示生成初始材料的文本表征(包含原子类型、分数坐标、晶格参数)。表征转换与迭代优化:将LLM生成的文本表征转换为图结构,通过RFM模型迭代优化原子坐标和晶格参数(原子类型保持不变),利用黎曼流形上的测地线和向量场学习,使生成结果更接近稳定态。实验验证。
TRACER: Trace-Based Adaptive Cost-Efficient Routing for LLM Classification
每次调用大语言模型分类接口都会生成带标签的输入-输出对,这些数据已留存于生产日志中。它们构成了免费且持续增长的训练集:基于这些数据训练的轻量代理模型,可承担未来大量流量,边际推理成本近乎为零。目前悬而未决的问题是:代理模型何时足够可靠可部署、它能处理哪些输入、需要回退哪些输入,以及该边界如何随数据积累而演变。本文提出TRACER(基于追踪日志的自适应低成本路由),一套开源系统:它直接用大模型自身的生产追踪日志训练机器学习代理模型,并通过奇偶校验门。
2025_NIPS_Policy Optimization for Continuous Reinforcement Learning
该文章聚焦连续时间与空间下的强化学习(RL),针对无限时域折扣目标和随机微分方程(SDE)驱动的动态系统,构建了统一的策略优化理论框架。核心内容包括:定义贴现占用时/测度(离散MDP中访问频率的连续对应)和q值(瞬时优势率函数);推导性能差异公式,为后续算法提供理论基础;提出连续版策略梯度(CPG)和TRPO/PPO(CPPO)算法,无需时空离散化即可直接应用;通过线性二次(LQ)随机控制和二维最优配对交易两个实验,验证了算法的收敛性和有效性,且在部分场景下优于传统离散化方法。
2025_NIPS_Judging LLM-as-a-Judge with MT-Bench and Chatbot Arena
评估基于大型语言模型(LLM)的聊天助手具有挑战性,这源于其广泛的能力以及现有基准在衡量人类偏好方面的不足。为解决这一问题,我们探索使用强LLM作为评估者,对这些模型在更开放式问题上的表现进行评估。我们研究了LLM-as-a-Judge的应用场景与局限,包括位置偏差、冗长偏差、自我增强偏差以及有限的推理能力,并提出了部分缓解方案。随后,我们通过引入两个基准验证了LLM评估者与人类偏好的一致性:MT-bench(一个多轮问题集)和ChatbotArena(一个众包对战平台)。
2025_NIPS_Suggesting Variable Order for Cylindrical Algebraic Decomposition via Reinforcement Lea...
该文聚焦圆柱代数分解(CAD)的变量排序优化问题,提出两种基于图神经网络(GNN)与强化学习(RL)的变量排序推荐方法(GRL-SVO)。CAD作为符号计算的核心算法,其复杂度随变量数呈双指数增长,而变量排序对效率影响显著。
2025_NIPS_Adversarial Moment-Matching Distillation of Large Language Models
知识蒸馏(KD)已被证明能有效利用大型教师模型指导小型学生模型,在提升大型语言模型(LLMs)的计算和内存效率方面具有实际价值。目前最先进的LLM蒸馏方法大多依赖于最小化教师和学生概率预测之间的显式分布距离。本文并未优化这些强制性的行为克隆目标,而是探索了一种适用于LLM蒸馏的模仿学习策略。具体而言,我们通过从在线策略和离线策略双视角匹配教师行为的动作值矩,来最小化模仿差距。为实现这一动作值矩匹配目标,我们提出一种对抗训练算法,联合估计矩匹配距离并优化学生策略以最小化该距离。
2025_NIPS_Mobility-LLM: Learning Visiting Intentions and Travel Preference from Human Mobility Da...
基于位置的服务(LBS)通过签到序列积累了大量关于人类多样化行为的移动数据,这些序列蕴含着用户意图和偏好的宝贵信息。然而,现有分析签到序列的模型未能充分考虑序列中包含的语义信息——这些语义与人类的访问意图和出行偏好密切相关,导致理解不够全面。受大语言模型(LLMs)在各领域展现出的卓越语义理解和上下文处理能力启发,我们提出了Mobility-LLM,一种利用LLMs分析签到序列以支持多任务的新型框架。
2025_NIPS_A Logic for Expressing Log-Precision Transformers
一种解读基于Transformer的语言模型推理能力的方式,是描述它们能在输入文本上解析的逻辑规则类型。近期,Chiang等人(2023)表明,有限精度Transformer分类器可等价地表示为一阶逻辑的一种推广形式。然而,有限精度Transformer是一种能力较弱的Transformer变体——正如我们所证明的,单个注意力头仅能关注恒定数量的token,尤其无法表示均匀注意力。由于广泛关注是Transformer的核心能力,我们提出疑问:一种最小化增强、能够实现全局关注的模型,是否也能通过逻辑进行刻画。
DR-Venus: Towards Frontier Edge-Scale Deep Research Agents with Only 10K Open Data
基于小语言模型的边缘级深度研究智能体因成本、延迟与隐私优势,在实际部署中极具吸引力。本文研究如何在有限开源数据下,通过提升数据质量与数据利用率,训练高性能小型深度研究智能体。我们提出DR‑Venus,一款完全基于开源数据构建、面向边缘部署的前沿4B深度研究智能体。训练方案分为两阶段:第一阶段采用智能体有监督微调(SFT),结合严格数据清洗与长程轨迹重采样,建立基础智能体能力并提升数据质量与利用率;第二阶段应用智能体强化学习(RL),进一步提升长程深度研究任务的执行可靠性。
2025_NIPS_SustainGym: Reinforcement Learning Environments for Sustainable Energy Systems
可持续能源应用中强化学习(RL)缺乏标准化基准,这既难以追踪特定领域的进展,也无法让研究人员明确需重点攻克的瓶颈。本文提出SustainGym,一个包含5个环境的套件,旨在测试RL算法在真实可持续能源系统任务中的性能——涵盖电动汽车充电、碳感知数据中心任务调度等场景。该套件支持在真实分布偏移及多智能体设定下测试RL算法。实验表明,现成的标准RL算法仍有显著的性能提升空间,同时本文也强调了将RL应用于实际可持续性任务所面临的挑战。
ClawGUI: A Unified Framework for Training, Evaluating, and Deploying GUI Agents
GUI智能体通过视觉界面而非编程API驱动应用,以点击、滑动、按键与任意软件交互,覆盖基于CLI的智能体无法触及的长尾应用。该领域进展的瓶颈并非建模能力,而是缺乏连贯的全栈基础设施:在线强化学习训练受环境不稳定与封闭流程制约,不同研究的评估协议存在隐性偏差,训练好的智能体难以落地到真实设备的真实用户场景。本文提出ClawGUI,一个在单一框架内解决上述三大缺口的开源方案。
2025_NIPS_MemoryFormer : Minimize Transformer Computation by Removing Fully-Connected Layers
为降低大型语言模型的计算复杂度,研究界已做出大量努力以提升Transformer模型的效率(如线性注意力和FlashAttention)。然而,为追求更高性能,模型规模及相应的计算复杂度仍在持续增长。本文提出一种新型Transformer架构MemoryFormer,从全新视角显著降低计算复杂度(FLOPs)。该架构剔除了Transformer模型中几乎所有非必要计算,仅保留多头注意力操作所需的核心计算量。
2025_NIPS_A Unified Debiasing Approach for Vision-Language Models across Modalities and Tasks
近年来,视觉语言模型(VLMs)的进步通过同时处理文本和图像数据,实现了复杂的多模态任务,显著推动了人工智能领域的发展。然而,这些模型往往存在偏见,可能使输出向社会刻板印象倾斜,因此亟需去偏策略。现有去偏方法仅局限于特定模态或任务,且需要大量重新训练。为解决这些局限性,本文提出了选择性特征填充去偏(SFID)——一种融合特征剪枝和低置信度填充(LCI)的新型方法,可有效降低VLMs中的偏见。SFID具有通用性,能保留输出的语义完整性,且无需重新训练,成本高效。
2025_NIPS_Survival Instinct in Offline Reinforcement Learning
我们提出一个关于离线强化学习(RL)算法行为的新发现:在许多基准数据集上,即便使用“错误”的奖励标签(如全零奖励或真实奖励的相反数),离线RL仍能生成性能优异且安全的策略。这一现象难以通过离线RL的回报最大化目标轻易解释,且赋予了离线RL一种其在线对应算法不具备的稳健性——在线RL已知对奖励设计高度敏感。我们证明,这种令人意外的稳健性源于离线RL算法中的悲观主义概念与常见数据收集实践中的特定隐含偏差的相互作用。
2025_NIPS_Focused Transformer: Contrastive Training for Context Scaling
大型语言模型具备以上下文方式整合新信息的卓越能力。然而,这种方法的全部潜力往往因有效上下文长度的限制而难以充分发挥。解决该问题的一种方案是让注意力层能够访问由(键,值)对构成的额外上下文。但随着文档数量的增加,相关键与无关键的比例会下降,导致模型更关注无关键。我们发现了一个显著的挑战——称为干扰问题(distractionissue):与不同语义值相关联的键可能会重叠,使其难以区分。
