Loading...

2025_NIPS_FlowLLM: Flow Matching for Material Generation with Large Language Models as Base Distr...
该研究针对晶体材料生成中离散原子类型与连续晶格/坐标参数难以同时建模的核心挑战,提出了混合生成模型FlowLLM。预训练与微调:基于LLaMA-2模型,在晶体材料文本表示数据集上微调,使其学习亚稳态晶体的基础分布,能够通过自然语言提示生成初始材料的文本表征(包含原子类型、分数坐标、晶格参数)。表征转换与迭代优化:将LLM生成的文本表征转换为图结构,通过RFM模型迭代优化原子坐标和晶格参数(原子类型保持不变),利用黎曼流形上的测地线和向量场学习,使生成结果更接近稳定态。实验验证。

TRACER: Trace-Based Adaptive Cost-Efficient Routing for LLM Classification
每次调用大语言模型分类接口都会生成带标签的输入-输出对,这些数据已留存于生产日志中。它们构成了免费且持续增长的训练集:基于这些数据训练的轻量代理模型,可承担未来大量流量,边际推理成本近乎为零。目前悬而未决的问题是:代理模型何时足够可靠可部署、它能处理哪些输入、需要回退哪些输入,以及该边界如何随数据积累而演变。本文提出TRACER(基于追踪日志的自适应低成本路由),一套开源系统:它直接用大模型自身的生产追踪日志训练机器学习代理模型,并通过奇偶校验门。

2025_NIPS_Policy Optimization for Continuous Reinforcement Learning
该文章聚焦连续时间与空间下的强化学习(RL),针对无限时域折扣目标和随机微分方程(SDE)驱动的动态系统,构建了统一的策略优化理论框架。核心内容包括:定义贴现占用时/测度(离散MDP中访问频率的连续对应)和q值(瞬时优势率函数);推导性能差异公式,为后续算法提供理论基础;提出连续版策略梯度(CPG)和TRPO/PPO(CPPO)算法,无需时空离散化即可直接应用;通过线性二次(LQ)随机控制和二维最优配对交易两个实验,验证了算法的收敛性和有效性,且在部分场景下优于传统离散化方法。

2025_NIPS_Judging LLM-as-a-Judge with MT-Bench and Chatbot Arena
评估基于大型语言模型(LLM)的聊天助手具有挑战性,这源于其广泛的能力以及现有基准在衡量人类偏好方面的不足。为解决这一问题,我们探索使用强LLM作为评估者,对这些模型在更开放式问题上的表现进行评估。我们研究了LLM-as-a-Judge的应用场景与局限,包括位置偏差、冗长偏差、自我增强偏差以及有限的推理能力,并提出了部分缓解方案。随后,我们通过引入两个基准验证了LLM评估者与人类偏好的一致性:MT-bench(一个多轮问题集)和ChatbotArena(一个众包对战平台)。

2025_NIPS_Suggesting Variable Order for Cylindrical Algebraic Decomposition via Reinforcement Lea...
该文聚焦圆柱代数分解(CAD)的变量排序优化问题,提出两种基于图神经网络(GNN)与强化学习(RL)的变量排序推荐方法(GRL-SVO)。CAD作为符号计算的核心算法,其复杂度随变量数呈双指数增长,而变量排序对效率影响显著。

2025_NIPS_Adversarial Moment-Matching Distillation of Large Language Models
知识蒸馏(KD)已被证明能有效利用大型教师模型指导小型学生模型,在提升大型语言模型(LLMs)的计算和内存效率方面具有实际价值。目前最先进的LLM蒸馏方法大多依赖于最小化教师和学生概率预测之间的显式分布距离。本文并未优化这些强制性的行为克隆目标,而是探索了一种适用于LLM蒸馏的模仿学习策略。具体而言,我们通过从在线策略和离线策略双视角匹配教师行为的动作值矩,来最小化模仿差距。为实现这一动作值矩匹配目标,我们提出一种对抗训练算法,联合估计矩匹配距离并优化学生策略以最小化该距离。

2025_NIPS_Mobility-LLM: Learning Visiting Intentions and Travel Preference from Human Mobility Da...
基于位置的服务(LBS)通过签到序列积累了大量关于人类多样化行为的移动数据,这些序列蕴含着用户意图和偏好的宝贵信息。然而,现有分析签到序列的模型未能充分考虑序列中包含的语义信息——这些语义与人类的访问意图和出行偏好密切相关,导致理解不够全面。受大语言模型(LLMs)在各领域展现出的卓越语义理解和上下文处理能力启发,我们提出了Mobility-LLM,一种利用LLMs分析签到序列以支持多任务的新型框架。

2025_NIPS_A Logic for Expressing Log-Precision Transformers
一种解读基于Transformer的语言模型推理能力的方式,是描述它们能在输入文本上解析的逻辑规则类型。近期,Chiang等人(2023)表明,有限精度Transformer分类器可等价地表示为一阶逻辑的一种推广形式。然而,有限精度Transformer是一种能力较弱的Transformer变体——正如我们所证明的,单个注意力头仅能关注恒定数量的token,尤其无法表示均匀注意力。由于广泛关注是Transformer的核心能力,我们提出疑问:一种最小化增强、能够实现全局关注的模型,是否也能通过逻辑进行刻画。

DR-Venus: Towards Frontier Edge-Scale Deep Research Agents with Only 10K Open Data
基于小语言模型的边缘级深度研究智能体因成本、延迟与隐私优势,在实际部署中极具吸引力。本文研究如何在有限开源数据下,通过提升数据质量与数据利用率,训练高性能小型深度研究智能体。我们提出DR‑Venus,一款完全基于开源数据构建、面向边缘部署的前沿4B深度研究智能体。训练方案分为两阶段:第一阶段采用智能体有监督微调(SFT),结合严格数据清洗与长程轨迹重采样,建立基础智能体能力并提升数据质量与利用率;第二阶段应用智能体强化学习(RL),进一步提升长程深度研究任务的执行可靠性。

2025_NIPS_SustainGym: Reinforcement Learning Environments for Sustainable Energy Systems
可持续能源应用中强化学习(RL)缺乏标准化基准,这既难以追踪特定领域的进展,也无法让研究人员明确需重点攻克的瓶颈。本文提出SustainGym,一个包含5个环境的套件,旨在测试RL算法在真实可持续能源系统任务中的性能——涵盖电动汽车充电、碳感知数据中心任务调度等场景。该套件支持在真实分布偏移及多智能体设定下测试RL算法。实验表明,现成的标准RL算法仍有显著的性能提升空间,同时本文也强调了将RL应用于实际可持续性任务所面临的挑战。

ClawGUI: A Unified Framework for Training, Evaluating, and Deploying GUI Agents
GUI智能体通过视觉界面而非编程API驱动应用,以点击、滑动、按键与任意软件交互,覆盖基于CLI的智能体无法触及的长尾应用。该领域进展的瓶颈并非建模能力,而是缺乏连贯的全栈基础设施:在线强化学习训练受环境不稳定与封闭流程制约,不同研究的评估协议存在隐性偏差,训练好的智能体难以落地到真实设备的真实用户场景。本文提出ClawGUI,一个在单一框架内解决上述三大缺口的开源方案。

2025_NIPS_MemoryFormer : Minimize Transformer Computation by Removing Fully-Connected Layers
为降低大型语言模型的计算复杂度,研究界已做出大量努力以提升Transformer模型的效率(如线性注意力和FlashAttention)。然而,为追求更高性能,模型规模及相应的计算复杂度仍在持续增长。本文提出一种新型Transformer架构MemoryFormer,从全新视角显著降低计算复杂度(FLOPs)。该架构剔除了Transformer模型中几乎所有非必要计算,仅保留多头注意力操作所需的核心计算量。

2025_NIPS_A Unified Debiasing Approach for Vision-Language Models across Modalities and Tasks
近年来,视觉语言模型(VLMs)的进步通过同时处理文本和图像数据,实现了复杂的多模态任务,显著推动了人工智能领域的发展。然而,这些模型往往存在偏见,可能使输出向社会刻板印象倾斜,因此亟需去偏策略。现有去偏方法仅局限于特定模态或任务,且需要大量重新训练。为解决这些局限性,本文提出了选择性特征填充去偏(SFID)——一种融合特征剪枝和低置信度填充(LCI)的新型方法,可有效降低VLMs中的偏见。SFID具有通用性,能保留输出的语义完整性,且无需重新训练,成本高效。

2025_NIPS_Survival Instinct in Offline Reinforcement Learning
我们提出一个关于离线强化学习(RL)算法行为的新发现:在许多基准数据集上,即便使用“错误”的奖励标签(如全零奖励或真实奖励的相反数),离线RL仍能生成性能优异且安全的策略。这一现象难以通过离线RL的回报最大化目标轻易解释,且赋予了离线RL一种其在线对应算法不具备的稳健性——在线RL已知对奖励设计高度敏感。我们证明,这种令人意外的稳健性源于离线RL算法中的悲观主义概念与常见数据收集实践中的特定隐含偏差的相互作用。

2025_NIPS_Focused Transformer: Contrastive Training for Context Scaling
大型语言模型具备以上下文方式整合新信息的卓越能力。然而,这种方法的全部潜力往往因有效上下文长度的限制而难以充分发挥。解决该问题的一种方案是让注意力层能够访问由(键,值)对构成的额外上下文。但随着文档数量的增加,相关键与无关键的比例会下降,导致模型更关注无关键。我们发现了一个显著的挑战——称为干扰问题(distractionissue):与不同语义值相关联的键可能会重叠,使其难以区分。

2025_NIPS_Revisiting the Minimalist Approach to Offline Reinforcement Learning
本文聚焦离线强化学习(offlineRL),针对现有算法复杂且设计选择影响未被充分研究的问题,以极简基线算法TD3+BC为基础,整合近年研究中的关键设计元素,提出了轻量化算法ReBRAC。通过在D4RL、V-D4RL基准的51个数据集(含本体感受和视觉状态空间)上的实验,ReBRAC在无集成方法中实现了最先进性能,且在离线到在线场景中表现优异。同时,作者通过大规模消融实验和超参数敏感性分析,验证了所整合设计选择的有效性。近年来,离线强化学习(RL)取得了显著进展,催生了众多复杂程度各异的算法。

2025_NIPS_Transformer as a hippocampal memory consolidation model based on NMDAR-inspired nonline...
海马体在学习、记忆和空间表征中发挥关键作用,这些过程依赖于NMDA受体(N-甲基-D-天冬氨酸受体)。受近期将深度学习模型与海马体进行对比的研究启发,我们提出一种新的非线性激活函数,其模拟了NMDA受体的动力学特性。类NMDA受体非线性将Transformer中的短期工作记忆转化为长期参考记忆,从而增强了与哺乳动物大脑记忆巩固相似的过程。我们设计了一项评估这两种记忆功能的导航任务,并表明调控该激活函数(即模拟NMDA受体的镁离子门控机制)会破坏长期记忆过程。

2025_NIPS_An Exploration-by-Optimization Approach to Best of Both Worlds in Linear Bandits
本文探讨了如何构造线性老虎机的“双优”算法,使其在随机环境和对抗性环境中均能实现近最优性能。为此,我们证明了一种被称为“优化探索法”(LattimoreandSzepesvári,2020b)的自然方法具有良好效果。具体而言,基于该方法构建的算法在对抗性环境中实现了OdTlog⁡TOdTlogT​的遗憾界,在随机环境中实现了Od2log⁡TΔminOΔmin​d2logT​的遗憾界。其中,符号dddTTT和ΔminΔmin。

2025_NIPS_Near-Optimal Distributionally Robust Reinforcement Learning with General $L_p$ Norms
该研究聚焦分布鲁棒强化学习(DRRL)中的样本复杂度问题,针对标准强化学习(RL)存在的仿真到现实鸿沟、对环境扰动敏感等问题,基于鲁棒马尔可夫决策过程(RMDPs)框架,采用广义(L_{p})范数定义不确定性集,在sa-矩形和s-矩形两种假设下,系统分析了RMDPs的样本复杂度。研究通过推导对偶优化形式、提出浓度引理等技术手段,给出了近最优的样本复杂度上界和匹配的极小极大下界,验证了鲁棒RL在特定场景下比标准RL样本效率更高,且s-矩形RMDPs的样本复杂度不高于sa-矩形RMDPs。

2025_NIPS_T2I-CompBench: A Comprehensive Benchmark for Open-world Compositional Text-to-image Gen...
尽管近年来的文本到图像模型具备令人惊叹的高质量图像生成能力,但现有方法往往难以将具有不同属性和关系的物体有效组合成复杂且连贯的场景。本文提出T2I-CompBench,一个面向开放世界组合式文本到图像生成的综合基准,包含来自3大类(属性绑定、物体关系、复杂组合)和6个子类(颜色绑定、形状绑定、纹理绑定、空间关系、非空间关系、复杂组合)的6000个组合式文本提示。我们进一步提出了多个专门用于评估组合式文本到图像生成的指标,并探索了多模态大型语言模型(multimodalLLMs)在评估中的潜力与局限性。

欢迎留下您的脚印