Loading...

2025_NIPS_Efficient semantic uncertainty quantification in language models via diversity-steered sam
该研究聚焦于大型语言模型(LLMs)在自由形式问答(QA)任务中的语义不确定性量化问题,核心目标是解决传统方法需大量昂贵生成样本才能获得稳定估计的痛点。问题背景:LLMs生成文本流畅但存在固有的随机不确定性(aleatoricuncertainty)和认知不确定性(epistemicuncertainty),后者可能导致幻觉;而自由形式QA中,词汇不同的响应可能语义等价,传统采样方法易产生语义冗余样本,浪费计算资源。核心方法。

2025_NIPS_MLLM-For3D: Adapting Multimodal Large Language Model for 3D Reasoning Segmentation
推理分割旨在基于人类意图和空间推理分割复杂场景中的目标物体。尽管近年来多模态大语言模型(MLLMs)在2D图像推理分割中展现出令人瞩目的性能,但将这些能力迁移至3D场景的研究仍有待深入。本文提出MLLM-For3D,一种简洁且高效的框架,用于将2DMLLMs的知识迁移至3D场景理解。具体而言,我们利用MLLMs生成多视图伪分割掩码及对应的文本嵌入,随后将2D掩码反投影至3D空间并与文本嵌入对齐。

2025_NIPS_CATransformers: Carbon Aware Transformers Through Joint Model-Hardware Optimization
机器学习解决方案正被快速采用以支持各类关键应用场景,从对话式AI助手到科学发现。这种日益广泛的应用预计将增加相关的全生命周期碳足迹,包括训练和推理过程中的运营碳,以及AI硬件制造产生的隐含碳。本文提出CATransformers——首个面向Transformer模型与硬件加速器的碳感知联合优化框架。通过在早期设计空间探索中整合运营碳与隐含碳,CATransformers支持以可持续性为导向的模型架构与硬件加速器协同设计,展现出与延迟或能耗为中心的优化方法截然不同的权衡关系。

2025_NIPS_Bits Leaked per Query: Information-Theoretic Bounds for Adversarial Attacks on LLMs
问题定位:LLM为提升透明度会暴露答案令牌、思维过程(如链式推理)、logits等可观测信号,但这些信号可能被攻击者利用,用于系统提示泄露、越狱攻击、重学习攻击(恢复模型本应遗忘的信息)等场景。目前缺乏量化信号泄露风险与攻击成本的理论依据,导致开发者难以平衡透明度与安全性。核心框架:将攻击过程建模为信息通道,定义观测信号Z与目标属性T(如攻击成功标志、隐藏系统提示)的互信息IZ;TI(Z;T)IZ;T为“每查询泄露比特数”,并证明攻击达到误差ε所需的最小查询数满足Nminε∝。

2025_NIPS_Distribution-Aligned Decoding for Efficient LLM Task Adaptation
即使采用参数高效微调(PEFT),将数十亿参数的语言模型适配到下游任务仍然成本高昂。我们将任务适配重新定义为输出分布对齐问题:其目标是在解码过程中直接引导输出分布向任务分布靠拢,而非通过权重更新间接实现。基于这一视角,我们提出了引导向量解码(SVDecode),一种轻量、兼容PEFT且有坚实理论支撑的方法。我们首先进行短期预热微调,然后从预热模型与预训练模型输出分布的KL散度梯度中提取任务感知引导向量。该引导向量随后用于指导解码过程,使模型输出分布向任务分布偏移。

2025_NIPS_Detoxifying Large Language Models via Autoregressive Reward Guided Representation Editing
大型语言模型(LLMs)在各类任务中展现出令人印象深刻的性能,但它们仍容易生成有毒内容,因此需要detoxification策略以确保安全负责任的部署。测试时detoxification方法通常在LLM表示中引入静态或动态干预,凭借其灵活性和低侵入性成为一种很有前景的解决方案。然而,现有方法往往存在干预不精准的问题,主要原因是它们对有毒和无毒输出之间的转换空间探索不足。

2025_NIPS_UniTraj: Learning a Universal Trajectory Foundation Model from Billion-Scale Worldwide ...
该研究针对现有轨迹建模方法存在的任务特异性、区域依赖性和数据敏感性问题,提出了通用轨迹基础模型UniTraj,并构建了全球轨迹数据集WorldTrace。通过创新的预训练策略和灵活的模型架构,UniTraj实现了跨任务、跨区域的泛化能力,在轨迹恢复、预测、分类和生成等任务中表现优于现有方法。构建通用轨迹基础模型是解决现有轨迹建模方法局限性的理想方案,这些局限性包括任务特异性、区域依赖性和数据敏感性。尽管潜力巨大,但数据准备、预训练策略开发和架构设计为构建该模型带来了重大挑战。

2025_NIPS_Predicting the Performance of Black-box Language Models with Follow-up Queries
可靠预测语言模型的行为(例如其输出是否正确或是否受到对抗性操纵)是一项极具挑战性的任务。由于前沿语言模型通常仅通过闭源API提供服务,仅支持黑箱访问,这一挑战变得更加严峻。本文中,我们通过发起跟进问题并将响应概率作为表征来训练可靠的预测器,从而实现对黑箱语言模型行为的预测。我们首先证明,基于这些响应训练的线性模型能够可靠且准确地预测模型在问答和推理基准测试中的正确性。令人意外的是,该方法甚至可以优于基于模型内部状态或激活的白箱线性预测器。

2025_NIPS_Reinforcement Learning for Reasoning in Large Language Models with One Training Example
我们证明,使用单个训练样本的可验证奖励强化学习(1-shotRLVR)能有效激发大语言模型(LLMs)的数学推理能力。将RLVR应用于基础模型Qwen2.5-Math-1.5B,我们发现一个单一样本可将模型在MATH500基准上的性能从36.0%提升至73.6%(较格式修正额外提升8.6%),并将6个常见数学推理基准的平均性能从17.6%提升至35.7%(非格式相关增益7.0%)。

2025_NIPS_PRESTO: Preimage-Informed Instruction Optimization for Prompting Black-Box LLMs
该研究聚焦于黑盒大语言模型(LLM)的指令优化问题——由于黑盒LLM(如GPT-4)的内部参数不可访问,直接优化其指令面临挑战。现有方法通过白盒LLM(如LLaMA3.1-8B-Instruct)优化软提示(softprompt)以生成候选指令,但存在“多对一映射”问题(不同软提示映射到相同指令),导致查询冗余、优化效率低下。研究重新解读这一“多对一映射”为有用的先验知识(即“原像结构”:生成相同指令的所有软提示构成该指令的原像),并提出PRESTO框架分数共享(ScoreSharing)

2025_NIPS_Your Pre-trained LLM is Secretly an Unsupervised Confidence Calibrator
本文聚焦后训练语言模型(PoLM)的过度自信问题,提出无监督置信度校准方法DACA(Disagreement-AwareConfidenceAlignment)。核心逻辑是利用预训练语言模型(PLM)良好的置信度校准特性,通过筛选PLM与PoLM预测一致的样本优化温度参数,避免预测分歧样本导致的校准偏差。实验表明,DACA在MMLU、MedMCQA等数据集上显著降低ECE(最高提升15.08%),适配开源与API类模型(如GPT-4o),且可扩展至开放式问答和选择性分类任务。

2025_NIPS_MIR-Bench: Can Your LLM Recognize Complicated Patterns via Many-Shot In-Context Reasoning?
从示例中识别模式并应用于新场景的能力是通用智能的核心能力,心理学和人工智能研究者已对其展开广泛研究。现有许多基准用于评估大语言模型(LLMs)的此类能力,但它们多聚焦于少示例(通常少于10个)场景,且缺乏对长上下文海量信息聚合能力的评估。另一方面,LLMs不断增长的上下文长度催生了新的多示例上下文学习(ICL)范式,无需昂贵且低效的微调,仅通过数百至数千个示例即可应对新任务。然而,多示例评估大多集中于分类任务,而“大海捞针”(NIAH)等主流长上下文LLM任务通常不需要整合海量信息的复杂智能。

2025_NIPS_Analyzing Similarity Metrics for Data Selection for Language Model Pretraining
衡量训练样本间的相似度对于构建高质量、多样化的语言模型预训练数据集至关重要。然而,相似度通常通过通用的现成嵌入模型计算,这类模型是为检索等任务训练的。这些基于嵌入的相似度度量是否适用于预训练数据筛选,在很大程度上仍未得到探索。本文提出一种新框架,专门评估相似度度量在语言模型预训练数据筛选场景中的适配性。该框架的首个评估准则旨在捕捉嵌入空间中的距离如何反映不同训练样本在预训练损失上的泛化性;

2025_NIPS_Provable Scaling Laws for the Test-Time Compute of Large Language Models
我们提出两种简单、有原则且实用的算法,它们对大型语言模型(LLMs)的测试时计算具有可证明的缩放定律。第一种是两阶段淘汰赛式算法:给定一个输入问题,先生成多个候选解,再通过淘汰赛聚合这些候选解以得到最终输出。假设LLM能以非零概率生成正确解,且在比较一对正确解和错误解时表现优于随机猜测,我们从理论上证明,随着测试时计算量的增加,该算法的失败概率会呈指数级衰减或幂律衰减(取决于具体的缩放方式)。第二种是两阶段联赛式算法,其中每个候选解的评估基于其与多个对手的平均胜率,而非输给单个对手后即被淘汰。

2025_NIPS_Can Multi-Modal LLMs Provide Live Step-by-Step Task Guidance?
多模态大型语言模型(Multi-modalLLM)已具备先进的对话能力,但在提供实时、交互式分步指导方面仍存在不足——这是未来AI助手的关键能力之一。有效的指导不仅需要传递指令,还需检测指令的成功执行情况,识别并提醒用户的错误,且所有这些都必须实时完成。这要求模型不再是基于回合制,而是能够异步响应视频流,同时需要包含用户执行任务(包括错误及修正过程)的视频数据。

2025_NIPS_Learning World Models for Interactive Video Generation
基础世界模型必须兼具交互性和时空一致性,才能支持基于动作选择的有效未来规划。然而,当前长视频生成模型的固有世界建模能力有限,主要受两大挑战制约:复合误差与内存机制不足。本文通过额外的动作条件和自回归框架,为图像到视频模型增强了交互能力,并揭示:自回归视频生成中的复合误差本质上难以消除,而内存机制不足会导致世界模型的不一致性。我们提出带有显式全局状态条件的视频检索增强生成(VRAG),显著降低了长期复合误差,提升了世界模型的时空一致性。

2025_NIPS_SIMWORLD: An Open-ended Simulator for Agents in Physical and Social Worlds
尽管基于LLM/VLM的智能体在数学、编程和计算机应用领域取得了快速进展,但它们在复杂物理和社交环境中的应用仍面临挑战。构建能够在现实世界中生存和发展(例如自主赚取收入)的智能体,需要在多样化场景中进行大规模交互、推理、训练和评估。然而,现有用于此类开发的世界模拟器存在不足:它们通常依赖有限的手工构建环境,模拟简化的游戏化物理和社交规则,且缺乏对LLM/VLM智能体的原生支持。

2025_NIPS_Off-policy Reinforcement Learning with Model-based Exploration Augmentation
探索是强化学习(RL)的核心基础,其决定了智能体能否有效发现并利用环境的底层结构以实现最优性能。现有探索方法大致可分为主动探索和被动探索两类:前者通过在策略中引入随机性实现探索,但在高维环境中表现不佳;后者通过自适应优先排序回放缓冲区中的转移来增强探索,却受限于样本多样性不足。为解决被动探索的局限性,本文提出模型生成式探索(MoGE),通过生成未充分探索的关键状态,并借助转移模型合成动力学一致的经验来增强探索能力。

2025_NIPS_Can Large Language Models Help Multimodal Language Analysis? MMLA: A Comprehensive Benchma
多模态语言分析是一个快速发展的领域,它利用多种模态来增强对人类对话话语背后高层语义的理解。尽管其意义重大,但鲜有研究探讨多模态大型语言模型(MLLM)理解认知层面语义的能力。本文中,我们提出了MMLA——一个专门设计用于填补这一空白的综合基准。MMLA包含超过61K条来自模拟场景和真实世界场景的多模态话语,覆盖多模态语义的六个核心维度:意图、情感、对话行为、情绪、说话风格和沟通行为。我们采用三种方法(零样本推理、监督微调、指令微调)评估了八个主流分支的LLM和MLLM。

2025_NIPS_Spatial-Aware Decision-Making with Ring Attractors in Reinforcement Learning Systems
环形吸引子是受神经回路动力学启发的数学模型,为提升强化学习(RL)的学习速度和准确性提供了生物学上合理的机制。作为编码空间信息和不确定性的专用类脑结构,环形吸引子在深度强化学习(DRL)场景中显式编码动作空间、促进神经活动组织,并实现空间表示在神经网络中的分布式存储。这些结构还提供时间滤波功能,在探索过程中稳定动作选择——例如,在机器人控制中保持旋转角度的连续性,或在类游戏环境中维持战术动作的关联性。环形吸引子在动作选择过程中的应用包括将动作映射到环形上的特定位置,并基于神经活动解码所选动作。

欢迎留下您的脚印