Loading...

LongCat-Flash-Prover:AI 攻克数学定理证明,不仅要“算得对”,更要“证得严”
在常规的数学解题中,模型只需要“答对最终数值”即可,但数学定理证明不同,它要求极度严苛的逻辑链条,任何一句自然语言的模棱两可,都可能导致整个证明的崩塌。那么,如何让AI从“猜答案”走向“严谨证明”,成为复杂推理具有挑战的课题。为了解答这个问题,我们开源了专门用于数学形式化与定理证明的模型——LongCat-Flash-Prover。

美团发布原生多模态 LongCat-Next:当视觉和语音成为AI的母语
LongCat-Next是我们在通往物理世界AI道路上的一次探索。今天,我们把研究思路的核心——LongCat-Next模型和它的离散分词器全部开源,希望更多开发者能基于它,构建真正能感知、理解并作用于真实世界的AI。

美团 BI 在指标平台和分析引擎上的探索和实践
美团数据平台构建了以指标平台为核心的新一代BI架构,通过自动语义和增强计算两种核心能力的建设,部分解决了传统BI平台在个性化数据集驱动下产生的数据口径混乱、查询性能差等问题。

重塑站外体验:大众点评 M 站基于 Qwik.js 的重构实践
为突破传统Web框架的性能瓶颈,大众点评增长团队引入Qwik.js重构M站核心页面架构,解决了重构前页面加载慢、维护成本高的难题。借助“可恢复性”能力,我们甩掉了传统水合的性能损耗,搭配全链路优化与工程化适配,让各个页面的性能指标都得到了明显提升。本文将拆解本次重构的技术选型、原理与落地细节,沉淀前沿框架在站外场景的落地经验。

LongCat 为 OpenClaw 装上效率引擎:你的自动化任务还能再快 30%
依赖第三方订阅进行非官方调用存在账号安全风险与服务不稳定性。为规避此类问题,LongCat团队提供稳定合规的官方免费API,开发者可通过官方渠道直接接入OpenClaw,在确保账号安全的前提下构建自动化工作流。

美团发布基于 N-gram 全新模型:嵌入扩展新范式,实现轻量化 MoE 高效进化
LongCat-Flash-Lite是一款拥有685亿参数,每次推理仅激活29亿~45亿参数的轻量化MoE模型。通过将超过300亿参数高效用于嵌入层,LongCat-Flash-Lite不仅超越了参数量等效的MoE基线模型,还在与同规模现有模型的对比中展现出卓越的竞争力,尤其在智能体与代码领域表现突出。

2025美团技术年货,「马」上到来
值此马年春节来临之际,我们精选了过去一年美团技术团队微信公众号发布的40多篇优质技术文章,精心汇编成一本500多页的电子书。谨以此作为一份特别的新年礼物,献给每一位热爱技术、持续探索的同学。

多维创新打造强泛化智能体模型,LongCat-Flash-Thinking-2601技术报告发布
LongCat-Flash-Thinking-2601模型创新性地打造了“重思考模式”,通过并行推理与深度总结,实现推理宽度与深度的协同扩展,显著提升复杂交互与多步规划任务中的表现。

美团 EvoCUA 刷新开源 SOTA,会用电脑还会持续进化的智能体!
美团技术团队推出了EvoCUA模型并在Github、Huggingface开源,通过构建可验证数据合成引擎与十万级并发的交互沙盒,将训练范式从传统的“静态轨迹模仿”转变为高效的“经验进化学习”。

美团 LongCat-Flash-Thinking-2601 发布,工具调用能力登顶开源 SOTA!
美团LongCat团队正式对外发布并开源LongCat-Flash-Thinking-2601。作为已发布的LongCat-Flash-Thinking模型的升级版,LongCat-Flash-Thinking-2601在AgenticSearch(智能体搜索)、AgenticToolUse(智能体工具调用)、TIR(工具交互推理)等核心评测基准上,均达到开源模型SOTA水平。

欢迎留下您的脚印