Loading...
虽然对于枚举过的页面,现有的约束条件可以一定程度上约束产出内容,但是对于未枚举,或者无法枚举的页面,产出的页面就随着使用者或者编码工具的不同而开始天差地别,(有时候甚至可以通过页面风格判断是谁,用什么工具写的页面)有什么办法可以让这些部分也尽可能地有一个较为一致的视觉表现?所以,我们为小二端开发提供了一个轻量级的团队知识库(其实更多用在C端开发),以类Skill的形式封装了小二端开发的规范与代码模版,实现了无视开发工具,简单易用的公共知识库,通过公共知识库进行小二端AI开发的。请翻译:‘今天天气真好。
天猫新品营销技术团队AI编码实战指南(上)
完成需求后,可以重新梳理整个流程中的问题与可以复用的内容,进一步完成资产沉淀,这部分内容前期的生成和调整都会比较费劲,但是基本几个中型需求认真跑下来的沉淀,就可以覆盖很多日常开发的内容了,然后就可以逐步进入坐享其成的阶段。基于以上思路,还可以进一步设计视图分离的组件库,预设组件的事件,由调用方进行视觉组件的实现,完成事件的绑定,做到最大化的逻辑复用。重构过程中,也经常会遇到视图和逻辑绑定过深,无法复用视觉/逻辑代码的情况,这时候也可以直接让AI进行代码拆解,产出更加纯粹的逻辑/视觉组件。
面向电商直播场景的全模态大模型推理加速方案
最终在H20与RTX4090硬件上的实测表明,该方案在保证各模态任务精度损失控制在1.5%以内的前提下,实现了2.5倍至3.5倍的推理加速,且针对不同硬件特性总结出了FP8(H20)与W4A16(4090)的最优部署策略。然而,随着多模态大模型(VLM)的快速发展,引入了视觉、音频等多模态数据,这对整个大模型的推理系统是一个新的挑战。包括音频维度的语境感知ASR与多说话人分离,视频维度的商品时序切分与直播卖点提取,以及图像维度的商品空间定位与细粒度OCR,实现了对直播内容的全面解构。
淘天营销中后台生码工作流最佳实践
集团内的luna资产中心可以解决这类问题,但由于营销中后台公共组件、utils较多,全量迁移至luna成本较高,因此先通过一个资产使用指引Skill来包装各种资产的查询方式,内部调用各个平台(luna、codewiki、anpm)的开放接口,但实际执行过程中发现Agent的指令遵循度较差,常常弄错当前npm包应该调用哪个开放接口获取。淘天集团-营销前台技术团队。从更长远的视角看,随着AI能力的持续升级和私域知识库的不断沉淀,营销中后台的AI生码路径将朝着更高自动化程度、更低人工干预成本的方向持续演进。
800行代码实现 Open Claw 的 Tool、消息总线、子Agent管理架构
本文想说明的技术观点是对于Tool调用、消息分发、子Agent管理这三类Agent系统里的核心组件,优先采用薄抽象、显式控制流和贴近模型API的实现方式,往往比引入多层中间件更容易获得工程上的确定性。系统边界更清晰,运行路径更容易追踪,问题更容易定位,也更适合作为后续扩展Memory、调度和持久化能力的基础。业务上,我们负责88VIP、天猫积分、省钱卡、大会员、消费券等淘宝核心业务,同时支撑淘宝、千问、闪购等阿里业务的账号互联互通。用运行时普通对象定义,而非Zod等库。
MNN-Sana-Edit-V2:端侧运行的图像漫画风编辑大模型
MNN-Sana-Edit-V2是淘宝业务技术Meta团队联合杭州电子科技大学研发的端侧图像编辑大模型,该模型在参考Sana和Metaquery等学术界论文的基础上,基于文生图框架,创新性地增加了图像编辑功能,基于淘宝MNNLLM和MNNDiffusion的端侧量化部署能力,做到了所有模型本地运行,既能保护隐私,避免用户信息泄漏,又能做到快速运行,减少等待时间。具体来说,对预训练的LLM模型权重,我们采用了4Bit非对称量化,别的模型均采用8Bit非对称量化。
Codeindex · 让大模型更好地理解你的代码
针对代码量大、分支多及依赖关系复杂等痛点,Codeindex提供了代码语义化索引、检索以及函数依赖图生成能力。团队以前端、Weex、Native端的技术解决方案框架和研发模式不断完善自己,持续探索端智能等创新,打造极致的体验和工程技术,保障多端设备的适配和稳定运行,致力于让亿级规模的交付能够更丝滑、更稳定。总结一下上面的时序图,SDK内部会查询文件内部声明了哪些函数、函数内部有没有嵌套声明函数、函数内部调用了哪些函数、被调用的函数是来自内部声明还是外部引用。对Class内部的函。
卡片式对话的协议方案探索和思考
最终,文章提出了一套包含Markdown标记、消息传输、UI渲染及事件通信的四层统一协议体系,旨在解决Agent时代下多端一致性、数据实时性及跨团队协作混乱的问题,为构建高效、标准化的卡片式对话系统提供了落地的架构参考。一种可行的组合方式是:在MCPTool层使用MCPApps的绑定机制来管理Tool与UI的映射关系,同时用A2UI的JSONSchema作为UI描述的标准格式——这样既有Tool层的确定性,又有UI层的通用性。这种"自由"的代价是系统迅速碎片化。
淘宝动效解决方案分享
进一步看,动效体系的演进不应只是播放器或渲染技术的优化,更应是覆盖全链路的系统化升级,而AI将在其中发挥越来越重要的作用。本文提出了一套平台化、协议化、工程化的动效解决方案,覆盖设计(AE插件)、编辑(可视化画布SDK)、布局(align/group动态对齐与成组)、播放(H5/Weex跨端统一Player)、压缩(二进制优化)、代码生成(Lottie→Anime.js)及AI辅助(MCP协议动效Agent)全链路,解决碎片化、多端不一致、性能差、维护难等痛点,实现“一次制作、多端复用、智能可控”。
从全量启动到最小核: 手淘外链唤端链路的三次架构演进
对用户来说,体感最差的不只是"慢",还有"乱"——闪屏页长时间停留制造焦虑,首页闪现又消失让人困惑,目标页面的白屏等待更是将耐心消磨殆尽。但我们观察到,在启动任务执行期间,网络I/O能力几乎完全空闲——启动任务主要消耗的是CPU,而资源加载主要消耗的是网络带宽,两者天然适合并行。通过不断的探索和沉淀,我们的外链唤端架构经历了从全量串行到按需裁剪、从被动等待到主动预加载的演进过程,先后落地了标准链路、极简链路和最小核链路三代方案,最终将低端设备的唤端体感耗时从10s压缩到3s。
AI 答疑助手优化实践:从 RAG 到 LightRAG 的全链路升级
在全局性问题上,LightRAG的高级检索虽然不如GraphRAG的GlobalSearch那样有社区摘要的加持,但在我们的场景中已经足够用了——毕竟用户问的80%以上都是具体的技术问题,而非需要鸟瞰全局的综合性提问。当用户问"WebView的离线包加载流程是什么"时,系统首先通过向量相似度找到"WebView"和"离线包"相关的实体节点,然后提取这些节点的Value文本以及它们之间的关系描述,拼装为上下文。根据上一步推理出的每个步骤,分别生成对应的知识库查询关键词组。
告别“伪智能”代码:用 Spec + RAG 打造真正懂你的AI程序员
文章指出,单纯依赖大模型的自然语言理解往往导致代码生成不准确,而通过引入结构化的开发规范(Spec)作为明确指令,并配合RAG技术实时检索项目特有的代码库、文档和最佳实践,可以赋予AI真正的“项目感知力”。这种模式让AI从通用的代码生成器转变为懂业务、懂架构的专属程序员,显著提升了代码生成的准确性、可维护性及与现有系统的融合度,为构建高质量、低幻觉的AI辅助开发流程提供了切实可行的落地方案。(Specification,规范)是对软件系统行为、接口、数据格式或业务规则的精确、无歧义、可验证的描述。
淘宝跨端体验优化 AI 演进之路
在AI重塑终端体验与研发范式的浪潮中,我们正驱动终端智能化创新、构建AI赋能的研发新基建,寻找兼具工程深度与AI思维的伙伴共同定义下一代终端体验。通过知识萃取(文档、群聊、问题排查记录)等进行统一的解决方案&规则驱动沉淀,同时通过思维链学习,让体验优化Agent成为每个跨端同学最懂手淘体验的AI架构师。决JSE问题的采集、问题挖掘、代码修改的负向问题解决闭环。此时的AI基可以完成全托管独立完成采集到分析到修改的全链路体验优化了,也是目前所处的阶段,需要做的是进一步提升评测的分数跟准确性。
淘宝营销会场智能测试平台的AI落地实践
LLM、多模态、Agent在会场领域测试专项中落地通过串联复杂工具,多模态判断起到一定效果,但实际需求测试环节中需求理解、数据构造、测试用例识别(测试内容选择)上更多靠人工辅助判断。会场测试在“所见所得渲染验证、价格一致性、Tab/Feed交互、骨架/快照/终态对比、渠道投放一致性、内容异常发现”等多个维度,传统依赖人工肉眼和脚本、难以覆盖且易遗漏。在AIGC技术爆发、市场剧烈波动、技术栈快速迭代、模型架构多样化的行业背景下,我们在会场AI模型的业务会场测试中进行了一些探索。
从 Vibe Coding 到范式编程:用 Spec 打造淘系交易的 AI 领域专家
本文介绍了从“VibeCoding”向“范式编程”演进的技术路径,核心是通过结构化规范(Spec)驱动AI生成符合企业级标准的代码。文章以淘系交易系统为背景,指出当前AI编程工具因缺乏领域知识、上下文缺失和规范约束,导致生成代码不可靠、难维护;为此提出“范式编程”——将规范置于开发中心,结合知识库、知识点、疑问点机制与AIAgent,构建可沉淀、可复用、可演进的AI领域专家体系,实现从“人写代码”到“人机协同”的范式升级。前言凌晨两点,⼩丫同学盯着屏幕上Cursor⽣成的代码,第三次按下了删除键....
97.9%采纳率,胶水编程:业务需求出码最佳实践【天猫AI Coding实践系列】
这是一个典型的中后台业务需求,涉及列表、详情、状态机,复杂度适中但细节不少。它们的独立性体现在——答对任何一个,不保证其他三个也对:Agent可以理解需求但违反了团队禁用某依赖的规矩(缺开发规范),可以守规矩但文件组织混乱(缺代码模式),可以结构规整但踩了内部组件的坑(缺领域知识)。中后台需求虽然千变万化,但复杂度的来源是可枚举的:交互表达(非标布局、多弹窗)、数据逻辑(字段联动、状态流转)、后端对接(接口契约、嵌套结构)、业务规则(跨字段校验、计算逻辑)、异常处理(空状态、超时重试)。
拒绝“感觉有效”:用数据证明 AI Coding 的真实团队价值【天猫AI Coding实践系列】
通常是最后一次提交的commit。由于存在多对多关系(一个Task可能关联多个需求),各维度的汇总值不等于实际总消耗,但这种设计更符合业务分析的需要——产品经理关心的是「这个需求花了多少Token」,而不是「这个Token被几个需求共享」。业界有通用的评测基准(如SWE-bench),但通用基准解决不了具体团队的问题——以我们的中后台前端场景为例,存在多解性(同一需求有多种等价实现)、测试成本高(交互类需求难以自动化验证)、过程盲区(只看结果不看Agent是否查阅了正确资料)等核心差异。
知识基座:让“AI 越用越懂业务”的团队经验实践【天猫AI Coding实践系列】
该基座不仅让AI在代码生成、Bug修复和需求分析中能精准理解业务上下文,减少幻觉,还通过持续反馈机制实现知识的动态迭代,使AI随着团队使用不断“进化”,最终成为真正懂业务、能落地的智能研发伙伴,显著提升团队整体效能。内部知识存储按业务域进行物理隔离(通用、某跨境电商、业务域A、业务域D、业务域C、业务域B等),确保各业务线知识独立管理。当前已实现的V1指标包括:召回率(有结果查询占比)、零结果率(无结果查询占比)、平均返回数(每次查询返回条数)、知识召回次数(单条知识被引用频次)。
AI Coding前端实践后的复盘总结
通过实践,团队提炼出“人机协同”的最佳工作流:将AI定位为高效助手而非替代者,强调通过优化提示词(Prompt)、建立前端专属知识库及制定严格的代码审查规范来弥补AI的不足,最终实现研发质量与速度的双重提升,为前端团队规模化引入AI辅助开发提供了可复制的方法论。不需要懂高深的AI原理,只要掌握这些技巧,每个人都能成为AICoding的高效使用者。由于没有指定Agent使用相同组件,而是使用模糊的“保持一致”的描述,导致生成的代码仅仅是模仿了参考组件的样式,不仅生成的页面样式不够还原,Agent还会。
软件为何越做越乱?万字长文讲透软件的“复杂性”
本文通过一个电商系统“限时折扣”功能从快速上线到逐渐演变为复杂黑箱的典型案例,深入剖析了软件系统为何越做越乱的根本原因——复杂性的累积。文章指出,复杂性并非源于重大错误,而是由无数看似合理的小妥协(如随意添加开关、复制逻辑、临时补丁)层层叠加所致,最终导致变更放大、认知负荷加重、未知的未知增多。在此基础上,文章对比了“战术性编程”(追求短期交付速度,忽视设计)与“战略性编程”(以长期可维护性为目标,持续投入10%–20%时间优化架构)的本质差异,并系统阐述了管理复杂性的核心方法。作者强调:真正的开发速度来自
