Loading...

分享一下我对好代码的理解
商业能力扩展、域扩展,在执行回收结果的时候,会遍历实现的插件,并结合回收规则,进行及时的熔断。于每一步棋来说,我们只能看到局部的影响(受限于我们能想到后面几步),当我们事后站在全局的角度看,有可能的“平平无奇”的一步却起着关键性的作用。闭原则,在面向对象编程领域中,规定“软件中的对象(类,模块,函数等等)应该对于扩展是开放的,但是对于修改是封闭的”,这意味着一个实体是允许在不改变它的。我们渐渐从单一的完成任务,开始思考如何更好地完成任务,从短期的设计开始考虑长期的感受,从单一的指标开始考虑更多的因素,

深入聊聊RAG
日常我们会比较多的把RAG当成一个黑盒,输入是我们沉淀的文档,输出可能是整个AI应用反馈的最终结果(如下图所示),这样的方式下,我们可能可以收获一定的初期收益,但是当要持续优化或者扩展使用场景的时候,可能会缺乏评估和应对的方式,比较难去定位问题,因此也不太能说清楚当下链路的诉求,最后所对应的action也可能会偏离比较大。),中文的处理可以找相应的中文embedding模型,但是不是所有语言都有对应的编码模型,因为语种太多,同时如果一些语种对应的数据语料太少,不足以训练这样的一个模型。

Jsonnet 一种“新”的Json数据转换工具
这个优化后的AST将会在sjsonnet内部进行缓存,后续针对同一个输入的jsonnet脚本,将直接返回这个优化后的AST,从而避免了重复解析和优化的过程,这也是sjsonnet性能非常好的原因之一。该场景虽然很好的满足了项目的需求,但是对于更加灵活的场景却显得有点捉襟见肘。onlanguage),主要用于:生成数据(json、yaml、ini等),同时,jsonnet也是json的超集,一个合法的json就是一个合法的jsonnet程序,并且带有完整的IDE和。

一位Cursor深度用户的原理探析与实验验证
用Cursor久了,在写完提示词按下回车的那一刻,我们能猜到这个任务是否能被Cursor自动完成。用本文所讲的原理来分析,如果有个任务,能在较短的提示词中被直接描述清楚,或是让Cursor有线索在几步之内找到所需的上下文,那这样的任务就很有希望能被自动完成。接下来,我们在CursorIDE中做若干操作,观察Cursor后台服务和大模型的交互过程。从Cursor的提示词中,我们能看到它能使用工具的列表。仅用如此普通的工具,就能取得如此惊艳的效果,基模的能力至关重要。

淘宝购物车拖拽功能的思考与实践
本文深入剖析了购物车拖拽功能的技术实现路径,在复杂业务场景下通过精细化控制、合理架构分工与细节体验打磨,实现了高效、稳定、流畅的用户交互体验。功能演示拖拽演示Weexdemo购物车场景为什么需要拖拽?▐2.1购物车功能&分组与拖拽的关系购物车作为用户准备购买的商品集合,承担着展示+管理的功能。上述管理操作都是针对单一商品,为了丰富对于所有购物车商品的管理形式,在iCart版本新增了和店铺并列的分组概念。允许用户把不同店铺内的不同商品放置在同一个区块内,提升勾选、凑单、结算的效率。

MNN LLM Chat iOS 流式输出优化实践
团队在端智能、端云协同、商品三维重建、真人三维重建、3D引擎、XR引擎等方面有着深厚的技术积累,先后发布深度学习引擎MNN、商品三维重建工具ObjectDrawer、3D真人数字人TaoAvatar、端云协同系统Walle等。最终,我们通过底层增加缓冲输出,中层合并更新请求,UI层提供视觉缓冲——这三层配合实现了从技术优化到体验优化的完整覆盖,提升整体性能和体验效果。综上,结合三层的优化,通过以上多层协同优化方案,我们成功地将一个卡顿、生硬的文字输出体验转变为流畅、自然的现代化AI交互界面。

万字长文解码如何玩转Prompt(附实践应用)
在AI技术迅猛发展的今天,如何与大型语言模型高效“对话”已成为释放其潜力的关键。本文深入探讨了提示词工程(PromptEngineering)这一新兴领域,系统解析了从基础概念到高级技巧的完整知识体系,并结合“淘宝XX业务数科Agent”和科研论文深度学习两大实战案例,揭示了高质量提示词如何将AI从“工具”升级为“智能协作者”。无论你是初学者还是实践者,都能从中掌握让AI真正为你所用的核心方法论。引言:新范式下的“对话”艺术与科学我们正身处一个由大型语言模型驱动的AI新纪元。从GPT-4到Deepseek

大模型驱动SPU
本文围绕SPU(标准化产品单元)的演进与挑战,系统分析了当前SPU在定义、生产、审核和数据治理方面存在的核心问题,如SPU定义与商品类目强耦合、数据质量不及预期、审核效率仍有提升空间、存在同质化数据等。为应对这些问题,文章重点介绍了通过引入AI/大模型技术,在SPU生产、审核与治理链路中的实践成果,包括算法生成SPU、机审辅助、外包审核流程优化及数据质量提升,并推动了商品托管等应用场景落地。针对产品信息不完整问题,在现有属性不调整情况下,将商品属性、服务属性、资质属性均纳。收敛新增权限,建设新品发布。

淘宝交易前端AI生码技术的创新实践
DesigntoCode是一种通过设计稿(Done、PSD、MasterGO、Sketch等)生成代码(html、css)的技术,理想的状态下,前端工程师可以靠它从繁杂的设计稿UI实现中解放出来,更多精力可以投入到其它对业务更重要项目中。为了彻底解决这个问题,我们想从设计稿拿到750px的图片,直接进行上传,这是我们选择开发一个设计稿插件的原因之一。设计稿的复制功能,再去钉钉粘贴下载,最后去OneDay图片缩放插件进行缩放,这样获得的图片可以解决手动截图导致的边框问题,但是还是需要我们进行缩放,

Web Agent大对决:你的AI浏览器理想型,会是哪一个?
可以看到除ChatGPTAgent外,其他三款产品均未参与或公布标准化基准测试结果,ChatGPTAgent以90分的总分领先,Fellou获得52分位居第二,而Comet和Dia的评分均低于20分,反映了严重的数据透明度不足问题,反映了WebAgent行业在评测标准化方面的不成熟。团队支撑的业务能力覆盖电商全链路,从产业分析到智能运营决策,从商家经营自动化到生态创新,从行业消费者体验提升到产业链模式创新,覆盖了服饰、快消、消电、企业服务等各个行业,构建着智能驱动的商业革新引擎。

基于智能体的自适应测试系统 - 淘工厂实践
我们需要让他在这个流程中承担什么任务/解决哪类问题(角色定位),在原有基础上具备哪些专业知识(知识库)、如何解释手头任务并布置给他(提示词)、如何正确的思考并接受反馈改进(提示词)、可以使用的工具及资源(工具调用),随着时间推移,他经历的多了、收录过往的case多(补充沉淀知识库),这位应届生也会变得越来越专业,能力越来越强。从执行结果、过程日志分析提炼,结合部分人工标注结果,评估分析、并实现经验回流和用例沉淀,回补到各域以及对抗助手的正负向向知识库,同时,不断沉淀该域的用例,自我完善。

聊聊AI Coding
VibeCoding,翻译是“氛围编码”(感觉蛮贴切),本质上是一种我们使用AI能力进行编码的方式,在这个模式下,我们把AI当成一个回答问题的机器,我们描述我们的诉求,让它帮我们写一段可运行的符合诉求的代码,如果产出的版本有问题(不符合诉求或者是运行错误),我们会根据相关的反馈(编译器、运行时错误、诉求差异点描述)重新调整我们的prompt,让AI进行迭代优化,直到解决问题为。更高效的做法是,对这个问题做一定的解读,可以a、针对该问题通过进一步的提问来帮助AI快速定位和解决;可能有一些不同的声音;

RLHF技术实践:大语言与文生图模型的生成优化
最后,我们以「家作」的“场景模特”功能为例,展示了如何通过RLHF技术,有效优化模型的生成效果,显著降低图像中肢体异常的概率,从而提升用户体验。首先我们把大量的prompt(OpenAI使用调用GPT-3用户的真实数据)输入给第一步得到的语言模型,对同一个问题,可以让一个模型生成多个回答,也可以让不同的微调(fine-tune)版本回答。相较于仅依赖固定标签的监督学习,RLHF通过引入相对偏好而非绝对标准答案,赋予模型更强的探索空间,有助于突破标注者能力的上限,从而潜在地实现更高水平的智能表现。

NL2SQL:从自然语言到SQL的智能转换技术深度解析
通过利用这些SQL查询缺陷中的线索,进行一定程度的修正。在实际应用中,基于与架构相关的上下文、生成的SQL查询以及执行结果(包括潜在的错误信息),可以使模型能够进行第二轮的修正。可以通过知识库的方式解决,另外一方面也有一些数据库层面提供的解决方案,比如阿里的PolarDB提供了「配置表」功能,通过全局生效的固定表名,存储了诸如「问题文本条件判断」、「问题处理」、「问题补充与具体业务/概念相关的信息」等前置文本转换功能,「模型生成的SQL条件判断」、「处理SQL,用于对业务逻辑中的值映射进行强制处。

如何利用多模态大模型进行淘宝商品理解?
例如对于类似这样的尺寸标注,我们需要的是1.5m款式床的宽度,图中出现了两个可能的选项,是床头的1.6m,床尾的1.5,以及其他的一些干扰尺寸,例如1.8m和1.9m,这些干扰尺寸来自其他款式的干扰,由于我们需要的是该具体款式实际占地尺寸,因此我们需要的是1.6m这个尺寸数据。具体到尺寸提取这个任务上来说,其实我们最终需要的结果也是精确且客观定义的,这个特性使得我们非常适合使用强化学习的方式来帮助我们提升能力,我们只需要关注最终结果的正确性,而中间的思考过程可以由模型自行发挥,而不去做显式的监督。

面向互联网2C业务的分布式类Manus Java框架
文章从背景出发,分析了当前主流Agent架构(如Manus、字节TARS、AutoGLM)存在的问题,如云虚拟机架构的数据孤岛问题、本地化Agent架构的响应速度与安全性不足等,进而提出了一种结合分布式服务端与异构C端的混合架构。至于训练数据,模型优化这些深度算法向的东西,可以在业务证明大方向上价值之后,基于平台系统的辅助下积累的线上数据和评估能力,半自动化地蒸馏优化,甚至引入专业算法团队去提升。产生的效果也是有巨大差异,而且他自己能快速的体验迭代,这比中间加一个研发去翻译,效率是无与伦比的。

我的Cursor编程实践经验分享
通过近两个月的实践,在编程中,cursor的表现取决与有效的Rules+正确的开发流程+标准的Prompt。经过这段时间的实践,在编程领域Cursor做的很不错,在一些比较大的需求上,表现的效果不稳定,比如技术方案需要参考业界已有的优秀案例为参考,能设计出有水平的技术方案,业界对这部分的定义称为-深度研究。在我们日常引用到内部的文档比较麻烦,可能需要把文章下载为md文档,在加载到cursor中,使用该MCP可以直接使用,不需要来回转换,比较便利,这个是我们前端的团队同学开发的mcp。

200行极简demo - 学习如何手搓一个ReAct Agent
依托淘宝APP亿级流量入口的核心购物场景,通过持续的技术突破与前沿AI科技深度融合,沉淀出GearsAI、供应链数字分身等AI时代研发与运营基础设施,让商家、小二实现更高效、低成本的经营。我们终于认识了ReAct的核心——“思考(Thought)-行动(Action)-观察(Observation)”循环的真正含义,同时也对ReAct的关键实现有了更深入的理解。小结:在上述例子中,用户一共说了2句话,Agent回复了2句话,但大模型分别调用了1次、3次。通过一步步的实现和推演,

2023-2025大模型领域2年发展综述
MoE模型则代表了技术前沿,以极致的规模和性能吸引高端用户和研究者,这种双轨并行的产品线,让Qwen能够在不同的细分市场中都保持竞争力,尤其是二次开发的衍生模型,Qwen一直在HF都是排名第一的衍生模型,大量的科研和二次开发都是基于Qwen2.5,用LLaMA的越来越少。按这个模式,模型的总参数量可以急剧增加(比如R1直接到671B的总参数量),但每次前向传播(即推理)时实际激活的参数量和计算量(FLOPs)却只占一小部分(比如R1实际上只激活37B),从而实现了经济的训练和高效的推理。

解析3种AI应用模式:核心技术拆解与工程实践
推理模型和传统的生成式语言模型的差别在于,传统的生成式语言模型在收到Prompt后就会马上生成,如果生成出现错误或者质量不好,是没机会纠正的,只能继续生成下去或者后续纠正继续生成,但是推理模型可以在向用户输出内容之前,会先输出思维链(ChainofThought),对输入的Prompt思考验证完成后,再开始生成。这意味着以前在提示词中加入COT的方式已经没必要了,也不需要复杂的角色扮演、示例,因为COT的存在,推理模型的“智能”程度高了很多,不需要角色设置、示例也能很好的理解和跟随指令。

欢迎留下您的脚印