logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

30分钟让AI学会“说人话“:保姆级模型微调教程,无需写代码

想象一下这个场景:你花大价钱接入了最新的大模型API,想让它帮公司客服回答用户问题。结果用户问"咱们家的XR-2000支持哪些协议",AI一脸懵逼地回答"我不太清楚XR-2000的具体规格……"又或者,你是个中医诊所老板,想让AI帮患者做初步问诊。结果AI用大白话说"你可能有点发炎",完全不符合中医的话语体系,患者根本不信任。怎么办?今天,我就带你用30分钟,把一个通用AI模型,训练成"会说你家行

文章图片
#人工智能#安全#自然语言处理 +1
AI自动画界面?Google这个开源神器让前端工程师失业了

Google开源框架A2UI让AI具备自动生成交互界面的能力,仅需自然语言描述即可生成包含表单、图表等组件的完整UI。该系统通过AGUI管理AI通信,A2UI规范UI生成标准,最终输出安全的JSON蓝图,可由多种渲染器实现跨平台展示。案例显示30秒即可搭建餐厅查找应用,支持动态更新。该技术将大幅提升原型开发效率,降低AI应用门槛,使开发者更专注于业务创新而非重复编码。目前项目已开源,支持Web、移

文章图片
#人工智能#深度学习#transformer +1
搭建AI系统就像盖房子:从地基到屋顶的完整技术栈指南

摘要:构建AI系统如同建造房屋,需要完整的五层技术栈:1)硬件基础设施(本地/云端/本地设备部署);2)模型选择(开源/专有、大小模型、通用/专业);3)数据层(RAG技术实现知识更新);4)编排层(多步骤智能工作流);5)应用层(用户体验设计)。文章以药物研发AI助手为例,强调系统性能由最短板决定,需平衡质量、速度、成本和安全四大指标。理解完整技术栈是构建实用AI系统的关键,各层协同才能打造真正

文章图片
#人工智能#深度学习#transformer +1
Google花9小时教的提示工程,我用一篇文章讲透了

AI Agent正在实现从"会说话"到"会干活"的革命性跨越。相比传统LLM只能提供建议,AI Agent通过记忆功能、API调用和目标驱动机制,能够自主完成复杂任务。MCP协议作为"万能插头",解决了不同API对接难题,使AI Agent能即插即用各种服务。Agent间协作模式进一步扩展了能力边界,让专业AI各司其职。从软件开发到数据分

文章图片
#人工智能#性能优化#语言模型
从Vibecoding到Qwen3 Coder:开启编程新视界

**摘要:**Vibecoding(氛围编程)通过自然语言与AI交互实现编程,显著降低开发门槛。阿里开源的Qwen3 Coder采用480B参数和MoE架构,支持256K token上下文,展现出卓越的代码生成能力。实测显示,该模型在简单Web开发和复杂算法任务中表现优异,代码质量高,语法准确率达98%以上。与GPT-4.1和Claude 4相比,Qwen3 Coder在效率和质量上具有竞争力,为

文章图片
RAG、In-Context Learning、微调:如何选择最适合你的AI技术方案?

AI技术选型指南:RAG、In-Context Learning与Fine-tuning的对比与应用 本文深入分析了三种主流AI技术方案的差异与适用场景: RAG(检索增强生成):适用于模型能力足够但缺乏背景知识的场景,适合处理动态更新的外部数据,但需注意检索质量和知识库更新问题 In-Context Learning:通过Prompt示例激发模型能力,适合快速验证和小规模应用,但Prompt过长

文章图片
#人工智能#分布式#transformer +1
从0到1学LangGraph:解锁核心组件

文章摘要 LangGraph是由LangChain团队开发的开源框架,专为构建状态化、多代理系统设计。其核心组件包括Graph(图结构)、State(状态容器)、Nodes(功能节点)和Edges(节点连接)。Graph作为"协作网络"呈现工作流程;State记录运行时的关键数据;Nodes执行特定任务;Edges定义执行路径。这些组件共同支持循环、持久性和人工干预等特性,突破

文章图片
全量微调 vs LoRA:一篇文章彻底搞懂参数高效微调

发现模型在某方面能力不足通过训练更新模型参数得到能力提升的新模型微调本质:学习参数的改动量Δ全量微调:学习所有参数,资源消耗大LoRA灵感:参数改动存在冗余性微调悖论:我们希望改动有限,避免遗忘矩阵分解:用两个小矩阵近似大矩阵Rank参数:控制信息量和参数量的平衡资源节省:可降低90%以上的成本。

文章图片
#人工智能#语言模型#自然语言处理
解锁JoyAgent:大模型时代的智能新利器

在文本格式页签下,选择自定义,然后单击下一步;输入文档名称,然后单击确认;点击刚刚创建好的文件标题或单击编辑按钮进入自定义文件编辑页面;单击新建,在弹出的页面输入要上传的内容(每个分段最多可添加 2000 个字符);最后单击保存。

文章图片
#人工智能
一文了解Deepseek系列中的MLA技术

本文系统梳理了从多头注意力机制(MHA)到DeepSeek MLA的技术演进路径。首先介绍了MHA的基本原理和KV Cache优化技术,分析了MQA/GQA通过共享KV降低显存占用的思路。重点解析了MLA的创新点:通过矩阵分解将KV缓存降维,利用矩阵吸收技术避免推理计算量增加,并解决了与RoPE位置编码的兼容性问题。最后通过案例对比了有无KV Cache的推理效率差异,展示了显存优化对推理性能的重

文章图片
#深度学习#transformer#人工智能
    共 174 条
  • 1
  • 2
  • 3
  • 18
  • 请选择