logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

AI开发和重塑程序员的价值-核心竞争力-技术债务

摘要: 在AI重构开发范式的时代,技术焦虑催生核心竞争力新思考。开发语言已演变为场景驱动的工具集(Python/Java/Go/Rust/JS各司其职),AI工具(Cursor/通义灵码/Copilot)则从编码助手升级为思维伙伴,扩展开发者认知边界。核心公式揭示:竞争力=(业务洞察力×系统思维×AI协作效率)/技术债务。开发者角色正转向“系统设计者”,需深耕领域知识、设计人机流程、强化价值判断与

文章图片
#人工智能
AI开发AI体系AI架构-感性篇-方便理解-SKILL入门

摘要:本文系统阐述了AI技术栈的协同设计与交互能力优化方案。核心技术层包括:1)训练构建基础能力;2)微调塑造专业领域技能;3)RAG实现精准知识检索;4)长文处理提供大容量工作记忆。在此基础上,重点提出"技能反问能力设计",通过任务分解、歧义消除、格式确认等五种交互模式,使AI具备主动澄清用户意图的智能协作能力。文章构建了完整的系统提示词框架,展示如何将底层技术能力与顶层交互

文章图片
#人工智能#架构
从对话大脑到万能助手:企业级AI助理五层AI架构实战指南-AI开发架构AI体系理性分层篇

本文提出企业级AI助理的五层架构体系,从传统四层模型中心架构演进为现代工具驱动架构。五层包括模型层(基础大脑)、协议层(标准化工具接口)、工具与资源层(扩展能力)、编排与执行层(任务分解与智能反问)、应用与接入层(多模态交互)。重点阐述了协议层(MCP)的解耦价值和智能反问机制的设计原则,通过销售分析案例展示了五层协同工作流程。该架构将AI从信息处理者转变为任务执行者,实现与企业系统的深度融合,降

文章图片
#人工智能#架构
AI智能体全栈开发工程化规范 备忘 ~ fastAPI+Next.js

本文提出了AI智能体全栈开发的工程化规范,采用Skill-Centric设计体系,将功能模块化为独立技能单元。规范详细说明了基于FastAPI的后端架构,包含API网关层、智能体服务层和数据存储层,并重点介绍了自动生成TypeScript客户端的方法,确保前后端类型安全与编码一致性。文章还涵盖了开发工作流、监控保障及部署运维的最佳实践,为AI智能体开发提供了完整的工程化解决方案。

文章图片
#人工智能#fastapi#javascript
2026复习shell模板 - 以及shell不同场景shell脚本和语法复习

本文提供了一个实用的Shell脚本模板,包含两个版本:简单版适用于日常运维任务,加长版具备更完善的错误处理和日志功能。两个版本都采用严格模式(set -euo pipefail)确保安全性,包含自动日志记录、参数解析、帮助文档等核心功能。加长版额外增加了锁机制防止重复执行、信号捕获、彩色日志输出、依赖检查等高级特性。脚本模板结构清晰,配置区与业务逻辑分离,可直接用于服务器检查、监控和维护等场景。使

文章图片
#linux
2026复习shell模板 - 以及shell不同场景shell脚本和语法复习

本文提供了一个实用的Shell脚本模板,包含两个版本:简单版适用于日常运维任务,加长版具备更完善的错误处理和日志功能。两个版本都采用严格模式(set -euo pipefail)确保安全性,包含自动日志记录、参数解析、帮助文档等核心功能。加长版额外增加了锁机制防止重复执行、信号捕获、彩色日志输出、依赖检查等高级特性。脚本模板结构清晰,配置区与业务逻辑分离,可直接用于服务器检查、监控和维护等场景。使

文章图片
#linux
AI大模型部署大模型 -为什么要部署这么多大模型-实战篇

本文介绍了一套国内最低成本部署大模型的技术方案,总月成本约350-550元。方案分为三条主线:1) 使用腾讯云轻量服务器(48元/月)通过Docker部署Dify应用;2) 在AutoDL租用RTX 3090 GPU(约300-500元/月)运行Ollama加载DeepSeek或Qwen模型;3) 在同一GPU实例上部署Xinference处理向量模型。文章详细说明了各组件选择原因、具体部署步骤和

文章图片
#人工智能#transformer
AI大模型部署大模型 -为什么要部署这么多大模型-前言篇

本文针对公司大模型部署需求,用通俗易懂的比喻解释了多组件协同部署的必要性。将Ollama比作"预装AI大脑"用于快速测试,Xinference比作"企业服务器"提供生产级服务,Dify比作"可视化组装平台"整合应用。通过"AI工厂"的类比,说明不同云平台的分工策略:腾讯云部署前端(贵但稳定),AutoDL运行核心模型(

文章图片
#人工智能#transformer
AI从“我=I”到“关系计算”:Transformer入门指南-理解疯狂计算关系的Transformer

**摘要:《Transformer入门:从疯关系计算到AI革命》**本文深入浅出地解析了Transformer这一颠覆性架构。它最初为机器翻译而生,核心在于“疯狂计算关系”:不同于传统模型的线性处理,Transformer让句子中的所有字词同时“对话”,通过自注意力机制动态计算彼此关联强度,形成全局理解网络。文章用“引力场”、“交响乐”等比喻形象化其工作原理,并拆解了向量化、注意力、残差连接等关键

文章图片
#人工智能#transformer#深度学习
ai开发 名词解释-概念理解-LLMs(大语言模型)Chat Models(聊天模型)Embeddings Models(嵌入模型).

本文解析了LangChain框架中的三大模型组件(LLMs、聊天模型、嵌入模型)的技术关系。三者虽然都基于Transformer架构,但因训练目标不同而分化:嵌入模型专注文本向量化,LLM专注文本生成,聊天模型优化对话交互。LangChain将这些独立发展的技术整合为统一接口,类似将不同功能的"工具刀"包装成标准化工具集。实际部署时可独立运行也可混合部署,轻量方案可共享服务器资

文章图片
#人工智能#语言模型#自然语言处理
    共 57 条
  • 1
  • 2
  • 3
  • 6
  • 请选择