logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

大语言模型推理能力全解析:从情感分析到主题识别,一行提示搞定NLP任务(附代码)

推理任务提示关键词输出示例情感二分类positive情绪列表愤怒检测yes or nono实体提取多任务联合完整 JSON主题提取零样本分类NASA: 1大语言模型的推理能力,让原本复杂的 NLP 任务变得像写一句话一样简单。你不需要再训练和部署多个模型,只需要掌握提示词的技巧,就能在几分钟内构建出实用的文本分析系统。下一步,你可以尝试将自己的业务数据(用户反馈、客服对话、新闻文章)代入这些提示模

#自然语言处理#语言模型#人工智能
告别信息过载:用大语言模型实现智能文本摘要(附代码)

在信息爆炸的时代,我们每天被新闻、邮件、文档、用户评论淹没。据统计,普通人每天接触的信息量相当于 174 份报纸。我们缺的不是信息,而是处理信息的时间。大语言模型(LLM)的文本摘要能力,正好解决了这一痛点。它可以在几秒内将一篇长文章压缩成几个关键句子,保留核心信息,过滤冗余细节。更重要的是,你可以通过调整提示词,让摘要聚焦于特定主题(如物流、价格、产品质量),甚至直接提取相关信息而非“创造”摘要

#语言模型#人工智能#大数据 +1
大语言模型提示工程实战:迭代式开发流程与技巧(附代码)

提示工程是迭代过程,不是一次性写作。第一次很少成功,没关系。从简单开始,逐步增加复杂性。先让模型做对核心任务,再添加格式、长度等要求。明确受众和目标,让模型知道为谁而写、关注什么。善用结构化输出(JSON、HTML、表格),便于程序解析和展示。批量评估是应用成熟后的进阶步骤,但不是早期必须。最后,记住这句话:“成为一名高效的提示工程师的关键,不在于知道完美的提示词,而在于拥有一个良好的流程,为你的

#语言模型#人工智能#自然语言处理 +1
大语言模型提示工程指南:两大原则与七大实战策略(附代码)

原则战术关键作用清晰具体分隔符明确边界,防注入清晰具体结构化输出便于程序解析清晰具体条件检查避免无效执行清晰具体少样本提示传递风格/格式给时间思考步骤分解降低复杂性给时间思考先自解后比较减少推理错误应对局限引用源文本缓解幻觉。

#人工智能#算法#自然语言处理
Ubuntu 20.04 Docker 部署 Ollama + DeepSeek-Coder:本地 AI 编程助手实战

✅ Docker 安装与国内镜像加速✅ Ollama 容器化运行,模型数据持久化✅ 下载并运行 DeepSeek-Coder 模型✅ Python 调用环境(LangChain + Chroma)✅ Git 与 Gitee SSH 连接这个环境不仅可以用作代码生成助手,还可以进一步扩展为本地知识库问答、代码审查工具等。所有数据都在你的机器上,安全可控。如果你使用的是 NVIDIA GPU,还可以尝

#ubuntu#docker#vscode +1
高度自主代理:从规划到多智能体协作的进阶指南

模式描述适用场景线性链A → B → C,顺序执行任务有明确的前后依赖,如研究→设计→文案层级/经理式一个经理代理调用其他代理,可动态决策任务复杂,需要根据中间结果调整后续步骤循环/迭代代理之间反复交互,如“写代码→执行→调试→重写”需要多轮反思和改进的任务广播/投票多个代理独立处理同一输入,然后汇总或投票需要多样性意见或容错的场景(较少见)规划和多代理系统是将代理式 AI 从“能做事”推向“能自

#人工智能#算法
代理式 AI 工作流实战:从“又快又糙”到高效迭代

构建代理式 AI 工作流不是写一次就成功的魔法,而是一套可复用的工程方法论快速原型:先跑通,再优化。观察与评估:用肉眼 + 轨迹发现问题,用最小评估集量化。错误分析:用电子表格统计,找出拖后腿的组件。组件级评估:为问题组件建立独立评估,加速迭代。针对性改进:根据组件类型选择策略(提示词、换模型、调参数、分解任务)。最后优化成本/延迟:当质量已达标后,再计时、计费、优化。最浪费时间的不是写代码,而是

#人工智能#算法
LLM 工具使用指南:从函数调用到代码执行与 MCP 标准

工具使用是 LLM 从“聊天机器人”进化为“代理”的核心能力。获取实时信息(时间、天气、股价)操作外部系统(发送邮件、修改日历、查询数据库)执行任意计算(通过编写代码)现代 API 和开源库(如 AI Suite)极大地简化了实现。而 MCP 标准则正在重塑整个工具生态,让开发者能像“插拔”一样集成海量工具。让 LLM 执行代码时,务必使用沙箱。安全是生产级应用的生命线。下一步,你可以尝试在自己的

#人工智能#大数据#数据库 +1
反思设计模式:让 LLM 通过自我批判迭代出更优结果

摘要:反思设计模式(Reflection Design Pattern)通过"生成→反思→改进"的循环提升大语言模型输出质量。相比直接生成,该模式能显著提高代码准确率(5-15%)、降低结构化数据错误率。关键技巧包括明确审查要求、提供评估标准、引入外部反馈(如代码执行结果)。评估时建议区分客观任务(用正确率)和主观任务(用评分标准)。实践应避免无限循环反思,推荐混合使用不同模型

#设计模式#人工智能#算法
Agentic AI 简介:智能体工作流原理、任务分解与评估方法

本文系统介绍Agentic AI(智能体AI)的核心概念。内容涵盖:智能体工作流的定义、自主程度光谱、性能收益、典型应用场景、任务分解方法、评估(evals)流程以及四大设计模式概览。适合希望从“直接调用LLM”进阶到“构建多步骤智能体系统”的开发者阅读。1. 什么是Agentic AI工作流定义:基于大语言模型(LLM)的应用通过执行多个步骤来完成一个任务的过程。写大纲 → 做研究 → 写初稿

#人工智能
    共 14 条
  • 1
  • 2
  • 请选择