
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
好了,以上就是我这两年在工作中总结的一些大模型使用技巧和Prompt示例,虽然有一些小瑕疵,但对我提高日常工作的效率确实很有帮助。所以我相信也会对你很有帮助。

2025年,AI赛道彻底点燃科技圈热度,国内外科技巨头集体加码布局,直接带动AI就业市场迎来爆发式增长。核心技术人才缺口持续扩大,薪资水平水涨船高,大厂翻倍薪资抢人已成常态。更值得关注的是,端侧AI市场即将突破万亿规模,催生出全链路招聘需求,核心技术岗平均月薪逼近7万。显然,AI红利期已全面到来,对于程序员、职场新人而言,深耕大模型、算法等核心领域,强化工程实践能力,正是抓住这波高薪风口的关键。

任何能通过传感器感知环境、通过执行器作用于环境的事物,都可称为智能体。小到扫地机器人,大到自动驾驶系统,都符合这一范畴。AI 智能体是利用 AI 实现目标、代表用户完成任务的软件系统,核心具备推理、规划、记忆三大能力,且能自主学习适应。维基百科对 LLM 智能体补充说明:纯 LLM 并非自主智能体,缺乏环境交互、记忆和规划能力,但通过添加角色设定、环境输入、记忆工具和行动规划,就能转化为智能体。简

任何能通过传感器感知环境、通过执行器作用于环境的事物,都可称为智能体。小到扫地机器人,大到自动驾驶系统,都符合这一范畴。AI 智能体是利用 AI 实现目标、代表用户完成任务的软件系统,核心具备推理、规划、记忆三大能力,且能自主学习适应。维基百科对 LLM 智能体补充说明:纯 LLM 并非自主智能体,缺乏环境交互、记忆和规划能力,但通过添加角色设定、环境输入、记忆工具和行动规划,就能转化为智能体。简

大模型推理工程师的技能清单:从入门到进阶的全方位指南(建议收藏)

你在写prompt时候,是不是总觉得大模型它不听话。要么答非所问、要么一堆废话。扒开思考过程仔细阅读时而觉得它聪明绝顶,时而又觉得它愚蠢至极。明明已经对了怎么又推理到错的地方去了,明明在提示词中提醒过了不要这么思考它怎么就瞎想了。这也许就是每一个Prompt Engineer的困扰。怎么能让模型按照要求去思考。长提示词到底应该怎么写,有没有方法可以一次命中,找到那个终极的提示词。答案是否定的,一篇

本文全面介绍了智能体(Agent)的核心概念、工作原理与架构设计,详细解析了PEAS模型、智能体循环和提示工程等基础内容,对比了ReAct、Plan-and-Solve和Reflection三种主流智能体架构,并对AutoGen、AgentScope、CAMEL和LangGraph等框架进行了深入分析。同时,文章还探讨了模型参数调优方法、低代码开发平台和本地推理工具,为开发者提供了构建高性能智能体

面对这场不可逆的技术洪流,Gawdat提出的三个“保命技能”,对程序员群体同样适用,每一个都指向“人类独特性”与“技术纵深”,而非“与AI比拼效率”:首先,做AI的“主人”而非“工具人”。对程序员而言,关键不是学会某一款AI代码工具的操作方法,而是培养“AI协同开发思维”——比如用Copilot时,不是被动等待生成代码,而是用“业务场景拆解+技术选型逻辑+代码优化需求”精准引导AI,形成专属高效开

面对这场不可逆的技术洪流,Gawdat提出的三个“保命技能”,对程序员群体同样适用,每一个都指向“人类独特性”与“技术纵深”,而非“与AI比拼效率”:首先,做AI的“主人”而非“工具人”。对程序员而言,关键不是学会某一款AI代码工具的操作方法,而是培养“AI协同开发思维”——比如用Copilot时,不是被动等待生成代码,而是用“业务场景拆解+技术选型逻辑+代码优化需求”精准引导AI,形成专属高效开

RAG是一种革命性的AI框架,它将检索式模型的“信息获取能力”与生成式模型的“语言生成能力”完美结合。通俗来说,RAG就像是一位经验丰富的助理,它不仅能通过数据库或网络找到最相关的资料,还能用最自然流畅的语言将这些信息呈现出来。RAG的核心目标是增强LLMs的上下文理解能力,解决传统语言模型在实际应用中常遇到的“脱离语境”问题。例如,当用户提出一个复杂问题时,RAG不仅能准确解读问题,还能从外部知








