吴恩达亲授:提示词高级心法,从 “普通” 到 “精准” 的秘诀
大模型学习捷径:懒提示与零基础入门 【懒提示技巧】吴恩达提出"懒提示"(Lazy Prompting)新方法:先快速写简单提示,根据输出质量再补充上下文,类似编程中的懒加载。适用于能快速评估输出的场景,但需注意:1)确信无额外上下文无法解决时不用;2)缺陷难检测时不用。这是掌握充分上下文后的高级技巧。 【学习建议】零基础学习大模型不必畏难: 从实践入手,直接与模型对话体验 掌握
文章介绍了"懒提示"(Lazy Prompting)这一大模型交互的高级技巧,主张先快速写简单提示,根据输出质量再决定是否补充上下文,而非一开始就提供完美详尽的提示。这种方法类似于编程中的"懒加载",适用于能快速评估输出质量的场景。作者强调"懒提示"是建立在掌握足够上下文基础上的高级技巧,不适用于所有情况,特别是确信无额外上下文无法解决或有缺陷实现难检测的场景。核心观点是与AI交流应如同人与人之间的沟通自然进行,不必过度设计提示词。
前排提醒!文末有大模型CSDN独家资料包,看到最后别错过哦~
写提示词的心得
很早就想写文章,说说提示词该如何写,有什么高级的招式,我做了表格,设计了图。但每次要动手的时候,我发现要说的越来越少,直到没什么要说的。
到现在,如果说写提示词有最好的技巧,就是立刻开始提问,在提问的过程中,修正方向。模型越来越强,强的点在于:TA 大多数时候比我们都了解一件事该如何做到及格线以上。
那我们怎么能知道呢?去问、多问。
这样做有一个默认的前提,是我知道 context,但又不是十分明确是否需要——进而通过小步快跑,调整模型的输出。
所以,我觉得,提示词是什么呢?就是没有提示词。我们如何给另外一个人、给下属、给同事交代清楚一件事,就这样去和 AI 交流。
所以,我认为提示词是没有什么方法,自然也就没有什么“名词”来命名“不存在”的方法。
直到我阅读到吴恩达老师最近的推文(见后面的正文),真的有共鸣,而且名字起的非常好。Lazy Prompting——懒提示。程序员们都知道懒加载,就是直到明确要用了才加载。
提示词也是,直到真的要用了再写。
正文
Contrary to standard prompting advice that you should give LLMs the context they need to succeed, I find it’s sometimes faster to be lazy and dash off a quick, imprecise prompt and see what happens. The key to whether this is a good idea is whether you can quickly assess the output quality, so you can decide whether to provide more context. In this post, I’d like to share when and how I use “lazy prompting.”
与标准提示建议相反,标准建议是应该给大语言模型(LLMs)提供成功所需的上下文,但我发现有时候偷懒一下,快速写一个不太精确的提示,看看会发生什么,这样做更快。这种做法是否合适的关键在于你能否快速评估输出质量,从而决定是否需要提供更多上下文。在这篇文章中,我想分享我何时以及如何使用"懒提示"。
When debugging code, many developers copy-paste error messages — sometimes pages of them — into an LLM without further instructions. Most LLMs are smart enough to figure out that you want them to help understand and propose fixes, so you don’t need to explicitly tell them. With brief instructions like “Edit this: …” or “sample dotenv code” (to remind you how to write code to use Python’s dotenv package), an LLM will often generate a good response. Further, if the response is flawed, hopefully you can spot any problems and refine the prompt, for example to steer how the LLM edits your text.
在调试代码时,许多开发人员会将错误信息——有时是好几页——复制粘贴到LLM中,而不提供进一步的指示。大多数LLM都足够聪明,能够理解你想要它们帮助理解并提出修复方案,所以你不需要明确告诉它们。使用简短的指令,如"编辑这个:…“或"sample dotenv code”(提醒你如何编写使用Python’s dotenv包的代码),LLM通常会生成良好的响应。此外,如果响应有缺陷,希望你能发现任何问题并完善提示,例如引导LLM如何编辑你的文本。
At the other end of the spectrum, sometimes I spend 30 minutes carefully writing a 2-page prompt to get an AI system to help me solve a problem (for example to write many pages of code) that otherwise would have taken me much longer.
另一方面,有时我会花30分钟仔细撰写一个2页长的提示,让AI系统帮助我解决一个问题(例如编写许多页的代码),否则这将花费我更长的时间。
I don’t try a lazy prompt if (i) I feel confident there’s no chance the LLM will provide a good solution without additional context. For example, given a partial program spec, does even a skilled human developer have a chance of understanding what you want? If I absolutely want to use a particular piece of pdf-to-text conversion software (like my team LandingAI’s Agentic Doc Extraction!), I should say so in the prompt, since otherwise it’s very hard for the LLM to guess my preference. I also wouldn’t use a lazy prompt if (ii) a buggy implementation would take a long time to detect. For example, if the only way for me to figure out if the output is incorrect is to laboriously run the code to check its functionality, it would be better to spend the time up-front to give context that would increase the odds of the LLM generating what I want.
如果(i)我确信LLM在没有额外上下文的情况下不可能提供好的解决方案,我就不会尝试懒提示。例如,给定一个部分程序规范,即使是熟练的人类开发者是否有机会理解你想要什么?如果我绝对想使用特定的PDF转文本转换软件(比如我的团队LandingAI的Agentic Doc Extraction!),我应该在提示中说明,因为否则LLM很难猜测我的偏好。如果(ii)有缺陷的实现需要很长时间才能检测出来,我也不会使用懒提示。例如,如果我判断输出是否不正确的唯一方法是费力地运行代码来检查其功能,那么最好提前花时间提供上下文,这样会增加LLM生成我想要内容的几率。
By the way, lazy prompting is an advanced technique. On average, I see more people giving too little context to LLMs than too much. Laziness is a good technique only when you’ve learned how to provide enough context, and then deliberately step back to see how little context you can get away with and still have it work. Also, lazy prompting applies only when you can iterate quickly using an LLM’s web or app interface. It doesn’t apply to prompts written in code for the purpose of repeatedly calling an API, since presumably you won’t be examining every output to clarify and iterate if the output is poor.
**顺便说一下,懒提示是一种高级技巧。平均而言,我看到更多的人给LLM提供的上下文太少而不是太多。****懒惰只有在你已经学会如何提供足够的上下文,然后有意识地后退一步,看看你可以用多少少的上下文仍然能让它工作时,才是一种好的技巧。**此外,懒提示仅适用于你可以使用LLM的网页或应用界面快速迭代的情况。它不适用于为了重复调用API而在代码中编写的提示,因为如果输出不佳,你可能不会检查每个输出以澄清和迭代。
Thank you to Rohit Prsad, who has been collaborating with me on the open-source package aisuite, for suggesting the term lazy prompting. There is an analogy to lazy evaluation in computer science, where you call a function at the latest possible moment and only when a specific result is needed. In lazy prompting, we add details to the prompt only when they are needed.
感谢与我在开源包aisuite上合作的Rohit Prsad,他提出了"懒提示"这个术语。这与计算机科学中的懒惰评估类似,即你在最后可能的时刻调用函数,且仅在需要特定结果时才调用。在懒提示中,我们只在需要时才向提示添加细节。
零基础如何学习大模型
读者福利大放送:如果你对大模型感兴趣,想更加深入的学习大模型**,那么这份精心整理的大模型学习资料,绝对能帮你少走弯路、快速入门**
如果你是零基础小白,别担心——大模型入门真的没那么难,你完全可以学得会!
👉 不用你懂任何算法和数学知识,公式推导、复杂原理这些都不用操心;
👉 也不挑电脑配置,普通家用电脑完全能 hold 住,不用额外花钱升级设备;
👉 更不用你提前学 Python 之类的编程语言,零基础照样能上手。
你要做的特别简单:跟着我的讲解走,照着教程里的步骤一步步操作就行。
包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!
现在这份资料免费分享给大家,有需要的小伙伴,直接VX扫描下方二维码就能领取啦😝↓↓↓
为什么要学习大模型?
数据显示,2023 年我国大模型相关人才缺口已突破百万,这一数字直接暴露了人才培养体系的严重滞后与供给不足。而随着人工智能技术的飞速迭代,产业对专业人才的需求将呈爆发式增长,据预测,到 2025 年这一缺口将急剧扩大至 400 万!!
大模型学习路线汇总
整体的学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战,跟着学习路线一步步打卡,小白也能轻松学会!
大模型实战项目&配套源码
光学理论可不够,这套学习资料还包含了丰富的实战案例,让你在实战中检验成果巩固所学知识
大模型学习必看书籍PDF
我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。
大模型超全面试题汇总
在面试过程中可能遇到的问题,我都给大家汇总好了,能让你们在面试中游刃有余
这些资料真的有用吗?
这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
👉获取方式:
😝有需要的小伙伴,可以保存图片到VX扫描下方二维码免费领取【保证100%免费】
相信我,这套大模型系统教程将会是全网最齐全 最适合零基础的!!
更多推荐
所有评论(0)