logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

提示词工程进阶:思维链、结构化与系统化调优

本篇文章系统讲解了从“让AI听懂话”到“让AI学会思考”的进阶方法论,核心是教你通过思维链、多角色协作、链式任务拆解和结构化输出来设计AI的认知流程,最终成为一名AI思维流程的设计师。

文章图片
#人工智能#语言模型#自然语言处理 +1
AI 提示词工程入门:用好的语言与模型高效对话

本篇文章是一份面向初学者的提示词工程入门指南,核心是通过“清晰明确、提供上下文、设定格式、用示例引导”四大原则,教导读者如何将模糊的指令转化为结构化的“任务说明书”,以驱动AI生成精准、符合预期的输出。

文章图片
#人工智能#大数据#语言模型 +2
从白纸到对话:一文看懂大模型训练的完整技术栈与学习路径(二)

本篇文章系统讲解了大模型从监督微调到RLHF对齐的核心原理、数据构建、训练方法与部署评估,帮你深刻理解如何让基座模型从“续写机器”进化为“懂人话、有温度”的AI助手。

文章图片
#学习#人工智能
从白纸到对话:一文看懂大模型训练的完整技术栈与学习路径(一)

本篇文章系统讲解了大模型从预训练(海量数据自学)、监督微调(学会对话)到RLHF(对齐人类偏好)的完整技术路径与成本。

文章图片
#人工智能#神经网络#深度学习 +2
扔掉“金鱼记忆”:Transformer 是如何让 AI 学会“一目十行”的?

本篇文章用“会议室里相互对视”的生动比喻,通俗地解释了 Transformer 如何用自注意力机制替代 RNN 的串行记忆,从而实现并行计算与长距离上下文理解。

文章图片
#人工智能#transformer#深度学习
扔掉“金鱼记忆”:Transformer 是如何让 AI 学会“一目十行”的?

本篇文章用“会议室里相互对视”的生动比喻,通俗地解释了 Transformer 如何用自注意力机制替代 RNN 的串行记忆,从而实现并行计算与长距离上下文理解。

文章图片
#人工智能#transformer#深度学习
为什么AI突然会聊天了?拆解大语言模型背后的秘密

本篇文章通俗解释了大语言模型的本质(猜词机器)、三大“大”特性(参数、数据、涌现能力)、三阶段训练过程(预训练、微调、对齐)以及能力边界,帮你快速理解AI为什么会聊天、有哪些局限。

文章图片
#人工智能#语言模型#自然语言处理
为什么AI突然会聊天了?拆解大语言模型背后的秘密

本篇文章通俗解释了大语言模型的本质(猜词机器)、三大“大”特性(参数、数据、涌现能力)、三阶段训练过程(预训练、微调、对齐)以及能力边界,帮你快速理解AI为什么会聊天、有哪些局限。

文章图片
#人工智能#语言模型#自然语言处理
从AI到AIGC:一层层剥开技术“俄罗斯套娃”

本篇文章将带你逐层厘清了人工智能、机器学习、深度学习、大语言模型和AIGC的层级关系与技术演进逻辑

文章图片
#人工智能#AIGC
updatexml()报错注入

报错注入(Error-based SQL Injection)是一种通过故意触发数据库错误,并利用错误信息中泄露的敏感数据来实施攻击的SQL注入技术。其核心原理是利用数据库的异常处理机制,将攻击者需要的数据嵌入错误信息中返回。

文章图片
#sql#数据库
    共 13 条
  • 1
  • 2
  • 请选择