logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

反向传播(Backpropagation)算法是如何让神经网络“从错误中学习“的?

说起人工智能,大家都觉得神秘,其实它也是在犯错中长大的,就像小孩学走路,摔了一跤就知道下次怎么调整步伐,神经网络靠的就是"反向传播"这个法子这事儿说来简单,机器先给出一个答案,发现答案错了,就倒回去看看哪个环节出了问题,然后微调那些参数,再试一次,如此反复,错误越来越少,答案越来越准。

#算法#神经网络#学习
Anthropic 发布 Claude Opus 4.6:最强模型的全面升级

Anthropic 升级了旗下最强的模型。在 agentic coding、计算机操作、工具使用、搜索和金融领域,Opus 4.6 都是行业领先的模型,而且往往领先幅度很大。

#人工智能#大数据#深度学习
AI为什么会答非所问——聊聊模型对齐(Alignment)这件事

说白了,就是让 AI 真正听懂你在说什么,做你真正想让它做的事听起来简单,做起来难得很人与人之间沟通都常有误会,何况是人和机器AI 是工具好工具用得顺手,烂工具处处别扭对齐研究,本质上就是想把这工具打磨得更顺手作为用户,我们不需要懂所有技术细节但知道这回事,心里有数,用起来会踏实很多AI 说的话,听听就好,别全信它犯蠢的时候,也别太生气它还在学我们也在学怎么跟它打交道这是一个互相磨合的过程急不得。

#人工智能
从提示词工程Prompt Engineering 到 上下文工程 Context Engineering:和 AI 打交道的学问

Context Engineering 的做法:除了提示词,你还给它你的历史旅行记录,你的预算文件,你同伴的口味偏好,当地的天气预报,你已经订好的航班和酒店信息。Karpathy 这个人,之前还发明了“Vibe Coding”这个词,翻译过来叫“氛围编程”,意思是跟着感觉写代码,AI 帮你补全。Prompt Engineering 的做法:写一份详细的提示词,告诉它你要去哪,玩几天,喜欢什么类型的

#人工智能
不知不觉AI 基础系列写了三分之一了,在这里简单汇总一下吧

AI、机器学习(ML)、深度学习(DL)三者之间的本质区别是什么?为什么说神经网络(Neural Network)是在"模仿"人脑,这种模仿的底层逻辑是什么?什么是人工通用智能(AGI)与人工超级智能(ASI),它们与当前的AI有何根本性差异?Token(令牌)在LLM中扮演什么角色,为什么它被称为AI的"饭量"?Embedding(嵌入)如何将文字转化为数字向量,这个过程为什么对AI理解语言至关

#人工智能
梯度下降Gradient Descent:AI学习的秘密,就藏在这个“下山“的动作里

梯度下降,英文叫 Gradient Descent,听起来很学术,其实就是“顺着坡往下走”,梯度就是坡度,下降就是往低处去AI 训练的时候,要找一个“最佳答案”,这个答案藏在无数种可能里,就像藏在山谷最低处,AI 看不见全局,只能一步步试探,每次调整一点点参数,看看错误有没有变小,错误变小了,说明方向对了,继续往这个方向走这个“错误”在数学上叫做损失函数,你可以把它想象成海拔高度,AI 的目标就是

文章图片
#人工智能#深度学习#计算机视觉
AI 大模型训练三部曲之三:RLHF:让AI学会听话的驯兽术(Reinforcement Learning from Human Feedback,RLHF,约2022年)

人工智能训练有三步走第一步是预训练,让机器读遍天下书,什么都懂一点 (AI 大模型训练三部曲之一:预训练(PreTrain):AI的童年,漫长而昂贵第二步是监督微调,像老师改作文,一句句告诉它怎么写才对(AI 大模型训练三部曲之二:监督微调(Supervised Finetuning, SFT:教AI学会听话第三步就是 RLHF,全称叫"基于人类反馈的强化学习" (Reinforcement Le

文章图片
#人工智能
AI 大模型训练三部曲之二:监督微调(Supervised Finetuning, SFT:教AI学会听话

今天要聊的是 AI 生产 3 步曲中的第二步:监督微调 (Supervised Finetuning,SFT,InstructGPT 时代,约2022年)2025 年生产一个 AI 大模型的完整步骤是:当然,现在行业内也将第三步通常统称为“对齐(Alignment)”

文章图片
#人工智能
AI 大模型训练三部曲之一:预训练(PreTrain):AI的童年,漫长而昂贵

AI学东西,跟人差不多,得先打基础预训练就是AI的童年,漫长而基础的学习阶段这时候它什么都读,网页、书籍、对话、代码,统统吞下去好比一个孩子从出生开始,听父母说话、看电视、翻书本,什么都往脑子里塞只是AI吃得更猛,几千亿甚至上万亿的文字,全部消化。

文章图片
#人工智能#机器学习#深度学习
为什么LLM被称为“下一个词预测机器“,但却能完成如此多复杂的任务?它是如何做到的?

老厨师颠勺,你问他下一步干嘛,他说不清楚但你看他手,葱姜下锅的时机,火候的大小,调料的先后,一气呵成他脑子里没在想"我现在要做第七个步骤",他就是知道,下一步该干嘛这种"知道",是几十年炒了几万盘菜练出来的ChatGPT、Claude这些AI,本质上也在干同样的事它们被叫做"下一个词预测机器"听起来很蠢对不对,就是猜下一个字"今天天气很——",它猜"好""祝你生日——",它猜"快乐"填空游戏,小学

文章图片
#人工智能
    共 24 条
  • 1
  • 2
  • 3
  • 请选择