logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

AI人工智能-大语言模型的神秘力量ICL(下)-第十一周(小白)

ICL 是大语言模型的无参数更新学习能力—— 不用像传统模型那样通过梯度下降更新权重(W 和 b),仅靠 “上下文里的任务描述 + 示例”,就能理解任务并生成结果。# 传统学习的核心流程(你肯定懂)def model(x): return W*X + b # 初始化权重loss = 损失函数(y_pred, batch_y)grad = 反向传播(loss)W = W - lr*grad # 关键

文章图片
#人工智能#语言模型#自然语言处理
AI人工智能-提示工程(中)-第十一周(小白)

定义:一门“优化提示词 + 掌握LLM交互技能”的学科,核心是让大语言模型更好地适配你的任务不同角色的价值研究人员:强化 LLM 的推理、问答能力;开发人员:对接 LLM 与工具,落地工程化应用;普通用户:提高 LLM 输出的安全性、准确性,甚至用专业知识增强 LLM 能力(比如给 LLM 补充医学知识,让它做更精准的健康建议)。

文章图片
#人工智能
AI人工智能-大模型的演进-第十一周(上)(小白)

技术层面:从单向→双向→多任务统一,从纯文本→知识融合,从依赖微调→零样本 / 少样本,从规模增大→效率优化。核心逻辑:预训练负责 “积累通用知识”,下游适配负责 “落地具体任务”,最终目标是让模型具备「灵活、通用、贴合人类需求」的语言能力。未来方向:更小的模型体积、更高的效率、更强的知识融合能力、更精准的人类意图对齐,以及跨模态(文本 + 图像 / 语音)的统一预训练。

文章图片
#人工智能#自然语言处理#深度学习
AI人工智能-序列标注任务-第九周(小白)

目标:找到使概率最大的标签序列y关键概念:发射矩阵(Emitter Matrix):shape 为「序列长度 × 标签数」,表示每个 token 对应每个标签的概率;转移矩阵(Transition Matrix):shape 为「标签数 × 标签数」,表示从一个标签转移到另一个标签的概率;归一化项:确保概率之和为 1;特征函数:捕捉标签转移和 token 特征的关联。

文章图片
#人工智能
爬虫-爬取豆瓣读书所有数据

代码中我们封装了一个get_one_page_data()方法,参数是页数page,再结合for循环,实现了爬取了所有的数据。代码中我们创建了字典params,并为start键赋值为0,接着我们通过参数params吧定制的查询参数传递给。,并且随着页码的增加,小尾巴中数字部分也在增加。在此使用了time.sleep(1)来暂停1秒的目的是为了网站反爬虫,把我们给封了。中,我们只是获取了第一页的25

文章图片
#爬虫#python#开发语言
爬虫-电影影评爬取

点击其头headers,拉到最下面,找到了Referer以及User-Agent,此值直接获取,(上面代码中的user-agent以自己电脑为准)。来说,进入此网页,打开开发者模式,点击Network->XHR,因为我们找的是评论,其英文是comment,如下我们找到了。result我们知道是获取出来的结果,但是.json的意义是什么?:字面意思是排序方式,而我们发现,短影评页的右上方的确是有这个

文章图片
#python
AI人工智能-机器学习-第一周(小白)

这个流程不是一个线性的、一次就能成功的过程,而是一个以评估为导向的、螺旋上升的迭代循环。准备数据 -> 尝试学习 -> 客观评估 -> 发现问题 -> 回头优化 -> 再次尝试,直到得到一个令人满意的解决方案。

文章图片
#人工智能#机器学习
AI人工智能-机器学习-第一周(小白)

这个流程不是一个线性的、一次就能成功的过程,而是一个以评估为导向的、螺旋上升的迭代循环。准备数据 -> 尝试学习 -> 客观评估 -> 发现问题 -> 回头优化 -> 再次尝试,直到得到一个令人满意的解决方案。

#人工智能#机器学习
到底了