
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
ICL 是大语言模型的无参数更新学习能力—— 不用像传统模型那样通过梯度下降更新权重(W 和 b),仅靠 “上下文里的任务描述 + 示例”,就能理解任务并生成结果。# 传统学习的核心流程(你肯定懂)def model(x): return W*X + b # 初始化权重loss = 损失函数(y_pred, batch_y)grad = 反向传播(loss)W = W - lr*grad # 关键

定义:一门“优化提示词 + 掌握LLM交互技能”的学科,核心是让大语言模型更好地适配你的任务不同角色的价值研究人员:强化 LLM 的推理、问答能力;开发人员:对接 LLM 与工具,落地工程化应用;普通用户:提高 LLM 输出的安全性、准确性,甚至用专业知识增强 LLM 能力(比如给 LLM 补充医学知识,让它做更精准的健康建议)。

技术层面:从单向→双向→多任务统一,从纯文本→知识融合,从依赖微调→零样本 / 少样本,从规模增大→效率优化。核心逻辑:预训练负责 “积累通用知识”,下游适配负责 “落地具体任务”,最终目标是让模型具备「灵活、通用、贴合人类需求」的语言能力。未来方向:更小的模型体积、更高的效率、更强的知识融合能力、更精准的人类意图对齐,以及跨模态(文本 + 图像 / 语音)的统一预训练。

目标:找到使概率最大的标签序列y关键概念:发射矩阵(Emitter Matrix):shape 为「序列长度 × 标签数」,表示每个 token 对应每个标签的概率;转移矩阵(Transition Matrix):shape 为「标签数 × 标签数」,表示从一个标签转移到另一个标签的概率;归一化项:确保概率之和为 1;特征函数:捕捉标签转移和 token 特征的关联。

代码中我们封装了一个get_one_page_data()方法,参数是页数page,再结合for循环,实现了爬取了所有的数据。代码中我们创建了字典params,并为start键赋值为0,接着我们通过参数params吧定制的查询参数传递给。,并且随着页码的增加,小尾巴中数字部分也在增加。在此使用了time.sleep(1)来暂停1秒的目的是为了网站反爬虫,把我们给封了。中,我们只是获取了第一页的25

点击其头headers,拉到最下面,找到了Referer以及User-Agent,此值直接获取,(上面代码中的user-agent以自己电脑为准)。来说,进入此网页,打开开发者模式,点击Network->XHR,因为我们找的是评论,其英文是comment,如下我们找到了。result我们知道是获取出来的结果,但是.json的意义是什么?:字面意思是排序方式,而我们发现,短影评页的右上方的确是有这个

这个流程不是一个线性的、一次就能成功的过程,而是一个以评估为导向的、螺旋上升的迭代循环。准备数据 -> 尝试学习 -> 客观评估 -> 发现问题 -> 回头优化 -> 再次尝试,直到得到一个令人满意的解决方案。

这个流程不是一个线性的、一次就能成功的过程,而是一个以评估为导向的、螺旋上升的迭代循环。准备数据 -> 尝试学习 -> 客观评估 -> 发现问题 -> 回头优化 -> 再次尝试,直到得到一个令人满意的解决方案。







