logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

LLM面试题三

提示学习的核心思想是,通过改造下游任务、增加专家知识,使任务输入和输出适合原始语言模型,从而在零样本或少样本的场景中获得良好的任务效果。生成任务表达单一的,样本也不多的,可适当调低temperature,生成的样子跟训练集的比较像;它的核心思想是在预训练模型每层中插入用于下游任务的参数,在微调时将模型主体冻结,仅训练特定于任务的参数,从而减少训练时算力开销。把之前的LoRA跟base model合

文章图片
#算法#数据库#启发式算法
Linux---网络传输命令(ping、wget、curl)

执行 ping 指令会使用 ICMP 传输协议,发出要求回应的信息,若远端主机的网络功能没有问题,就会回应该信息,因而得知该主机运作正常。语法:ping [参数] IP名或主机名。

文章图片
#网络#linux#服务器
知识存储概述

从存储结构划分,知识存储分为基于表结构的存储和基于图结构的存储,如下图所示。知识存储方式。

文章图片
#知识图谱#语言模型#机器学习 +2
知识图谱的应用---智能公安

团伙关系图谱分析主要基于对象的基本属性信息进行分析,并在这些信息数据之间建立内在关联,通过关系推断和隐含关系挖掘,分析出目标对象群体的集群关系,分析指标包括目标对象群体的同类工作关系、同类犯罪倾向关系、同类居住区域关系、同类活动规律关系、同类网络关系等。物品关系图谱分析主要针对关注对象的车辆、车牌号、驾驶证、身份证、手机号、电子邮箱、虚拟身份账户、银行账户等对象,基于物品对象的关系图谱分析,通过图

文章图片
#知识图谱#人工智能#机器学习 +2
机器学习---无偏估计

假设这个是⼀些样本的集合X = x1, x2, x3, ..., xn,我们根据样本估计整体的数学期望(平均值)。所以无偏估计,所估计的别⼈口袋每张钱的数学期望(平均值)= 10 ∗ 1/2 + 100 ∗ 1/2。⼀张100 元,然后你想估计下他口袋里的剩下的钱平均下来每张多少钱(估计平均值)。哪怕拿到了两张十块钱,我还是认为十块钱出现的概率和100元的概率⼀样。每个样本出现概率不⼀样,概率大的

文章图片
#机器学习#人工智能#概率论
机器学习---随机森林宫颈癌分类

ss.fit_transform(x_train, y_train):对训练数据进行归一化。pca.fit_transform(x_train):对训练数据进行 PCA 降维。",np.NaN):将 "?降维(PCA):pca = PCA(n_components=2):创建 PCA 实例,设置为 2 维。模型评估:score = forest.score(x_test, y_test):在测试集

文章图片
#机器学习#随机森林#分类
机器学习---降维与度量学习

通过某种映射到欧氏空间的一个点,并利用欧氏空间的良好性质在其中进行学习器的训练。支,通过有标记样本或结合未标记样本,寻找一个能够在给定指标下最恰当刻画样本相似度的距离。量学习的主要思想是,利用标注数据学习一个度量矩阵,对样本进行映射变换,使得在变换后的度。量空间中,同类样本之间的距离变小,异类样本之间的距离变大,或使得相似的样本距离变小,不。利用携带标注信息的训练数据进行距离度量学习,能更好的降低

文章图片
#机器学习#学习#人工智能
pandas---数据合并(concat、append、merge)

不匹配级联指的是级联的维度的索引不一致。例如纵向级联时列索引不一致,横向级联时行索引不。按照行或列进行合并,axis=0为列索引,axis=1为行索引。内连接: 类似交集, 只显示共同的部分,只连接匹配的项。外连接:类似并集,显示所有数据,补NaN(默认模式)。对应索引没有值,会自动用NaN填充。

文章图片
#pandas#python#机器学习
Fine-Tuning a Large Language Model with Reinforcement Learning for Educational Question Generation

本文提出了一种基于强化学习的大型语言模型微调方法(RLLM-EduQG),用于教育问题生成任务。针对传统交叉熵训练存在的暴露偏差和指标不一致问题,该方法采用混合目标函数结合交叉熵和强化学习损失,优化Google FLAN-T5模型。实验表明,该方法在SciQ数据集上能生成语法和语义准确的教育问题,性能优于现有方法。创新点在于引入强化学习框架,同时考虑BLEU等离散指标和语义相似度,提升了生成问题的

文章图片
#语言模型#人工智能#自然语言处理 +2
LLaRA: Large Language-Recommendation Assistant

LLaRA:融合语言模型与传统推荐系统的新型框架 本文提出大型语言推荐助手(LLaRA),一种结合大型语言模型(LLM)与传统顺序推荐系统优势的创新框架。传统方法通常仅使用项目ID或文本元数据进行推荐,存在知识覆盖不全或行为模式理解不足的局限。LLaRA通过混合提示方法,将传统推荐模型学习的行为嵌入与文本特征相结合,并采用课程学习策略:先使用纯文本提示预热模型,再逐步引入混合提示以整合行为知识。实

文章图片
#人工智能#机器学习#集成学习 +1
    共 20 条
  • 1
  • 2
  • 请选择