
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
Reinforcement Learning监督学习–>非监督学习–>强化学习。监督学习:拥有“标签”可监督算法不断调整模型,得到输入与输出的映射函数。非监督学习:无“标签”,通过分析数据本身进行建模,发掘底层信息和隐藏结构。但是1.标签需要花大量的代价进行收集,在有些情况如子任务的组合数特别巨大寻找监督项是不切实际的。2.如何更好的理解数据,学习到具体的映射而不仅仅是数据的底...
本文将整理扩散模型在诸多任务上的实施方案和效果讨论,包括其用于目标检测、图像分割、连贯故事合成、视频生成、3D场景生成和推理、多语言扩展、多模态扩展等任务。
Graph图论问题。如生成树算法,最短路径算法,BFS,DFS。概率图模型。将条件概率表达为图结构,如马尔可夫链,条件随机场。图神经网络。结合深度学习,如博主已经整理过的Graph Embedding,Graph LSTM/CNN等结合。基本上Graph+Neural Network,即使用了深度学习技术解决图问题就都是GNN的范畴了。而GNN主要是为了解决Non-Euclidean结构的...
K-means原理,python实现,改进,sklearn应用,SPSS应用。所谓物以类聚,人以群分。相似的人们总是相互吸引在一起。数据也是一样。在kNN中,某个数据以与其他数据间的相似度来预测其标签,而K-means是一群无标记数据间的因为自我相似的聚拢。显而易见,K-means的目标为簇内密集而簇间稀疏。简单来说就是首先先确定k个初始点作为质心,然后将数据集中的每一个点分配到一个距其最近的簇中
使用通用自编码器的时候,首先将输入encoder压缩为一个小的 form,然后将其decoder转换成输出的一个估计。如果目标是简单的重现输入效果很好,但是若想生成新的对象就不太可行了,因为其实我们根本不知道这个网络所生成的编码具体是什么。虽然我们可以通过结果去对比不同的对象,但是要理解它内部的工作方式几乎是不可能的,甚至有时候可能连输入应该是什么样子的都不知道。解决方法是用相反的方法使用变分自编
MLP–>CNN–>Transformer–>MLP天道好轮回。CNN家族和Vision Transformer博主已经整理过,不再赘述,本期博文主要整理Vision MLP范式的文章们。Do You Even Need Attention? A Stack of Feed-Forward Layers Does Surprisingly Well on ImageNet首先需要
生成绩预测通过拿到学生的历史数据,如成绩,社交,其他行为等,预测学生的GPA,某课程的成绩,或者毕业后的发展预测等等。学生学业预警同上也是通过各种收集到数据,预测学生的状态是否处于异常,该任务的特点是如何做到及时的反馈。
CNN原理,TF应用。受哺乳动物视觉系统的结构启发,人们引入了一个处理图片的强大模型结构,后来发展成了现代卷积网络的基础。所谓卷积引自数学中的卷积运算: S(t)=∫x(t−a)w(a)daS(t) = \int x(t-a)w(a) da 。它的意义在于,比如有一段时间内的股票或者其他的测量数据,显然时间离当下越近的数据与结果越相关,作用越大,所以在处理数据时可以采用一种局部加权平均的方法,这就
利用ChatGPT实现零样本信息抽取(Information Extraction,IE),看到零样本就能大概明白这篇文章将以ChatGPT作为一个基座然后补全前后端,来实现抽取任务。具体来说,ChatIE实现零样本的策略是将其任务转化为具有。对于句子:《我的爱情日记》是1990年在北京上映的中国…代码已经开源,包含了详细的前后端处理。ChatIE如下图所示,
知识图谱补全算法能让知识图谱变得更加完整,按照能否处理新实体或者新关系,可以将知识图谱补全算法分成两类:静态知识图谱补全(Static KGC),该场景的作用是补全已知实体之间的隐含关系。仅能处理实体以及关系都是固定的场景,扩展性较差动态知识图谱补全(Dynamic KGC),涉及不止知 识图谱G中的实体或关系,该场景能够建立知识图谱与外界的关联,从而扩大知识图谱的实体集、关系集以及三元组集。可以







