简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
1.在D盘创建文件夹:/share2.打开VMware 在已经安装好的虚拟机中设置总是启用----添加----设置路径----确定然后打开terminal输入 cd /mnt/hgfs 查看共享文件夹内容 就是将需要copy的代码放在share里面然后ls进入share文件夹 然后ls就可以看到本地的文件了注意:如果 cd/mnt/hgfs 没有出现share文件夹 可以移除之前设置的共享文件夹路
VIT使用位置编码PE(Position Encoder)来插入位置信息,但是插入的PE的分辨率是固定的,这就导致如果训练图像和测试图像分辨率不同的话,需要对PE进行插值操作,这会导致精度下降。为了解决这个问题CPVT(Conditional positional encodings for vision transformers. arXiv, 2021)使用了3X3的卷积和PE一起实现了dat
我们提出了一种新的方法,将对象检测视为一个直接集预测问题。我们的方法简化了检测流程,有效地消除了许多手工设计组件的需要,如非最大抑制程序或锚定生成,这些组件显式编码了我们关于任务的先验知识。新框架被称为检测Transformer(DEtection TRansformer,简称DETR),其主要组成部分是1.基于集合的全局损耗(提出了一个新的目标函数),通过二分图匹配进行唯一的预测,2.以及Tra
WHAT'S NLP?NLP = NLU + NLG//自然语言理解+自然语言生成NLP相关会议 先看已发表的论文 优先顶会 引用量NLP:ACL,EMNLP,NAACL,Coling,TACLDM:KDD,WSDM,SIGIR,WWW,CIKMML:NIPS,ICML,ICLR,AISTATS,UAI,JMLR,PAMI(新的模型和方法)AI:AAAI,IJCAINLP技术四个维度:Semant
导师给报的知识图谱培训 做个笔记如果没有反向传播 不能自动更新权重和偏执有y值就是 有监督 就是有targetx值就是featuresknn 在做知识图谱的时候很好用无监督 鸢尾花有三类 只能帮你分出来有三类 但是这三类是哪一类 不知道 要自己人工分类强化学习 根据reward 来做下一步动作最简单的三步就可以实现机器学习sample_size height width colordeep 四维视
word embedding APItorch.nn.Embedding(num_embeddings, embedding_dim)参数介绍:1.num_embeddings:词典的大小 (当前词典中不重复词的个数)2.embedding_dim:embedding的维度(用多长的向量表示我们的词语)使用方法:embedding = nn.Embedding(vocab_size, 300) #
实习收到的第一个任务人民日报数据集的训练集用的就是BIO格式然后我们转化为BIOES 和 BMES首先是BIO转BMESpath = r'./input/data_train.txt'res_path = r'./output/BMES.txt'f = open(path, encoding='utf-8')f1 = open(res_path, 'w+', encoding='utf_8')se
现阶段NLP最火的两个idea 一个是对比学习(contrastive learning) 另一个就是 promptprompt 说简单也很简单 看了几篇论文之后发现其实就是构建一个语言模板 但是仔细想想又觉得复杂 总感觉里面还有很多细节 因此我想从头到尾梳理一下prompt 很多地方会把它翻译成[范式] 但是这个词本身不好理解 我个人更倾向于看作是模板首先我们要知道预训练模型(Bert为首)到底