logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

《昇思25天学习打卡营第12天|onereal》

其实在 CycleGAN 之前,就已经有了域迁移模型,比如 Pix2Pix ,但是 Pix2Pix 要求训练数据必须是成对的,而现实生活中,要找到两个域(画风)中成对出现的图片是相当困难的,因此 CycleGAN 诞生了,它只需要两种域的数据,而不需要他们有严格对应关系,是一种新的无监督的图像迁移网络。这里对数据进行了随机裁剪、水平随机翻转和归一化的预处理,为了将重点聚焦到模型,此处将数据预处理后

文章图片
#学习
《昇思25天学习打卡营第17天|onereal》

概述序列标注指给定输入序列,给序列中每个Token进行标注标签的过程。序列标注问题通常用于从文本中进行信息抽取,包括分词(Word Segmentation)、词性标注(Position Tagging)、命名实体识别(Named Entity Recognition, NER)等。如上表所示,清华大学和北京是地名,需要将其识别,我们对每个输入的单词预测其标签,最后根据标签来识别实体。

文章图片
#学习
昇思25天学习打卡营第19天|onereal

BERT全称是来自变换器的双向编码器表征量(Bidirectional Encoder Representations from Transformers),它是Google于2018年末开发并发布的一种新型语言模型。与BERT模型相似的预训练语言模型例如问答、命名实体识别、自然语言推理、文本分类等在许多自然语言处理任务中发挥着重要作用。模型是基于Transformer中的Encoder并加上双向

文章图片
#学习
《昇思25天学习打卡营第23天|onereal》

第23天学习内容简介:本案例基于MindNLP和ChatGLM-6B实现一个聊天应用。

文章图片
#学习
昇思25天学习打卡营第7天|onereal

SSD,全称Single Shot MultiBox Detector,是Wei Liu在ECCV 2016上提出的一种目标检测算法。使用Nvidia Titan X在VOC 2007测试集上,SSD对于输入尺寸300x300的网络,达到74.3%mAP(mean Average Precision)以及59FPS;对于512x512的网络,达到了76.9%mAP ,超越当时最强的Faster R

文章图片
#学习#目标跟踪#人工智能
《昇思25天学习打卡营第22天|onereal》

根据前文预测下一个单词一个文本序列的概率分布可以分解为每个词基于其上文的条件概率的乘积MindNLP/huggingface Transformers提供的文本生成方法应用实践/LLM原理和实践/文本解码原理-以MindNLP为例---------------------------------------以上是今天学习内容的简介,下面运行代码。训练与测试:

文章图片
#学习#人工智能
昇思25天学习打卡营第3天|onereal

前几天不能运行代码,经过排查是因为我的浏览器是搜狗的,换成Chrome问题解决了。按照提示学习了《应用实践/计算机视觉/FCN图像语义分割.ipynb》并且尝试运行代码,开始训练,最后看到图片变化。

文章图片
#学习
《昇思25天学习打卡营第20天|onereal》

本次实验使用的是nlpcc2017摘要数据,内容为新闻正文及其摘要,总计50000个样本。---------------------训练结果因为算力不足,暂未成功。数据处理,将向量数据变为中文数据。

文章图片
#学习
《昇思25天学习打卡营第9天|onereal》

MusicGen支持两种生成模式:贪心(greedy)和采样(sampling)。在实际执行过程中,采样模式得到的结果要显著优于贪心模式。用于无分类器指导(CFG),设置条件对数之间的权重(从文本提示中预测)和无条件对数(从无条件或空文本中预测)。方法以生成文本条件音频样本。同样,我们通过设置“do_sample=True”来启用采样模式。越高表示生成的模型与输入的文本更加紧密。可能是算力不够,一

文章图片
#学习#算法
《昇思25天学习打卡营第25天|onereal》

现在我们有了数据集和模型后,可以进行模型的训练与评估。加载代码,构建数据集。

文章图片
#深度学习#机器学习#人工智能
    共 25 条
  • 1
  • 2
  • 3
  • 请选择