
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
今天主要学习了如何保存和加载之前的模型。其中我认为最重要的知识点是中间表示(IR)。中间表示是程序编译过程中介于源语言和目标语言之间的程序表示,以方便编译器进行程序分析和优化。通过IR,可以实现跨框架兼容性和优化和部署等功能。期待进一步的学习相关知识。

今天学习了迁移学习的相关知识。我觉得迁移学习是机器学习中一种利用已经训练好的模型(通常是在大规模数据集上预训练的模型)来解决新的但相关的问题的技术。其核心思想是利用从一个任务中学到的知识来加速另一个相关任务的学习过程。除此之外,我还了解了关于ResNet50的相关知识。它是ResNet系列中的一员,其中的“50”表示网络中包含50个主要的卷积层。这几天学习的内容比较复杂,还需要留更多的时间来复习。

本案例基于MindNLP和ChatGLM-6B实现一个聊天应用。今天学习了如何利用MindNLP和ChatGLM-6B来构建一个聊天应用的相关代码。通常查阅资料,我了解到ChatGLM-6B是由清华大学和智谱AI联合研发的产品,是一个开源的、支持中英双语的对话语言模型。这个模型使用了和ChatGPT相似的技术,针对中文问答和对话进行了优化。

序列标注指给定输入序列,给序列中每个Token进行标注标签的过程。序列标注问题通常用于从文本中进行信息抽取,包括分词(Word Segmentation)、词性标注(Position Tagging)、命名实体识别(Named Entity Recognition, NER)等。输入序列清华大学座落于首都北京输出标注BIIIOOOOOBI如上表所示,清华大学和北京是地名,需要将其识别,我们对每个输

当我们定义神经网络时,可以继承nn.Cell类,在__init__方法中进行子Cell的实例化和状态管理,在construct方法中实现Tensor操作。# Flatten层,用于将输入数据展平为一维张量# 定义神经网络的层序列# 第一个全连接层,输入维度为28*28,输出维度为512nn.ReLU(), # ReLU激活函数# 第二个全连接层,输入维度为512,输出维度为512nn.ReLU()

ResNet50网络是2015年由微软实验室的何恺明提出,获得ILSVRC2015图像分类竞赛第一名。在ResNet网络提出之前,传统的卷积神经网络都是将一系列的卷积层和池化层堆叠得到的,但当网络堆叠到一定深度时,就会出现退化问题。下图是在CIFAR-10数据集上使用56层网络与20层网络训练误差和测试误差图,由图中数据可以看出,56层网络比20层网络训练误差和测试误差更大,随着网络的加深,其误差

生成式对抗网络(Generative Adversarial Networks,GAN)是一种生成式机器学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。最初,GAN由Ian J. Goodfellow于2014年发明,并在论文生成器的任务是生成看起来像训练图像的“假”图像;判别器需要判断从生成器输出的图像是真实的训练图像还是虚假的图像。GAN通过设计生成模型和判别模型这两个模块,使其互相

今天学习了多种数据变换方法,主要有三类。第一类是通用的数据变换方法,以compose为代表。第二类是针对图像数据的变换方法,有Rescale,Normalize和HWC2CHW等等。第三类是针对文字数据的变换方法有PythonTokenizer和Lookup等。最后学习了一种特殊的函数,Lambda函数。通过对以上内容的学习,我进一步理解了在深度学习中是如何对数据进行处理的,在接下来的时间里,期待

KNN算法的实现依赖于样本之间的距离,其中最常用的距离函数就是欧氏距离(欧几里得距离)。RnRn空间中的两点xxx和yyydxy∑i1nxi−yi2dxyi1∑nxi−yi2需要特别注意的是,使用欧氏距离时,应将特征向量的每个分量归一化,以减少因为特征值的尺度范围不同所带来的干扰,否则数值小的特征分量会被数值大的特征分量淹没。其它的距离计算方式还有Mahalanobis距离、Bhattac

Pix2Pix是基于条件生成对抗网络(cGAN, Condition Generative Adversarial Networks )实现的一种深度学习图像转换模型,该模型是由Phillip Isola等作者在2017年CVPR上提出的,可以实现语义/标签到真实图片、灰度图到彩色图、航空图到地图、白天到黑夜、线稿图到实物图的转换。生成器和判别器。传统上,尽管此类任务的目标都是相同的从像素预测像素








