logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

昇思25天学习打卡营第18天 | 基于MobileNetv2的垃圾分类

它具有更小的体积、更少的计算量和较高的精度等优势,能够在保持一定准确率的前提下,在资源受限的设备上实现快速运行,适用于多种应用场景,如目标检测、目标分类、人脸属性识别和人脸识别等。逐点卷积则是使用 1×1 的卷积核进行卷积,其作用是对深度卷积后的特征进行组合生成新的特征图,能够起到升维或者降维的作用,还可以很好地整合深度卷积分离开的通道间信息。不同版本的 MobileNet 在具体的网络结构和特性

文章图片
#学习#分类#目标跟踪
昇思25天学习打卡营第17天 | K近邻算法实现红酒聚类

K近邻算法(KNN)的基本思想是从训练集中寻找和输入样本最相似的k个样本,如果这k个样本中的大多数属于某一个类别,则输入的样本也属于这个类别。此时有一个未标记的数据样本,我们的任务是预测出这个数据样本所属的类别。knn的原理是,计算待标记样本和数据集中每个样本的距离,取距离最近的k个样本。待标记的样本所属类别就由这k个距离最近的样本投票产生。K-近邻 (K-Nearest Neighbor) 算法

文章图片
#学习#近邻算法#聚类
昇思25天学习打卡营第30天 | MindNLP ChatGLM-6B StreamChat

较低的部署门槛: FP16 半精度下,ChatGLM-6B 需要至少 13GB 的显存进行推理,结合模型量化技术,这一需求可以进一步降低到 10GB(INT8) 和 6GB(INT4), 使得 ChatGLM-6B 可以部署在消费级显卡上。例如,在 int4 量化级别下最低只需 6GB 显存。不过,由于其规模较小,目前已知 ChatGLM-6B 具有一些局限性,如可能存在事实性/数学逻辑错误,或许

文章图片
#学习
昇思25天学习打卡营第16天 | 基于MindNLP+MusicGen生成自己的个性化音乐

与传统方法不同,MusicGen采用单个stage的Transformer LM结合高效的token交织模式,取消了多层级的多个模型结构,例如分层或上采样,这使得MusicGen能够生成单声道和立体声的高质量音乐样本,同时提供更好的生成输出控制。与传统方法不同,MusicGen 采用单个 stage 的 Transformer LM 结合高效的 token 交织模式,取消了多层级的多个模型结构,例

文章图片
#学习
昇思25天学习打卡营第20天 | DCGAN生成漫画头像

它的作用是生成新的数据。在 DCGAN 中,生成器通过一系列的反卷积操作,将一个随机噪声向量逐步转换为具有一定特征和结构的图像或数据。它的任务是判断输入的数据是真实的样本还是由生成器生成的假样本。DCGAN 是一种深度学习模型,结合了卷积神经网络(CNN)和生成对抗网络(GAN)的思想。例如,生成一张逼真的人脸图像,从初始的随机噪声逐渐形成具有五官特征和合理布局的人脸。比如说,判别一张图像是来自真

文章图片
#学习#人工智能#计算机视觉
昇思25天学习打卡营第25天 | RNN实现情感分类

例如,对于一个电影评论“这部电影太棒了,我非常喜欢”,RNN 可以逐步处理每个单词,捕捉到“太棒了”“非常喜欢”等积极词汇的信息,并综合整个序列的上下文来判断其情感为积极。另一个例子是“这个产品真糟糕,完全不满意”,RNN 能够理解“糟糕”“不满意”等消极词汇以及它们在上下文中的含义,从而将其分类为消极情感。- 将 RNN 输出的表示传递给全连接层,再通过激活函数(如 Softmax)进行分类,得

文章图片
#rnn#学习#分类
昇思25天学习打卡营第26天 | BERT对话情绪识别

例如,在“我今天很开心,因为收到了礼物”这句话中,BERT 可以理解“开心”与“收到礼物”之间的关联。结合多个 BERT 模型的预测结果,例如通过集成多个微调后的 BERT 模型,或者将 BERT 与其他模型(如循环神经网络 RNN、长短时记忆网络 LSTM 等)进行融合。- 经过在大规模语料上的预训练,BERT 可以在特定的对话情绪识别数据集上进行微调,从而快速适应新的任务。利用在大规模通用语料

文章图片
#学习#bert#深度学习
昇思25天学习打卡营第14天 | SSD目标检测

特征融合:融合浅层的高分辨率特征和深层的语义特征。例如,可以将较低层的特征图与较深层的特征图进行融合,这样可以结合浅层特征图的细节信息和深层特征图的语义信息,从而改善对小目标的检测。调整默认框(default boxes)的设置:减小默认框的大小和比例,使其更适合小目标的尺寸和形状,增加对小目标的覆盖范围。增加小目标的训练数据:通过数据增强技术,如旋转、缩放、翻转等,增加小目标的样本数量,以提高模

文章图片
#学习#目标检测#目标跟踪
昇思25天学习打卡营第19天 | CycleGAN图像风格迁移互换

判别器也是一个神经网络,它接收数据样本(可能是真实的或生成的),并输出一个概率值,表示该样本为真实数据的可能性。例如,在手写数字生成的 GAN 中,生成器最初可能生成模糊、不成形的数字,但随着训练的进行,它逐渐能够生成清晰、逼真的手写数字,让判别器难以判断其真假。举个例子,一张猫的图片经过 CycleGAN 转换为狗的图片,再转换回猫的图片时,应该与原始的猫图片非常相似。基于判别器的输出,生成器会

文章图片
#学习#计算机视觉#人工智能
昇思25天学习打卡营第15天 | Vision Transformer图像分类

为了解决这些问题,有一些改进的方案,如 DeiT(Data-Efficient Image Transformers)、Swin Transformer、Pyramid Vision Transformer 等,使得 Transformer 架构在更多视觉任务(如目标检测、语义分割等)上取得了很好的效果,并逐渐成为视觉模型设计的新范式。其训练和推理通常需要较多的计算资源;输入预处理:将输入图像分成

文章图片
#学习#transformer#分类
    共 51 条
  • 1
  • 2
  • 3
  • 6
  • 请选择