logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

《深度学习》——自然语言处理(NLP)

自然语言处理(Natural Language Processing,NLP)是计算机科学与语言学等多学科交叉的领域,旨在让计算机理解、处理和生成人类自然语言。在技术发展上,早期以基于规则的方法为主,随着计算机性能提升和数据量增加,基于统计的方法兴起,而深度学习的出现带来了巨大变革,像 Transformer 架构等推动了 NLP 的快速发展。其常见任务丰富多样,包括文本分类(如情感分析、新闻分类

文章图片
#深度学习#自然语言处理#人工智能
《OpenCV》—— dlib库

下载所需要的预训练模型,对图片进行人脸关键点定位。读取一张图像,检测其中的人脸,并在每个人脸的 68 个特征点上绘制绿色圆形标记,同时在标记旁边显示特征点的索引编号,最后显示处理后的图像。

文章图片
#opencv#人工智能#计算机视觉
《OpenCV》—— 人脸识别

人脸识别是一种基于人的面部特征信息进行身份识别的生物识别技术。它通过摄像头等设备采集含有人脸的图像或视频流,然后对图像中的人脸特征进行提取和分析,与预先存储的人脸模板进行比对,从而判断出人脸的身份。分别对三种人脸特征识别器对人脸进行识别。

文章图片
#opencv#人工智能#计算机视觉
《OpenCV》——特征提取与匹配方法

特征提取是从原始数据中提取出能够代表数据本质特征和关键信息的过程,在很多领域都有广泛应用。原始数据往往包含大量的冗余信息,特征提取的目的是去除这些冗余,提取出最具代表性、最能区分不同类别或模式的特征,从而降低数据维度,提高数据处理的效率和效果,同时也有助于后续的数据分析、建模和决策。这些特征提取算法在不同的应用场景中各有优劣,本文主要介绍sift算法。

文章图片
#opencv#人工智能#计算机视觉
《深度学习》——bert框架

BERT(Bidirectional Encoder Representations from Transformers)是由 Google 在 2018 年提出的预训练语言模型框架,其核心思想是通过双向 Transformer 编码器学习深层语言表征,在自然语言处理(NLP)领域具有里程碑意义。

文章图片
#深度学习#bert#人工智能
《深度学习》——迁移学习

迁移学习(Transfer Learning)是机器学习中的一个重要概念,旨在将从一个任务(源任务)中学习到的知识应用到另一个相关的任务(目标任务)中,以提高目标任务的学习效率和性能。在传统的机器学习中,模型通常是在特定的数据集上进行训练,并且只能在相似的任务上表现良好。如果遇到新的任务,就需要重新收集和标注大量的数据,并从头开始训练模型。迁移学习的出现,为解决这些问题提供了一种有效的方法。迁移学

文章图片
#深度学习#迁移学习#人工智能
《深度学习》——CNN卷积神经网络模型及项目实例

定义一个名为 CNN 的卷积神经网络类,继承自 nn.Module# 调用父类 nn.Module 的构造函数# 定义第一个卷积层块# nn.Conv2d(1, 64, 5, 1, 2):输入通道数为 1(因为是灰度图),输出通道数为 64,卷积核大小为 5x5,步长为 1,填充为 2# nn.ReLU():使用 ReLU 激活函数增加模型的非线性# nn.MaxPool2d(kernel_siz

文章图片
#深度学习#cnn#人工智能
《深度学习》——bert框架

BERT(Bidirectional Encoder Representations from Transformers)是由 Google 在 2018 年提出的预训练语言模型框架,其核心思想是通过双向 Transformer 编码器学习深层语言表征,在自然语言处理(NLP)领域具有里程碑意义。

文章图片
#深度学习#bert#人工智能
《深度学习》——yolov4详解

YOLOv4 是一种目标检测算法,属于 YOLO(You Only Look Once)系列的第四代版本。它在目标检测领域有着重要地位,结合了许多先进的技术,在速度和精度上取得了较好的平衡。主要特点高效的检测速度:和传统的目标检测算法相比,YOLOv4 速度极快,能够实时处理视频流,这让它可以在对实时性要求较高的场景中使用,比如自动驾驶、视频监控等。高检测精度:它通过采用一系列先进的技术和改进的网

文章图片
#深度学习#人工智能
    共 42 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择