logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

一些开源镜像站集合

开源镜像站是一种提供开源软件镜像下载服务的网站,通常由社区志愿者或组织管理。开源软件指的是可以自由获取、使用、修改和分发的软件,因此开源镜像站的主要目的是为开源社区提供一个稳定、高速、可靠的下载源,方便用户下载和更新开源软件。本文是一些开源镜像站集合,一共有10所学校和3所企业的开源镜像网站。

文章图片
#linux#python
【Python相关】anaconda介绍、安装及conda命令详解

anaconda就是一个包含python相关包和一些实用工具的集合,例如,我们可以使用anaconda进行Python环境的管理,使得在运行不同的程序时候使用不同的环境,极大避免了一些环境的依赖冲突;我们可以使用jupyter notebook或者jupyter lab等可视化地调试我们的代码;我们可以使用conda命令安装包,解决一些复杂包的依赖问题。本文主要着眼于anaconda介绍、安装及c

文章图片
#python#开发语言
从BERT到ROBERTA:预训练语言模型的优化之路

自从深度学习在自然语言处理领域得到广泛应用以来,Transformer模型一直是自然语言处理的重要研究方向。2017年,谷歌推出了Transformer模型的创新之作——BERT,在自然语言处理领域引起了极大的关注。2020年,Facebook AI Research推出了ROBERTA模型,它在BERT的基础上做了一些改进,取得了更好的效果。本文将详细介绍ROBERTA模型的原理、优势和劣势,并

文章图片
#bert#语言模型#深度学习 +2
【跟着ChatGPT学深度学习】ChatGPT带我入门深度学习

跟着ChatGPT学深度学习第一弹,入门深度学习。本次ChatGPT老师共教我三个知识点,分别是深度学习基础、深度学习的学习资源和深度学习需要掌握的技能和知识。最后,ChatGPT老师还贴心地给深度学习新手和老手总结了一些学习建议。

文章图片
#深度学习#机器学习#人工智能 +1
Fasttext、TextCNN和BERT三种算法对AG_news数据的文本分类实现比较

在自然语言处理领域中,文本分类是一项基础而重要的任务。为了验证不同算法在文本分类任务中的表现,我们使用了AG_news数据集,并分别使用Fasttext、TextCNN和BERT三种算法进行实现。本文将分别介绍三种算法的实现过程,并对比它们在AG_news数据集上的表现。

文章图片
#算法#bert#分类
用GRU实现情感分析:不需要长记忆,也能看懂你的心情

长短时记忆网络(LSTM)是一种经典的循环神经网络,用于解决序列建模问题。然而,LSTM的记忆单元需要长期记忆,这在某些任务中可能会导致过度拟合或记忆问题。为了解决这个问题,Cho等人在2014年提出了门控循环单元(GRU)。GRU的结构比LSTM更简单,只有两个门(更新门和重置门),可以学习相对较短的依赖关系。在某些情况下,GRU的性能甚至优于LSTM。在本文中,我们将介绍GRU的结构和优势,并

文章图片
#gru#深度学习#人工智能 +2
用TextCNN模型解决文本分类问题

TextCNN模型是一种使用卷积神经网络(CNN)进行文本分类的模型,它可以有效地处理自然语言文本的特征提取和分类任务。在本文中,我们将详细介绍TextCNN模型的原理和实现,并结合一个具体的案例和代码,展示如何使用TextCNN模型来解决文本分类问题。

文章图片
#分类#机器学习#深度学习 +2
深度学习与文本聚类:一篇全面的介绍与实践指南

在信息爆炸的时代,文本聚类成为了信息处理的重要任务之一。文本聚类可以帮助我们从海量的文本数据中提取有价值的信息和知识,这对于商业智能、搜索引擎、新闻推荐等应用具有重要的意义。然而,传统的文本聚类方法面临着许多挑战,比如需要手动选择特征、需要对文本进行预处理等。随着深度学习技术的发展,越来越多的研究者开始使用深度学习方法来解决文本聚类的问题。本文将介绍基于深度学习的文本聚类方法,讲解其原理,并结合实

文章图片
#聚类#深度学习#机器学习
新闻文本分类任务:使用Transformer实现

自然语言处理(NLP)领域中的新闻文本分类任务旨在将一段文本自动分类到某个预定义的类别中,例如体育、政治、科技、娱乐等等。这是一个重要的任务,因为在日常生活中,我们需要处理各种类型的文本,并且需要在其中找到特定的信息。新闻文本分类任务的自动化可以帮助我们更快地了解大量的文本,并提供更好的搜索和推荐服务。在本文中,我们将介绍一些新闻文本分类任务的最新研究,并探讨它们的优势和劣势。

文章图片
#分类#transformer#机器学习
CLIP:一种基于视觉和语言相互关联的图像分类模型

近年来,计算机视觉领域的发展非常迅速,其中图像分类是一项非常重要的任务。然而,传统的图像分类模型在面对大规模图像分类任务时存在很多局限性,例如需要大量标注数据、难以泛化到新的图像类别等问题。为了解决这些问题,近年来出现了一种新的图像分类模型——CLIP(Contrastive Language-Image Pre-Training),它能够基于视觉和语言相互关联的方式,实现无监督或弱监督的图像分类

文章图片
#分类#机器学习#人工智能
    共 95 条
  • 1
  • 2
  • 3
  • 10
  • 请选择