logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【论文阅读】基于深度学习的时序预测——Pyraformer

本文是上海交通大学的团队发表的,背景仍然是如何降低计算复杂度&更好地进行长期依赖性关系的表征。

文章图片
#论文阅读#深度学习#人工智能
深度学习与人类语言处理学习笔记(二)—— 变声(理论篇)

文章目录1. Voice Conversion1.1 Feature Disentangle1.1.1 Pre-training Encoders1.1.2 Adversarial Training1.1.3 Network Design1.1.4 2nd Stage Training1.2 Direct Transformation1.2.1 Cycle GAN1.2.2 StarGAN1.2.

#语音识别#深度学习#人工智能
机器学习数据分析之异常值检测

文章目录1.基于统计学的单变量异常值检验1.1 3σ\sigmaσ准则1.2 箱型图1.3 Grubbs检验1.4 ESD检验1.5 Dixon检验2. 时间序列数据的异常值检验2.1 ADTK python模块在检查异常值之前,可以将缺失值填充好。异常值检验可以分为单变量异常值检验和多变量异常值检验,对于时间序列数据而言还有趋势预测的时间序列异常值检验。1.基于统计学的单变量异常值检验可以先采用

#python
深度学习与人类语言处理学习笔记(三)—— 语音分离(理论篇)

文章目录Speech Separation1. Evaluation1.1 Signal-to-noise ratio(SNR)1.2 Scale invariantsignal-to-distortion ratio(SI-SDR)2. Deep Clustering2.1 Masking3. Permutation Invariant Triaining(PIT)4. TasNet - Tim

#深度学习#自然语言处理#神经网络
自然语言处理(NLP)(二)实战篇之新闻主题分类任务

文章目录1. 构建带有Embedding层的文本分类模型数据包含内容如下:数据准备:import torchimport torchtextfrom torchtext.datasets import text_classificationimport os# 指定数据集下载路径load_data_path = "./data"if not os.path.isdir(load_data_path

#深度学习#python#神经网络
【论文阅读】Scaling Laws for Neural Language Models(2020)- 大模型预训练参数量、数据集大小、计算资源之间的关系验证

大模型效果最大程度的依赖于模型规模的大小,模型的规模指的就是NNNDDDCCC共同确定的,在以上规模达到一定的标准后,模型的超参数如宽度和深度对模型效果的影响较为微弱;大模型效果与NNNDDDCCC三个参数都有着独立的power-law关系;同时增加NNNDDD必然会带来大模型效果的提升,但是如果只提升其中一个变量,就会导致过拟合,性能会发生损失,性能损失的比例为N0.74DN^{0.74}/DN

文章图片
#论文阅读#语言模型#人工智能
Python时间序列缺失值填充

mark来源:时间序列缺失值填充import pandas as pddef fill_source(source, start_time, end_time):"""采用窗口长度为5的移动均值对缺失值进行填充@param source_df:@param start_time: 开始时间戳,str格式@param end_time: 结束时间,str格式@return:

#python
python一维时间序列平滑:移动平均、指数平滑、开尔曼滤波等

文章目录1. 移动平均2. 指数平滑3. 开尔曼滤波记录处理时间序列时需要用到的数据平滑方式参考博客:移动平均、指数平滑三阶指数平滑一阶指数平滑1. 移动平均import numpy as npimport pandas as pddf = pd.DataFrame()df["data"] = np.random.rand(20)# 数据也可以是series格式# 简单移动平均simp_movin

文章图片
#python#数据挖掘#数据分析
    共 42 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择