logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

基于GPT的传统中国诗词生成-论文笔记

原论文:《GPT-based Generation for Classical Chinese Poetry》该论文使用GPT模型去生成中国传统诗词。模型:基于BERT源码实现的GPT预训练:8 Nvidia V100(16GB) GPUs for 4 epochs微调:使用自动回归语言模型训练数据:预训练:中国新闻语料微调训练:作者等人收集的开放可用的传统中国诗词...

error: (-215:Assertion failed) number < max_number in function ‘icvExtractPattern‘

问题背景在 Python 中执行如下命令import cv2a = cv2.VideoCapture("./test.mp4")问题形式出现错误:[ERROR:0] global /tmp/pip-build-2tzbaysn/opencv-python/opencv/modules/videoio/src/cap.cpp (142) open VIDEOIO(CV_IMAGES): raised

#python#opencv
深度学习中的几种正则化(Regularization)方法

正则化是一种策略,目的是减少测试误差,大体方式是通过增加(或减少)模型所能拟合的函数的数量来增加(或减少)模型的容量。使用参数范数惩罚通常只惩罚权重,不惩罚偏置。基本公式:J~(θ;X,y)=J(θ;X,y)+αΩ(θ)\widetilde{J}(\pmb{\theta};\pmb{X},y)=J(\pmb{\theta};\pmb{X},y)+\alpha\Omega(\pmb{\t...

#深度学习#机器学习
计算点到(以端点描述的)线段的距离

这里讨论的是点到线段的距离,其中线段是用两个端点的坐标表示的。

文章图片
#线性代数
KL距离

KL距离全称:Kullback-Leibler差异(Kullback-Leibler)又称:相对熵(relative entropy)数学本质:衡量相同事件空间里两个概率分布相对差距的测度定义:D(p∣∣q)=∑x∈Xp(x)logp(x)q(x)D(p||q)= \sum_{x \in X} p(x) log \frac {p(x)}{q(x)} D(p∣∣q)=x∈X∑​p(...

SWISH论文翻译

SWISH论文翻译基本是机器翻译,也进行了基本的人工矫正,凑活看吧原论文:SEARCHING FOR ACTIVATION FUNCTIONS链接:https://arxiv.org/pdf/1710.05941.pdf摘要深度网络中激活函数的选择对训练动态和任务性能有显着影响。目前,最成功和广泛使用的激活函数是整流线性单元(ReLU)。尽管已经提出了各种手工设计的ReLU替代品,但...

#神经网络
Pytorch检查一个张量是否为空

检查一个pytorch的张量是不是空张量,很简单:if torch_tensor == torch.Size([]):print("this tensor is empty")else:print("this tensor is not empty")

#pytorch
Expected object of scalar type c10::Half but got scalar type float for sequence element 2.

问题Traceback (most recent call last):File "test.py", line 324, in <module>save_conf=opt.save_conf,File "test.py", line 124, in testoutput = non_max_suppression(inf_out, conf_thres=conf_thres, iou

#pytorch#人工智能
常用拉普拉斯变换

基本性质性质公式表示线性定理-齐次性L[af(t)]=aF(s)L[af(t)]=aF(s)L[af(t)]=aF(s)线性定理-叠加性L(f1(t)±f2(t))=F1(s)±F2(s)L(f_1(t)\pm f_2(t))=F_1(s)\pm F_2(s)L(f1​(t)±f2​(t))=F1​(s)±F2​(s)微分定理-一阶导L[df(t)dt]...

#数学
    共 33 条
  • 1
  • 2
  • 3
  • 4
  • 请选择