logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

本地可以自动发送邮件,阿里云服务器不行

使用qq邮箱的stmp.qq.com来实现定时发送邮件,默认端口是25,在本地尝试了可以发送,部署到阿里云服务器出现网络失败。需要在云服务器的出方向和入方向都开放587端口才行。于是换了465端口,依旧失败。最后尝试587端口,成功发送。

#服务器#阿里云#运维
epoch,batch,steps_per_epoch在模型训练中的关系

epochepoch: 每个epoch代表训练完一次全部train_databatch通过batch_size来控制,将train_data划分成子集,每个子集都有batch_size和样本,作为一个batch。batch_size越大,训练速度越快,对显卡的要求就越高。如果batch_size过小,训练数据就会非常难收敛,导致欠拟合steps_per_epochsteps_per_epoch:这

#batch#深度学习
GPT和BERT优缺点比较

  GPT(Generative Pre-Training)和BERT(Bidirectional Encoder Representation from Transformers)都是以Transformer为主题架构的预训练语言模型,都是通过“预训练+fine tuning”的模式下完成下游任务的搭建从模型的角度上1) GPT是单向模型,无法利用上下文信息,只能利用上文;而BERT是双向模型。

通俗易懂方差(Variance)和偏差(Bias)

看了沐神的讲解,恍然大悟,b站可以不刷,但沐神一定要看。在统计模型中,通过方差和偏差来衡量一个模型。1 方差和偏差的概念偏差(Bias):预测值和真实值之间的误差方差(Variance):预测值之间的离散程度,也就是离其期望值的距离。方差越大,数据的分布越分散。2 均方误差(Mean-Square error,MSE)在统计模型评价中时,评价一个点估计的坏时,通常使用点估计y^\hat{y}y^​

#机器学习
GPT和BERT优缺点比较

  GPT(Generative Pre-Training)和BERT(Bidirectional Encoder Representation from Transformers)都是以Transformer为主题架构的预训练语言模型,都是通过“预训练+fine tuning”的模式下完成下游任务的搭建从模型的角度上1) GPT是单向模型,无法利用上下文信息,只能利用上文;而BERT是双向模型。

推荐系统(3)——个性化推荐系统架构

关于推荐系统的技术架构,我认为应该是作为一个初学者首先需要认识的很明显,推荐算法是属于推荐系统的一部分。1 推荐系统架构图——baseline根据以上的很简单的架构图可以看出,一个推荐系统可以概括为f(U,I,C)f(U, I, C)f(U,I,C):基于用户(User)+物品(Item)+场景(Context)信息,从系统中的物品库中,给对应的用户推荐相应的物品,也即实现所谓的”千人千面“。基于

#系统架构#推荐算法#算法
python dataframe列计算众数、中位数、平均值、极值、标准差等统计量

b = pd.DataFrame({'a':[1,3,3,4],'b':[2,2,2,2]})a = pd.DataFrame()# 分别计算均值,标准差、众数、最值、中位数a['mean']=[b['a'].mean() for i in range(len(b)) ]a['std']=[round(b['a'].std(),2) for i in range(len(b)) ]a['mode'

#python
python 画图自定义x轴刻度值

x = [1,3,5,7,9]plt.xticks(range(len(x)),x)

#python
到底了