logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

PaddlePaddle入门实践——手写数字识别

任务要求  能够识别手写数字0~9的图像,具体来说,将手写数字的灰度图像(28像素 x 28像素)划分到10个类别中(0 ~ 9)。要求使用PaddlePaddle框架实现模型。数据集及环境数据集来源: ML领域经典数据集MNIST,包含60,000 张训练图像和 10,000 张测试图像数据说明:数据分为图片和标签,图片是28*28的像素矩阵,标签为0 ~ 9共10个数字运行环境:PaddleP

#python#机器学习#深度学习 +2
PaddlePaddle入门实践——初识卷积神经网络

CNN基础介绍卷积操作单通道卷积多通道卷积多通道输出Batch池化paddingLeNet-5实践——手写数字识别  在我上一篇写的总结(PaddlePaddle入门实践——手写数字识别)中,我们采用了单隐层、线性变换的全连接神经网络模型来实现功能,本次总结我们将继续着眼于手写数字识别,所不同的是,我们会使用CNN的经典结构LeNet-5来达成目的。数据格式(image,label)  Lenet

#神经网络#python
公式推导概率生成模型(更新~)

基于概率的分类模型朴素贝叶斯线性判别分析logistic regression决策树支持向量机参考Datawhale集成学习项目地址李宏毅ML20课程主页

#python#机器学习#人工智能 +1
hexo报错:TypeError [ERR_INVALID_URL]: Invalid URL

报错信息  上传md格式的文章时报错,信息如下:  后面紧接着一大堆node_modules的报错信息,就不展示了,大同小异~  注:报错因人而异,切勿人云亦云解决思路  现在开始排查node版本问题,可能是版本过高,需要退回12。node -v之后发现自己版本12.14。显然不是此问题可能是插件升级后有某些bug,而且确实有很多node_modules的报错信息。可以删除node_modules

#bug#html
Vue踩坑之vue-router挂载页面失败

问题描述系统: macOS Catalina 10.15.4背景: 设计嵌套路由问题: vue-router挂载页面失败  这是本人遇到的情况,仅供参考~  Tips:可直接看问题解决~问题解决  设计嵌套路由,发现挂载不上页面。如下解决方案:App.vue  检查App.vue文件中是否有<router-view />标签,若无,添加上。<templa...

#chrome#vue.js#javascript +1
踩坑记录——记一次训练提交baseline全过程

目录目的背景个人配置赛题要求本机跑通Baselinepytorch配置准备环节添加transformers和sklearn数据文件及bert配置模型训练过程数据准备训练更改batch_size适配主机生成结果打包预测结果Docker提交Docker安装本机Docker推送走通的路比赛提交致谢参考目的  根据Datawhale大佬们提供的baseline训练模型,并通过docker的方式提交到天池比

#docker#windows#python +2
Vue踩坑之gyp: No Xcode or CLT version detected

问题背景及描述系统: macOS Catalina 10.15.4背景: 使用vue-cli创建项目报错: gyp: No Xcode or CLT version detected  这是本人遇到的情况,仅供参考~  Tips:可直接看问题解决~问题描述  查找nodejs官方github关于mac os 10.15的特别提醒发现,node-gyp需要Xcode Comman...

#vue.js#node.js
Vue踩坑之vue-router挂载页面失败

问题描述系统: macOS Catalina 10.15.4背景: 设计嵌套路由问题: vue-router挂载页面失败  这是本人遇到的情况,仅供参考~  Tips:可直接看问题解决~问题解决  设计嵌套路由,发现挂载不上页面。如下解决方案:App.vue  检查App.vue文件中是否有<router-view />标签,若无,添加上。<templa...

#chrome#vue.js#javascript +1
python爬虫——requests状态码418

问题描述  使用requests库爬取某个豆瓣电影评论,status_code码为418  根据官方文档显示,status_code为200时表示get成功。查了一下官方github的issue(像“愉快地讨论”问题)以及其他资料,发现418就是爬取的网站有反爬取机制,然后我就被KO了~解决方案  方法很easy~就是添加请求header的UserAgent防止被反爬虫识别。获取本机UserAge

#python#http#爬虫
    共 11 条
  • 1
  • 2
  • 请选择