logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

记录一下整整一天研究将Dash app部署到阿里云上的艰辛历程

查到的最有用的资料是这个了https://stackoverflow.com/questions/53151591/uwsgi-nginx-setup-dash-plotly-deployment主要添加了uwsgi的两个配置文件uwsgi.ini和app.wsgi,分别为:没用nginx,因为这个dashapp没有静态文件。...

#dash
知识蒸馏 综述 Knowledge Distillation: A Survey

Knowledge Distillation: A Survey本文译自Knowledge Distillation: A Survey,论文地址:https://arxiv.org/abs/2006.05525(有翻译不周之处,敬请指正)1. Introduction深度学习取得了巨大进步,但是受限于庞大的计算量和参数量很难实际应用与资源受限设备上。为了使深度模型更加高效,主要有以下两个方向的研

文章图片
#深度学习#机器学习#人工智能
Linux上时间不对的调整方案

本文介绍了在 Linux 系统中调整时间的几种方法。首先,通过手动设置日期和时间,然后讨论了使用网络时间协议(NTP)自动同步时间的方式。同时,强调检查和调整时区设置的重要性以确保准确的时间。最后,提及使用 'hwclock' 命令同步系统时钟与硬件时钟。这些简单而有效的方法能够帮助用户在 Linux 系统中轻松调整时间,确保准确性和系统正常运行。

文章图片
#linux#运维#服务器 +1
知识蒸馏 综述 Knowledge Distillation: A Survey

Knowledge Distillation: A Survey本文译自Knowledge Distillation: A Survey,论文地址:https://arxiv.org/abs/2006.05525(有翻译不周之处,敬请指正)1. Introduction深度学习取得了巨大进步,但是受限于庞大的计算量和参数量很难实际应用与资源受限设备上。为了使深度模型更加高效,主要有以下两个方向的研

文章图片
#深度学习#机器学习#人工智能
知识蒸馏 综述 Knowledge Distillation: A Survey

Knowledge Distillation: A Survey本文译自Knowledge Distillation: A Survey,论文地址:https://arxiv.org/abs/2006.05525(有翻译不周之处,敬请指正)1. Introduction深度学习取得了巨大进步,但是受限于庞大的计算量和参数量很难实际应用与资源受限设备上。为了使深度模型更加高效,主要有以下两个方向的研

文章图片
#深度学习#机器学习#人工智能
从Kaggle下载数据集到Ubuntu服务器

首先截图以纪念成功下载HAM10000数据集然后记录下过程1、在kaggle获取秘钥文件参考https://zhuanlan.zhihu.com/p/36061667,然后将生成的kaggle.json 复制到~/.kaggle/kaggle.json。具体操作见链接。2、在服务器端安装Kaggle API参考链接https://github.com/Kaggle/kag...

SNH离线手写数学公式识别计算系统

记录一下辛苦一个学期完成的第一个项目SNHSNH是一个能识别手写数学公式并进行计算的综合系统,选择图片即可输出识别与计算结果。主要创新点为将传统模式识别方法和卷积神经网络模型结合。动态识别字符,实时调整切分方案。项目已开源,见https://github.com/RaccoonDML/SNH...

到底了