
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
博主自己写的吴恩达机器学习编程作业的Python实现,已经放到github上了,欢迎大家来交流。https://github.com/lsl1229840757/machine_learning
自我知识蒸馏学习论文总结 博主看了几篇有关自我知识蒸馏的论文,大致将self-distillation划分为两类:第一类就是从时间的前后进行蒸馏,即前面几个epochs的模型去蒸馏后面几个epochs的模型;第二类就与Deep Supervision类似,即深层的part去蒸馏浅层的part。针对这两大类,博主各写了一篇原论文的阅读笔记,整合在这里方便阅读和查找,也欢迎大家一起探讨。第一类,Sel
课程介绍-课程后勤 这门课主要集中解决计算机视觉中的图像分类问题。当然也会讨论一些其他的计算机视觉问题:Object detectionAction classificationImage captioning CNN的前身可以追溯到1998(Le Cun et al.)。12年才崭露头角的原因就是那个时候才有了更高的算力。本课程总共有三次作业需要完成。...
博主自己写的吴恩达机器学习编程作业的Python实现,已经放到github上了,欢迎大家来交流。https://github.com/lsl1229840757/machine_learning
这是一篇ICCV2019的论文,提升模型精度一直是DL界在追求的目标。一般情况下,在模型结构上面的改进可以归纳为三个方面:**depth**,**width**,**cardinality**。但这样一味地将模型结构复杂化,也会让计算成本呈指数级上升。本论文则提出了一种叫做``self distillation``的**训练方式**,在没有增加任何推理计算成本的情况下,显著提升模型的精
众所周知,在OpenAI平台上的ChatGPT模型目前有两大痛点:1. 它所学习的数据资料都是截止到2021年为止的,因此无法给出2022年之后的发生的事情。2. 有些时候会出现一些常识性的错误,也就是它会一本正经的胡说八道,比如问它一些历史、数学问题,它可能就会回答出。究其原因,主要是ChatGPT是“生成式回复”。它事先学习了大量的人类的知识以及人类对它的引导和奖励的策略。它本质上依托于一个参








