logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

吴恩达机器学习编程作业Python实现

博主自己写的吴恩达机器学习编程作业的Python实现,已经放到github上了,欢迎大家来交流。https://github.com/lsl1229840757/machine_learning

#python#机器学习
自我知识蒸馏学习论文总结

自我知识蒸馏学习论文总结 博主看了几篇有关自我知识蒸馏的论文,大致将self-distillation划分为两类:第一类就是从时间的前后进行蒸馏,即前面几个epochs的模型去蒸馏后面几个epochs的模型;第二类就与Deep Supervision类似,即深层的part去蒸馏浅层的part。针对这两大类,博主各写了一篇原论文的阅读笔记,整合在这里方便阅读和查找,也欢迎大家一起探讨。第一类,Sel

1.2 课程介绍-课程后勤

课程介绍-课程后勤 这门课主要集中解决计算机视觉中的图像分类问题。当然也会讨论一些其他的计算机视觉问题:Object detectionAction classificationImage captioning CNN的前身可以追溯到1998(Le Cun et al.)。12年才崭露头角的原因就是那个时候才有了更高的算力。本课程总共有三次作业需要完成。...

#深度学习#计算机视觉
吴恩达机器学习编程作业Python实现

博主自己写的吴恩达机器学习编程作业的Python实现,已经放到github上了,欢迎大家来交流。https://github.com/lsl1229840757/machine_learning

#python#机器学习
Be Your Own Teacher 论文阅读

 这是一篇ICCV2019的论文,提升模型精度一直是DL界在追求的目标。一般情况下,在模型结构上面的改进可以归纳为三个方面:**depth**,**width**,**cardinality**。但这样一味地将模型结构复杂化,也会让计算成本呈指数级上升。本论文则提出了一种叫做``self distillation``的**训练方式**,在没有增加任何推理计算成本的情况下,显著提升模型的精

ChatGPT为什么会一本正经胡说八道?我们如何改进它?| 文内附有代码

众所周知,在OpenAI平台上的ChatGPT模型目前有两大痛点:1. 它所学习的数据资料都是截止到2021年为止的,因此无法给出2022年之后的发生的事情。2. 有些时候会出现一些常识性的错误,也就是它会一本正经的胡说八道,比如问它一些历史、数学问题,它可能就会回答出。究其原因,主要是ChatGPT是“生成式回复”。它事先学习了大量的人类的知识以及人类对它的引导和奖励的策略。它本质上依托于一个参

文章图片
#深度学习#人工智能
到底了