logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Opencv总结1——视频读取与处理,图像阈值和平滑处理,图像形态学操作

读取视频VideoCapture可以捕获摄像头,用数字可以空中不同的设备,比如0和1视频文件直接指定位置就可以。

文章图片
#opencv#人工智能#计算机视觉
大模型面试必备06——InstructGPT精读

论文题目Training language models to follow instructions with human feedback,即训练语言模型,使得它们能够服从人类的一些指示。语言模型每次是给定一段东西,然后去预测下一个词,它是一个自监督模型,所以认为它是没有标号的。如果想让语言模型去解释某一个概念的话,就需要文本中出现过类似的东西,因此模型的行为取决于文本搜集的好坏。这样的问题在

文章图片
#人工智能
大模型面试必备05——ChatGLM详解

GLM:https://arxiv.org/abs/2103.10360GLM130B: https://arxiv.org/abs/2210.02414 code: https://github.com/THUDM/GLM-130B/Code: https://github.com/THUDM/ChatGLM-6B相关博客参考(按优先级顺序):https://blog.csdn.net/zsq_

文章图片
#人工智能#python#opencv +2
大模型面试必备04——BERT 论文逐段精读

参考视频:【BERT 论文逐段精读【论文精读】】 https://www.bilibili.com/video/BV1PL411M7eQ/?

文章图片
#bert#人工智能#深度学习
大模型面试必备03——llama文章精读

LLaMA是一个系列模型,模型参数量从7B到65B。在大部分的任务上,LLaMA-13B强于GPT-3(175B)。LLaMA-65B的性能,可以和最好的LM相媲美,如Chinchilla-70B 和PaLM-540B。

文章图片
大模型面试必备02—— Scaling Laws与涌现能力、CLM vs MLM建模

量变引起质变,当规模达到一定程度的时候,产生了一种群体的现象,这种群体的现象再也不能从原来的个体现象推知,可能需要一个新的学科,或者一些新的定律来研究整体的系统。(说人话就是一开始模型学习翻译的,训练完之后,模型也学会了做完型填空……)总结:大模型出现涌现现象(Emergent Abilities)的本质是复杂系统在规模效应和高维表征能力的共同作用下,产生的非线性相变。小模型不具备,但是大模型拥有

文章图片
#深度学习#人工智能#机器学习 +1
大模型面试必备01——GPT参数计算、BPE分词算法

所有参数=$$词向量维度 × (词表大小 + 窗口长度) +(4D^2 + 8D^2 + 5D)*注意力层数 $$,D为词向量维度代码计算看7、代码计算。(计算复杂度和宽度是平方关系,和层数是线性关系)

文章图片
#人工智能#python#语言模型
sklearn函数总结九— 朴素贝叶斯

在学习朴素贝叶斯之前,我们必须要先掌握贝叶斯公式:这个公式乍一看,你肯定很懵逼,不过不用怕,我们来解释和分解下,你就懂了。朴素贝叶斯(Naive Bayes)算法 是一种基于贝叶斯定理的分类方法,广泛应用于文本分类(如垃圾邮件识别、情感分析等)和其他机器学习领域。特征与特征之间条件相互独立,即在给定类别的条件下,特征之间没有任何关系或依赖。公式数学推导略。

文章图片
#sklearn#概率论#机器学习 +1
sklearn函数总结九— 朴素贝叶斯

在学习朴素贝叶斯之前,我们必须要先掌握贝叶斯公式:这个公式乍一看,你肯定很懵逼,不过不用怕,我们来解释和分解下,你就懂了。朴素贝叶斯(Naive Bayes)算法 是一种基于贝叶斯定理的分类方法,广泛应用于文本分类(如垃圾邮件识别、情感分析等)和其他机器学习领域。特征与特征之间条件相互独立,即在给定类别的条件下,特征之间没有任何关系或依赖。公式数学推导略。

文章图片
#sklearn#概率论#机器学习 +1
到底了