logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

机器学习深度学习中的上采样技术

上采样技术,也称为增取样或内插更大上采样技术,也称为增取样或内插。

文章图片
#机器学习#深度学习#人工智能
pytorch中的transforms.resize()函数

调整图像的大小一个整数或一个元组。

文章图片
#pytorch#人工智能#python
python中的print(f‘‘)具体用法

在Python中,print(f''),这些表达式在运行时会被所替换。f或F前缀表示这是一个格式化字符串字面量。f''F''{},你可以放入任何有效的。当print函数执行时,这些,并且其结果会被插入到字符串的相应位置。下面是一些使用print(f'')

文章图片
#python#开发语言#学习
vscode通过ssh连接服务器实现免密登录+删除(吐血总结)

13.如果长时间都一直是该情况,可以使用Ctrl + Shift + P,打开命令窗口,输入reload window来重新加载窗口(会要求你重新手动输入密码)。(2)终端会出现以下提示,可以自己定义密钥名(就是自己定义文件所在位置),也可以直接跳过,默认在C盘中的C:\Users\“用户名”\.ssh中。12、该用户第一次访问该服务器可以看到该提示信息,耐心等待,这时是插件在服务器上面安装需要的

文章图片
#vscode#ssh#服务器
机器学习——L1 L2 范数 —>L1 L2正则化

L1范数:也被称为曼哈顿范数,是向量元素的绝对值之和。。L2范数:也被称为欧几里得范数,是向量元素的平方和的平方根。

文章图片
#机器学习#人工智能
机器学习、深度学习中的目标函数、损失函数、梯度概念

在训练过程中,损失函数的值被用来作为优化算法的目标,以便通过。,而梯度是一种用于指导参数更新的重要工具。(或最大化)的函数。在机器学习和优化中,:这个术语通常指的是在监督学习中用来衡量。损失函数是目标函数的一部分,它。:某些情况下为目标函数。在机器学习和深度学习中,:这个术语通常指的是。

文章图片
#人工智能#机器学习#深度学习
大模型/NLP/算法4——bert参数量计算

BERT的总参数量可以大致通过加总上述各个组件的参数量来估算。但请注意,具体的参数量还会受到模型配置(如隐藏层大小。

文章图片
#bert#人工智能#深度学习
大模型/NLP/算法2——transformer流程//多头//clip//对比学习//对比学习损失函数

对比学习(Contrastive Learning)是一种机器学习方法,特别是在无监督学习和自监督学习中广泛应用。其核心思想是通过比较不同样本之间的相似性和差异性来学习数据的表示或特征。这种方法不依赖于标签数据,而是通过样本之间的相互关系,使得模型能够学习到有意义的特征表示。

文章图片
#自然语言处理#人工智能
机器学习深度学习中的上采样技术

上采样技术,也称为增取样或内插更大上采样技术,也称为增取样或内插。

文章图片
#机器学习#深度学习#人工智能
大模型/NLP/算法3——BERT和T5的区别?

BERT专注于编码任务,擅长理解文本上下文,适用于文本分类、NER、问答等需要文本表示的任务。T5:采用文本到文本的统一框架,适用于多任务学习和文本生成任务,具有很强的灵活性和扩展性。

文章图片
#自然语言处理#算法#人工智能
    共 47 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择