logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

百度AI攻略:Paddlehub实现图像分割

PaddleHub可以便捷地获取PaddlePaddle生态下的预训练模型,完成模型的管理和一键预测。配合使用Fine-tune API,可以基于大规模预训练模型快速完成迁移学习,让预训练模型能更好地服务于用户特定场景的应用。模型概述:模型概述 DeepLabv3+ 是Google DeepLab语义分割系列网络的最新作,其前作有 DeepLabv1,DeepLabv2, DeepLabv...

视觉几何的“大一统”模型:深入解读Depth Anything 3

字节跳动团队提出DepthAnything3(DA3),通过"深度-光线"表示法和单一Transformer架构,统一了3D视觉任务。DA3采用教师-学生训练范式,利用合成数据生成高质量伪标签,显著提升了模型性能。实验表明,DA3在相机位姿估计、几何重建等任务上全面超越现有方法,位姿准确率平均提升35.7%。该模型展示了作为3D基础模型的潜力,为通用3D感知发展奠定了基础。

#深度学习#人工智能
百度AI攻略:情感分析的多种方法

1. 简介现在情感分析有很广泛的应用,例如:评论分析与决策,通过对产品多维度评论观点进行倾向性分析,给用户提供该产品全方位的评价,方便用户进行决策评论分类,通过对评论进行情感倾向性分析,将不同用户对同一事件或对象的评论内容按情感极性予以分类展示舆情监控,通过对需要舆情监控的实时文字数据流进行情感倾向性分析,把握用户对热点信息的情感倾向性变化等等百度针对情感分析也提供了多种解决方案...

Python机器学习:GroupBy 和 Shift实现 Pandas分组错位

使用Pandas进行数据操作的时候,有时需要分组将数据错位进行操作。在数据分析中经常遇到需要分组使用a列的第n行数据与去b列的第n+1行数据进行对比或者计算的要求,下面是我使用pandas解决该问题的方法。这个时候可以通过操作Index来实现。不过Pandas针对这种情况已经提供了一种方法了,就是shift函数。定义如下:pandas.DataFrame.shiftDataFrame....

百度AI攻略:手写文字识别

1.功能描述:支持对图片中的手写中文、手写数字进行检测和识别,针对不规则的手写字体进行专项优化,识别准确率可达90%以上2.平台接入具体接入方式比较简单,可以参考我的另一个帖子,这里就不重复了:http://ai.baidu.com/forum/topic/show/9433273.调用攻略(Python3)及评测3.1首先认证授权:在开始调用任何API之前需要先进行认证授...

百度AI攻略:EasyDL专业版

1、简介:1.1 什么是EasyDL专业版EasyDL专业版是EasyDL在2019年10月下旬全新推出的针对AI初学者或者AI专业工程师的企业用户及开发者推出的AI模型训练与服务平台,目前支持视觉及自然语言处理两大技术方向,内置百度海量数据训练的预训练模型,可灵活脚本调参,只需少量数据可达到优模型效果。适用人群专业AI工程师且追求灵活、深度调参的企业或个人开发者支持定制模型...

Meta:segment anything

令人惊讶的是,我们发现一个简单的设计可以满足所有三个约束条件:一个强大的图像编码器计算图像嵌入,一个提示编码器嵌入提示,然后两个信息源在一个轻量级的掩码解码器中进行组合以预测分割掩码。在自然语言处理领域,以及近年来的计算机视觉领域,基础模型是一种有前途的发展,通常可以通过“提示”技术实现对新数据集和任务的零样本和小样本学习。其次,我们发现在使用提示工程的零-shot转移协议下,在各种下游任务中,包

文章图片
#深度学习#计算机视觉#人工智能 +1
GPT vs Bert

GPT和BERT的输入顺序不同:GPT是从左到右的单向模型,它只能在当前位置之前看到的上下文信息,而BERT是一种双向模型,它可以同时看到前面和后面的文本信息。GPT和BERT的训练数据不同:GPT使用了更广泛的训练数据,包括维基百科和网页文本,而BERT则使用了更多的语言任务,如问答和阅读理解。GPT和BERT的任务不同:GPT是一种基于语言模型的生成式模型,可以生成类似人类写作的文本,而BER

文章图片
#bert#深度学习#自然语言处理
新的生图模型DeepFloyd IF来了,可以拳打Stable Diffusion,脚踢Dall-E?

Stability AI与它的多模式AI研究实验室DeepFloyd共同宣布研究版本DeepFloyd IF的发布,这是一款强大的文text-to-image级联像素扩散模型(cascaded pixel diffusion model),复现了Google的Imagen(北方的郎:深入浅出讲解Stable Diffusion原理,新手也能看明白),Imagen也依赖于一个冻结的文本编码器:先将文

文章图片
#人工智能#计算机视觉
经典论文学习:Attention Is All You Need(Transformer)

Transformer模型通过引入自注意力机制和多头注意力机制来替代传统的循环神经网络和卷积神经网络,从而提高了模型的表现。同时,Transformer模型还采用了分头处理和残差连接等技术,进一步提高了模型的效率和表现。该模型在机器翻译等任务中取得了极高的性能,成为自然语言处理领域的经典模型之一。

文章图片
#深度学习#机器学习#人工智能
    共 16 条
  • 1
  • 2
  • 请选择