logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

DeOldify,这个开源的AI代码可以给你的黑白照片上色

DeOldify是一种技术,以彩色和恢复旧的黑白图像,甚至电影片段。它是由一个叫Jason Antic的人开发和更新的。这是目前最先进的黑白图像着色方法,而且所有的东西都是开源的。首先,让我们看看他是如何做到的。它使用了一种名为NoGAN的新型GAN训练方法,该方法是他自己开发的,用来解决在使用由一个鉴别器和一个生成器组成的正常对抗性网络架构进行训练时出现的主要问题。典型地,GAN训练同时训练鉴别

#人工智能#深度学习#计算机视觉
目标检测YOLO系列算法的进化史

如果你查看 YOLO 的结构、源代码和包,就会发现它们结构良好、文档齐全且免费使用。虽然还有很多的YOLO 类模型,例如 YOLOv5,YOLO X 甚至刚刚发布的YOLO v6,但是Joseph Redmon 已经退出,“没有马云的阿里巴巴还是阿里巴巴”吗?引用:作者:Dr. Abduljabbar Asadi。

文章图片
#目标检测#计算机视觉#深度学习 +1
使用 TimeGAN 建模和生成时间序列数据

在本文中,我们将研究时间序列数据并探索一种生成合成时间序列数据的方法。时间序列数据 — 简要概述时间序列数据与常规表格数据有什么不同呢? 时间序列数据集有一个额外的维度——时间。 我们可以将其视为 3D 数据集。 比如说,我们有一个包含 5 个特征和 5 个输入实例的数据集。那么时间序列数据基本上是该表在第 3 维的扩展,其中每个新表只是新时间步长的另一个数据集。主要的区别是时间序列数据与表格数据

文章图片
#机器学习
使用MergeKit创建自己的专家混合模型:将多个模型组合成单个MoE

在本文中,我们介绍了混合专家体系结构。与从零开始训练的传统moe不同,MergeKit通过整合专家来促进moe的创建,提供了一种提高模型性能和效率的创新方法。我们还详细介绍了使用MergeKit创建MoE的过程,以下是本文的一些代码作者:Maxime Labonne。

文章图片
#人工智能#深度学习#transformer
PyTorch小技巧:使用Hook可视化网络层激活(各层输出)

通过可视化不同的层,可以评估早期层是否捕获边缘和纹理等基本特征,而较深的层是否捕获更复杂的特征。利用 PyTorch 钩子函数来可视化网络中的激活是一种很好的方式,尤其是想要理解不同层如何响应不同输入的情况下。在这个过程中,我们可以捕捉到网络各层的输出,并将其可视化以获得直观的理解。可视化激活,即模型内各层的输出,对于理解深度神经网络如何处理视觉信息至关重要,这有助于诊断模型行为并激发改进。然后我

文章图片
#pytorch#人工智能#python +2
文生图的基石CLIP模型的发展综述

OpenAI的CLIP模型显著地改变了我们处理多模态数据的方式。但是CLIP只是一个开始。从预训练数据到训练方法和对比损失函数的细节,CLIP家族在过去几年中取得了令人难以置信的进步。ALIGN缩放噪声文本,K-LITE增强外部知识,OpenCLIP研究缩放定律,MetaCLIP优化数据管理,DFN增强数据质量。这些模型加深了我们对CLIP在多模态人工智能发展中的作用的理解,展示了在连接图像和文本

文章图片
#人工智能#深度学习#计算机视觉
Nomic Embed:能够复现的SOTA开源嵌入模型

很高兴能够看到有关文本嵌入的最新论文,这篇论文也说明了在模型很小的情况下还是可以得到更好的测试结果,这对我们应用来说非常重要,另外就是现在嵌入的研究方向变为了动态维度表示,但是我个人认为目前这方面还可以有更大的发展。作者:Ritvik Rastogi。

文章图片
#人工智能#深度学习
LLM 加速技巧:Muti Query Attention

MQA是在2019年提出的,当时的应用还没有那么广泛。这是因为以前的模型不需要关心这些方面,例如,LSTM只需要维护一个状态,而不需要保留任何缓存。当transformer最初被提出时,它主要用于Seq2Seq任务,特别是在Encoder-Decoder模型中。由于模型的规模不是很大,也并且没有太多的实际需求,所以MQA并没有引起太多的关注。直到近年来(尤其是2023年开始)基于transform

文章图片
#人工智能#深度学习#transformer
Moment:又一个开源的时间序列基础模型

论文的研究方法和设计在几个关键方面具有创新性。其中包括开发一套预训练时间序列模型的开源方法,创建“时间序列堆”以解决数据稀缺问题,多数据集预训练方法,以及在资源有限的情况下评估性能的基准框架。这些方法允许在各种时间序列分析任务(如预测、分类、异常检测和输入)之间有效地利用最小数据和特定于任务的微调。论文强调对时间序列数据进行大规模、多数据集的预训练,对隐含的时间序列特征(如趋势和频率)进行编码,并

文章图片
#人工智能#机器学习#深度学习 +1
推测解码:在不降低准确性的情况下将LLM推理速度提高2 - 3倍

我们看到,推理的速度的还真是有2倍的提升,并且还可以看到我们的草稿模型要比目标模型小了10倍左右(1.4B和160M)Deepmind论文中提到的2 - 2.5倍的加速比也可能适用于70B目标模型和7B草稿模型,所以如果多卡的话可以加载2个大语言模型来提供加速。以下是推测解码的论文。

文章图片
#人工智能#深度学习#transformer +1
暂无文章信息