logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

SmoothQuant+:可以用于大语言模型的 4-bit 量化算法

‍‍‍‍LLMs 在各种任务上展现出令人惊叹的能力,但是庞大的模型尺寸和对算力的巨大需求对模型的部署也提出了挑战。目前 4-bit 的 PTQ 权重量化在 LLMs 上已经取得了一些成绩,相对 FP16 内存占用减少近 75%,但是在精度上仍有较大的损失。我们在论文《SmoothQuant+:Smooth LLM Weight Quantization and Acceleration in 4-

#算法#语言模型#人工智能 +2
训练后量化(PTQ) 工作流理解

目前神经网络在许多前沿领域的应用取得了较大进展,但经常会带来很高的计算成本,对内存带宽和算力要求高。另外降低神经网络的功率和时延在现代网络集成到边缘设备时也极其关键,在这些场景中模型推理具有严格的功率和计算要求。神经网络量化是解决上述问题有效方法之一,但是模型量化技术的应用会给模型带来额外噪音,从而导致精度下降,因此工程师对模型量化过程的理解有益于提高部署模型的精度。本文...

#神经网络#网络#大数据 +2
浅谈视觉超大模型

人工智能可以分为几个发展阶段:基于数据的互联网时代、基于算力的云计算时代,以及接下来进入的基于模型的 AI 时代。随着 GPT-3 的横空出世,这个具有 1750 亿参数的通用预训练模型让人们看到了“超大模型”实现通用人工智能的潜力, 之后越来越多学术机构和企业加入“炼大模型”的行列,Google 推出的 Switch Transformer 模型,更是将参数量提升到 1...

#大数据#计算机视觉#机器学习 +2
浅谈视觉超大模型

人工智能可以分为几个发展阶段:基于数据的互联网时代、基于算力的云计算时代,以及接下来进入的基于模型的 AI 时代。随着 GPT-3 的横空出世,这个具有 1750 亿参数的通用预训练模型让人们看到了“超大模型”实现通用人工智能的潜力, 之后越来越多学术机构和企业加入“炼大模型”的行列,Google 推出的 Switch Transformer 模型,更是将参数量提升到 1...

#大数据#计算机视觉#机器学习 +2
浅谈视觉超大模型

人工智能可以分为几个发展阶段:基于数据的互联网时代、基于算力的云计算时代,以及接下来进入的基于模型的 AI 时代。随着 GPT-3 的横空出世,这个具有 1750 亿参数的通用预训练模型让人们看到了“超大模型”实现通用人工智能的潜力, 之后越来越多学术机构和企业加入“炼大模型”的行列,Google 推出的 Switch Transformer 模型,更是将参数量提升到 1...

#大数据#计算机视觉#机器学习 +2
Prophet:一种大规模时间序列预测模型

前言Prophet是由facebook开发的开源时间序列预测程序,擅长处理具有季节性特征大规模商业时间序列数据。本文主要介绍了Prophet模型的设计原理,并与经典的时间序列模型ARIMA...

#人工智能#python#机器学习 +2
浅谈视觉超大模型

人工智能可以分为几个发展阶段:基于数据的互联网时代、基于算力的云计算时代,以及接下来进入的基于模型的 AI 时代。随着 GPT-3 的横空出世,这个具有 1750 亿参数的通用预训练模型让人们看到了“超大模型”实现通用人工智能的潜力, 之后越来越多学术机构和企业加入“炼大模型”的行列,Google 推出的 Switch Transformer 模型,更是将参数量提升到 1...

#大数据#计算机视觉#机器学习 +2
到底了