logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

LLM Agents项目推荐:MetaGPT、AutoGen、AgentVerse详解

和,包括它们的背景、设计思路、主要功能、技术亮点以及典型应用场景。这一部分我们将深入介绍三大备受关注的LLM Agents项目:**MetaGPT**、**AutoGen**和**AgentVerse**,包括它们的背景、设计思路、主要功能、技术亮点以及典型应用场景。

#自然语言处理#语言模型#人工智能
英伟达NVIDIA服务器显卡多实例技术(MIG)

多实例技术有点类似于vGPU,如果物理服务器安装的是vmware或者KVM这种虚拟机系统,那么如果想给每个虚拟机分配一张显卡显然显卡不够分,一般6U的服务器也就8张显卡,所以需要用到vGPU技术,将显卡虚拟化成多张显卡,而这玩意跟虚拟机系统一样是需要收费的,按照显卡数量进行授权收费。而如果物理服务器安装的不是虚拟机操作系统,例如安装的是Ubuntu系统,然后采用docker等容器技术,也是需要对显

文章图片
#服务器#linux#网络
深入浅出——深度学习训练中的warmup

深度学习已经成为了机器学习领域的热门话题之一。在深度学习中,神经网络是最为常用的模型之一。神经网络的训练是深度学习的核心环节之一,而在神经网络训练过程中,warmup技术已经成为了一种非常重要的技术。它可以加速模型的收敛速度,提高模型的泛化能力,解决深度神经网络训练初期的不稳定性等问题。本文将从原理和实践两个方面,深入浅出地介绍深度学习训练中的warmup技术,帮助读者更好地理解和应用这一重要技术

文章图片
#深度学习#人工智能#神经网络 +2
从训练到实际应用:深度学习模型的部署探秘

随着深度学习技术的快速发展,越来越多的深度学习模型在各种应用领域中取得了卓越的成果。然而,训练一个高性能的深度学习模型只是整个应用过程的一部分,将训练好的模型顺利地部署到实际应用环境中同样具有挑战性。本篇博客将深入探讨深度学习模型的部署流程,并结合实际案例和代码,详细介绍深度学习模型的部署原理与实践。

文章图片
#深度学习#tensorflow#人工智能
使用stable diffusion webui在本地搭建中文的AI绘图模型

最近一段时间大火的AI绘画引起了各界人士的关注,但是stable diffusion开源的都是英文的模型,本文参考封神榜团队开源的太乙模型以及相关代码,利用stable diffusion webui搭建一个中文的AI绘图模型,在本地实现AI绘画。

文章图片
#git#python
选择正确优化器,加速深度学习模型训练

随着深度学习技术的不断发展和应用,深度学习模型的复杂性也在不断增加。因此,模型训练成为深度学习中最为耗时的过程之一。优化器的选择可以对模型训练的效率和准确性产生巨大影响。在本文中,我们将介绍深度学习中常用的优化器以及其原理,并通过代码实现来说明它们的效果和适用范围。

文章图片
#深度学习#人工智能#机器学习 +2
PyTorch动态图 vs. TensorFlow静态图:深度学习框架之争

深度学习框架是机器学习领域中不可或缺的工具。目前,市场上主流的深度学习框架有PyTorch和TensorFlow。其中,PyTorch使用动态图,而TensorFlow使用静态图。两者各有优缺点,本文将从原理、代码以及优缺点三个方面进行详细的介绍和比较。

文章图片
#深度学习#tensorflow#pytorch
从BERT到ROBERTA:预训练语言模型的优化之路

自从深度学习在自然语言处理领域得到广泛应用以来,Transformer模型一直是自然语言处理的重要研究方向。2017年,谷歌推出了Transformer模型的创新之作——BERT,在自然语言处理领域引起了极大的关注。2020年,Facebook AI Research推出了ROBERTA模型,它在BERT的基础上做了一些改进,取得了更好的效果。本文将详细介绍ROBERTA模型的原理、优势和劣势,并

文章图片
#bert#语言模型#深度学习 +2
使用stable diffusion webui在本地搭建中文的AI绘图模型

最近一段时间大火的AI绘画引起了各界人士的关注,但是stable diffusion开源的都是英文的模型,本文参考封神榜团队开源的太乙模型以及相关代码,利用stable diffusion webui搭建一个中文的AI绘图模型,在本地实现AI绘画。

文章图片
#git#python
大模型部署实战(一)——Ziya-LLaMA-13B

Ziya-LLaMA-13B是IDEA基于LLaMa的130亿参数的大规模预训练模型,具备翻译,编程,文本分类,信息抽取,摘要,文案生成,常识问答和数学计算等能力。目前姜子牙通用大模型已完成大规模预训练、多任务有监督微调和人类反馈学习三阶段的训练过程。本文主要用于Ziya-LLaMA-13B的本地部署。

文章图片
#自然语言处理
    共 84 条
  • 1
  • 2
  • 3
  • 9
  • 请选择