logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

上海人工智能实验室的书生·浦语大模型学习笔记(第二期第一课之下篇)

传统的预训练策略主要依赖于大规模语料库的迭代训练,然而,这种方法在模型规模不断扩大时,面临着训练效率低下、计算资源消耗巨大等问题。为此,InternLM2提出了进化式预训练策略——InternEvo。

文章图片
#人工智能#学习
上海人工智能实验室的书生·浦语大模型学习笔记(第二期第一课之上篇)

在人工智能的发展道路上,大模型无疑成为了重要的突破口。从专用模型到通用大模型,它们在解决特定任务和应对多种任务、多种模态方面都展现出了强大的能力。本文记录书生浦语大模型的开源历程及其全链路开源体系。

文章图片
#人工智能
上海人工智能实验室的书生·浦语大模型学习笔记及作业--day5

模型部署是指将训练好的模型在特定环境中运行的过程,以便将其应用到实际生产中。这个过程需要解决模型框架兼容性和运行速度的问题。LMDeploy是一个用于部署大模型的工具箱,由上海人工智能实验室开发。它使用C++/CUDA进行推理,并对外提供Python/gRPC/HTTP接口和WebUI界面。LMDeploy支持tensor parallel分布式推理,并支持fp16/weightint4/kv c

文章图片
#学习#人工智能
上海人工智能实验室的书生·浦语大模型学习笔记(第二期第一课之下篇)

传统的预训练策略主要依赖于大规模语料库的迭代训练,然而,这种方法在模型规模不断扩大时,面临着训练效率低下、计算资源消耗巨大等问题。为此,InternLM2提出了进化式预训练策略——InternEvo。

文章图片
#人工智能#学习
上海人工智能实验室的书生·浦语大模型学习笔记(第三课——下篇)

书生·浦语是上海和商汤科技联合研发的一款大模型,这次有机会参与试用,特记录每次学习情况。

文章图片
#学习
上海人工智能实验室的书生·浦语大模型学习笔记及作业--day4

Finetune中文译为“微调”,深度学习中需要在深层网络中不断进行训练更新模型的参数(权重)拟合能实现预期结果的模型。“微调”的原理就是利用已知的网络结构和已知的网络参数,修改output层为我们自己的层,微调最后一层前的若干层的参数,这样就有效利用了。

文章图片
#学习#人工智能#python
上海人工智能实验室的书生·浦语大模型学习笔记--day3

大型语言模型(LLM)是一种基于深度学习技术的自然语言处理工具,它通过大量文本数据的训练,能够生成自然语言文本或理解语言文本的含义,具有重要的应用价值。它提供了丰富的组件和工具,简化了应用程序的开发过程,并提供了与外部资源的集成能力,使得应用程序更加灵活和功能强大。

文章图片
#学习#人工智能#python
上海人工智能实验室的书生·浦语大模型学习笔记(第二期第一课之上篇)

在人工智能的发展道路上,大模型无疑成为了重要的突破口。从专用模型到通用大模型,它们在解决特定任务和应对多种任务、多种模态方面都展现出了强大的能力。本文记录书生浦语大模型的开源历程及其全链路开源体系。

文章图片
#人工智能
上海人工智能实验室的书生·浦语大模型学习笔记及作业--day5

模型部署是指将训练好的模型在特定环境中运行的过程,以便将其应用到实际生产中。这个过程需要解决模型框架兼容性和运行速度的问题。LMDeploy是一个用于部署大模型的工具箱,由上海人工智能实验室开发。它使用C++/CUDA进行推理,并对外提供Python/gRPC/HTTP接口和WebUI界面。LMDeploy支持tensor parallel分布式推理,并支持fp16/weightint4/kv c

文章图片
#学习#人工智能
上海人工智能实验室的书生·浦语大模型学习笔记及作业--day4

Finetune中文译为“微调”,深度学习中需要在深层网络中不断进行训练更新模型的参数(权重)拟合能实现预期结果的模型。“微调”的原理就是利用已知的网络结构和已知的网络参数,修改output层为我们自己的层,微调最后一层前的若干层的参数,这样就有效利用了。

文章图片
#学习#人工智能#python
    共 27 条
  • 1
  • 2
  • 3
  • 请选择