logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

这12本AI大模型「压箱底」宝典,我们内部盘出来了!啃完3本就够了!

本文推荐12本大模型入门必读书籍,涵盖GPT、Transformer等技术原理与应用开发。重点介绍《基于Transformer架构的自然语言处理》《大模型应用开发极简入门》《大语言模型》等核心书籍,内容包含模型对比、情感分析、文本生成等实践案例,适合深度学习基础的学习者。所有书籍PDF及大模型学习资料可免费领取,帮助读者系统掌握AI技术并应用于产品开发。

文章图片
#人工智能#算法#深度学习 +1
这12本AI大模型「压箱底」宝典,我们内部盘出来了!啃完3本就够了!

本文推荐12本大模型入门必读书籍,涵盖GPT、Transformer等技术原理与应用开发。重点介绍《基于Transformer架构的自然语言处理》《大模型应用开发极简入门》《大语言模型》等核心书籍,内容包含模型对比、情感分析、文本生成等实践案例,适合深度学习基础的学习者。所有书籍PDF及大模型学习资料可免费领取,帮助读者系统掌握AI技术并应用于产品开发。

文章图片
#人工智能#算法#深度学习 +1
2025年AI大模型学习攻略:普通人从0到1的通关指南,附学习路线和资源!

最近这两个月来相信大家已经被密集的生成式人工智能宣传和各式各样的app轰炸的头晕脑胀了,一瞬间涌入的各种咨询和无数的测评、网课、教程搞的连许多人工智能产业从业者都变得无所适从起来。

文章图片
#人工智能#产品经理#自然语言处理 +1
2025年AI大模型学习攻略:普通人从0到1的通关指南,附学习路线和资源!

最近这两个月来相信大家已经被密集的生成式人工智能宣传和各式各样的app轰炸的头晕脑胀了,一瞬间涌入的各种咨询和无数的测评、网课、教程搞的连许多人工智能产业从业者都变得无所适从起来。

文章图片
#人工智能#产品经理#自然语言处理 +1
大模型微调新突破:QLoRA、QA-LoRA和S-LoRA技术揭秘!一文说清大模型微调11种方法!

文章介绍了三种大模型微调优化技术:QLoRA使单48GB GPU可微调650亿参数模型;QA-LoRA通过量化感知低秩适应提升计算效率;S-LoRA采用统一分页和优化策略,实现服务数千LoRA适配器,提高4倍以上吞吐量。这些技术显著降低显存消耗,为资源受限环境下的高效模型训练提供了新思路。

文章图片
#人工智能#深度学习#机器学习 +2
大模型微调新突破:QLoRA、QA-LoRA和S-LoRA技术揭秘!一文说清大模型微调11种方法!

文章介绍了三种大模型微调优化技术:QLoRA使单48GB GPU可微调650亿参数模型;QA-LoRA通过量化感知低秩适应提升计算效率;S-LoRA采用统一分页和优化策略,实现服务数千LoRA适配器,提高4倍以上吞吐量。这些技术显著降低显存消耗,为资源受限环境下的高效模型训练提供了新思路。

文章图片
#人工智能#深度学习#机器学习 +2
主流深度学习框架在大模型分布式训练中的适用场景和优势是什么?

本文系统比较了PyTorch、DeepSpeed、Megatron-LM、TensorFlow和JAX五大主流深度学习框架在大模型分布式训练中的特点与适用场景。PyTorch灵活易上手,适合研究和小规模训练;DeepSpeed提供强大显存优化,适合千亿级模型;Megatron-LM专注超大规模Transformer;TensorFlow生态成熟但版本问题多;JAX科研灵活但学习曲线陡。文章详细分析

文章图片
#分布式#人工智能#产品经理 +2
主流深度学习框架在大模型分布式训练中的适用场景和优势是什么?

本文系统比较了PyTorch、DeepSpeed、Megatron-LM、TensorFlow和JAX五大主流深度学习框架在大模型分布式训练中的特点与适用场景。PyTorch灵活易上手,适合研究和小规模训练;DeepSpeed提供强大显存优化,适合千亿级模型;Megatron-LM专注超大规模Transformer;TensorFlow生态成熟但版本问题多;JAX科研灵活但学习曲线陡。文章详细分析

文章图片
#分布式#人工智能#产品经理 +2
【干货】GRPO:大模型对齐新利器,一文读懂分组相对策略优化原理与应用!

GRPO(Group Relative Policy Optimization)是一种大模型对齐优化方法,通过分组比较和相对奖励机制指导模型学习用户偏好,无需额外训练reward model。相比PPO和DPO,GRPO结合两者优点,支持组内比较,提高数据利用率和训练稳定性。适用于对话系统优化、内容生成、多模态模型训练等场景,尤其适合计算资源受限或需要提升模型推理能力的应用,为低成本大模型对齐提供

文章图片
#人工智能#自然语言处理#架构 +1
【干货】GRPO:大模型对齐新利器,一文读懂分组相对策略优化原理与应用!

GRPO(Group Relative Policy Optimization)是一种大模型对齐优化方法,通过分组比较和相对奖励机制指导模型学习用户偏好,无需额外训练reward model。相比PPO和DPO,GRPO结合两者优点,支持组内比较,提高数据利用率和训练稳定性。适用于对话系统优化、内容生成、多模态模型训练等场景,尤其适合计算资源受限或需要提升模型推理能力的应用,为低成本大模型对齐提供

文章图片
#人工智能#自然语言处理#架构 +1
    共 1115 条
  • 1
  • 2
  • 3
  • 112
  • 请选择