logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【收藏学习】AI大模型学习资源大全:从理论到实践的系统化教程

文章提供AI大模型系统化学习路径,涵盖数学基础、编程工具、机器学习基础、Transformer架构、预训练微调技术、模型训练全流程及行业落地挑战。推荐丰富学习资源,包括书籍课程、开源项目和社区论坛,强调理论与实践结合的重要性,帮助开发者从入门到精通大模型技术。

文章图片
#学习#人工智能
【收藏学习】AI大模型学习资源大全:从理论到实践的系统化教程

文章提供AI大模型系统化学习路径,涵盖数学基础、编程工具、机器学习基础、Transformer架构、预训练微调技术、模型训练全流程及行业落地挑战。推荐丰富学习资源,包括书籍课程、开源项目和社区论坛,强调理论与实践结合的重要性,帮助开发者从入门到精通大模型技术。

文章图片
#学习#人工智能
开源大模型微调与部署实战指南:从零开始掌握LLaMA Factory工具全流程

开源大模型微调与部署指南:本文介绍了开源大模型的概念特点(公开权重架构但训练过程不透明),并重点讲解LLaMA Factory工具的使用方法。内容包括:1)支持多种模型和训练算法;2)数据集准备(Alpaca/ShareGPT格式);3)完整微调流程(安装、训练、评估);4)模型优化技术(量化、合并);5)部署方案(GGUF转换、Ollama等)。为开发者提供从模型微调到应用落地的全流程解决方案。

文章图片
#人工智能#学习
开源大模型微调与部署实战指南:从零开始掌握LLaMA Factory工具全流程

开源大模型微调与部署指南:本文介绍了开源大模型的概念特点(公开权重架构但训练过程不透明),并重点讲解LLaMA Factory工具的使用方法。内容包括:1)支持多种模型和训练算法;2)数据集准备(Alpaca/ShareGPT格式);3)完整微调流程(安装、训练、评估);4)模型优化技术(量化、合并);5)部署方案(GGUF转换、Ollama等)。为开发者提供从模型微调到应用落地的全流程解决方案。

文章图片
#人工智能#学习
DeepSeek-OCR:用视觉压缩技术突破LLM长文本处理瓶颈,小白也能懂的文档高效解析方案

DeepSeek-OCR提出了一种创新的大模型架构,通过视觉模态实现高效文本压缩,显著降低长文档处理成本。该模型采用自研DeepEncoder将文档图像压缩为极少量视觉tokens,配合DeepSeek-3B-MoE解码器实现端到端文本生成。实验证明,这种视觉压缩方法可将长文档处理成本降低一个数量级,在多项OCR基准上取得领先表现。模型支持多种分辨率策略,通过"先局部、再压缩、后全局&q

文章图片
#人工智能#语言模型#DeepSeek +1
DeepSeek-OCR:用视觉压缩技术突破LLM长文本处理瓶颈,小白也能懂的文档高效解析方案

DeepSeek-OCR提出了一种创新的大模型架构,通过视觉模态实现高效文本压缩,显著降低长文档处理成本。该模型采用自研DeepEncoder将文档图像压缩为极少量视觉tokens,配合DeepSeek-3B-MoE解码器实现端到端文本生成。实验证明,这种视觉压缩方法可将长文档处理成本降低一个数量级,在多项OCR基准上取得领先表现。模型支持多种分辨率策略,通过"先局部、再压缩、后全局&q

文章图片
#人工智能#语言模型#DeepSeek +1
2025最新大模型微调学习路线指南(附资料包),建议收藏!

文章介绍了一个四阶段的大模型微调学习路线,总时长约4个月。第一阶段学习AI环境配置和基础;第二阶段掌握大模型微调数据处理和算法;第三阶段通过论文复现培养创新能力;第四阶段持续学习前沿模型应用。大模型微调已成为AI落地的核心技能,在法律、医疗、教育等领域有广泛应用,现正是入门黄金时机。关注公众号可获取详细学习路线和论文资料。

文章图片
#学习#人工智能
2025最新大模型微调学习路线指南(附资料包),建议收藏!

文章介绍了一个四阶段的大模型微调学习路线,总时长约4个月。第一阶段学习AI环境配置和基础;第二阶段掌握大模型微调数据处理和算法;第三阶段通过论文复现培养创新能力;第四阶段持续学习前沿模型应用。大模型微调已成为AI落地的核心技能,在法律、医疗、教育等领域有广泛应用,现正是入门黄金时机。关注公众号可获取详细学习路线和论文资料。

文章图片
#学习#人工智能
【程序员必看】Qwen3-VL云端调用教程:Ollama云模型解决硬件限制,附详细步骤,建议收藏!

文章介绍了如何利用Ollama云服务解决大模型硬件限制问题。通过注册Ollama账号并登录,用户可选择云端模型qwen3-vl:235b-cloud,无需强大GPU即可运行原本无法承载的大型多模态模型。示例显示,调用云端Qwen3-VL大模型只需3.6秒即可完成图片理解任务,显著提升运行效率,让普通电脑也能轻松使用大模型功能。

文章图片
#人工智能#学习
【程序员必看】Qwen3-VL云端调用教程:Ollama云模型解决硬件限制,附详细步骤,建议收藏!

文章介绍了如何利用Ollama云服务解决大模型硬件限制问题。通过注册Ollama账号并登录,用户可选择云端模型qwen3-vl:235b-cloud,无需强大GPU即可运行原本无法承载的大型多模态模型。示例显示,调用云端Qwen3-VL大模型只需3.6秒即可完成图片理解任务,显著提升运行效率,让普通电脑也能轻松使用大模型功能。

文章图片
#人工智能#学习
    共 990 条
  • 1
  • 2
  • 3
  • 99
  • 请选择