
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
这篇文章介绍了如何安装和配置AI相关工具链,主要包括三个部分:1. 使用Ollama安装deepseek-r1:7b语言模型,建议配置大于1.5b;2. 安装bge-m3向量模型,用于汉字向量化转换;3. 通过Docker安装Milvus向量数据库单机版,并配置自定义网络icontainer以便与可视化工具attu通信。文章提供了详细的命令行操作步骤,包括修改安装脚本、创建网络和端口映射等操作,帮

2025最新大模型入门电子书学习推荐,必读9本大模型书籍(附pdf版),看完少走一半弯路!!NO.1:《基于GPT-3,ChatGPT,GPT-4等Transformer架构的自然语言处理》主要内容:了解用于解决复杂语言问题的新技术。将GPT-3与T5、GPT-2和基于BERT的Transformer的结果进行对比。使用TensorFlow、PyTorch和GPT-3执行情感分析、文本摘要、非正式

2025最新大模型入门电子书学习推荐,必读9本大模型书籍(附pdf版),看完少走一半弯路!!NO.1:《基于GPT-3,ChatGPT,GPT-4等Transformer架构的自然语言处理》主要内容:了解用于解决复杂语言问题的新技术。将GPT-3与T5、GPT-2和基于BERT的Transformer的结果进行对比。使用TensorFlow、PyTorch和GPT-3执行情感分析、文本摘要、非正式

本文解析了大语言模型长文本训练的关键技术与挑战。首先介绍了Transformer架构处理长文本时面临的计算复杂度问题,以及FlashAttention等优化技术如何通过分块计算降低内存消耗。其次详细阐述了三种分布式训练方法:张量并行通过矩阵分割减少内存开销但通信成本高;注意力头并行通过交换隐藏状态优化通信量;上下文并行采用RingAttention实现高效异步通信。最后展望了长文本训练技术的发展前

这篇文章介绍了如何在个人电脑上搭建AI智能体平台Dify,支持自定义聊天机器人、智能体设计、工作流编排和知识库管理等功能。主要内容包括: 智能体的价值在于模型编排,突破单一AI模型的局限性 Dify是一个开源LLM应用开发平台,提供工作流构建、模型支持、Prompt IDE、RAG管道等功能 详细部署步骤:安装Docker→获取Dify源码→启动Dify→配置账户 Dify界面展示和功能介绍,支持

这篇文章介绍了如何在个人电脑上搭建AI智能体平台Dify,支持自定义聊天机器人、智能体设计、工作流编排和知识库管理等功能。主要内容包括: 智能体的价值在于模型编排,突破单一AI模型的局限性 Dify是一个开源LLM应用开发平台,提供工作流构建、模型支持、Prompt IDE、RAG管道等功能 详细部署步骤:安装Docker→获取Dify源码→启动Dify→配置账户 Dify界面展示和功能介绍,支持

如果你现在是大学生,正在考虑要不要往 AI 大模型应用开发这个方向走,我的建议很直接:如果你愿意持续做项目、愿意补基础、愿意接受前期成长慢一点,那这个方向值得你尽早开始。

如果你现在是大学生,正在考虑要不要往 AI 大模型应用开发这个方向走,我的建议很直接:如果你愿意持续做项目、愿意补基础、愿意接受前期成长慢一点,那这个方向值得你尽早开始。

由于MCore在Transformer模型关键组件实现方面与Huggingface存在一定差异,导致在继续预训练或者微调时将Huggingface模型权重转换Mcore模型权重后执行前向推理会产生误差,该误差主要来自以下六个方面:

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程








