logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

企业级大模型知识库搭建全攻略:从选型到RAG精准提升

本文解析企业为何需要结合大模型搭建本地知识库,介绍六种常见实现方案,并从技术选型、部署落地到准确率提升提供全面指导。文章通过数据预处理、检索优化、重排序、生成控制和持续进化等策略,帮助读者解决RAG系统中的准确性和可靠性问题,为企业构建高效、安全、精准的本地知识库提供实用参考。

文章图片
#人工智能#RAG
从零开始构建大模型微调数据集:保姆级教程+实例解析

本文详细介绍了大模型微调数据集的构建全流程,包括明确目标、数据收集、标注、清洗、增强和划分等关键步骤。以DeepSeek-R1医学数据集为例,展示了如何从开源网站获取数据,通过人工与AI结合方式进行标注,确保数据格式符合模型要求,并提供了数据验证方法。文章强调数据质量对模型微调效果的重要性,建议先小规模测试再逐步扩展数据集规模。

文章图片
#人工智能
2024大模型架构全解析:从DeepSeek到Llama,程序员必学的LLM架构指南

本文详细比较了2024-2025年最新的大语言模型架构,包括DeepSeek V3/R1、OLMo 2、Gemma 3、Llama 4、Qwen3等。重点分析了各模型的关键技术创新,如多头潜在注意力(MLA)、混合专家(MoE)、滑动窗口注意力、规范化层放置策略等,以及这些技术如何提升模型性能和推理效率,为LLM开发者提供架构选择参考

文章图片
#人工智能
从零开始搭建大模型RAG系统:环境配置到代码实现全攻略

文章详细介绍了搭建大模型RAG系统的完整流程:首先配置Pycharm和conda环境,安装必要包如chromadb、langchain等;然后启动chromadb向量数据库并安装ollama及所需模型;最后通过代码实现RAG系统,包括加载文档、文本分割、创建向量数据库、定义提示词模板和测试问答功能。整个教程提供了从环境配置到实际应用的完整指南,帮助读者快速构建基于大模型的问答系统。

文章图片
#人工智能#RAG
大模型算法大盘点

大模型的算法核心是。

文章图片
#算法
大语言模型的LoRA研究综述,什么是LoRA模型?如何使用和训练LoRA模型?一文带你完全搞懂LoRA!

大语言模型的LoRA研究综述,什么是LoRA模型?如何使用和训练LoRA模型?一文带你完全搞懂LoRA!

文章图片
#语言模型#人工智能#深度学习
大模型核心技能:小白也能秒懂的Function Call

本文详细介绍了大模型中的Function Call功能,通过生活化案例解释了其工作原理:大模型理解问题并安排任务,外部工具执行具体操作。Function Call解决了大模型知识时效性、专业操作能力和数据私密性三大短板,实现了实时查询、办事、控制设备等实用功能。尽管存在依赖外部工具等局限,但这一技术正让AI从"话痨"转变为"实干家",成为解决实际生活难题的智能伙伴。

文章图片
#人工智能
大模型参数全解析:数字背后的AI智能奥秘

文章解析了大模型参数的本质、类型和学习过程。参数是模型通过海量数据训练获得的知识和规律的数字编码,包括权重参数(决定输入特征重要性)和偏置参数(提供基础值)。参数从随机初始化开始,通过前向传播、计算损失、反向传播和调整参数的循环不断优化。参数数量并非越多越好,需平衡性能、成本与部署难度,通过知识蒸馏、剪枝和量化等技术实现模型"瘦身"而不失核心能力。

文章图片
#人工智能#机器学习
大模型参数全解析:数字背后的AI智能奥秘

文章解析了大模型参数的本质、类型和学习过程。参数是模型通过海量数据训练获得的知识和规律的数字编码,包括权重参数(决定输入特征重要性)和偏置参数(提供基础值)。参数从随机初始化开始,通过前向传播、计算损失、反向传播和调整参数的循环不断优化。参数数量并非越多越好,需平衡性能、成本与部署难度,通过知识蒸馏、剪枝和量化等技术实现模型"瘦身"而不失核心能力。

文章图片
#人工智能#机器学习
LoRA大模型微调技术深度解析:从原理到vLLM框架实战全攻略

本文详细介绍了LoRA(Low Rank Adaptation)低秩微调技术的原理及在vLLM框架中的实现。文章通过替换原始模型层、预分配显存、动态加载LoRA权重等技术,实现了在不修改原始模型的情况下,用少量额外参数高效微调大模型的能力。详细解析了LoRA的加载、切分和推理过程,为开发者提供了完整的LoRA技术实现指南。

文章图片
#人工智能
    共 187 条
  • 1
  • 2
  • 3
  • 19
  • 请选择