
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文介绍了如何基于LoRA对Qwen模型进行微调,涵盖了从环境准备到单机单卡、单机多卡训练的全过程。首先,需要克隆Qwen仓库并安装相关依赖包,接着下载模型文件。单机单卡训练通过执行Python脚本进行,详细解释了各个参数的含义。单机多卡训练则通过修改脚本并运行torchrun命令实现。微调完成后,模型可以与原始模型合并并保存,最终通过测试代码验证微调效果。文章还提供了测试数据的GitHub仓库链

本文介绍了2025年国内外AI大模型排名情况。国内有通义千问、豆包大模型等多个模型,各有核心能力与应用场景,且不断更新迭代。国外GPT‑4o、Gemini 2.0 Ultra等模型也各有特性,如多模态输入、大规模参数等。如何学习AI大模型?最先掌握AI的人,将会比较晚掌握AI的人有竞争优势这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。倘若大家对大模型抱有兴趣,那么这套大模型学习

RAG(检索增强生成)是大模型落地的关键抓手,决定着大模型输出内容的可靠性与专业性。本文专为CSDN小白程序员和AI入门学习者设计,深入拆解RAG的核心环节,包括5种文本分块策略(固定大小、语义、递归、基于文档结构、基于大语言模型)和从传统模式到新一代架构(HyDE、Graph RAG、Agentic RAG)的技术演进逻辑。结合实操提示,助力读者快速掌握RAG核心技术,夯实大模型学习基础。
本文介绍了如何使用Ollama和AnythingLLM快速简单地在本地部署大模型。首先,指导用户安装Ollama并从Ollama的模型库中选择和下载模型(如llama、qwen、deepseek等)。接着,详细说明了如何配置和使用AnythingLLM以运行已下载的模型。此外,还讨论了在下载模型时可能遇到的问题及解决方案,如网络问题。最后,文章建议用户在模型下载过程中遇到困难时,可以考虑使用离线模

本文深度解析了四大主流大模型部署框架:Ollama(本地快速部署)、llama.cpp(低配设备优化)、vLLM(高并发生产环境)和LM Studio(跨设备开发)。文章详细介绍了各框架的核心价值、技术亮点和适用场景,并提供了方案选型决策树和混合部署实战案例。最后展望了边缘智能、量化革命和多云部署等未来趋势,强调选择匹配场景的部署方案对AI工程化落地的重要性。

文章详细介绍了大模型应用工程师的完整学习路线,包括提示词工程、检索增强生成(RAG)、模型微调、模型部署以及人工智能系统和项目五大核心模块。这一路线旨在帮助学习者掌握大模型应用的关键技术,从基础概念到实践应用,最终能够参与开源项目并实现大模型在各行业的落地应用。目前正是入门大模型领域的最佳时机,掌握这些技术可获得可观薪资回报。

准确性是GDPR的基本原则之一。这一法律原则要求数据控制者确保处理的个人数据“准确,必要时保持最新”,并“采取一切合理的步骤……确保在处理目的的范围内,个人数据不准确时应立即删除或更正”。

顾名思义,RAG的全拼是Retrieval-augmented Generation,检索增强生成,R——代表的是Retrieval-检索器,G代表的是Generation-生成器,所以RAG主要有两大块组成,检索与生成。

本文详细介绍了在云服务器上搭建基于RAGFlow的大模型应用全流程,包括租服务器、安装Ollama和DeepSeek模型、部署Docker环境、配置RAGFlow、启动服务以及接入LLM模型进行知识库测试。教程提供了详细的命令和配置说明,适合有一定技术基础的开发者快速上手构建自己的大模型应用,实现知识库问答功能。

文章介绍了如何构建自然语言转SQL的数据分析智能体,使用Qwen-Text2SQL模型将自然语言查询转化为可执行SQL,结合DeepSeek-R1作为智能体大脑,通过langchain框架搭建AI Agent,并利用Rag知识库优化提示词。该智能体能将非技术人员的自然语言需求转化为SQL查询,降低数据分析门槛,提升效率,让更多人能够利用数据进行决策,释放数据价值。








