
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
通过结合使用通义千问3.0的指令、嵌入和重排器模型,我们构建了一个实用的RAG管道,充分利用了它们的优势。凭借256K的上下文长度和多语言支持,通义千问系列在实际任务中展现了其多功能性。
本篇介绍一下使用阿里千问、Deepseek等大模型实现一个自然语言数据分析智能体。

今天给大家带来一篇超详细的教程,教你如何在自己的电脑上部署最新的通义千问Qwen3大模型。不需要任何编程基础,按照步骤来,你也能拥有一个私人AI助手!
Ollama 是一个开源的本地大语言模型运行框架,它提供了非常简单便捷的使用形式,让用户可以十分方便的在本地机器上部署和运行大型语言模型,从而实现免费离线的方式使用 LLM 能力,并确保私有数据的隐私和安全性。
本次就分享,我们进行没有网络的状态下,deepseek本地模型搭建、PyCharm接入本地模型,实现在离线状态下仍可以用工具PyCharm 进行 AI 辅助编程。
随着 AI 技术在各场景的应用,目前不少企业或个人出于数据隐私保护、离线使用需求,会考虑本地化部署 deepseek。但本地化部署费时费力还很容易出错。因此本文就从电脑配置要求、安装流程等多方面,带你完整走完本地化部署Ai的过程。
RAG,即Retrieval Augmented Generation,检索增强生成,被誉为当前大模型落地的“黄金架构”。它的核心逻辑非常简单却高效:先检索私有文档,后生成。
今天,结合我最近在政务领域的真实调优案例(在 3090 卡上调优),手把手带大家走一遍 Rerank 微调的全流程。

如何在服务器上部署开源大模型 GLM-4-9B-Chat 并应用到RAG应用
本文旨在探讨这一过程,为读者提供一个从理论到实践的指南,帮助大家理解大模型部署的基本原理,以及如何克服资源限制,实现个人电脑上的初步应用尝试。







