
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文介绍了基于ChatGLM3和LangChain搭建知识库助手的方法。首先配置所需环境,安装依赖包并下载开源词向量模型。然后通过克隆Datawhale系列LLM教程作为语料库来源,使用Python脚本处理markdown和txt文件。接着利用LangChain工具进行文本分块和向量化,最后将处理后的语料加载到Chroma向量数据库并持久化存储。整个过程包括环境配置、语料收集、文本处理和向量数据库

本文介绍了如何在Windows系统下使用LM Studio本地部署Qwen3-8B大语言模型。主要内容包括:1) LM Studio的下载安装;2) 通过在线和离线两种方式获取Qwen3-8B模型;3) 在LM Studio界面测试模型功能;4) 配置本地API服务并通过Python代码调用模型。教程详细展示了从模型获取到实际应用的完整流程,为开发者提供了在本地环境运行大模型的有效解决方案。文中还

本文介绍了如何在Windows系统下使用LM Studio本地部署Qwen3-8B大语言模型。主要内容包括:1) LM Studio的下载安装;2) 通过在线和离线两种方式获取Qwen3-8B模型;3) 在LM Studio界面测试模型功能;4) 配置本地API服务并通过Python代码调用模型。教程详细展示了从模型获取到实际应用的完整流程,为开发者提供了在本地环境运行大模型的有效解决方案。文中还

本文介绍了如何使用vLLM框架部署和调用Qwen3-8B大语言模型。vLLM是一个高效的大模型推理服务系统,具有内存管理优化、高吞吐量等特点。文章详细说明了环境准备、模型下载方法,并提供了Python调用示例代码,展示了如何通过vLLM引擎进行模型推理。代码实现了对话模板处理、参数配置等功能,并演示了Qwen3特有的"思考模式"输出效果。文末还提供了AutoDL平台的环境镜像链

本文介绍了如何使用vLLM框架部署和调用Qwen3-8B大语言模型。vLLM是一个高效的大模型推理服务系统,具有内存管理优化、高吞吐量等特点。文章详细说明了环境准备、模型下载方法,并提供了Python调用示例代码,展示了如何通过vLLM引擎进行模型推理。代码实现了对话模板处理、参数配置等功能,并演示了Qwen3特有的"思考模式"输出效果。文末还提供了AutoDL平台的环境镜像链

摘要 AIGC(AI生成内容)技术正革新内容生产模式,依托大模型实现文本、图像等内容的自动生成。RAG(检索增强生成)技术通过检索外部知识库提升AIGC的准确性和时效性。Agent(智能体)赋予AI自主决策和执行能力,结合Function Call实现对外部工具的操作。MCP(模型上下文协议)则统一了AI与工具的交互标准。这些技术相互叠加,推动AI从单一内容生成向多功能协同生态演进,RAG解决知识

摘要 AIGC(AI生成内容)技术正革新内容生产模式,依托大模型实现文本、图像等内容的自动生成。RAG(检索增强生成)技术通过检索外部知识库提升AIGC的准确性和时效性。Agent(智能体)赋予AI自主决策和执行能力,结合Function Call实现对外部工具的操作。MCP(模型上下文协议)则统一了AI与工具的交互标准。这些技术相互叠加,推动AI从单一内容生成向多功能协同生态演进,RAG解决知识

美团LongCat-Flash智能体实测报告:速度与场景的博弈 美团近期推出的AI智能体"小美"搭载自研LongCat-Flash模型,在实测中展现出显著优势与局限: 速度突破:实现100 token/s的生成速度,比主流模型快33%,4秒内完成餐厅推荐等闭环服务; 场景深度:在本地生活领域表现卓越,可自动处理含历史偏好识别、库存校验的完整订餐流程; 垂直局限:强美团业务绑定导

美团推出大模型"龙猫",重塑本地生活服务格局 美团正式发布开源大模型LongCat-Flash(龙猫),采用混合专家(MoE)架构,实现高效推理与低成本输出(5元/百万token)。其性能在MMLU和CEval评测中表现优异,媲美国内头部模型。 在内部应用中,龙猫已作为AI编程助手、智能会议工具提升效率;在本地生活场景,则为商家提供智能营销建议,优化用户个性化推荐。美团CEO王

美团LongCat-Flash智能体实测报告:速度与场景的博弈 美团近期推出的AI智能体"小美"搭载自研LongCat-Flash模型,在实测中展现出显著优势与局限: 速度突破:实现100 token/s的生成速度,比主流模型快33%,4秒内完成餐厅推荐等闭环服务; 场景深度:在本地生活领域表现卓越,可自动处理含历史偏好识别、库存校验的完整订餐流程; 垂直局限:强美团业务绑定导
