logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

python异常处理try,except,finally,raise,assert

1.try,except2.捕获异常通用异常 except Exception as e:具体异常 except <具体的异常类型> as e (e.g. ZeroDivisionError 就是一个python内置的具体异 except ZeroDivisionError as e)捕获多个异常时:法1:多写几个except,当except代码块有多个的时候,当捕获到第一个后,不会继

#python
大模型微调与LoRA/QLoRA方法解析

大模型在垂直领域应用时需进行微调以提升专业性,但全量微调成本过高。参数高效微调通过冻结大部分参数、仅训练少量新增参数实现轻量适配,其中LoRA是最流行的方法,它通过低秩矩阵分解更新权重,显著降低训练参数。针对更大模型,QLoRA结合4/8-bit量化进一步降低显存占用,使单卡微调百亿级模型成为可能,精度损失可控。

#人工智能
如何在Vscode中配置MCP服务?(包含实例:使用Github Copilot + 高德MCP查询旅游攻略)

本文介绍了如何配置高德地图API与Github Copilot的MCP服务。首先在高德开放平台申请API Key,然后在VSCode设置中配置MCP服务参数,包括添加API Key和服务器信息。配置完成后,需在Agent模式下使用MCP服务,可通过右下角工具图标查看服务状态。最后以郑州一日游规划为例,测试了MCP服务的调用和返回结果。整个流程包含了API申请、服务配置和功能验证三个主要步骤。

#vscode#github#copilot
如何在Vscode中配置MCP服务?(包含实例:使用Github Copilot + 高德MCP查询旅游攻略)

本文介绍了如何配置高德地图API与Github Copilot的MCP服务。首先在高德开放平台申请API Key,然后在VSCode设置中配置MCP服务参数,包括添加API Key和服务器信息。配置完成后,需在Agent模式下使用MCP服务,可通过右下角工具图标查看服务状态。最后以郑州一日游规划为例,测试了MCP服务的调用和返回结果。整个流程包含了API申请、服务配置和功能验证三个主要步骤。

#vscode#github#copilot
如何提升RAG的质量?

本文针对RAG技术在实际落地过程中的优化问题,从数据准备、知识检索和答案生成三个阶段提出解决方案。在数据准备阶段,通过数据清洗、脱敏处理和IDP技术构建高质量知识库;知识检索阶段采用查询转换、混合检索和优化向量表示提升召回率;答案生成阶段通过改进Prompt和动态防护栏机制确保输出准确性和安全性。这些方法共同提升了RAG系统的整体性能和可靠性,为实际应用提供了系统化的优化路径。

#大数据#RAG
Function Call与MCP:大模型能力扩展的两条路径对比

随着大模型应用场景扩展,如何安全有效地调用外部工具成为关键。目前主要解决方案包括FunctionCalling和MCP协议。FunctionCalling通过模型接口定义函数实现单一任务调用,适合简单场景;MCP则提供标准化工具调用框架,支持复杂系统集成,具有跨平台、安全性高等优势。

到底什么是RAG技术以及有哪些chunk切片策略?一文带你了解核心流程。

RAG(检索增强生成)是一种结合信息检索与大模型生成能力的技术,通过实时检索外部知识库增强回答的准确性和时效性。其核心流程包括数据预处理、检索相关内容和生成回答,能有效解决传统大模型的知识时效性、幻觉问题和专业领域深度不足等局限。知识切片策略包括改进固定长度、语义、LLM语义、层次和滑动窗口等多种方法,各有优缺点,适用于不同场景。

#RAG
Embedding原理、方法以及Embedding大模型的选择

Embedding是大模型的核心技术,将文本等非结构化数据转换为低维稠密向量,使计算机能理解语义关联。传统方法(如TF-IDF)存在维度高、稀疏等问题,而现代方法(如Word2Vec)能捕捉语义关系。大模型Embedding通过MTEB榜单评估性能,不同模型各有优势。选择embedding模型需考虑业务场景、评估指标和测试数据,综合性能、推理速度和成本做出决策。

#算法#机器学习
大模型Prompt原理、编写原则与技巧以及衡量方法

大语言模型通过词向量转换和自回归生成处理Prompt,有效的Prompt能提升回答质量与沟通效率。通用模型需明确引导(如思维链提示),推理模型则更注重简洁任务定义。Prompt应包含任务、上下文、示例等要素,编写原则包括目标明确、指导具体、格式规范等。优化技巧涉及输出限制、分隔符使用、角色扮演等。评估指标涵盖准确性、完整性、一致性等维度,可通过人工评估、自动测试或用户反馈进行验证。

#人工智能
如何通过ollama, vllm框架以及python(GPU)本地私有化部署大模型

本文介绍了三种大模型部署方法:1)通过Ollama本地部署(推荐个人使用),支持命令行操作和API调用;2)采用vLLM框架部署(适合企业级应用),支持分布式推理和量化技术;3)通过Python+GPU下载魔搭社区模型到本地运行,提供了完整的代码示例。每种方法均包含具体操作步骤,从模型下载到实际调用,涵盖不同应用场景需求。

#python#开发语言#人工智能 +1
    共 13 条
  • 1
  • 2
  • 请选择