
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
LoRA(Low-Rank Adaptation)是一种通过实现大模型参数高效优化的技术。其核心原理是将预训练模型的权重矩阵分解为两个低秩矩阵的乘积(W′WBA),仅训练新增的秩为r的低维参数(通常r=8-64)。以LLaMA-7B模型为例,LoRA可将训练参数量从70亿压缩至百万级,显存消耗降低3倍。通过参数更新量ΔW的,将原本d×k维的参数矩阵分解为B∈d×r和A∈r×k,使总参数量从d×k降

MCP(Model Context Protocol)是 Anthropic 提出并开源的一种协议,旨在让 基于 LLM 的 AI 系统具备使用工具和访问资源的能力。简单来说,MCP 为大型语言模型和外部资源之间提供了一个统一的“插头”或接口。以前每当需要让 AI 连接新的数据库、文件系统或服务时,开发者都必须为每种资源写专门的对接代码;有了 MCP,基于LLM 的 AI 系统可以通过标准协议“即

Prompt 工程(Prompt Engineering)是指在使用语言模型(如 ChatGPT、文心一言等)等人工智能工具时,设计和优化输入提示(prompts)的过程。这些输入提示是用户向模型提出的文本指令,用于引导模型生成满足特定需求的高质量输出,比如回答问题、生成文本内容(故事、诗歌、代码等)。

MCP(Model Context Protocol)是 Anthropic 提出并开源的一种协议,旨在让 基于 LLM 的 AI 系统具备使用工具和访问资源的能力。简单来说,MCP 为大型语言模型和外部资源之间提供了一个统一的“插头”或接口。以前每当需要让 AI 连接新的数据库、文件系统或服务时,开发者都必须为每种资源写专门的对接代码;有了 MCP,基于LLM 的 AI 系统可以通过标准协议“即

在云原生和微服务架构盛行的今天,监控系统已成为保障业务稳定性的核心基础设施。作为监控领域的标杆工具,和凭借其高效的数据采集、灵活的可视化能力,成为运维和开发团队的“标配”。

未来可考虑开发MCP代理服务,通过简单配置即可将现有业务转换为MCP Server,为AI智能体提供更广泛的服务接入能力。MCP目前仍处于发展初期,生态构建是当前的重点。通过统一标准构建的生态将促进整个领域的发展。使用支持MCP的客户端(如Cursor,Trae)进行测试,配置。配置完成后,客户端将自动发现MCP Server提供的工具接口。

本文介绍如何通过本地化部署Ollama和Chatbox,利用DeepSeek R1模型打造强大的AI工具,涵盖Ollama和Chatbox的使用方法及相关操作步骤。

看似合理,但实际上与客观事实不符或与用户指令、上下文不一致的现象。已有的预训练模型基础上,再结合特定任务的数据集进一步对其进行训练。通过信息检索从外部知识库中查找与问题相关的知识。大模型幻觉问题是指大模型生成的内容**而提升生成的质量和准确性(考试带小抄)就是Deepseek);检索增强生成(RAG。

本文介绍如何通过本地化部署Ollama和Chatbox,利用DeepSeek R1模型打造强大的AI工具,涵盖Ollama和Chatbox的使用方法及相关操作步骤。

系统架构评估微服务架构特点,优势和缺点:7分。质量属性及场景填空:6个空,6分。质量属性场景描述六要素:12分【刺激源,刺激,制品,环境,响应,响应度量】Redis:基于MySQL锁的缺点:9分【性能瓶颈,复杂性,可靠性问题,扩展性差,一致性问题】分布式Redis锁的死锁的情况,其他分布式锁:10分redis zset命令:6分【ZADD,ZCARD,ZSCORE,ZRANGE】UML序列图的哪三
