
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
2月1日,华为云在官微宣布,与硅基流动联合首发并上线基于昇腾云服务的DeepSeek R1/V3推理服务,其性能可与全球高端GPU部署模型相媲美。

本文将深入探讨医疗健康大模型的发展现状及其未来展望,分析其底层逻辑、核心组件、整体架构、高性能算力要求、高质量数据需求、关键算法以及多个跨界融合的应用场景,旨在为医疗健康领域的从业者、研究者和政策制定者提供全面而深入的洞见。

这样我们把在知识图谱查到的上下问信息再拿到向量数据库做相似度匹配,我们就能够搜索到更多的有用信息,然后再把这些信息丢给大模型进行处理,我们就能够得到更准确的答案。

23年初,市场上出现了各种各样的“AI工具”,你能想象到的领域都有。但彼时的AI市场上,大模型的能力远不像如今这样强大,基本都是模仿ChatGPT的套壳聊天工具。
本文将详细介绍如何使用Ollama,一个开源项目,在Mac上本地运行大型模型(Win同理)。通过遵循以下步骤,即使是配备了几年前硬件的电脑,也能够顺利完成部署和运行。

什么是多模态大语言模型?多模态大语言模型是能够处理多种类型输入的大语言模型,其中每个 “模态” 指的是一种特定类型的数据,如文本(就像传统大语言模型那样)、声音、图像、视频等。为简单起见,我们将主要关注图像模态以及文本输入。

如果只选一项AI Agent框架进行学习的话,毫无疑问,一定是——LangChain。据不完全统计,目前全网大模型应用开发岗位90%要求掌握LangChain。

这篇文章将介绍一款深受好评的“知识库管理”工具 AnythingLLM 与一款小巧易用的“本地模型推理”工具 Ollama,并结合二者打造一个专属的本地 AI 助手。

本文从 MCP 开发的动机开始聊起,之后讲解了 MCP 的核心概念,最终进行了 Server 和 Client 的代码实践,希望这个过程能帮你打通从理论到实践的路径。当然,受篇幅所限,本文主要聚焦于最常见的 Tools 原语和无状态的 Streamable HTTPServer。MCP 还有如 Resources 和 Prompts 等原语、有状态(Stateful)服务的实现、以及更丰富的 Cl

在不考虑成本和响应速度的场景下,RAG因其灵活性、深度理解和推理能力,通常优于基于问答对的系统,尤其适用于复杂、动态或需要创新回答的场景。








