
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文深入解析了主流向量数据库的底层算法与架构设计。核心算法包括图算法(如HNSW)和量化聚类(如IVF-PQ)两类,通过欧氏距离或余弦相似度实现高维空间检索。重点拆解了五类典型架构:PostgreSQL扩展的pgvector、内存架构的Redis、混合检索的Elasticsearch、云原生的Milvus/Zilliz,以及新兴专业向量数据库Qdrant等。不同架构在性能、扩展性、混合检索等方面各
本文系统梳理了大语言模型(LLM)全栈技术学习路线,包含四大核心模块:基础理论、RAG技术、Agent开发和模型微调部署。作者汇总了37篇技术博客,涵盖从Transformer底层原理到上层应用开发的全流程知识体系。内容包含术语解析、Prompt工程、向量检索算法、智能体架构设计、微调训练方法等,为不同阶段的开发者提供系统化学习路径。该导航将持续更新,建议收藏以便查阅最新技术动态。
本文介绍了如何将非结构化文本数据转换为知识图谱并构建GraphRAG应用。通过LLM框架(如LlamaIndex)提取文本中的实体关系三元组,存储到图数据库(如Neo4j)形成知识图谱。重点阐述了三种知识图谱检索方法:Text-to-Cypher查询转换、向量搜索和关键词搜索,并提供了基于关键词检索的代码实现示例。该方法利用LLM的语义理解能力,有效实现了非结构化数据到结构化知识的转换,为后续RA
Self-RAG是一种增强的RAG范式,通过模型微调让大模型具备自主判断检索需求与自我评估的能力。相比传统RAG,Self-RAG能有效解决过度检索和输出一致性问题。其工作流程分为四个步骤:检索判断、按需检索、增强生成和结果评判。核心创新在于引入四种自省标记(检索需求、知识相关性、响应支持度和响应有效性),通过模型微调让LLM在推理过程中直接输出这些标记。评判算法利用logprobs字段量化评估,
摘要:当前主流Embedding模型主要采用基于Transformer Encoder的双塔架构,通过独立编码Query和Document生成向量,并计算余弦相似度实现高效检索。Rerank模型则采用交叉架构,将Query和Document拼接输入同一Transformer,通过深度交叉注意力实现精准打分。两者形成"漏斗式组合":先用Embedding模型快速召回Top-K结果
情况一:可以借鉴网上最普遍的一种解决方案,如下: (借鉴的解决方案)1、使用cmd命令netstat -aon|findstr "端口号", 查看tomcat地址绑定, 看看是不是绑定到0.0.0.02、 如果不是,配置tomcat的server.xml, 更改connector配置, 端口不用改, 加上address=”0.0.0.0”, 使其绑定到IPv4<C







