logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

微软GraphRAG 端到端使用及自用工具类

GraphRAG使用指南:构建与查询知识图谱 本文介绍了微软GraphRAG工具的使用方法,包括环境配置、知识图谱构建和查询功能。主要内容: 环境准备:需要Python 3.10+环境,通过Poetry安装依赖,并配置OpenAI/Azure OpenAI API密钥。 项目初始化:使用graphrag init命令创建项目结构,包含输入文档目录和配置文件。 知识图谱构建:将文档放入input目录

文章图片
#microsoft#flask#python
端到端的 Text2Cypher:使用 llamaIndex 和 Neo4j 为知识图谱构建自然语言查询引擎

本教程介绍如何搭建一个基于LlamaIndex和Neo4j的端到端知识图谱系统,支持文档上传、三元组抽取、图数据库存储及自然语言问答功能。系统采用FastAPI后端,结合LlamaIndex的SchemaLLMPathExtractor进行实体关系抽取,并通过PropertyGraphIndex将数据持久化到Neo4j。前端提供简单的上传和问答界面,支持多格式文档解析。教程详细说明了架构设计、核心

文章图片
#AI#知识图谱#neo4j
零基础都可以本地部署Deepseek R1

在 Chatbox 的设置中,选择使用本地模型,并将模型提供方设置为 Ollama API;对于大多数家用或工作站级别的电脑,运行 1.5b 至 7b 版本已基本满足体验需求,而更高参数的版本则适合服务器或高端工作站使用。:若需要使用模型,只需先启动 Ollama(通常在安装时会自动后台运行),然后通过命令行或图形界面调用模型。下载完成后,在同一命令行窗口中,你可以直接输入问题(例如输入“上海在哪

文章图片
#AI
Spring Boot的通用返回类Result

先构建一个格式确定下来的Result类public class Result<T> {private Integer code;private String msg;private T data;public Result() {super();}public Result(Integer code...

#java
成本仅50美元,性能媲美Deepseek-R1,李飞飞带着S1来炸场了

李飞飞团队的 S1 模型展示了一种以极低成本实现高效推理的新路径,其核心在于利用强大的预训练基座、精挑细选的小样本数据集以及创新的测试时扩展技术(如预算强制)。这一方法不仅在实验中获得了与顶尖模型接近甚至超越的成绩,同时也为 AI 模型研发如何在成本与性能间取得平衡提供了有价值的参考。未来能否进一步推广这一方法,还需要在更大范围内验证其通用性和鲁棒性。

文章图片
零基础都可以本地部署Deepseek R1

在 Chatbox 的设置中,选择使用本地模型,并将模型提供方设置为 Ollama API;对于大多数家用或工作站级别的电脑,运行 1.5b 至 7b 版本已基本满足体验需求,而更高参数的版本则适合服务器或高端工作站使用。:若需要使用模型,只需先启动 Ollama(通常在安装时会自动后台运行),然后通过命令行或图形界面调用模型。下载完成后,在同一命令行窗口中,你可以直接输入问题(例如输入“上海在哪

文章图片
#AI
都说Deepseek省算力,算力到底应该如何计算?

指每秒浮点运算次数,是衡量硬件性能的指标,表示计算设备每秒能够完成的浮点运算次数。指浮点运算次数,用于描述模型推理过程中需要的计算量,即模型的复杂度。MACs(乘加累积操作数):指模型中乘法和加法操作的总次数。在神经网络中,乘加操作(Multiply-Accumulate)是常见的计算模式,例如在卷积层和全连接层中。1次乘加操作通常被视为2次FLOPs。1 MFLOPS(百万次浮点运算)= 10⁶

文章图片
#AI#算力#算法 +1
MBP安装VMware Fusion虚拟机安装Windows10系统

MBP安装VMware虚拟机安装Windows10系统第一步安装VMware第二步下载镜像第三步安装镜像新系统遇到的黑屏和无法设置辅助功能的解决办法第一步安装VMware有很多种渠道可以下载安装,比如官网https://www.vmware.com/cn.html或者第三方https://www.newasp.net/soft/462096.html然后按照步骤下载第二步下载镜...

#经验分享#macos#windows
MySQL将主键id改为自增

alter table 表名 change id id int AUTO_INCREMENT注:id必须为主键时才可以这样使用

到底了