logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

图数据库 之 Neo4j - Browser 介绍(4)

Neo4j Browser 中有 3 个模块,侧边栏,Cypher 编辑器与结果栏,在进入 Neo4j Browser 时结果栏会展示欢迎界面。

文章图片
#neo4j
图数据库 之 Neo4j - 应用场景4 - 反洗钱(9)

MATCH (c:客户)-[:发起交易]->(t:交易)-[:转账给]->(b:受益人), (c)-[:持有账户]->(bank:银行)CREATE (:受益人 {ID: 5, 姓名: 'Emily', 地址: 'Toronto', 国籍: '加拿大'})CREATE (:受益人 {ID: 4, 姓名: 'Mike', 地址: 'Sydney', 国籍: '澳大利亚'})CREATE (:受益人

文章图片
#neo4j
maven 常见问题处理

一、maven deploy to nexus 时报错Return code is: 400, ReasonPhrase: Repository does not allow updating assets: maven-releases原因:nexus maven-release 仓库,默认不允许发布重复版本的包。而 maven-snapshots 仓库,默认允许发布重复版本的包。...

Docker 安装 ClickHouse

1、创建目录mkdir -p /docker/cloud/clickhouse/confmkdir -p /docker/cloud/clickhouse/datamkdir -p /docker/cloud/clickhouse/logchmod -R 777 /docker/cloud/clickhouse/confchmod -R 777/docker/cloud/clickhouse/co

文章图片
#docker
Mysql 索引长度限制

在设置 utf8mb4 字段的字符长度时,可能会抛出一个异常:"Specified key was too long; max key length is 1000 bytes"。也就是在给表的索引字段添加字符长度时,超过了最大索引长度 1000 字节。一、原因分析关于索引长度的限制,最主要的因素就是存储引擎和字符集。字符集的影响在于,不同的字符集,单个字符包含的最大字节数有所不同。比如 utf8

#mysql
图数据库 之 Neo4j - 应用场景2 - 实时推荐引擎(7)

实时推荐引擎是在今天的竞争激烈市场中保持竞争力的关键。本文介绍了如何使用图技术构建一个基于用户行为和关联数据的实时推荐引擎,以提供个性化的建议。我们将探讨实时推荐引擎的背景和原理,并提供详细的操作步骤说明,帮助你构建自己的实时推荐引擎。使用图技术构建实时推荐引擎可以提供更准确、个性化和一些有意义的建议。通过分析用户行为和关联数据,可以更好地理解用户的兴趣和偏好,并提供与其当前上下文相关的个性化建议

文章图片
#neo4j
图数据库 之 Neo4j - 应用场景1 - 欺诈检测(6)

总而言之,Neo4j是一种强大的图数据库,适用于各种行业和领域的关系数据密集型问题。它提供了高效的数据存储和查询机制,能够帮助用户发现隐藏在关系中的有价值的信息。Neo4j是一种图数据库,它专注于处理关系数据密集型的问题。由于其图结构的特性,Neo4j能够高效地存储、查询和分析连接数据。下面我们列举一些图数据库技术应用的案例。

文章图片
#neo4j
JVM 性能调优 - 参数调优(3)

创建的 allocation1、allocation2、allocation3 分配到了 Eden 区,占用 6M,当分配 allocation4(需要4M) 时,因为新生代内总内存总共只有 9M(8M Eden 区 + 1M Suvivor 区) ,allocation4 不能放进 Eden 区,直接放到了老年代。大多数情况下,新创建的对象都会在新生代的 Eden 区中分配,当 Eden 区没有

文章图片
#java
Kafka常见问题

1、消费速度过慢触发rebalance而导致的重复消费Commit cannot be completed since the group has already rebalanced and assigned the partitions to another member. This means that the time betweensubsequent calls to poll() w

#kafka
Flink消费Rabbit数据,写入HDFS - 使用 BucketingSink

一、应用场景:Flink 消费 Kafka 数据进行实时处理,并将结果写入 HDFS。二、Bucketing File Sink由于流数据本身是无界的,所以,流数据将数据写入到分桶(bucket)中。默认使用基于系统时间(yyyy-MM-dd--HH,0时区)的分桶策略。在分桶中,又根据滚动策略,将输出拆分为 part 文件。1、Flink 提供了两个分桶策略,分桶策略实现了...

    共 22 条
  • 1
  • 2
  • 3
  • 请选择