logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

图数据库 之 Neo4j - 应用场景2 - 实时推荐引擎(7)

实时推荐引擎是在今天的竞争激烈市场中保持竞争力的关键。本文介绍了如何使用图技术构建一个基于用户行为和关联数据的实时推荐引擎,以提供个性化的建议。我们将探讨实时推荐引擎的背景和原理,并提供详细的操作步骤说明,帮助你构建自己的实时推荐引擎。使用图技术构建实时推荐引擎可以提供更准确、个性化和一些有意义的建议。通过分析用户行为和关联数据,可以更好地理解用户的兴趣和偏好,并提供与其当前上下文相关的个性化建议

文章图片
#neo4j
图数据库 之 Neo4j - 应用场景1 - 欺诈检测(6)

总而言之,Neo4j是一种强大的图数据库,适用于各种行业和领域的关系数据密集型问题。它提供了高效的数据存储和查询机制,能够帮助用户发现隐藏在关系中的有价值的信息。Neo4j是一种图数据库,它专注于处理关系数据密集型的问题。由于其图结构的特性,Neo4j能够高效地存储、查询和分析连接数据。下面我们列举一些图数据库技术应用的案例。

文章图片
#neo4j
JVM 性能调优 - 参数调优(3)

创建的 allocation1、allocation2、allocation3 分配到了 Eden 区,占用 6M,当分配 allocation4(需要4M) 时,因为新生代内总内存总共只有 9M(8M Eden 区 + 1M Suvivor 区) ,allocation4 不能放进 Eden 区,直接放到了老年代。大多数情况下,新创建的对象都会在新生代的 Eden 区中分配,当 Eden 区没有

文章图片
#java
Kafka常见问题

1、消费速度过慢触发rebalance而导致的重复消费Commit cannot be completed since the group has already rebalanced and assigned the partitions to another member. This means that the time betweensubsequent calls to poll() w

#kafka
Flink消费Rabbit数据,写入HDFS - 使用 BucketingSink

一、应用场景:Flink 消费 Kafka 数据进行实时处理,并将结果写入 HDFS。二、Bucketing File Sink由于流数据本身是无界的,所以,流数据将数据写入到分桶(bucket)中。默认使用基于系统时间(yyyy-MM-dd--HH,0时区)的分桶策略。在分桶中,又根据滚动策略,将输出拆分为 part 文件。1、Flink 提供了两个分桶策略,分桶策略实现了...

kafka 彻底删除 topic 及数据

默认情况,当我们删除 topic 并不会真正删除,只是把队列标记为marked for deletion如果我们要彻底删除 topic 及数据,可采用一下方法[方法一]修改 kafka/conf/server.properties,增加delete.topic.enable=true,然后重启 kafka,通过命令行删除 kafkfa 即可./kafka-topics.sh -...

#kafka
Kafka 问题汇总

1、FETCH_SESSION_ID_NOT_FOUND2020-06-12 01:11:17.894 [Kafka Fetcher for Source: Custom Source -> Map -> Filter (1/4)] INFO org.apache.kafka.clients.FetchSessionHandler - [Consumer clientId=consum

#kafka#问题汇总
log4j2漏洞升级

一、影响范围:Apache Log4j 2.x <= 2.15.0-rc1二、可能受影响的应用不限于以下内容:Spring-Boot-strater-log4j2Apache Struts2Apache SolrApache DruidApache FlinkElasticSearchFlumeDubboJedisLogstashKafkaApache Storm三、解决办法:1、等待官方升

文章图片
Flink1.8 踩坑记

1、flink sink to kafka 报错 java.lang.NoSuchMethodError: org.apache.flink.api.java.ClosureCleaner.clean(Ljava/lang/Object;Z)VCaused by: java.lang.NoSuchMethodError: org.apache.flink.api.java.ClosureCl...

Flink消费Kafka数据,写入HDFS - 使用 StreamingFileSink

一、应用场景:Flink 消费 Kafka 数据进行实时处理,并将结果写入 HDFS。二、Streaming File Sink由于流数据本身是无界的,所以,流数据将数据写入到分桶(bucket)中。默认使用基于系统时间(yyyy-MM-dd--HH)的分桶策略。在分桶中,又根据滚动策略,将输出拆分为 part 文件。1、Flink 提供了两个分桶策略,分桶策略实现了o...

    共 17 条
  • 1
  • 2
  • 请选择