
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
LLM大模型、LightRAG、论文解读、代码分析、SEO优化,增强检索,图数据库、实体关系抽取

dolphinscheduler搭建以及遇到的坑们搭建过程主要是参考官网上的搭建步骤https://dolphinscheduler.apache.org/zh-cn/docs/1.3.6/user_doc/cluster-deployment.html1、基础软件安装(必装项请自行安装)PostgreSQL (8.2.15+) or MySQL (5.7系列):两者任选其一即可,如 MySQL
单机版hadoop使用docker构建及运行一、环境:组件信息组件版本CentOS7.9.2009java1.8.0_161hadoop3.1.3docker20.10.8服务配置机器服务node1datanodenode1namenodenode1resourcemanagernode1nodemanagernode1secondrynamenode二、准备镜像使用最新版本的centOS.doc
Clickhouse集成hive一、官网介绍:1、clickhouse集成hive官网介绍:2、clickhouse支持的数据类型:二、创建对应hive的clickhouse表1、利用clickhouse的HDFS Engine建表语句二、建表需要注意的地方(详细解析)1、schema必须要与hive表中一致2、格式要求3、路径解析4、hdfs路径三、我担心hive数据更新后不能同步过来,继续在做
flink中间结果写HDFS项目中遇到一个应用场景需要将flink计算的中间结果写入到hdfs中提示:正常的kafka数据还是用flume同步至hdfs吧,用flink写hdfs会有很多问题文章目录flink中间结果写HDFS一、pandas是什么?二、使用步骤1.代码修改1)、写入本地文件中2)、写入至hdfs中2.flink写hdfs目前存在的问题总结一、pandas是什么?流数据写入到hdf