logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

docker版本的私服

1.docker 实例iphostname192.168.1.180basenode192.168.1.151bigdata01.com在192.168.1.151服务网器上拉去私服运行私服docker 私服官网 https://hub.docker.com/_/registry2. 拉去私服: docker pull registry3. 运行容器 :docker run -itd -p 500

文章图片
#docker#容器#centos
Flink侧输入流应用 kafka --> ODS-->DWD

1.Flink侧输入流–> ODS–>DWD场景:Flink 接收kakfa 信息 通过 侧输入流--> ODS-->DWD代码:主类:package com.wudl.flink.app.dwd;import com.alibaba.fastjson.JSON;import com.alibaba.fastjson.JSONArray;import com.alibaba

文章图片
#flink
flink kakfa 数据读写到hudi

flink kafka hudi组件版本hudi10.0flink13.51.2.flink lib 需要的jar 包hudi-flink-bundle_2.12-0.10.0.jarflink-sql-connector-kafka_2.12-1.13.5.jarflink-shaded-hadoop-2-uber-2.8.3-10.0.jar下面是所有的jar 包-rw-r--r-- 1 ro

文章图片
#flink#kafka#jar
ai模型训练生成效果 chilloutmix_NiPrunedFp32Fix.safetensors

在这里插入图片描述](https://img-blog.csdnimg.cn/62235a718f8542c7a47b1779ed36ce7e.png。更多的模型下载 模型训练请加。

文章图片
#unity#游戏引擎
Spring boot 操作doris

1. 启动doris1.1 一台fe三台be[root@node01 bin]# ./start_fe.sh --daemon[root@node01 bin]# ./start_be.sh --daemon[root@node02 bin]# ./start_be.sh --daemon[root@node03 bin]# ./start_be.sh --daemon1.2 连接 doris[r

文章图片
Flink 获取kafka数据 批量sinkHbase

1. 处理流程:通过flink 从kafka 中获取到数据, 然后在sink 到hbase 中数据结构{"address":"深圳","age":20,"createTime":"2021-12-08 22:30","id":1,"name":"hdfs"}2.Hbase 建表hbase(main):002:0> create 'wudluser','cf', { NUMREGIONS =&

文章图片
#kafka#flink#big data
Elasticsearch的 DSL查询

2.2 全文搜索(full-text query)2.2.1 匹配搜索(match query)2.3 短语搜索(match phrase query)2.3.1 query_string 查询2.4多字段匹配搜索(multi match query)2.5 词条级搜索(term-level queries)添加数据结构 和添加数据结构添加数据3.5.1 词条搜索(term query)3.5.2

文章图片
#elasticsearch#搜索引擎#大数据
Flink 的侧输出 和一个流拆分成多个流

1. Flink 侧输出流官网 :https://nightlies.apache.org/flink/flink-docs-release-1.14/docs/dev/datastream/side_output/1.1 理解侧输出流就是将问题数据或者 不符合条件的数据进行输出到数据库中或者打印出来, 就形成一个正确的流和一个不符合条件的流。1.2 实例案例:判断 输入的字符串是否等于 "big

文章图片
#kafka#ssh#big data
Flink 版本数据湖(hudi)实时数仓---flinkcdc hudi kafak hive

1.架构图2.实现实例2.1 通过flink cdc的两张表 合并 成一张视图, 同时写入到数据湖(hudi) 中 同时写入到kafka 中2.2 实现思路1.在flinksql 中创建flink cdc 表2.创建视图(用两张表关联后需要的列的结果显示为一张速度)3.创建输出表,关联Hudi表,并且自动同步到Hive表4.查询视图数据,插入到输出表 -- flink后台实时执行2.3pom 文件

文章图片
#flink#kafka#hive
Springboot 整合 skywalking

1. skywalking官网:https://skywalking.apache.org/特点:1.SkyWalking: 一个开源的可观测平台, 用于从服务和云原生基础设施收集, 分析, 聚合及可视化数据。2.SkyWalking 更是一个现代化的应用程序性能监控(Application Performance Monitoring)系统, 尤其专为云原生、基于容器的分布式系统设计.2.架构2

文章图片
#elasticsearch
到底了