logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

python学习笔记

python学习笔记,比较全面。

#python#学习#开发语言
给github项目贡献代码详细步骤

给 github 项目贡献代码详细步骤

#github#git
修改谷歌浏览器标签页名字

修改谷歌浏览器标签页名字

文章图片
IDEA中编写并运行shell脚本

IEDA中的bashsupport插件支持在IDEA中编写shell脚本文件,有友好的代码格式,支持自动补全,检查错误,并且配置完之后,还可以在IEDA中直接运行shell脚本。下面将一步一步演示插件的安装和配置。打开IEDA,安装bashsupport插件安装完之后,保持插件选中并切实enable的状态,如下图所示,然后重启IDEA。...

flink-sql大量使用案例

本文是 flink sql 的一些使用案例,同时也包括了一些特殊用法展示。

#flink#hive
hive建表指定字段分隔符为制表符,之后上传文件,文件内容未被hive表正确识别问题

        不知道大家有没有遇到过这个问题:        hive建表,指定字段分隔符为制表符’\t’,然后在windows上按照hive表格式写好的文件,上传到linux服务器,之后利用hadoop fs -put命令将文件上传至hdfs,之后去hive表中查询数据,发现全部都是NULL!喵喵喵???    直接上图:        1. 建表:                     2

#hive
kafka生产者事务踩坑记录

spark消费kafka,程序一直卡主不运行,也不报错,最后发现和kafka上游生产者开启了事务有关。

#kafka#大数据#spark
记一次flink程序优化

1.项目背景物联网环境,网关采集设备上测点实时上传的数值,目前大概2000台左右设备,每个设备有几十个测点到几百个测点不等,上传频率最低为5秒。我需要根据报警规则和测点名称信息对上传的数据进行处理,处理结果包括生成的报警数据、带有测点名称的实时数据。实时数据、报警规则和测点名称信息均在kafka,处理完的所有数据均写入kafka。所有kafka中的valu...

#flink
flink读取kafka中的数据的所有信息

本博客为work文件转化的长图片,直接点击即可放大观看。word文件下载地址为:https://kdocs.cn/l/sdbCFoZ1P?f=131[文档] 读取kafka中的数据的所有信息.docx...

#flink#kafka
flink-sql所有表连接器-1.13

本文基于 flink 官网翻译整理,基于1.13版本,内容十分全面

#flink
    共 11 条
  • 1
  • 2
  • 请选择