logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

(68)可视化查询

4.1 DataV阿里云网址:https://datav.aliyun.com/官方帮助手册:https://help.aliyun.com/document_detail/30360.html阿里云有两大数据可视化服务,一个是 QuickBI,一个就是 DataV。QuickBI 定位 BI 工具定位由数据分析师使用,通过灵活配置各种多维分析、深度钻取,生成各种报表和可交互的图形化展示;而 Da

#大数据
pg数据库主备搭建

注意(创建postgres用户后,要从root进入postges,进行后边的操作,注意用户,主要使用的是和数据库有关的用户)环境:OS:CentOs 7Postgres-11.6 源码编译1.2 主库安装1.2.1 安装介质准备下载地址: https://www.postgresql.org/ftp/source/我这里下载的是11.6版本,介质如下:postgresql-11.6.tar.gz这

#postgresql
springboot+springcloud连接Greenplum数据库

工具代码,springboot+springcloud连接Greenplum数据库,对应mapping,impl<?xml version="1.0" encoding="UTF-8" ?><!DOCTYPE mapper PUBLIC "-//mybatis.org//DTD Mapper 3.0//EN" "http://mybatis.org/dtd/mybatis-3-m

#java
实时计算Flink+Hologres

对于主键关联的场景(即 Join 条件分别是两条流的主键),我们可以将 Join 的工作下沉到 Hologres 去做,通过 Hologres 的局部更新功能来实现宽表 Merge,从而省去了 Flink Join 的状态维护成本。数据实时入仓形成了 ODS 层的数据后,通常需要将事实数据与维度数据利用 Flink 多流 Join 的能力实时地打平成宽表,结合 Hologres 宽表极佳的多维分析

#junit#java#阿里云
FineBI概述

还是数据可视化工具Tableau、FineBI?不禁联想起在微软系统出现之前,程序员的电脑系统还是用的linux,只能通过各种复杂的指令来实现字符的简单可视化;而当win系统普及于世后,计算机从此突破了技术人群的限制,交互方式从编码式实现了可视化的巨大飞跃,这才孕育出了大数据时代的可视化分析。每一次技术时代的变革和突破,都将意味着一次新时代的生产力前进的到来,数据分析同样也是如此。Excel作为数

#数据分析
开源Flink迁移至实时计算Flink

Flink各类任务迁移。数据准确性校验。业务稳定性验证。Flink集群容量评估。

#数据库#java#服务器
FineBI和FineReport的区别

FineBI 和 FineReport 是帆软软件旗下的两款数据分析工具。两款产品各有区别及各自的优势所在。本文介绍两款产品的异同点及兼容性。FineReportFineBI工具类型报表工具:报表是企业信息化必不可少统计分析工具,主要实现一些企业固定的月报、季报、关键数据的统计分析商业智能工具:侧重于数据分析,改变之前传统做表的方式,交互性更好,性能更加强大目的旨在统计或者告诉决策者:过去发生了什

#数据库
FineBI产品简介

FineBI 是帆软软件有限公司推出的一款商业智能(Business Intelligence)产品。FineBI 是新一代大数据分析的 BI 工具,旨在帮助企业的业务人员充分了解和利用他们的数据。FineBI 凭借强劲的大数据引擎,用户只需简单拖拽便能制作出丰富多样的数据可视化信息,自由地对数据进行分析和探索,让数据释放出更多未知潜能。

#finebi#大数据
使用Flume消费Kafka数据到HDFS (亲测好用)

1.概述对于数据的转发,Kafka是一个不错的选择。Kafka能够装载数据到消息队列,然后等待其他业务场景去消费这些数据,Kafka的应用接口API非常的丰富,支持各种存储介质,例如HDFS、HBase等。如果不想使用Kafka API编写代码去消费Kafka Topic,也是有组件可以去集成消费的。下面笔者将为大家介绍如何使用Flume快速消费Kafka Topic数据,然后将消费后的数据转发到

#kafka#hdfs#flume
kafkas删除topic数据

生产环境中,有一个topic的数据量非常大。这些数据不是非常重要,需要定期清理。要求:默认保持24小时,某些topic 需要保留2小时或者6小时主要有3个:1. 基于时间2. 基于日志大小3. 基于日志起始偏移量详情,请参考链接:Kafka日志清理之Log Deletion_朱小厮的博客-CSDN博客_log.cleanup.policy接下来,主要介绍基于时间的清除!kafka版本为:2.11-

#kafka#zookeeper#分布式
到底了