logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

数据写入mysql报错 ‘\xF0\x9F\x92\xAB’ for column ‘realName’

工作中遇到的问题,使用spark写入mysql报错:\xF0\x9F\x92\xAB,一般这种情况是由于插入mysql的字段含有生僻字、表情符号emoji等。ps: 我发现我的 mysql-connector-java-5.1.46.jar 是这个版本的,估计替换成。(1)确定该字段的编码格式是否为utf8mb4,如果不是就修改为utf8mb4,然后重新插入。实际情况mysql表和该字段的字符集是

文章图片
#mysql#数据库
sqoop 导hive数据到mysql报错:Job job_1678187301820_35200 failed with state FAILED due to: Task failed task_

明显把 这一条数据当作一个字段处理,解析不了,说明--input-fields-terminated-by '\001' \ 分隔符有问题,我查看了下hive表分隔符使用的是 \t。然后把分割符改为 --input-fields-terminated-by '\t' \问题解决。2.如果上面一致的话,寻找错误需要查看yarn运行日志,因为sqoop是靠yarn调度的。1.首先确保hive表的字段和

文章图片
#hive#mysql#sqoop
spark-shell 启动出现 error not found 报错问题

首先前提是:在虚拟机上Linux运行的spark1.先检查你的 ifconfig 命令 看里面的IP是否和 /etc/hosts    ip一样;(一般是没错的)2.主要看看你spark中 conf里面的配置 有没有错:查看  conf中 spark-env.sh.....里面的  export SPARK_MASTER_HOST=hdp00hdp00 ip是否和 /etc/hosts...

linux datax安装

一、DataX介绍:DataX 是阿里开源的一个异构数据源离线同步工具,致力于实现包括关系型数据库(MySQL、Oracle等)、HDFS、Hive、ODPS、HBase、FTP等各种异构数据源之间稳定高效的数据同步功能。二、安装时环境1、IDK1.8(我这个datax安装包需要jdk1.8以上)2.python2.* (我没有安装python,使用的是liunx自带的python)查看linux

文章图片
#hbase#hive#big data
到底了