logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

TypeError: Failed to execute ‘fetch‘ on ‘Window‘: Request with GET/HEAD method cannot have body.

用swagger测试java接口,报错TypeError: Failed to execute ‘fetch‘ on ‘Window‘: Request with GET/HEAD method cannot have body.经过查找原因是由于方法中申明的是get方法却用了@requestBody,我们只要这个参数前的声明去掉就可以了。下面介绍下常用请求方式和参数的对应关系1、Post请求Re

#java#http
python执行pip install -r requirements.txt 安装第三方库报 metadata-generation-failed

python执行pip install -r requirements.txt 安装第三方库报 metadata-generation-failed

文章图片
#python#pip#开发语言
Spark:3.0.3版本报错“java.lang.NoSuchFieldError: JAVA_9“

Exception in thread "main" java.lang.NoSuchFieldError: JAVA_9at org.apache.spark.storage.StorageUtils$.<init>(StorageUtils.scala:207)at org.apache.spark.storage.StorageUtils$.<clinit>(Stor

文章图片
#spark#java#scala
大模型学习:Qwen2.5-Coder 本地部署

前段时间,阿里开源了 Qwen2.5-Coder 系列模型,其中 32B 模型在十余项基准评测中均取得开源最佳成绩。无愧全球最强开源代码模型,在多项关键能力上甚至超越 GPT-4o。

文章图片
大模型学习:Qwen2.5-Coder 本地部署

前段时间,阿里开源了 Qwen2.5-Coder 系列模型,其中 32B 模型在十余项基准评测中均取得开源最佳成绩。无愧全球最强开源代码模型,在多项关键能力上甚至超越 GPT-4o。

文章图片
大模型学习:Qwen2.5-Coder 本地部署

前段时间,阿里开源了 Qwen2.5-Coder 系列模型,其中 32B 模型在十余项基准评测中均取得开源最佳成绩。无愧全球最强开源代码模型,在多项关键能力上甚至超越 GPT-4o。

文章图片
hiveserver2服务的启动与简单使用技巧

一、hiveserver2简介Hive在生产上是不需要部署集群的,操作Hive只需要通过它提供的客户端即可,Hive提供了大致三类客户端:hive shell:通过hive shell来操作hive,但是至多只能存在一个hive shell,启动第二个会被阻塞,也就是说hive shell不支持并发操作。WebUI: 通过HUE/Zeppelin来对Hive表进行操作。基于JDBC等协议:启动hi

文章图片
#hive#java#big data +1
大数据分析 clickhouse安装配置及使用

大数据分析 mysql数据迁移clickhouse最近项目遇到个问题,就是mysql做数据分析高并发情况下,老是报超时错误,主要原因还是因为mysql进行大批量关联查询太耗时间,于是在网上查询了下资料,决定试一下clickhouse一、Clickhouse简介Yandex在2016年6月15日开源了一个数据分析的数据库,名字叫做ClickHouse,这对保守俄罗斯人来说是个特大事。更让人惊讶的是,

大数据分析学习第十四课 kafka 2.4.1单机版部署及使用

最近在学习Flink,不可避免的需要用到kafka消息中间件,下面介绍下单机部署流程1.下载2.4.1版本我的Flink版本是1.12,对应的kafka版本要使用2.4.1的 我们下载kafka_2.11-2.4.1这个版本,2.11是scala版本http://kafka.apache.org/downloads同时我们下载kafka eagle监控kafka状态,这里我用的最新版本2.0.6h

文章图片
#kafka#flink
大数据分析学习第六课 使用Java语言开发MapReduce实战

我们知道,从Hadoop官网下载的部署包里,提供了不少jar包示例,但是我们不了解内部的实现逻辑,今天我就给大家介绍下,在java开发环境下怎么实现一个MapReducereduceTask聚合操作,就是对key相同的一组数据进行处理,具体的聚合逻辑通过接口的方式暴露给用户,由用户来指定(同mapTask方式)。reduce Task处理结果,将最后的聚合结果写入hdfs中,每个reduceTas

#大数据#hadoop#mapreduce +1
    共 21 条
  • 1
  • 2
  • 3
  • 请选择