简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
背景最近在研究CPU-GPU异构,首要问题就是安装环境。我在三台机器(虚拟机、服务器、自己台式ubuntu)上安装了这套环境,遇到了一些问题,几经挫折竟然全部解决了,我以笔记的形式记录了编译过程、安装问题、遇到的问题及解决方法,并且逐渐写成博客分享给大家,因为这部分内容在网上实在不多。我们的环境之一就是使用LitmusRT的调度器,那么就要编译安装这个内核。编译安装步骤其实按照官网指导http:/
背景前一阵跟着宋红康的视频学了学JVM,视频没有更新完,所以也没学完,这里记录一下笔记JVM概述JVM位置: 运行在操作系统之上相对于java语言,JVM的位置如下所示对于安卓的Davlik虚拟机,他分布在安卓运行时内存区整体结构:以HotSpot VM为例,它采用解释器与即时编译器(JIT)并存的架构运行时数据区和执行引擎的交互...
背景在文章编译安装LitmusRT遇到的问题中,我们已经编译安装了实时操作系统LitmusRT,并且能够正常启动它。现在,我们得编译安装一下GPU加速的第三方库OpenCL或OpenACC。这里再次注意不要用虚拟机安装英伟达驱动,因为虚拟机的显卡是虚拟出来的,加载不了英伟达的ko文件。所以我使用的是实验室的ubuntu16.04 64位台式机,此台式机已经装好了英伟达驱动、cuda10.2和10.
解决方法:1、修改/etc/inittab文件vim /etc/inittab将这两行的注释去掉multi-user.target:analogous to runlevel 3graphical.target: analogous to runlevel 5保存退出后,查看启动模式[root@scentos szc]# systemctl get-defaultgraphical.target重
背景老子不知道hive在win10下怎么就这么多错.....不想用虚拟机,想换成mac,但是mac上没有实况19...真的是,我去年买了个表。hive建表报错Column length too big for column 'PARAM_VALUE' (max = 21845); use BLOB or TEXT instead解决方法:用navicat创建hive数据库,...
背景由于要学习splash,我不得不安装docker,并配置国内镜像源步骤1、安装docker-tool这两个月github太慢了,我分享给大家网盘链接链接:https://pan.baidu.com/s/1AhtnXOCihYYvgWyhKiO5UQ提取码:4p45安装时,可以自定义安装路径,里面的组件自己看着安装,已经装过的就不用装了2、运行桌面上的Docker...
背景分享一下这半年学习kafka的笔记简介kafka是分布订阅式生产者消费者模型架构:角色解释:1、broker:一台kafka服务器就是一个broker,里面有多个topic2、producer:向broker发送消息的结点,生产者3、consumer:从broker读取消息的结点,消费者4、consumerGroup:消费者组,里面的消费者负责不同分区的数据。同一个消费者组只能读取一个分区的作
文章目录介绍准备工作打开MySQL的Binlog创建测试数据库及表Canal安装配置下载jar包配置canal/conf/canal.properties:conf/example/instance.properties启动使用Kafka实时消费TCP实时消费介绍类似于Maxwell,canal也是一个实时数据库变更订阅中间件,它是阿里用java开发的基于数据库增量日志解析、提供增量数据订阅消费的
背景在学习Flink的流处理API时,不可避免地要学Kafka。问题在启动Kafka的服务器时,报了一堆错误,关键的错误如下java.io.IOException: Map failedat sun.nio.ch.FileChannelImpl.map(FileChannelImpl.java:944)at kafka.log.Abstract...
文章目录背景环境Atlas安装solrAtlasAtlas启动启动Hadoop、ZooKeeper、HBase、Kafka、Hive和MySQLHadoop启动ZooKeeper启动HBase启动Kafka启动MySQL启动Hive启动solr配置atlas集成HBase集成Solr集成KafkaServer配置集成Hive启动atlas结语背景在文章元数据管理工具Atlas学习笔记之介绍中,我介