简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
背景:Amazon S3提供了方便易用的对象存储接口,在对象存储中数据是以key-value的形式存放,对象之间默认没什么关联。在实际应用场景中,我们可能需要将一个文件夹上传到S3中,而不是一个一个文件地上传,并且期望保留文件夹里文件的层级关系。本文介绍三种方法,第三种用代码是重点。1.使用S3Browser在S3的客户端S3Browser中,我们发现可以upload floder,我将本地 H:
背景:ceph+S3是一套常用的对象存储方式,S3提供的接口比ceph底层的librados用起来更方便,而且支持Windows使用,尤其是S3做了存储服务的客户端S3Browse,可以十分方便的使用和管理你的bucket。1.S3Browser配置下载安装好S3Browser以后,点击左上角account,add或者manage account,在下图页面进行配置,配置对了就能连接上。如果是与c
1.安装文档#创建虚拟机,每台机器3块硬盘#集群规划,写在/etc/hosts文件里192.168.244.101 ceph1 #ceph-deploy,mgr,mon192.168.244.102 ceph2 #mgr,mon192.168.244.103 ceph3 #mgr,mon#换阿里yum和expl源,每台机器执行cd /etc/yum.repos.d#备份之前的配置mv ./Cent
这里写自定义目录标题欢迎使用Markdown编辑器欢迎使用Markdown编辑器虚拟机单节点安装完ceph后,只创建了两个OSD,导致状态是100.000% pgs not active,用python rados往pool存数据一直卡着,存不了。root@controller ceph-test]# ceph -scluster:id:c5544727-e047-47e3-85fc-6cc5da
输入kafka-server-start.bat config/server.properties报错INFO Registered kafka:type=kafka.Log4jController MBean (kafka.utils.Log4jControllerRegistration$)[2019-10-30 15:16:57,057] ERROR Exiting Kafka du...
背景:代码的原理是opencv连接摄像头,捕获到帧数据mat(矩阵),将其转成byte数组然后进行base64编码,把数据与帧的其他信息(宽、高、通道数、时间戳)写入到json对象中,Kafka把json对象以字符串是方式发送出去;消费者(接收方)是ceph集群,拿到json对象后从中提取出帧的编码数据,作为对象内容存进去。要播放视频,就要把数据读出来,然后还原。1.遇到的问题及解决思路从ceph
背景:我用opencv获取摄像头的rtsp流,捕获到每帧,把帧进行base64编码,然后通过Kafka把编码后的帧发送出去最初Kafka发视频文件和发摄像头的帧是没问题的,生产者可以一直发送,消费者可以一直接收。后来为了模拟不同清晰度的视频流,让视频流代码使用不同清晰度的视频文件发送和存储,于是修改了Kafka一些参数,现在的参数导致生产者连续发送几十帧或者一百多帧时会报错。org.apache.
devmem源码很短,网上可以下载到,有devmem和devmem2两个版本devmem源码地址:https://www.cnblogs.com/sky-heaven/p/13597581.htmldevmem2源码地址:http://sources.buildroot.net/devmem2.cbusybox中的devmembusybox是Linux一个调试工具箱,里面包含了devmem及其他工