logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

ubuntu下编译时遇到的错误及解决方式

1、错误展示:hangma@ubuntu:~/test/test/protest/stack_test$ gcc  -c my_stack.c -o my_stack.oIn file included from /usr/include/stdio.h:34:0,                 from my_stack.c:2:/usr/lib/gcc/i686-linux-

#linux#ubuntu
malloc分配的内存空间是连续的吗

1、linux内核管理内存空间的分配,所有程序对内存空间的申请和其他操作,最终都会交给内核来管理。2、linux实现的是“虚拟内存系统”,对用户而言,所有内存都是虚拟的,也就是说程序并不是直接运行在物理内存上,而是运行在虚拟内存上,然后由虚拟内存转换到物理内存。3、linux将所有的内存都以页为单位进行划分,通常每一页是4KB;4、在对虚拟内存地址到物理内存地址进行转换时,内核会对地址

linux用户管理(1)----创建用户(adduser和useradd)和删除用户(userdel)

一、常用命令:(1)创建用户命令两条:adduseruseradd(2)用户删除命令:userdel二、两个用户创建命令之间的区别adduser: 会自动为创建的用户指定主目录、系统shell版本,会在创建时输入用户密码。useradd:需要使用参数选项指定上述基本设置,如果不使用任何参数,则创建的用户无密码、无主目录、没有指定shell版本。

#linux
FFMPEG中的一些基本概念

容器(container):就是文件格式,在视频文件进入处理后,我们会给这个视频文件一个抽象,这个抽象就是存放这种视频文件的容器,在FFMPEG中,用来抽象文件格式的容器就是AVFormatContext;数据流(stream):数据流就是我们平时看到的多媒体数据流,它包含几种基本的数据流,包括:视频流、音频流、字幕流;按照我的理解,这三种基本的数据流在时间轴上交错放置,只有这样才能满

《Linux程序设计》--读书笔记---第十三章进程间通信:管道

管道:进程可以通过它交换更有用的数据。我们通常是把一个进程的输出通过管道连接到另一个进程的输入;对shell命令来说,命令的连接是通过管道字符来完成的;cmd1    |     cmd2shell负责安排两个命令的标准输入和标准输出cmd1的标准输入来自键盘cmd1的标准输出传递给cmd2,作为它的标准输入cmd2的标准输出连接到终端屏幕shell

kafka文档(11)----0.10.1-Document-文档(3)-configures-broker配置信息

3. CONFIGURATIONKafka uses key-value pairs in the propertyfile format for configuration. These values can be supplied either from a file or programmatically.3、配置信息Kafka使用key-value格式配置信息。这

#kafka
kafka文档(10)----0.10.1-Document-文档(2)-APIS

2. APISKafka includes four core apis:The Producer API allows applications to send streams of data to topics in the Kafka cluster.The Consumer API allows applications to read streams of data from

#kafka
kafka文档(6)----0.10.1-Introduction-基本介绍

Kafka™ is a distributed streaming platform. What exactly does that mean?kafka是分布式流式平台,到底是什么意思呢?We think of a streaming platform as having three key capabilities:It lets you publi

#kafka
kafka文档(16)----0.10.1-Document-文档(8)-Design-kafka设计原理相关

4. DESIGN4.设计相关4.1 MotivationWe designed Kafka to be able to act as a unified platform for handling all the real-time data feeds a large company might have.To do this we had to think th

#kafka
    共 22 条
  • 1
  • 2
  • 3
  • 请选择