简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
我今天要讲这三个话题,一个是云计算,一个大数据,一个人工智能,我为什么要讲这三个东西呢?因为这三个东西现在非常非常的火,它们之间好像互相有关系,一般谈云计算的时候也会提到大数据,谈人工智能的时候也会提大数据,谈人工智能的时候也会提云计算。所以说感觉他们又相辅相成不可分割,如果是非技术的人员来讲可能比较难理解说这三个之间的相互关系,所以有必要解释一下。一、云计算最初是实现资源管理的灵活性我们...
webpack 编译es6 动态引入 import() 时不能传入变量,例如dir =’path/to/my/file.js’ ; import(dir) , 而要传入字符串 import(‘path/to/my/file.js’),这是因为webpack的现在的实现方式不能实现完全动态。但一定要用变量的时候,可以通过字符串模板来提供部分信息给webpack;例如import(./path/$..
最近使用vue作为前端开发的框架,前端开发完毕后需要使用vue cli3 编译成静态文件,编译的文件不需要hash,因此加入配置:module.exports = {baseUrl: BASE_URL,outputDir: 'dist',filenameHashing: false,chainWebpack: config => {config.plu...
一、为什么需要前后端分离1.1什么是前后端分离 前后端分离这个词刚在毕业(15年)那会就听说过,但是直到17年前都没有接触过前后端分离的项目。怎么理解前后端分离?直观的感觉就是前后端分开去做,即功能和职责上的一种划分,前端负责页面的渲染,部分页面交互的逻辑,然后通过网络请求与后端进行数据的交互;后端则着重关注业务逻辑的处理,直接操控数据库。1.2前后端未分离前(1)jsp + s...
originalData: {type: Array | Object,default () {return []}}}```
originalData: {type: Array | Object,default () {return []}}}```
Flume用来收集日志信息,这里记录以下使用场景:场景一:使用avro source ,memory,logger 将收集到的日志打印在标准输出,适合测试。场景二:使用avro source,kafka channel,hdfs 将日志以"Flume Event" Avro Event Serializer 的形式保存在hdfs上,这种方式生成的.avro文件中的每一条记录的字
不错的好文章,直接调式Javac编译过程来说明怎样将.java 文件转成.class文件,这其中发生了什么。下面我们详细了解Java前端编译:Java源代码编译成Class文件的过程;我们从官方JDK提供的前端编译器javac入手,用javac编译一些测试程序,调试跟踪javac源码,看看javac整个编译过程是如何实现的。javac编译器javac源码与调试javac编译器是官方JDK中...