简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
7月13日,“大数据携手智慧城市,助力山东新旧动能转换”技术交流分享会——济南站在山东信息通信技术研究院会议室成功举办,此次会议由山东省智慧城市产业技术创新战略联盟、青岛市大数据与云计算行业协会主办、青岛大快搜索计算技术有限公司承办,交流会由青岛市大数据与云计算行业协会常务副秘书长,大快搜索联合创始人薛铮主持。山东省智慧城市联盟秘书长,泰华智慧产业集团副总裁郝敬全、大快搜索大数据应用研究专家高林、
本篇文章是接上一篇《超详细hadoop虚拟机安装教程(附图文步骤)》,上一篇有人问怎么没写hadoop安装。在文章开头就已经说明了,hadoop安装会在后面写到,因为整个系列的文章涉及到每一步的截图,导致文章整体很长。会分别先对虚拟机的安装、Linux系统安装进行介绍,然后才会写到hadoop安装,关于hadoop版本我使用的是大快搜索三节点发行版DKhadoop。(三节点的DKHadoop发行版
随着大数据云计算技术的发展,围绕这一技术也催生了很多的新的职业,比如——云架构师。何为云架构师呢?成为云架构师又需要学习和掌握什么样的技能?提出这样的问题,不免想到了之前在研究学习大快的DKHadoop的时问过的一个问题:学习dkhadoop需要掌握什么基础。这两个问题不免有异曲同工之妙啊!昨天在大快搜索的公共号里查询dkhadoop的资料时看到一篇介绍关于成为云架构师需要什么样能力的文章觉得还不
最近几年随着大数据技术快速发展与应用,智慧城市随即被正式提出。而且,我们也可以深刻感受到“智慧”正在慢慢改变我们的生活方式和城市。要让城市变智慧的地方太多太多,当前我们接触做多的可能就是外出停车,比如很多商场的停车系统,很多商城的停车场都实现了无人值守。这就是得益于智慧城市停车云平台。很多人对智慧停车云的概念不是明白,智慧停车平台就是利用云计算、物联网、大数据处理技术等手段,通过可持续运营的商业服
使用 HanLP - 汉语言处理包 来处理,他能处理很多事情,如分词、调用分词器、命名实体识别、人名识别、地名识别、词性识别、篇章理解、关键词提取、简繁拼音转换、拼音转换、根据输入智能推荐、自定义分词器使用很简单,只要引入hanlp.jar包,便可处理(新版本的hanlp安装包可以去github下载安装),下面是某位大神的操作截图:...
pyhanlp是python版封装的的HanLP,项目地址:https://github.com/hankcs/pyhanlp经过测试,HanLP比nltk在中文分词和实体识别方面都更好用.如何向pyhanlp添加自定义的词典?以python 2.7.9为例:1.安装pyhanlp:pip install pyhanlp2.在字典路径下添加自定义的词典:CustomDictio...
简单有效的多标准中文分词详解本文介绍一种简洁优雅的多标准中文分词方案,可联合多个不同标准的语料库训练单个模型,同时输出多标准的分词结果。通过不同语料库之间的迁移学习提升模型的性能,在10个语料库上的联合试验结果优于绝大部分单独训练的模型。模型参数和超参数全部共享,复杂度不随语料库种类增长。(相关内容已经集成到大快的hanlp中,代码和语料可访问github上的hanlp开源项目主页查询)...
以前发布过HanLP的Lucene插件,后来很多人跟我说其实Solr更流行(反正我是觉得既然Solr是Lucene的子项目,那么稍微改改配置就能支持Solr),于是就抽空做了个Solr插件出来,开源在Github上,欢迎改进。HanLP中文分词solr插件支持Solr5.x,兼容Lucene5.x。 快速上手1、将hanlp-portable.jar和hanlp-solr-pl...
文章摘自github,本次测试选用 HanLP 1.6.0 , LTP 3.4.0测试思路使用同一份语料训练两个分词库,同一份测试数据测试两个分词库的性能。语料库选取1998年01月的人民日报语料库。199801人民日报语料该词库带有词性标注,为了遵循LTP的训练数据集格式,需要处理掉词性标注。测试数据选择SIGHan2005提供的开放测试集。SIG...
基于HanLP,支持包括Solr(7.x)在内的任何基于Lucene(7.x)的系统。Maven<dependency><groupId>com.hankcs.nlp</groupId><artifactId>hanlp-lucene-plugin</artifactId>...