
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
与基本的Matplotlib绘图相比,pyecharts的交互以及可视化更为友好,更适合于项目开发、商业报告。github.com/pyecharts/pyechartspyecharts 分为 v0.5.X 和 v1 两个大版本,v0.5.X 和 v1 间不兼容,v1 是一个全新的版本,很多函数的用法出现了变更第一个pyecharts程序bar.add_x/ya...

Hard Negatie Mining与Online Hard Example Mining(OHEM)都属于难例挖掘,它是解决目标检测老大难问题的常用办法,运用于R-CNN,fast R-CNN,faster rcnn等two-stage模型与SSD等(有anchor的)one-stage模型训练时的训练方法。OHEM和难负例挖掘名字上的不同。Hard Negative Mining只注意难负例
Darkent是个轻量级深度学习训练框架,用c和cuda编写,支持GPU加速。你可以理解为darknet和tensorflow, pytorch, caffe, mxnet一样,是用于跑模型的底层yolo是模型,是方法YOLO作者自己写的一个深度学习框架叫darknet(见YOLO原文2.2部分),后来在YOLO9000中又提了一个基于ResNet魔改的19层卷积网络,称为Darknet-19,在
TensorRT是可以在NVIDIA各种GPU硬件平台下运行的一个C++推理框架。是一个高性能的深度学习推理(Inference)优化器,可以为深度学习应用提供低延迟、高吞吐率的部署推理我们利用Pytorch、TF或者其他框架训练好的模型,可以转化为TensorRT的格式,然后利用TensorRT推理引擎去运行我们这个模型,从而提升这个模型在英伟达GPU上运行的速度。速度提升的比例是比较可观的Te
NLP主要范畴NLP发展历史研究难点NLP涉及知识词处理分词、词性标注、实体识别、词义消歧语句处理句法分析、语义分析、机器翻译、语音合成统计语言模型N-Gram统计模型、马尔可夫模型、隐马尔可夫模型NLTK库Natural Language Toolkit 自然语言处理工具包NLTK库诞生于20世纪80年代,是Python上著名的自然语言处理库,自带语料库,词性分类库; 自带分类、分词等功能,还有
VAEVariational Autoencoder 变分自编码器通常我们会拿 VAE 跟 GAN 比较,的确,它们两个的目标基本是一致的——希望构建一个从隐变量Z生成目标数据X的模型,但是实现上有所不同引入从神经网络的角度来理解VAE变分自编码器中间神经元的连接方式也是不太一样的VAE vs GANGAN的效果要更好...
语料及词性标注词性标注就是给每个词打上词类标签,如形容词、动词、名词等常见的中文词性编码词性标注的分类词性标注的方法NLTKJiebaimport jieba.posseg as psegwords = pseg.cut('我爱北京天安门')for word,flag in words:print('%s %s'%(word, flag))...
Word2VecNLP非常核心、非常重要、非常基础的技术Word2Vec就是用神经网络把词转换成向量的模型Word2Vec的发展WordNet是Word2Vec的鼻祖Word2Vec是2013年由Mikolov提出Word2Vec模型man比woman和king更像所以可以看出,词之间也有远近关系的Word2Vec的不足①使用了唯一的词向量,对于多义词没有很好的效果②context很小,没有使用全

模型压缩和模型加速经常是并提的,却是两个不同的话题,有时候压缩并不一定能带来加速的效果,有时候又是相辅相成的。压缩重点在于减少网络参数量,加速则侧重在降低计算复杂度、提升并行能力等模型加速可以分为三个层次:算法层压缩加速。这个维度主要在算法应用层,也是大多数算法工程师的工作范畴。主要包括结构优化(如矩阵分解、分组卷积、小卷积核等)、量化与定点化、模型剪枝、模型蒸馏等。框架层加速。这个维度主要在算法
Hint layer是《FitNets: Hints for Thin Deep Nets》提出的一个概念Hint定义是:teacher的隐含层输出,用来引导student的学习过程。类似的又从student中选择一个隐含层叫做guided layer,我们希望guided layer能预测出与hint layer相近的输出。...







