logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

召回模块:多召回策略

日萌社人工智能AI:Keras PyTorch MXNet TensorFlow PaddlePaddle 深度学习实战(不定时更新)2.3 多召回策略学习目标目标知道多召回策略的设计应用应用完成用户多召回策略实现2.3.1 召回模块召回模块作用: 针对当前用户尽可能多的覆盖其喜好而进行帖子的筛选。召回模块组成: 召回模块包括, ETL模块, 召回池(包含各种召回策略), 召回池二级缓存, 规则过

Specified value of sga_target xxxM is too small, needs to be at least xxxM

日萌社人工智能AI:Keras PyTorch MXNet TensorFlow PaddlePaddle 深度学习实战(不定时更新)Specified value of sga_target xxxM is too small, needs to be at least xxxM解决:服务器的内存或者虚拟机分配给linux的内存不足,分配大一点...

#linux
机器学习实验

一、项目背景【项目简介】Azure Machine Learning(简称“AML”)是微软在其公有云Azure上推出的基于Web使用的一项机器学习服务,机器学习属人工智能的一个分支,它技术借助算法让电脑对大量流动数据集进行识别。这种方式能够通过历史数据来预测未来事件和行为,其实现方式明显优于传统的商业智能形式。微软的目标是简化使用机器学习的过程,以便于开发人员、业务分析师和数据科学家进行...

#azure
虚拟机 克隆:完整克隆 模式

总帖:CDH 6系列(CDH 6.0、CHD6.1等)安装和使用对拷贝后的node2和node3 分别进行以下修改1.uuidgen ens33 获取新的 UUID2.vim /etc/sysconfig/network-scripts/ifcfg-ens33 修改 IP 和 UUID3.service network restart 重启网络4.vi /...

CDH 6系列(CDH 6.0.0、CDH 6.1.0、CDH 6.2.0等)安装和使用

日萌社CDH 6系列(CDH 6.0.0、CDH 6.1.0、CDH 6.2.0等)安装和使用CDH5(CDH 5.16.1)安装======= CDH 6系列(CDH 6.0、CHD6.1等)安装和使用========CDH 6 安装笔记:/s/12DvQftfCBbQit9dAgnfYfw提取码:iwd3安装 CentOS 7虚拟机 克隆:完整克隆 ...

在线部分:werobot服务、主要逻辑服务、句子相关模型服务、BERT中文预训练模型+微调模型(目的:比较两句话text1和text2之间是否有关联)、模型在Flask部署

日萌社人工智能AI:Keras PyTorch MXNet TensorFlow PaddlePaddle 深度学习实战(不定时更新)7.1 在线部分简要分析学习目标:了解在线部分的核心组成.了解各个核心组成部分的作用.在线部分架构图:在线部分简要分析:根据架构图,在线部分的核心由三个服务组成,分别是werobot服务,主要逻辑服务,句子相关模型服务. 这三个服务贯穿连接整个在线部分的各个模块.w

#人工智能
MySQL 5.7.24 安装、my.cnf配置文件

总帖:CDH 6系列(CDH 6.0、CHD6.1等)安装和使用1.查看是否安装了自带mysql:rpm -qa | grep mysql2.把64位的MySQL(centOS 7 版本MySQL:mysql-5.7.24-linux-glibc2.12-x86_64.tar.gz)解压到 /usr/local 目录文件夹下cd /...

CDH5(CDH 5.16.1)安装

CDH 6系列(CDH 6.0.0、CDH 6.1.0、CDH 6.2.0等)安装和使用CDH5(CDH 5.16.1)安装linux配置1.第一种方式:rsa算法加密,非对称加密的方式基于私钥登陆的方式:(ssh连接时无需输入用户密码)1.ssh-keygen -t rsa 然后四下回车2./root/.ssh目录下:私钥:id_rsa公钥:id_rsa.p...

配置 prometheus、pushgateway 监控 Flink metrics指标

日萌社人工智能AI:Keras PyTorch MXNet TensorFlow PaddlePaddle 深度学习实战(不定时更新)当prometheus的server与target不在同一网段网络不通,无法直接拉取target数据,需要使用pushgateway作为数据中转点。flink metric数据流转的流程是 flink metric -> pushgateway -> p

#大数据#flink
Impala 操作/读写 Kudu,使用druid连接池

大数据组件使用 总文章Impala 操作/读写 Kudu,使用druid连接池Kudu 原理、API使用、代码Kudu Java API 条件查询spark读取kudu表导出数据为parquet文件(spark kudu parquet)kudu 导入/导出 数据Kudu 分页查询的两种方式Kudu 创建主键如果Maven下载ImpalaJDBC41不下来的话,可以到...

    共 51 条
  • 1
  • 2
  • 3
  • 6
  • 请选择