logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【管理 & DevOps】凤凰项目-一个IT运维的传奇故事读后感

DevOps从字面上来看,就是Development & Operations,开发运维。实际上这套方法论远不止包含开发和运维在内,而是试着让一个组织内的从业人员从日常繁杂的工作中脱离出来,站在全局的角度去思考怎样为组织和组织的客户来创造价值,并且是快速创造价值。这需要组织全体人员的参与和配合。一般认为,DevOps包括了技术和文化两个方面,技术可以是从下往上的,但是文化必须是需要从上往下的贯彻。

文章图片
#运维#devops#数据库
windows上的visual studio2022的项目使用jenkins自动打包

本文介绍了如何在Linux系统上使用Jenkins自动打包Windows端的Visual Studio 2022项目。主要包括配置Jenkins服务、设置Windows代理节点、安装VS2022构建工具等步骤。重点说明了通过Jenkins代理连接Windows节点,以及使用MSBuild命令进行项目打包的方法。该方案实现了跨平台自动化构建,适用于需要在Linux服务器上管理Windows项目持续集

#windows#visual studio#jenkins
机器学习读书笔记: 概率图模型

文章目录几种模型隐马尔可夫模型马尔科夫随机场条件随机场(CRF:Conditional Random Field)模型推断几种模型​机器学习的重要任务,是根据 一些已观察到的证据(训练样本)来对感兴趣的未知变量(分类,回归的值)进行估计和推测。之前也提到了两种不同的模型:生成式模型(观察与未知变量的联合模型);判别式模型(位置变量的后验概率模型)。​概率图模型则是一类用图来表达变量相关关系的概率模

机器学习读书笔记:神经网络

文章目录神经元感知机 & 多层神经网络神经网络学习多层神经网络误差逆传播算法:BP(BackPropagation)神经网络过拟合问题局部最小与全局最小​现在的深度学习大行其道,深度学习就是利用深度神经网络来进行学习。而什么是深度网络呢,就是隐层大于1的网络(实际上远远大于1)。那啥时候又是隐层呢?这都需要从神经元开始说起。神经元​看看下面这样图:​这就是神经网络中最基本的单元:M-P 神

#机器学习#神经网络
【填坑日志5】opencv.js生成 + LLVM框架

文章目录前言Emscripten编译器安装前言第四篇已经讲到,我需要将一个jpg/bmp/png等图像文件格式转换为RGB/RGBA等图像通道的数据结构。这个工作可以借助专业的图形处理库opencv来处理。但是呢,opencv是基于C++语言的。近些年python和机器学习大火的情况下,opencv也跟着推出了python版本。opencv所有的功能基本上都是支持C++和python的。随着前端H

机器学习读书笔记: 模型性能评价

文章目录假设空间性能评价评估方法留出法交叉验证法自助法性能度量错误率与精度查准率 & 查全率P-R图ROC & AUC代价敏感错误与代价曲线假设空间​在周志华老师的《机器学习》一书中提到,模型的训练就是利用训练数据在数据属性构成的“假设空间”中进行搜索,在搜索过程中会删除假设空间的某些假设,最终留下一些假设形成“版本空间”,最终再通过这个模型进行推理。​至于什么是假设空间,假设的删

#机器学习
机器学习读书笔记:假设检验(二)

文章目录t检验卡方检验Friedman检验Nemenyi后续检验偏差与方差​之前的一篇关于假设检验的文章主要是针对一个学习算法的假设检验。在真是工作环境中,很多情况下,我们都是想比较两个学习算法到底哪个更好。或者用概率的思路来说,学习算法A比学习算法B更好的机率有多大?​这一篇接着上一篇来讲一讲这个问题。t检验​上一篇也提到了t检验。这里把单算法的假设:μ=ϵ0\mu = \epsilon_0μ=

#机器学习
机器学习读书笔记:线性模型

文章目录前言线性回归一元线性回归一元线性回归python代码多元线性回归多元线性回归python代码二分类问题对数机率回归LDA-线性判别分析多分类问题1对1 O(One) v O(One)一对其他 O(One) v R(Rest)多对多 M(Many) v M & ECOC类别不平衡前言​从线性模型开始,就开始涉及到不同的学习算法和模型了。根据预测结果的不同,可以有几种类型的问题:回归问

#机器学习
机器学习读书笔记:样本降维

文章目录k近邻算法PCA主成分分析PCA代码核化线性降维(KPCA)低维嵌入(MDS)流形学习等度量映射(Isomap)局部线性嵌入(LLE)度量学习k近邻算法​在《机器学习》这本书中,讲降维方法之前首先介绍了这个k近邻算法。开始不知道是为什么,仔细看完之后还是了解了作者的思路。​k近邻算法是一个不需要训练的分类算法,它的分类过程如下:针对新样本xix_ixi​,在已有的训练样本集DDD中计算与自

机器学习读书笔记:特征选择与稀疏学习

文章目录特征选择方法子集选择方法一:候选子集方法子集选择方法二:Relief方法子集选择方法三:LVW(Las Vegas Wrapper)稀疏表达与字典学习特征选择方法​和上一章的降维有点类似,同样是样本的属性太多,在进行距离计算或者其他训练推理的计算过程中,会大大的增加计算量。所以通过某些规则选择出相对重要的一些属性出来,从而实现降维。​另外,去除掉一些七七八八的属性,就凸显出了关键的属性,对

    共 30 条
  • 1
  • 2
  • 3
  • 请选择