logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

机器学习笔记(3) — 梯度下降、学习率α

机器学习,理解梯度下降即公式,以及学习率α

#人工智能#回归
机器学习笔记(11)— 简化逻辑回归代价函数、梯度下降实现、过拟合、正则化、线性和逻辑回归正则方法

对逻辑回归的损失函数进行了简化,由两个式子合并成一个式子,对逻辑回归实现了梯度下降,对过拟合和欠拟合进行了解释,有3种方法解决了过拟合问题,正则化是最常用的,对线性回归和逻辑回归使用了正则化方法。

#逻辑回归#回归
机器学习笔记(9)— 决策边界

机器学习中的决策边界就是使z=0的点,即向量w乘向量x+b=0的点,这条边界可能是条直线,可能由于w的高阶多项式的原因,形状不规则

#逻辑回归#人工智能
机器学习笔记(10)- 逻辑回归中的代价函数

证明了用线性回归的代价函数去描述逻辑回归是不合适的,因为会出现非凸函数,会有多个局部最小值。通过逻辑回归的输出值,定义了一个损失函数,当标签值y=1时,只有预测出的值趋近于1,损失函数才会趋近于0,否则趋近于无穷大,标签值y=0时同理。

#逻辑回归#python
C语言——strlen、strcpy、strcat、strcmp、strstr、memcpy、memmove函数的使用和模拟以及字符分类函数

strlen首先我们先看c语言库函数实现strlen求字符串长度:从以上图片中我们可以看出strlen是求字符串的长度,求的长度是\0之前的字符串,返回值的类型是无符号整型#include <stdio.h>#include <string.h>int main(){char arr[] = "abcdef";int len = strlen(arr);printf("%d

#c语言#开发语言
机器学习笔记(9)— 决策边界

机器学习中的决策边界就是使z=0的点,即向量w乘向量x+b=0的点,这条边界可能是条直线,可能由于w的高阶多项式的原因,形状不规则

#逻辑回归#人工智能
到底了