logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

自然语言处理(NLP)入门(一)

一.如何用计算机可以处理的方式来表示单词(也叫作“分词”)import tensorflow as tffrom tensorflow import kerasfrom tensorflow.keras.preprocessing.test import Tokenizersentences=[‘I love my dog’,      

#自然语言处理#nlp#python +2
深度学习的训练流程(前向传播,损失函数,优化器,反向传播更新w和b)

代价函数是凸函数但是模型中加完非线性激活 后,非线性层之间的多次复合变换,使得模型变的极为复杂,求出的预测值带入损失函数后,代价函数就不见得是凸函数了我们要求出代价函数的全局极小值点,由于有理论指出:代价函数的大部分极小值点足够接近全局极小值点。所以我们求极小值点就可以方法: 使用梯度下降算法(梯度指函数在该点处沿着该方向增长最快,那么我们沿着梯度的反方向,就可以使该函数在该点出下降最快)为了使w

#算法#深度学习#神经网络 +2
深度学习的训练流程(前向传播,损失函数,优化器,反向传播更新w和b)

代价函数是凸函数但是模型中加完非线性激活 后,非线性层之间的多次复合变换,使得模型变的极为复杂,求出的预测值带入损失函数后,代价函数就不见得是凸函数了我们要求出代价函数的全局极小值点,由于有理论指出:代价函数的大部分极小值点足够接近全局极小值点。所以我们求极小值点就可以方法: 使用梯度下降算法(梯度指函数在该点处沿着该方向增长最快,那么我们沿着梯度的反方向,就可以使该函数在该点出下降最快)为了使w

#算法#深度学习#神经网络 +2
深度学习的训练流程(前向传播,损失函数,优化器,反向传播更新w和b)

代价函数是凸函数但是模型中加完非线性激活 后,非线性层之间的多次复合变换,使得模型变的极为复杂,求出的预测值带入损失函数后,代价函数就不见得是凸函数了我们要求出代价函数的全局极小值点,由于有理论指出:代价函数的大部分极小值点足够接近全局极小值点。所以我们求极小值点就可以方法: 使用梯度下降算法(梯度指函数在该点处沿着该方向增长最快,那么我们沿着梯度的反方向,就可以使该函数在该点出下降最快)为了使w

#算法#深度学习#神经网络 +2
深度学习的训练流程(前向传播,损失函数,优化器,反向传播更新w和b)

代价函数是凸函数但是模型中加完非线性激活 后,非线性层之间的多次复合变换,使得模型变的极为复杂,求出的预测值带入损失函数后,代价函数就不见得是凸函数了我们要求出代价函数的全局极小值点,由于有理论指出:代价函数的大部分极小值点足够接近全局极小值点。所以我们求极小值点就可以方法: 使用梯度下降算法(梯度指函数在该点处沿着该方向增长最快,那么我们沿着梯度的反方向,就可以使该函数在该点出下降最快)为了使w

#算法#深度学习#神经网络 +2
机器学习入门(十一):回归与聚类算法——无监督学习(K-means算法)

学习目录:内容目录:无监督学习包含算法:聚类:K-means(K均值聚类)降维:PCAK-means原理API:案例:如何对无监督学习进行评估?K-means算法总结:特点:采用迭代式算法,直观易懂且实用缺点:容易收敛到局部最优解(当k个初始点聚在一起的时候),可以使用多次聚类解决应用场景:当没有目标值时,先做聚类,如何再进行分类...

#算法#机器学习#深度学习 +2
机器学习入门(十):回归与聚类算法——逻辑回归与二分类

学习目录:逻辑回归内容目录:逻辑回归应用场景:应用于二分类问题逻辑回归原理:将线性回归的输出映射到激活函数sigmiod上,输出0-1区间的一个数,当做概率值,若大于我们设置的阈值,则认为他属于这个类别。损失函数:对数似然函数整体逻辑回归流程:API:分类评估指标精确率和召回率的计算:当样本分类不均衡时,99个否,1个是,使用精确率和召回率就不好用了:就要引入ROC曲线和AUC指标API模型的保存

#算法#python#机器学习 +2
《超声图像多目标语义分割方法研究》大论文笔记

目的:对乳腺超声图像进行多类分割(真皮层、脂肪层、腺体层、肿瘤层、肌肉层、背景区域)第一章绪论(大概内容):1.介绍课题背景和研究意义2.国内外研究现状a.图像的非语义分割方法概述(基于阈值、基于边缘检测、基于区域、基于图论、基于聚类、基于能量函数)b.图像的语义分割方法概述(传统的模式识别分类器(SVM等)、机器学习方法、深度学习方法)第二章图像的多种特征提取(大概内容):1.介绍并对比多种特征

#深度学习#tensorflow#pytorch +1
到底了