logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习视觉处理基础:卷积神经网络(CNN)详解

在卷积操作的数学表达中,表达式 (f∗g)(i,j)=∑m∑nf(m,n)g(i−m,j−n)(f∗g)(i,j)=∑m​∑n​f(m,n)g(i−m,j−n) 描述了两个二维函数 ff 和 gg 的卷积。| Max| 保留显著特征| 丢失细节信息| 通用|| Global | 全局上下文| 丢失空间信息| 分类任务|| Avg| 平滑特征响应| 弱化重要特征| 网络末端|

#深度学习#cnn#人工智能
机器学习一

距离度量欧氏距离:直线距离,对尺度敏感曼哈顿距离:网格路径,抗异常值余弦相似度:方向相似性,适用于高维稀疏数据TF-IDF原理TF = 词频 / 文档总词数IDF = log(总文档数 / (包含该词的文档数 + 1))惩罚常见词,突出特征词PCA数学本质协方差矩阵特征分解选择最大特征值对应特征向量实现线性降维的同时最大化方差。

文章图片
#机器学习#人工智能
深度学习视觉处理基础:卷积神经网络(CNN)详解

在卷积操作的数学表达中,表达式 (f∗g)(i,j)=∑m∑nf(m,n)g(i−m,j−n)(f∗g)(i,j)=∑m​∑n​f(m,n)g(i−m,j−n) 描述了两个二维函数 ff 和 gg 的卷积。| Max| 保留显著特征| 丢失细节信息| 通用|| Global | 全局上下文| 丢失空间信息| 分类任务|| Avg| 平滑特征响应| 弱化重要特征| 网络末端|

#深度学习#cnn#人工智能
机器学习---贝叶斯分类与决策树

自动化参数调优利器,注意控制搜索空间避免计算爆炸朴素贝叶斯:适合文本分类等高维数据,注意特征独立性假设的局限性决策树信息增益偏向多值属性,基尼指数计算效率更高通过max_depth控制模型复杂度防止过拟合可视化帮助理解模型决策过程通过合理使用这些工具,可以快速构建可解释性强的分类模型,适用于各种结构化数据的分类任务。实际应用中建议:优先使用基尼指数构建决策树对文本数据优先尝试朴素贝叶斯重要模型务必

#机器学习#分类#决策树
到底了