
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
今天学习了决策树处理不同类型特征的方法和回归树的应用。对于多值分类特征,使用独热编码将其转换为多个二元特征;对于连续值特征,通过寻找最佳分割阈值来划分数据。还了解了如何将决策树应用于回归问题,使用方差减少而不是信息增益来选择分割特征,并在叶节点预测数值平均值。今天的学习扩展了我对决策树应用范围的认识。独热编码很巧妙,能把一个多值特征变成几个二元特征,这样决策树和神经网络都能处理。连续特征的处理也很
今天的学习让我了解了机器学习系统开发的迭代过程。通过垃圾邮件分类器的例子,我明白了从选择模型架构到训练诊断的完整流程。误差分析教会我如何手动检查分类错误的样本,找出常见错误类型并确定优化优先级。数据增强和数据合成则展示了如何高效扩充训练集,特别是针对图像和语音任务。这些方法共同构成了一个系统的模型优化框架。今天的学习让我对机器学习项目开发有了更完整的认识。垃圾邮件分类器的例子生动展示了从特征设计到
今天学习了决策树这一重要的机器学习算法。通过猫分类的例子,我理解了决策树如何通过一系列特征判断来做出分类决策。决策树由根节点、决策节点和叶节点组成,每个节点根据特征值选择分支路径,最终在叶节点给出预测结果。构建决策树的关键在于选择划分特征和确定停止划分的条件,目标是让子集尽可能"纯净"(同一类别)今天对决策树的学习让我掌握了一种直观易懂的机器学习方法。通过猫分类的生动例子,我明白了决策树就像一套"
这周系统学习了决策树这一重要的机器学习算法。通过猫分类的例子,我理解了决策树如何通过一系列特征判断来做出分类决策,包括根节点、决策节点和叶节点的概念。学习了构建决策树的关键步骤:选择分裂特征时使用信息增益最大化原则,通过计算熵减少量来确定最佳特征;掌握了处理多值特征的独热编码技术和连续值特征的阈值选择方法。最后还了解了决策树在回归问题中的应用,使用方差减少代替信息增益来构建回归树。这周对决策树的深
本周学习了神经网络单层的前向传播实现方法,包括手动计算和通用编程方法。重点掌握了如何用向量化方式高效实现神经网络,以及使用TensorFlow框架搭建和训练模型的完整流程。最后还学习了不同激活函数的特点和选择原则,明白了在实际应用中ReLU通常比sigmoid更适合隐藏层。本周的学习让我对神经网络的前向传播和实现有了更完整的认识。从理解单层神经网络中每个神经元的计算过程开始,我学会了如何用通用的d
今天深入学习了决策树中如何选择分裂特征的关键技术——信息增益。通过猫分类的例子,我理解了信息增益是通过计算分裂前后熵的减少量来评估特征的重要性。熵衡量数据的不纯度,信息增益越大说明分裂后子集纯度提升越多。在根节点选择耳朵形状特征就是因为它带来了最大的信息增益(0.28),相比脸型(0.03)和胡须(0.12)更能有效区分猫和非猫今天的学习让我掌握了决策树构建的核心机制——信息增益的计算和应用。通过
今天我学习了神经网络的不同类型和模型评估方法。之前我只知道密集层,现在认识了卷积层,它让每个神经元只处理输入的一小部分,这样不仅算得快,还能防止过拟合。吴恩达老师用图像识别和心电图诊断的例子让我明白了卷积层的工作原理。后半节课学习了怎么评估模型,知道了要把数据分成训练集和测试集,用测试集上的表现来判断模型真正的能力。我知道了神经网络不只有密集层,还有更高效的卷积层,它通过“局部连接”的方式特别适合
在本周,将会着重学习字典的概念、操作,字典的操作包含访问字典的值、添加键值对、修改字典中的值、删除键值对等一系列的基础操作,在掌握基础操作之后,将会结合之前循环、排列的知识遍历字典,包含遍历所有的键值对、所有键、特定顺序地遍历键、遍历字典中所有的值。掌握熟练之后,还会学习如何在字典中嵌套列表以及如何在字典里嵌套字典本周中,我首先学会了如何定义字典,以及如何使用存储在字典中的信息。然后学习了如何访问







