简介
该用户还未填写简介
擅长的技术栈
可提供的服务
会为您带来四个方面有趣内容: 「数智通识」:人工智能、机器学习、深度学习、AIGC、AI Infra、AI 应用方面; 「算法通解」:算法的串联与极解; 「计算通践」:技术的落地方面、工具的使用、编程语言; 「知见通感」:知人、知己、生活、职场、人生; 江湖从来都不是打打杀杀,也没有那么多人情世故,你我的相识绝非是零和游戏!欢迎来留言交流,一起稳步前行,快来点赞收藏关注三连支持我吧!
感知机经历了从起初的热潮到冷却,再到现代深度学习复兴的过程。其简单而有效的结构与思想成为了现代人工智能的基石,指引了神经网络在各个领域的广泛应用与发展。感知机的基本结构与学习算法为现代复杂神经网络的设计奠定了理论基础,是理解更高级模型的关键。尽管受限于线性可分性,但其概念与学习算法是现代深度学习(如卷积神经网络、递归神经网络等)的发展提供了基础。感知机的思想指引研究者探索新的激活函数、优化算法及网
机器学习实践篇 - 模型训练的工作原理:线性回归模型、多项式回归模型、分类模型(Logistic 回归、Softmax 回归)、梯度下降、正则化线性模型等;
人工神经网络(ANN)是深度学习领域的核心概念,而深度学习几乎已经是现代人工智能(AI)的代名词,其对 AI 的发展起到了重要的推动作用。我们将围绕 ANN 的基本概念与原理、发展历史和近来趋势、应用领域等进行由浅入深的探讨,慢慢全面而细致地沉浸到这个重要主题的探索与剖析中去。
梯度下降法是神经网络训练的核心算法,通过梯度下降法,我们可以找到使损失函数最小的权重参数,从而使神经网络的推理结果更加准确。梯度下降法是一个迭代的过程,需要不断调整参数,直至损失函数收敛。在实际应用中,我们还会使用一些优化算法(如 `Adam`、`RMSprop` 等)来加速梯度下降的过程,具体的优化算法我们将在后续篇章中详细介绍。
案例展示了通过合理使用索引、复合索引、部分索引、多表联接、窗口函数、查询计划分析、表分区、分片策略、热数据访问、缓存机制、物化视图和分布式数据库等技术,大幅优化复杂查询的性能的过程。其主要涉及合理的表设计、索引的高效数据访问、减少子查询次数、分区裁剪机制,以及数据预计算等。
`pgvector` 为 PostgreSQL 引入了专门针对向量数据的索引,特别是 HNSW 和 IVFFlat 索引。这些索引帮助实现高效的向量检索和相似度计算。在选择 HNSW 或 IVFFlat 索引时,应根据应用场景的具体需求(如查询频率、数据更新频率和可用内存等)做出选择。HNSW 适合需要高检索精度和灵活更新的数据集,而 IVFFlat 则更适合需要快速处理庞大数据集但对精度有轻微取
本文我们通过手写 Python 代码实现了一个简单的神经网络 SimpleNet,并使用 MNIST 数据集演示了 SimpleNet 的完整训练过程,最终我们对模型训练过程中训练集和测试机的识别精度做了跟踪验证,从结果可以看出,随着学习的进行,训练集和测试集的识别精度都很快从不足 10% 提高到了 94% 以上,SimpleNet 对测试集中未曾“见过”的图片也具备了准确的识别能力,这验证了 S
BP 算法是迄今最成功的神经网络学习算法,通常神经网络(不限于前馈神经网络)都使用 BP 算法进行训练。“BP 网络”特指使用 BP 算法训练的多层前馈神经网络。BP 算法实质是 LMS(Least Mean Square)算法的推广。LMS 试图使网络的输出均方误差最小化,用于神经元激活函数可微的感知机学习,LMS 推广到由非线性可微神经元组成的多层前馈网络,就是 BP 算法。
计算效率是计算机科学中的重要主题,不同的计算模式和架构设计适用于不同的场景。串行计算适用于小规模任务,而并行计算适用于大规模任务。分布式云计算适用于海量数据处理,GPU 批处理适用于深度学习和计算密集型任务。掌控每一种计算架构与思维方式是提高计算效率和性能的关键,也是计算机工程师的必备技能。在实际应用中,根据任务的特点和需求,选择合适的计算模式和架构设计。
计算效率是计算机科学中的重要主题,不同的计算模式和架构设计适用于不同的场景。串行计算适用于小规模任务,而并行计算适用于大规模任务。分布式云计算适用于海量数据处理,GPU 批处理适用于深度学习和计算密集型任务。掌控每一种计算架构与思维方式是提高计算效率和性能的关键,也是计算机工程师的必备技能。在实际应用中,根据任务的特点和需求,选择合适的计算模式和架构设计。