
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
不得不感叹,计算机技术更新迭代的速度太快了,作为程序员每天除了面对工作,就要学习新技术,笔者自己也不例外,近三年来,笔者自己的感觉是一直在为技术疲于奔命,直到现在,也不敢放缓脚步。学习对于程序员来说太重要了,就像每天必须吃饭一样,程序员每天必须抽出一定时间学习新技术,避免被淘汰。然而,目前的计算机编程语言和技术框架可谓百花齐放,百家争鸣。作为程序员如何去学习,以及如何更有效的学习呢?本篇将从以..
从分词、词嵌入、向量数据库,到Prompt工程、Hugging Face、LangChain、模型微调与部署,全面覆盖核心技术。如果它能在你学习、工作或项目的某个时刻,给你一点点启发或帮助,那么这本书的意义,便超越了我个人,带给我一点欣慰。如果你想快速上手大语言模型开发,或者正在寻找数字人落地的实战经验,这本书可能正是你的下一把钥匙。人生的第一次,总是像推开一扇新窗,让光照进来,也让自己看见走过的
回顾决策树的基本知识,其构建过程主要有下述三个重要的问题: (1)数据是怎么分裂的 (2)如何选择分类的属性 (3)什么时候停止分裂 从上述三个问题出发,以实际的例子对ID3算法进行阐述。先上问题吧,我们统计了14天的气象数据(指标包括outlook,temperature,humidity,windy),并已知这些天气是否打球(play)。如果
SVM是什么?SVM - support vector machine, 俗称支持向量机,为一种supervised learning算法,属于classification的范畴。在数据挖掘的应用中,与unsupervised的Clustering相对应和区别。广泛应用于机器学习(Machine Learning), 计算机视觉(Computer Vision) 和数据挖掘(Dat
相信大家都会求导吧,给定一个f(x),都可以唯一确定一个导函数f '(x),导函数给出了原函数的变化情况。比如导函数为但是,倒过来就不行了,一个导函数对应原函数为,,………无穷多个。写成积分形式就是具体求导过程很多,自己看,为什么呢,因为在求导的过程中,我们虽然得到的函数今后的变化情况,但损失了一部分信息,就是原函数的初始值。概括一下,原函数的信息=导函数的信息+初始值信息
平时经常看到牛顿法怎样怎样,一直不得要领,今天下午查了一下维基百科,写写我的认识,很多地方是直观理解,并没有严谨的证明。在我看来,牛顿法至少有两个应用方向,1、求方程的根,2、最优化。牛顿法涉及到方程求导,下面的讨论均是在连续可微的前提下讨论。 1、求解方程。并不是所有的方程都有求根公式,或者求根公式很复杂,导致求解困难。利用牛顿法,可以迭代求解。原理是利用泰勒公式,在x0处展开,
k-最近邻算法是基于实例的学习方法中最基本的,先介绍基于实例学习的相关概念。基于实例的学习已知一系列的训练样例,很多学习方法为目标函数建立起明确的一般化描述;但与此不同,基于实例的学习方法只是简单地把训练样例存储起来。从这些实例中泛化的工作被推迟到必须分类新的实例时。每当学习器遇到一个新的查询实例,它分析这个新实例与以前存储的实例的关系,并据此把一个目标函数值赋给新实例。基于实例的...
本文出自NIPS2012,作者是大神Alex Krizhevsky,属于多伦多大学Hinton组。概述本文提出的神经网络结构被成为AlexNet,在我最近的研究学习中发现,这一结构及其变种在很多任务中都有使用,回过头来重温一下这篇论文仍然是有必要的。归根到底,本文网络结构相对较浅,而且能够提取到比较丰富的特征,而很多任务的数据集无法达到ImageNet的规模,使用AlexNet是比较好的特
在机器视觉,图像处理领域,卷积神经网络取得了巨大的成功。本文将参考UFLDL和DEEPLEARNING.NET的教程,结合自己的理解,梳理一下卷积神经网络的构成以及其BP算法的求解。虽然利用theano可以方便的实现LeNet5,但是不利于学习和理解卷积神经网络,所以最后会自己动手用Python实现一个简单的LeNet5,并尝试利用python的PyCUDA库进行加速。LeNet-5共
现如今,在更多情况下,我们通过传感器和字节来与机器获得交流,而不是依靠交换情感,那如何让超级智能机器能够和人类正常交流沟通呢?在人工智能背景技术下,自然语言处理(NLP)技术被越来越多的人看好,并受到重视。其中,以微软小冰为代表的聊天机器人,如今却成了网红,迅速刷爆了微信和朋友圈,一个17岁纯情少女懂礼貌、有素质和会作诗,众多网友对她可是情有独钟!下面这幅图是小冰的一个简介。那什么是 NLP?NL