
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
LoRA通过训练少量低秩矩阵高效微调大模型,配合QLoRA量化技术,实现在消费级显卡上微调大模型。

文章摘要: 大模型训练分为三个阶段: 预训练:通过海量文本学习通识知识,但仅会文字接龙(如预测“床前明月光”的下一个词); 监督微调(SFT):用人工编写的问答数据教会模型遵循指令(如将“你好”翻译成英文),使其从续写转为对话; RLHF:通过人类反馈(如DPO算法)对齐价值观,避免胡说或有害内容。 实际应用中,普通人可通过LoRA技术微调开源模型(如Llama-3),仅调整1%参数即可适配特定任

Transformer是GPT等大模型的核心架构,通过自注意力机制并行理解上下文,实现智能。

评估机器学习模型需超越准确率,掌握混淆矩阵、精确率、召回率、F1分数及ROC/AUC等多维度指标。

机器学习经典算法:逻辑回归、SVM、决策树详解与对比。

PyTorch利用GPU加速计算和自动微分,实现高效神经网络训练,是AI开发的核心框架。

NumPy向量化运算加速计算,Pandas处理真实数据,共同构建AI数据流水线。

本文深入探讨了AI处理不确定性的三大概率统计工具:分布模型、极大似然估计(MLE)和贝叶斯推理。首先,高斯分布作为核心分布模型,通过μ和σ描述数据的集中趋势与离散程度。MLE通过"眼见为实"原则,选择使观测数据概率最大的参数(如神经网络的损失函数)。

特征值分解是矩阵的核心数学工具,揭示了数据的内在结构。通过提取矩阵的特征向量和特征值,可以识别数据变换中的主要方向与能量分布。这一原理在AI领域广泛应用:PCA降维利用协方差矩阵的特征值分解保留关键信息;大模型微调技术LoRA则基于矩阵的低秩特性(源于特征值分布),将巨大参数矩阵分解为小型矩阵乘积,实现高效参数更新。特征值分解从数学理论演变为支撑现代AI技术的重要基石,其"提取主成分"的思想贯穿了

本文通过力扣48题"旋转图像"探讨了矩阵旋转在AI领域的基础作用。文章介绍了两种解法:辅助矩阵法(O(n²)空间)和原地旋转法(O(1)空间),后者通过转置+水平翻转实现高效旋转。这些技术在计算机视觉、自动驾驶(如特斯拉、Waymo用于图像校正)和医疗影像处理中有广泛应用,是AI系统实现数据增强、提高模型准确性的关键技术。两种方法各具优势,可根据实际场景需求选择,体现了数学基础算法在现代智能系统中








