logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【一起来学AI大模型】支持向量机(SVM):核心算法深度解析

SVM是一种监督学习算法,通过寻找最优超平面进行分类或回归。核心思想是最大化数据间隔,支持核技巧处理非线性问题。数学上优化间隔边界,Python实现包括梯度下降优化。Scikit-learn提供SVC/SVR,需数据标准化和参数调优(C、gamma、核函数)。RBF核常用,大规模数据可用LinearSVC或核近似。SVM适用于高维数据但训练较慢,需权衡优缺点。典型应用包括图像识别、文本分类等,在小

文章图片
#支持向量机#机器学习#人工智能 +2
【一起来学AI大模型】算法核心:数组/哈希表/树/排序/动态规划(LeetCode精练)

本文总结了五大核心算法及其LeetCode经典题解,包含双指针/滑动窗口、哈希表应用、树形结构、排序算法和动态规划。针对每类算法给出了3道典型例题的最优解法和模板代码,如移动零(数组)、字母异位词分组(哈希)、二叉树最大深度(树)、快速排序和编辑距离(DP)。文章还提供了高效训练建议,包括每日专项、三遍刷题法和重点突破方向,强调掌握双指针、哈希空间换时间、递归三要素和DP状态转移等核心技巧。

文章图片
#python#开发语言#人工智能 +3
【一起来学AI大模型】TortoiseSVN使用-权限配置

摘要:本文介绍了TortoiseSVN的权限配置方法,包括单一版本库和多版本库共享配置。在单一版本库配置中,需要修改svnserve.conf文件开启授权访问,并在passwd和authz文件中设置用户账号及权限。用户组和路径权限可以灵活设置,且权限具有继承性。在多版本库共享配置中,需将权限文件放在公共目录,并在各版本库配置文件中指向共享文件,然后为不同版本库分别设置用户权限。配置完成后,可实现精

文章图片
#服务器#linux#运维 +1
【一起来学AI大模型】Transformer架构Self-Attention

Self-Attention是Transformer架构的核心创新,通过Query-Key-Value机制实现序列元素的全局交互。每个元素通过计算与其他元素的注意力分数,动态聚合上下文信息,解决了RNN/LSTM的长距离依赖和并行化问题。多头注意力机制扩展了模型的表达能力。该机制支持完全并行计算,能动态分配权重,并具有一定可解释性,为BERT、GPT等大模型奠定了基础,是处理序列数据的突破性技术。

文章图片
#人工智能#机器学习#大数据 +1
【一起来学AI大模型】RAG系统流程:查询→向量化→检索→生成

RAG系统通过四步流程实现知识增强:1)用户查询输入;2)使用嵌入模型将查询向量化;3)从向量数据库中检索最相关的文本片段;4)结合上下文生成最终答案。关键优势在于动态获取最新知识、答案可溯源及成本可控。典型技术栈包括LangChain、ChromaDB和LLM(如GPT-4),通过精准控制各环节,RAG在知识密集型任务中表现优于纯LLM方案。主要挑战包括向量化失真、检索相关性和生成幻觉等问题。

文章图片
#人工智能#神经网络
【一起来学AI大模型】微调技术:全量微调流程

摘要: 全量微调是调整大型语言模型(如GPT、LLaMA)所有参数以适应特定任务的基础方法,通常需高性能计算资源。流程包括:明确任务目标、数据收集与预处理、选择预训练模型、配置分布式训练环境、设置超参数(如学习率、批次大小),并进行训练与验证。全量微调虽能最大化任务性能,但面临计算成本高、灾难性遗忘和过拟合等挑战。适用于资源充足、数据量大且任务复杂的场景。替代方案如LoRA、Adapter等参数高

文章图片
#人工智能#AI#python
【一起来学AI大模型】LLM核心预训练:MLM

摘要:掩码语言建模(MLM)是BERT等模型的核心预训练技术,通过随机掩盖15%的文本token(80%用[MASK],10%随机替换,10%保留原词),训练模型利用双向上下文预测被掩盖内容。MLM的创新在于允许模型同时观察左右上下文,学习深层语义关系,实现自监督学习。其优势包括高效的双向表征能力、自监督训练方式,以及为下游任务提供优质基础模型。尽管存在预训练与微调不一致等问题,MLM仍是现代NL

文章图片
#人工智能#神经网络#cnn
【一起来学AI大模型】部署优化推理加速:vLLM

vLLM框架通过创新的PagedAttention技术,将KV缓存分块管理,解决了大模型推理中的内存碎片问题,实现了24倍吞吐量提升和毫秒级延迟。该框架支持连续批处理、零拷贝共享和分布式推理优化,在长文本生成、高并发API等场景表现优异,实测显示70B模型显存占用降低2.7倍。生产部署方案包括OpenAI兼容API、AWQ量化集成和多GPU动态路由,使7B模型可在8GB显存运行。企业案例显示其可将

文章图片
#python#开发语言#pytorch +2
【一起来学AI大模型】卷积神经网络(CNN):视觉识别的革命性架构

摘要:卷积神经网络(CNN)是受生物视觉启发、专门处理网格数据的深度学习架构,其核心创新包括局部感受野、权值共享和下采样机制。CNN由卷积层、激活函数、池化层和全连接层组成,经典架构从LeNet-5到ResNet不断演进。现代CNN创新技术包括注意力机制、深度可分离卷积和神经架构搜索。CNN广泛应用于图像分类、目标检测等领域,并通过数据增强、正则化和迁移学习进行优化。当前CNN正与Transfor

文章图片
#人工智能#cnn#神经网络
    共 32 条
  • 1
  • 2
  • 3
  • 4
  • 请选择