logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

LLaVA模型学习-周报十四

本周系统学习了LLaVA多模态大模型的理论框架与部署实践。深入解析了LLaVA的架构设计思想——通过CLIP视觉编码器提取图像特征,结合Projection层实现视觉-语言特征维度对齐,采用两阶段训练策略(先冻住主干网络单独训练映射层,再微调语言模型);完整实践了服务器环境下的模型部署流程,包括环境配置、权重下载、CLI推理与Web端服务搭建,解决了fastapi版本冲突等实际问题。研究建立了从多

文章图片
#学习#人工智能#深度学习 +1
LLaVA模型学习-周报十四

本周系统学习了LLaVA多模态大模型的理论框架与部署实践。深入解析了LLaVA的架构设计思想——通过CLIP视觉编码器提取图像特征,结合Projection层实现视觉-语言特征维度对齐,采用两阶段训练策略(先冻住主干网络单独训练映射层,再微调语言模型);完整实践了服务器环境下的模型部署流程,包括环境配置、权重下载、CLI推理与Web端服务搭建,解决了fastapi版本冲突等实际问题。研究建立了从多

文章图片
#学习#人工智能#深度学习 +1
AI基础学习周报十三

本周聚焦扩散模型与Mamba模型的创新方法。系统研究了DiT模型的核心机制,包括图像分块嵌入策略、四种条件嵌入方案及其参数初始化策略;深入推导了扩散模型的数学原理;研读了论文CCViM,其创新性地将上下文聚类与视觉状态空间模型结合,通过局部网格聚类增强VMamba的全局建模能力。

文章图片
#人工智能#学习#深度学习 +1
AI基础学习周报十二

本周系统研究了Transformer架构中的关键优化技术与视觉Transformer模型演进。深入分析了残差连接解决网络退化问题的机制及其在梯度传播中的重要作用,剖析了层归一化在稳定训练过程与加速收敛方面的核心价值;完整解析了Vision Transformer的图像分块嵌入、位置编码与Transformer编码器集成架构;重点研究了Swin Transformer的层次化设计、滑动窗口注意力机制

文章图片
#人工智能#学习#transformer +1
AI基础学习周报十一

本周深入研究了Transformer架构的核心组件:注意力机制与前馈神经网络。系统解析了自注意力机制的计算流程,包括查询-键-值矩阵的生成、缩放点积注意力计算及softmax归一化过程;详细探讨了多头注意力机制的多视角特征提取能力与线性变换实现方式;完整分析了前馈神经网络的两层全连接结构与ReLU激活函数的非线性变换作用。

文章图片
#人工智能#学习#机器学习 +2
机器学习课程学习周报一

本周系统学习了李宏毅机器学习基础内容,深入理解了机器学习的三大核心任务,即回归任务、分类任务和结构化学习,以及完整的训练流程,包括模型定义、损失函数设计和基于梯度下降的优化方法。同时,掌握了 PyTorch 的核心操作,例如张量的创建与运算如加法、索引和尺寸修改,张量与 NumPy 数组的相互转换,以及如何利用 GPU 加速计算的 CUDA 张量应用。

文章图片
#机器学习#学习#人工智能 +1
AI基础学习周报十

本周系统学习了TensorFlow深度学习框架与状态空间模型理论。深入掌握了TensorFlow张量操作机制与tf.keras高级API的使用流程,包括模型构建(Sequential/函数式编程)、训练配置(compile/fit)、回调函数应用及模型保存方法;重点研究了状态空间模型的数学原理,解析了连续时间系统中状态方程与输出方程的表示形式,理解了参数矩阵A/B/C/D在系统动态预测中的作用机制

文章图片
#人工智能#学习#机器学习 +1
AI基础学习周报九

本周深入研究了计算机视觉中的基础操作与前沿模型。首先系统解析了池化层的工作原理,包括最大池化与平均池化的计算过程及其特征图尺寸变化规律;其次研读了轻量级视觉注意力模型SalM²的创新设计,该模型结合人类视觉机制构建“自底向上+自顶向下”双分支架构,通过SCPM模块优化Mamba特征表达,并利用跨模态注意力实现驾驶场景的语义引导;最后系统学习了卡尔曼滤波的数学原理与实现流程,掌握其预测-更新两阶段状

文章图片
#人工智能#学习#深度学习 +1
AI基础学习周报八

本周聚焦知识增强推理与计算机视觉技术。深入研读ICLR 2024论文《Think-on-Graph》,解析其创新的"LLM⊗KG"紧耦合范式如何通过动态图搜索解决大模型幻觉问题,实现多跳推理与知识溯源;系统学习OpenCV核心功能,掌握图像处理、视频分析及形态学操作等关键技术,构建了从理论创新到工程实践的技术体系。

文章图片
#人工智能#学习#深度学习 +1
AI基础学习周报七

本周聚焦时间序列Transformer机制解析与数据分析工具实践。深入研究Transformer在时序预测中的效能本质,通过互信息分析与合成数据集验证,揭示模型性能主要由单变量趋势捕捉能力而非复杂注意力机制主导;系统学习Matplotlib可视化技术,掌握多子图绘制、样式定制及图表属性控制;全面实践Pandas数据处理流程,涵盖对象创建、索引操作、数据变形及透视分析,构建了从理论到应用的数据分析能

文章图片
#人工智能#学习#transformer +1
到底了