
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
TensorFlow层次结构概览:低阶API提供张量操作、计算图和自动微分功能,适用于基础模型实现;中阶API封装数据管道、模型层和损失函数等组件,简化开发流程;高阶API通过tf.keras.models提供三种建模方式(Sequential顺序模型、函数式API和Model基类继承),支持快速模型构建与训练。每种API层级对应不同开发需求,从底层控制到高层封装,开发者可根据项目复杂度灵活选择。

PGL图学习框架提供了全面的图神经网络解决方案,涵盖图游走类算法(DeepWalk、Node2Vec、Metapath2Vec等)和图神经网络模型(GCN、GAT、ERNIESage等)。该框架支持同构图和异构图的建模,通过GitHub库、API文档、项目实例和视频课程提供完整学习资源。重点模型包括融合语义理解的ERNIESage系列和解决半监督分类的UniMP,其中ERNIESage针对文本图进

本文介绍了强化学习(RL)的演进路径,重点对比了不同奖励机制:RLHF(人类反馈)、RLAIF(AI反馈)、RLVR(可验证奖励),以及过程监督和评分标准奖励。RLVR在数学推理和代码能力方面表现突出。文章还比较了PPO、GRPO等RL算法特性。

本文系统介绍了扩散模型的核心内容与发展脉络。在基本原理部分,详细阐释了DDPM模型的前向/反向扩散过程、噪声预测优化目标及其与VAE的关联。发展历程方面,梳理了从基础模型到多模态生成的技术演进,包括采样加速、CLIP引导等关键突破。应用领域覆盖计算机视觉、时序预测、NLP及科学计算等多个场景。实战环节提供从零构建MNIST扩散模型、Diffusers库实现、图像生成优化等具体指导,特别介绍了Sta

Spark作为新一代大数据处理框架,相比MapReduce具有显著优势。本文系统介绍了Spark的核心概念,包括RDD弹性数据集、DAG有向无环图等基础架构,详细解析了Spark的运行流程和四种部署模式(Local/Standalone/Yarn/Mesos)。重点阐述了Spark的数据结构RDD及其操作(Transformation和Action),并通过WordCount示例展示PySpark

百度开源文心4.5系列大模型,包含10款不同参数规模的MoE和稠密参数模型,总参数量达424B。所有模型基于Apache2.0协议开源,配套ERNIEKit训练工具和FastDeploy推理工具。核心技术亮点包括:1)异构混合并行训练框架,支持FP8混合精度;2)多模态混合专家架构,实现跨模态知识融合;3)三阶段预训练策略,引入新型损失函数优化稳定性;4)后训练采用渐进式强化学习和UPO算法。该系

本文介绍了强化学习(RL)的演进路径,重点对比了不同奖励机制:RLHF(人类反馈)、RLAIF(AI反馈)、RLVR(可验证奖励),以及过程监督和评分标准奖励。RLVR在数学推理和代码能力方面表现突出。文章还比较了PPO、GRPO等RL算法特性。

大模型幻觉是AI生成与事实不符内容的现象,在创作场景中可能有益,但在医疗等专业领域需避免。幻觉可分为语境冲突性和事实冲突性两类,产生原因包括数据缺陷、训练不当和生成策略问题。评估方法包括生成事实陈述和判别式基准评估。缓解策略主要有:构建高质量微调数据、强化诚实对齐、优化解码策略和外挂知识库增强。需注意大模型无法自知其知识边界,现有方法只能缓解而无法根除幻觉。不同应用场景需采取针对性措施,知识图谱等

大模型压缩技术主要分为剪枝、知识蒸馏、量化和低秩分解四大类。其中剪枝分为深度剪枝(移除整个层)和宽度剪枝(减少权重矩阵大小),研究表明深度剪枝结合LoRA重训练能显著提升推理速度。量化技术通过降低数值精度来减小模型体积,包括线性/非线性量化和不同应用阶段的量化方法。知识蒸馏则用于训练小型语言模型。这些方法在保持模型性能的同时,有效解决了大模型在计算资源和推理速度方面的问题,为实际应用提供了重要技术

本文系统介绍了大模型训练中的并行优化策略,重点对比了FSDP和DeepSpeed两种主流方案。主要内容包括:1) PyTorch FSDP借鉴DeepSpeed ZeRO和FairScale思想,实现参数/梯度/优化器状态的分片管理;2) 详细解析数据并行(DDP)的通信优化机制和ZeRO三阶段(优化器/梯度/参数分片)的显存优化原理;3) 对比3D并行(TP+PP+DP)与ZeRO的协同使用;4








