logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

混合精度训练(FP16):解锁深度学习算力的革命性突破

当英伟达在2018年发布Tesla V100时,深度学习界迎来了一场寂静的革命:混合精度训练技术(FP16)。这项技术如同打开了一道魔法门,让原本需要数周的训练任务在几天内完成,将GPU利用率推向前所未有的高度。

#深度学习#人工智能#机器学习 +2
​​量化感知训练与混合精度量化:深度神经网络的精度-效率平衡艺术

​:通过量子化-稀疏化-混合精度三联技术,实现Llama-300B模型在智能手表运行,彻底打破硬件算力藩篱。当前最新进展显示,NVIDIA Blackwell架构支持INT2计算,同精度下能效比提升900%,正加速这一愿景成为现实。​,让神经网络在训练过程中"预演"量化效果,通过调整权重分布来主动适应低精度计算环境。​,根据各层敏感度动态分配FP16/INT8/INT4等不同精度资源。实验表明IN

#dnn#人工智能#神经网络 +3
大模型的head都有哪些

Head 要轻量:大模型已学到丰富表示,Head 只做任务映射即可输出空间匹配任务:分类 → softmax,回归 → 实数向量,动作生成 → 连续动作训练方式:大模型可冻结或微调,Head 必须可训练共享与可扩展:不同任务可共享底层大模型,只换 Head 即可。

#python#语言模型#人工智能 +2
大模型的head都有哪些

Head 要轻量:大模型已学到丰富表示,Head 只做任务映射即可输出空间匹配任务:分类 → softmax,回归 → 实数向量,动作生成 → 连续动作训练方式:大模型可冻结或微调,Head 必须可训练共享与可扩展:不同任务可共享底层大模型,只换 Head 即可。

#python#语言模型#人工智能 +2
GraphSAGE:工业级图神经网络的奠基者

GraphSAGE通过三大范式转变重塑图神经网络:​​理论突破​建立归纳式图学习理论框架证明采样聚合的泛化误差边界解决动态图实时推理难题​​技术革新​邻域采样控制计算复杂度多类型聚合器设计框架跨图泛化推理能力分层残差防止梯度消失​​工业影响​Pinterest:30亿节点内容推荐系统阿里巴巴:万亿级商品图谱实时推理腾讯安全:动态IP关系图毫秒级响应蚂蚁金融:异构风控图谱跨域迁移。

#神经网络#人工智能#深度学习 +3
​​Warmup技术深度解密:神经网络训练的引擎预热艺术​

在AI训练的革命之路上,warmup如同精准的引擎管理系统,让模型从冷启动平稳过渡到巅峰状态。深度学习先驱Yann Lecun评价:"Warmup是模型训练的基础卫生——如同饭前洗手,虽简单却必不可少。忽视它带来的灾难远超你的想象。Transformer作者Ashish Vaswani指出:"没有warmup的Transformer训练就像在冰面猛踩油门——注定失控"Warmup就是深度学习训练的

#神经网络#人工智能#深度学习 +4
卷积神经网络(CNN)深度解析

​​结构特性​​:卷积层提取空间特征,池化层增强鲁棒性​​数学本质​​:局部连接 + 权值共享​​工程价值​​:计算机视觉任务的基础架构%20bn%29%20x。

#cnn#人工智能#神经网络 +3
图神经网络(GNN)深度解析

​​设计哲学​​:通过消息传递捕捉图结构依赖​​数学本质​​:广义邻域特征聚合与非线性变换​​工程挑战​​:大规模图的高效计算(采样、分区)动态图实时更新​​前沿方向​​:时空图网络(ST-GNN)图对比学习(GraphCL)图结构学习(Jointly Learn Graph)

#神经网络#人工智能#深度学习 +2
循环神经网络(RNN)深度解析

​​结构本质​​:通过时间步循环传递隐藏状态,建模序列依赖​​核心缺陷​​:基础RNN存在梯度消失/爆炸,需LSTM/GRU优化​​工程价值​​:语音、文本等时序任务的基础架构%20b_h%29%20b_y%29%20b_i%29%20b_f%29%20b_z%29%20b_r%29%20b_h%29%20b_y。

#rnn#人工智能#深度学习 +3
激活函数进化史:从Sigmoid到GELU——深度神经网络的非线性引擎

测试对比# 输出: x=0.5: ReLU=0.50, GELU=0.34, Mish=0.41激活函数的演变史反应了深度学习对​​非线性认知的深化​。

#人工智能#神经网络#深度学习 +2
    共 55 条
  • 1
  • 2
  • 3
  • 6
  • 请选择