
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
计算机视觉 (CV) 基础:图像处理、特征提取与识别
深度学习的出现极大地推动了计算机视觉的进步,特别是 CNN 和 Transformer 等模型的引入,使得机器在许多视觉任务上已经能够媲美甚至超越人类的表现。R-CNN 家族 (R-CNN, Fast R-CNN, Faster R-CNN): 先通过区域提议网络 (RPN) 生成候选区域,再对这些区域进行分类和边界框回归。模型: 常使用深度 CNN 来提取人脸特征,并通过度量学习 (Metric

AI+医疗:用ResNet-50“慧眼识肺”,实现胸部X光片肺炎精准检测
虽然实际部署到临床环境还需要更多的验证、法规审批以及与现有医疗工作流程的整合,但这清晰地描绘了AI如何成为医生诊断的有力助手,提升诊断效率和准确性,最终惠及广大患者。在深度学习的早期,一个普遍存在的难题是“深度困境”(Dying ReLU / Vanishing Gradient):随着网络层数的加深,梯度在反向传播过程中会逐渐衰减,导致深层网络的参数更新缓慢甚至停止,模型无法有效学习。AI+医疗

大模型显存优化革命:FlashAttention-2+量化技术双管齐下,16GB显卡轻松驾驭70B模型推理
传统Transformer的注意力机制是显存消耗的「大户」,其核心问题在于「中间激活值爆炸」和「内存读写冗余」。FlashAttention-2通过三大创新彻底重构了注意力计算流程,将显存占用降低50%-75%,同时提升推理速度2-4倍。要在16GB显存上运行70B模型,核心是「降低静态权重占用(量化)+ 优化动态计算显存(FlashAttention-2)+ 严格控制序列长度」。

到底了







