logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

每天半小时,轻松学Docker第十五篇:Docker Compose案例3-MariaDB主从与读写分离服务部署

本文详细介绍了使用Docker Compose部署MariaDB主从服务和读写分离服务的完整流程。主要内容包括:1) 创建项目目录和配置文件;2) 编写MariaDB主从配置、Dockerfile和compose.yaml文件;3) 构建镜像并启动服务;4) 验证主从同步和数据读写功能;5) 配置MyCat中间件实现读写分离;6) 测试集群运行状态。通过完整的操作步骤和配置文件示例,展示了如何利用

文章图片
#docker#mariadb#容器
AI的个性塑造术:以LoRA为魔法棱镜,折射大模型的专属光晕

本文深入探讨大模型微调技术,重点解析如何将通用AI能力转化为专业生产力。文章对比了提示工程与微调技术的差异,指出微调在垂直领域任务中的优势。核心内容聚焦参数高效微调技术(PEFT)特别是LoRA方法,详细讲解其实现原理和代码实践,显著降低算力需求(7B模型仅需16.5GB显存)。文章提供完整的六步实战流程,从数据准备到模型部署,并给出显存占用分析和优化策略,包括4-bit量化等进阶技术。通过这套方

文章图片
#人工智能#深度学习#语言模型 +1
从4090到5090:显存魔改技术全拆解,48G实操与128G路径深度分析

本文分析了RTX4090魔改48GB显存的技术路线,并探讨了RTX5090魔改128GB显存的可行性。RTX4090通过PCB背面加装12颗GDDR6X显存颗粒和VBIOS固件改造实现48GB容量,其成功验证了英伟达显卡的硬件复用设计。而RTX5090要实现128GB需突破32Gb GDDR7颗粒量产和显存控制器兼容性两大技术壁垒,目前仅理论可行。文章还预测了魔改技术对产业链的影响,包括加速GDD

文章图片
#GPU
GPU 架构发展简史:Fermi、Kepler 到 Ada Lovelace 的进化足迹

NVIDIA GPU架构十年演进:从通用计算到AI与光追的融合 2010-2022年间,NVIDIA GPU架构经历了显著的技术转型: Fermi(2010)奠定现代GPU计算基础,首次实现通用计算能力 Kepler(2012)和Maxwell(2014)专注于能效比革命 Pascal(2016)引入AI计算支持,采用16nm工艺和HBM2显存 Volta(2017)首次集成专用张量核心,大幅提升

文章图片
#架构
NVIDIA Blackwell Ultra GB300深度解析:AI芯片性能的新巅峰

NVIDIA发布革命性Blackwell Ultra GB300 GPU,开启AI计算新纪元。这款采用双芯片架构的GPU基于台积电4NP工艺,集成2080亿晶体管,配备288GB HBM3e内存和8TB/s带宽,计算性能达15-20 PetaFLOPS。其创新之处包括:10TB/s芯片间互联的NV-HBI技术、第四代TensorCore支持多种精度计算、NVLink 5.0实现1.8TB/s互连带

文章图片
#人工智能#GPU
GPU散热革命:NVIDIA微通道液冷板(MLCP)技术深度解析

微通道液冷板(MLCP)技术通过在芯片内部集成微米级冷却流道(≤100μm),实现直接接触式高效散热,可应对2000W以上AI芯片的极端热负荷。该技术突破传统散热瓶颈,热阻值低于0.015℃·cm/W,效率提升3-5倍。核心创新在于微尺度流体动力学设计、高导热材料(纯铜/纳米涂层)应用及精密制造工艺(3D打印/激光雕刻)。当前面临制造精度、良率成本和系统集成等挑战,但已在NVIDIA Rubin等

文章图片
#php#人工智能#开发语言 +1
前馈神经网络在Transformer中的作用

本文深入解析了Transformer中前馈神经网络(FFN)的关键作用。FFN采用两层全连接结构,通常隐藏层维度是输入维度的4倍,在Transformer块中承担了约2/3的参数。通过激活函数,FFN实现了非线性变换能力,在自注意力机制后进一步处理特征。实验分析表明,FFN的内存占用和计算复杂度与输入序列长度线性相关,是Transformer模型性能的重要决定因素。

文章图片
#神经网络#transformer#人工智能
NVIDIA Blackwell Ultra GB300深度解析:AI芯片性能的新巅峰

NVIDIA发布革命性Blackwell Ultra GB300 GPU,开启AI计算新纪元。这款采用双芯片架构的GPU基于台积电4NP工艺,集成2080亿晶体管,配备288GB HBM3e内存和8TB/s带宽,计算性能达15-20 PetaFLOPS。其创新之处包括:10TB/s芯片间互联的NV-HBI技术、第四代TensorCore支持多种精度计算、NVLink 5.0实现1.8TB/s互连带

文章图片
#人工智能#GPU
大模型的缩放定律:计算量、数据量与模型性能的关系

本文探讨了大型语言模型中的缩放定律,揭示了计算资源、训练数据和模型规模与性能间的数学关系。主要内容包括:1)缩放定律的起源与发展,展示了模型性能随规模增长遵循幂律关系;2)计算量缩放定律(Kaplan定律),分析了计算资源与模型损失的数学关系及最优分配策略;3)数据量缩放定律,研究了训练数据量对性能的影响规律。研究通过Python代码模拟了这些关系,为AI模型的规模规划提供了量化依据,表明在合理范

文章图片
NVLink与NVLink-C2C——从系统级互联到芯片级革命

摘要:NVLink技术从系统级高速互联演进至芯片级集成,NVLink-C2C实现了革命性突破。传统NVLink通过专用布线或PCIe物理层连接GPU,解决多GPU系统通信瓶颈;而NVLink-C2C采用先进封装技术,在毫米级距离实现芯片间超高带宽(900GB/s)和内存一致性,形成统一地址空间。这项技术支撑了GraceHopper超级芯片等产品,使CPU/GPU深度融合,为AI大模型训练提供超大内

文章图片
#GPU
    共 80 条
  • 1
  • 2
  • 3
  • 8
  • 请选择