logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

AMD ROCm生态介绍:开源的GPU计算平台

摘要: ROCm是AMD推出的开源GPU计算平台,旨在挑战NVIDIA CUDA在高性能计算领域的地位。其核心组件包括支持Radeon和Instinct GPU的硬件层、ROCr运行时及HIP工具,后者可实现CUDA代码向ROCm的移植。ROCm还提供对标CUDA的数学库(如rocBLAS、MIOpen),优化HPC和AI任务。尽管开源策略带来透明度和社区优势,但ROCm仍面临生态系统成熟度、性能

文章图片
#开源
深度学习必备:GPU 驱动 + CUDA 工具包配置教程

本文详细介绍了在Linux系统上安装NVIDIA GPU驱动和CUDA工具包的完整流程。主要内容包括:1)安装前的系统环境检查与硬件要求;2)通过系统包管理器或官方安装程序安装GPU驱动的详细步骤;3)CUDA工具包的版本选择、安装流程及环境配置;4)cuDNN的安装与验证方法。文章提供了多种安装方式的比较,包含代码示例和命令操作,适用于开发者配置深度学习开发环境。

文章图片
#深度学习#人工智能
前馈神经网络在Transformer中的作用

本文深入解析了Transformer中前馈神经网络(FFN)的关键作用。FFN采用两层全连接结构,通常隐藏层维度是输入维度的4倍,在Transformer块中承担了约2/3的参数。通过激活函数,FFN实现了非线性变换能力,在自注意力机制后进一步处理特征。实验分析表明,FFN的内存占用和计算复杂度与输入序列长度线性相关,是Transformer模型性能的重要决定因素。

文章图片
#神经网络#transformer#人工智能
基于人类反馈的强化学习(RLHF):ChatGPT“对齐”人类的秘密武器

本文深入解析了基于人类反馈的强化学习(RLHF)技术原理及其在大型语言模型中的应用。RLHF通过三阶段训练流程实现模型与人类价值观的对齐:1)监督微调(SFT)使用高质量标注数据优化预训练模型;2)奖励模型训练学习人类偏好,构建响应质量评估体系;3)近端策略优化(PPO)基于奖励反馈微调模型。该技术有效解决了语言模型在价值观对齐、意图理解和安全性等方面的关键问题,已成为ChatGPT等先进模型的核

文章图片
#人工智能
大模型的发展历程:从 Transformer 到多模态模型的演进

大语言模型演进全景图 前Transformer时代(2017前): 依赖统计语言模型和RNN/LSTM 面临长距离依赖、并行化困难等局限 Transformer革命(2017): 自注意力机制实现完全并行化 催生BERT(编码器)和GPT(解码器)两大流派 预训练时代(2018-2019): BERT开创双向预训练范式 GPT系列展示生成式潜力 规模扩展(2020-2021): GPT-3展现17

文章图片
#transformer#深度学习#人工智能
第一个CUDA程序:从向量加法开始

本文介绍了使用CUDA实现向量加法的并行计算过程。首先回顾了CUDA中主机(CPU)和设备(GPU)的核心概念与分工,然后详细阐述了CUDA向量加法程序的六个关键步骤:主机初始化、设备内存分配、数据传输、内核启动、结果回传和资源清理。重点讲解了kernel函数vectorAdd的实现原理,包括线程索引计算和边界检查机制,并提供了完整的主机端代码实现,涵盖内存管理、线程配置和结果验证等内容。通过对比

文章图片
#java#android#开发语言
使用Thrust库进行高效的CUDA并行算法

Thrust是一个基于模板的C++并行计算库,提供类似STL的接口,简化GPU编程。其核心优势包括类似STL的易用API、自动优化性能以及支持多种后端(CUDA/TBB/OpenMP)。主要组件有device_vector容器和迭代器,支持常见并行算法如transform、reduce、sort等。Thrust让开发者无需编写底层CUDA代码即可实现高效并行计算,适合数据处理、科学计算等场景。最佳

文章图片
每天半小时,轻松学Docker第十四篇:Docker Compose案例2-负载均衡Web网站开发与部署

本文介绍了使用Docker Compose部署Nginx负载均衡服务的完整过程。通过构建包含Nginx_proxy(负载均衡器)、web1和web2三个容器的集群,实现请求分发功能。详细步骤包括:创建项目目录、编写Dockerfile配置、设置软件源、编写Compose编排文件、配置负载均衡策略,以及验证服务效果。在扩展案例中,还加入了MySQL数据库和Python Web应用,构建了包含访问记录

文章图片
#docker#容器#运维
AI架构进化:从RNN困局到Transformer破壁,一文解析注意力机制如何重塑NLP

本文回顾了Transformer架构如何突破RNN在NLP领域的技术瓶颈。传统RNN因串行计算和长程依赖问题导致性能受限,而Transformer通过自注意力机制实现并行化处理,直接建模全局语义关联。文章详细解析了自注意力、多头注意力、位置编码等核心机制,以及编码器-解码器结构和残差连接等工程实现。Transformer不仅显著提升NLP任务性能,还催生了预训练范式和大模型时代,其通用架构更被成功

文章图片
#人工智能#transformer#自然语言处理 +2
每天半小时,轻松学Docker第十五篇:Docker Compose案例3-MariaDB主从与读写分离服务部署

本文详细介绍了使用Docker Compose部署MariaDB主从服务和读写分离服务的完整流程。主要内容包括:1) 创建项目目录和配置文件;2) 编写MariaDB主从配置、Dockerfile和compose.yaml文件;3) 构建镜像并启动服务;4) 验证主从同步和数据读写功能;5) 配置MyCat中间件实现读写分离;6) 测试集群运行状态。通过完整的操作步骤和配置文件示例,展示了如何利用

文章图片
#docker#mariadb#容器
    共 88 条
  • 1
  • 2
  • 3
  • 9
  • 请选择