logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Nano-vLLM-MS

Nano-vLLM-MS是一个基于nano-vLLM的轻量级推理框架,主要增强了对MoE模型和推测解码的支持。核心特性包括:支持Qwen3-MoE模型的专家路由计算、端到端推测解码流水线、高效的N-gram提案生成器,以及保留原有性能优化能力。基准测试显示,在Qwen3-0.6B模型上,推测解码可将吞吐提升40.8%。项目提供简单API接口和可复现的示例脚本,支持快速部署和性能验证。

文章图片
#pytorch#transformer#深度学习
wsl配置vllm问题:ImportError: libcudart.so.12: cannot open shared object file: No such file or director

wsl配置vllm遇到的问题:ImportError: libcudart.so.12: cannot open shared object file: No such file or director

文章图片
#pytorch#python
解析transformer——4: Add&Norm,残差连接与layernorm

本文介绍了Transformer中的Add&Norm模块,详细解析了归一化、LayerNorm与BatchNorm的区别以及残差连接的作用。归一化通过缩放数据解决梯度下降问题;LayerNorm按样本计算均值和方差,适合序列模型;残差连接则用于构建深层网络避免梯度消失。文章还提供了代码实现,展示如何在PyTorch中应用这些技术。

文章图片
#transformer#深度学习#人工智能 +2
机器学习实战——python + pytorch实现面部表情识别

最近刚好学习了pytorch,于是想写写项目,而这个项目的最开始是使用keras和TensorFlow,我在这篇blog中使用pytorch。项目原文链接。

文章图片
#机器学习#python#pytorch
解析transformer——1: Embedding层

本文解析了Transformer中的Embedding层,介绍了三种自然语言表示方法:同义词字典、基于计数的方式和基于推理的Embedding。重点讨论了Transformer中Input/Output Embedding层的实现,包括参数矩阵E的共享和乘以√d_model的操作。最后提供了基于PyTorch的Embedding层实现代码,展示了如何继承nn.Embedding类并添加√d_mod

文章图片
#transformer#python
解析transformer——5:Feed Forward,前馈网络

摘要 本文介绍了Transformer中的前馈网络(Feed Forward)实现。该网络存在于编码器和解码器模块中,是一个简单的全连接神经网络,维度为2048,使用ReLU激活函数。文章提供了完整的PyTorch实现代码,包括Embedding层、位置编码(Positional Encoding)、多头注意力机制(MultiHeadAttention)、Add&Norm层以及前馈网络(F

文章图片
#transformer#深度学习#人工智能 +2
到底了