logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

vllm针对分类模型有优化的部署方法了

部署服务的时候其他都跟旧的一样,只不过多加一个--task=classify。旧镜像需要更新vllm。

#分类#数据挖掘#人工智能
roberta模型、bert模型可以用vllm部署了

text-embeddings-router --model-id /mnt/model --port 8811 [--pooling cls,可有可无] --dtype float16 --json-output [还有一些其他参数,参考hf那个链接]使用代码:(我是并发,异步使用的)

#bert#人工智能#深度学习
CS231N assignment3-transformer,GAN,self-supervised,LSTM

4.自监督学习,完成的是一个simCLR(simple contrastive learning representation)对一个图片以两种策略生成两种图片变种,用f作为一个encoder(这里用的是resnet50),得到这两个图片的表示向量hi,hj,再将向量对送入g(一个小的神经网络,比如MLP)目标是最大化g(hi),g(hj)的一致性。没搞懂的点:训练的时候用的是pairs(成对的数

文章图片
#transformer#生成对抗网络#lstm
CS231N作业 A2Q5 pytorch

用pytorch可真是太方便了。。。You’ve written a lot of code in this assignment to provide a whole host of neural network functionality. Dropout, Batch Norm, and 2D convolutions are some of the workhorses of deep l

文章图片
#pytorch#深度学习#python
vllm+openai 加速模型推理

【代码】vllm+openai 加速模型推理。

文章图片
#python#开发语言
基于transformers,用GPU训练的显存优化方法

1. 减小"per_device_train_batch_size",设置 "gradient_accumulation_steps"。这样在计算梯度的时候是每per_device_train_batch_size*gradient_accumulation_steps个样本计算一下。4.对原大模型的params进行with torch.no_grad操作,不更新原来大模型的参数,只针对后处理层进

文章图片
#人工智能#算法#机器学习
基于transformers,用GPU训练的显存优化方法

1. 减小"per_device_train_batch_size",设置 "gradient_accumulation_steps"。这样在计算梯度的时候是每per_device_train_batch_size*gradient_accumulation_steps个样本计算一下。4.对原大模型的params进行with torch.no_grad操作,不更新原来大模型的参数,只针对后处理层进

文章图片
#人工智能#算法#机器学习
CS231N作业A1Q4:two_layer_net 学会了loss的可视化、超参数的调节,准备自己应用一下!

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-jgojuKu1-1685330175487)(output_22_0.png)][外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-KHNVOqNn-1685330175488)(output_23_0.png)]

#python#深度学习
vllm+openai 加速模型推理

【代码】vllm+openai 加速模型推理。

文章图片
#python#开发语言
基于transformers,用GPU训练的显存优化方法

1. 减小"per_device_train_batch_size",设置 "gradient_accumulation_steps"。这样在计算梯度的时候是每per_device_train_batch_size*gradient_accumulation_steps个样本计算一下。4.对原大模型的params进行with torch.no_grad操作,不更新原来大模型的参数,只针对后处理层进

文章图片
#人工智能#算法#机器学习
到底了