logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

nvidia-smi 常用命令

官方文档:https://developer.download.nvidia.cn/compute/DCGM/docs/nvidia-smi-367.38.pdfNVIDIA-SMI系列命令总结

#深度学习#机器学习#自然语言处理
React Native 混合ios android开发 及常用框架

在集成过程中,需要修改package.json 和 Podfile,按文档中的内容,如果pod install过不了的话,先修改package.json,然后执行命名。再修改Podfile,执行命令。

文章图片
#react native#android#react.js
pip install 安装 torch cuda 11.8 cu118

百度了一下,有推荐这么改的,速度还是慢,因为还是转到官网 pytorch.org。最终采用 其中的版本 2.3.1,可以看看 pip 源。默认安装,速度比较慢。

文章图片
#pip#python#深度学习
大语言模型量化方法对比:GPTQ、GGUF、AWQ 包括显存和速度

AWQ(激活感知权重量化),它是一种类似于GPTQ的量化方法。所以他们的论文提到了与GPTQ相比的可以由显著加速,同时保持了相似的,有时甚至更好的性能。GGUF(以前称为GGML)是一种量化方法,允许用户使用CPU来运行LLM,但也可以将其某些层加载到GPU以提高速度。虽然使用CPU进行推理通常比使用GPU慢,但对于那些在CPU或苹果设备上运行模型的人来说,这是一种非常好的格式。GPTQ是一种4位

文章图片
#语言模型#人工智能#自然语言处理
React native RN 开发实例

【代码】React native RN 开发实例。

文章图片
#react native#react.js#javascript
onnxruntime 不使用 gpu

检查 onnxruntime和 cuda 和 cudnn 的版本对应关。检查安装的 onnx。

文章图片
#windows#linux#运维
onnx onnxruntime onnxruntime-gpu

(和Java生成的中间文件可以在JVM上运行一样,onnx runtime引擎为生成的onnx模型文件提供推理功能)在训练模型时可以使用很多不同的框架,比如 Pytorch, TensorFLow, MXNet,以及深度学习最开始流行的 Caffe 等等,这样不同的训练框架就导致了产生不同的模型结果包,在模型进行部署推理时就需要不同的依赖库,而且同一个框架比如 tensorflow 不同的版本之间

文章图片
HuggingFace 使用 SD SDXL Diffusers Transformers Accelerate 原理

提供不同扩散模型的实现的库,代码上最简洁,国内的问题是 huggingface 需要翻墙。加速库,可以针对不同硬件CPUs, GPUs,TPUs 加快执行模型速度。不可见水印,可以给生成的图片加水印。提供了预训练深度学习模型,

文章图片
#人工智能
    共 100 条
  • 1
  • 2
  • 3
  • 10
  • 请选择