logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习模型部署的步骤和相关注意事项

深度学习模型部署是将经过训练的深度学习模型部署到生产环境中,并通过API接口接收客户端请求进行推理的过程。其目的是将深度学习模型从研究阶段转化为实际应用,使其能够为用户提供服务或解决实际问题。

文章图片
#深度学习#python#人工智能
图神经网络(Graph Neural Networks)简单介绍

图神经网络(Graph Neural Networks, GNN)是一类用于处理图结构数据的神经网络模型,与传统的神经网络(例如卷积神经网络、循环神经网络等)处理规则数据结构(如图像、时间序列)不同,图神经网络专门处理不规则的图结构数据,如社交网络、知识图谱等。图结构数据是一种由节点和边组成的复杂关系网络,其中节点代表实体,边代表实体之间的关系。与传统的神经网络不同,图神经网络需要考虑节点之间的关

文章图片
#神经网络#深度学习#人工智能
Windows中使用Docker安装Anythingllm,基于deepseek构建自己的本地知识库问答大模型,可局域网内多用户访问、离线运行

本文介绍了如何在 Windows 系统的 CMD 中使用 Docker 安装 AnythingLLM,并搭建自己的知识库问答大模型

文章图片
#docker#容器
Ollama调用多GPU实现负载均衡

默认的ollama调用的各种大模型,如deepseek 70b模型,每个模型实例只绑定一张 GPU,如果是多卡,其它卡会一直闲置,造成一定浪费。本文档介绍如何通过 systemd 配置文件为 Ollama 服务添加 GPU 和调度相关的环境变量,从而实现多 GPU 的高效利用与负载均衡。

文章图片
#负载均衡#运维
使用 Docker 安装 Open WebUI 并集成 Ollama 的 DeepSeek 模型

在本教程中,我们将指导您如何使用 Docker 安装 Open-WebUI,并将其与 Ollama 的 DeepSeek 模型集成。这种方法可以简化部署过程,并确保环境的一致性。

文章图片
#docker#容器#运维 +1
Windows中使用Docker安装Anythingllm,基于deepseek构建自己的本地知识库问答大模型,可局域网内多用户访问、离线运行

本文介绍了如何在 Windows 系统的 CMD 中使用 Docker 安装 AnythingLLM,并搭建自己的知识库问答大模型

文章图片
#docker#容器
使用 Docker 安装 Open WebUI 并集成 Ollama 的 DeepSeek 模型

在本教程中,我们将指导您如何使用 Docker 安装 Open-WebUI,并将其与 Ollama 的 DeepSeek 模型集成。这种方法可以简化部署过程,并确保环境的一致性。

文章图片
#docker#容器#运维 +1
近五年—中国十大科技进展(2018年—2022年)

近五年—中国十大科技进展(2018年—2022年)

文章图片
#科技
使用PyTorch构建神经网络,并使用thop计算参数和FLOPs

FLOPs(floating point operations)是指浮点运算次数,通常用来评估一个计算机算法或者模型的计算复杂度。在机器学习中,FLOPs通常用来衡量神经网络的计算复杂度,因为神经网络的计算主要由矩阵乘法和卷积操作组成,而这些操作都可以转化为浮点运算次数的形式进行计算。

文章图片
#神经网络#深度学习#机器学习 +1
vps赚钱的小项目,通过售卖流量赚钱

通过本文你可以通过售卖vps的流量进行赚钱,不过非常少。而且赚钱少也就罢了,速度还非常慢,可能一两年才能凑够10美元体现。玩一玩还是不错了,毕竟vps大部分时间都是闲置,一点用也没有。

文章图片
#服务器#流量运营
    共 20 条
  • 1
  • 2
  • 请选择