
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
最近在淘金的时候发现基于物理信息的神经网络(简称PINN)也是个研究热点,遂研读了几篇经典论文,深觉这也是个好发论文的方向,所以火速整理了一些个人认为很值得一读的PINN论文和同学们分享。为了方面同学们更好地理解,我们先来简单了解下PINN:PINN就是将物理方程作为限制加入到神经网络之中使得拟合得到的结果更加满足物理规律,这是一种科学机器在传统数值领域的应用方法,通常用于解决交叉学科中存在微分方

deepseek最近引起了NLP领域的极大关注,也让大家进一步对MOE架构提起了信心,借此机会整理下MOE的简单知识和对应的大模型。本文的思路是MOE的起源介绍、原理解释、再到现有MOE大模型的整理。
本文将基于 PyTorch 后端使用 resnet50 模型来进行图片分类,因此,需预先下载 resnet50 模型,然后将其转换为torchscript格式。然后,拉取Pytorch官方镜像作为推理系统的客户端同时进行一些预处理操作(当然也可以直接拉取tritonserver客户端SDK镜像)。如果模型具有与每个分类索引关联的标签,Triton 也会返回这些标签,具体格式如下所示。ok,目前为止

假设 Triton 当前没有处理任何请求,当两个请求同时到达时Triton服务,每个模型一个请求,Triton 立即将它们都调度到 GPU 上,GPU 的硬件调度程序开始并行处理这两个计算。在系统的 CPU 上执行的模型由 Triton 进行类似地处理,除了 CPU 线程执行每个模型的调度由系统的操作系统处理之外。用于对一个推理服务的生命周期的管理(模型的加载/卸载,模型服务实例的弹性扩缩容等)。

Triton 的模型分析器是一个可自动评估 Triton 推理服务中的模型部署配置的工具,例如:目标处理器上的批量大小、精度和并发执行的实例。Triton不仅支持单模型部署,也支持多模型集成(ensemble),可以很好的支持多模型联合推理的场景,构建起视频、图片、语音、文本整个推理服务过程,大大降低多个模型服务的开发和维护成本。因此,模型部署是实际AI应用落地非常重要的环节,工程师辛苦训练出来的

在docker 创建 mysql 容器时,往往需要在创建容器的过程中创建database 实例,代码如下:docker run -d -p 3308:3306 -e MYSQL_ROOT_PASSWORD=123456 -e MYSQL_DATABASE=my_db mysql:latestMYSQL_ROOT_PASSWORD=123456,指定 root 用户名密码 123456MYSQL_D

单体数据库时代,随着系统交易量的不断上升,数据库读写性能出现了严重下降。我们可以借助分库分表中间件,比如mycat、shardingjdbc来实现分库分表,缓解单库的读写性能。但是分库分表中间件并不支持事务,如果要保证数据一致性,就需要借助于分布式事务中间件,比如阿里巴巴的seata。后来分布式数据库逐渐成为解决数据一致性的选择,目前分布式数据库产品已经比较成熟,支持ACID事务,本文就来聊一聊分
MMDeploy 定义的模型部署流程

今天自己在Hyper-v下搭建三台Linux服务器集群,用于学习ELKstack(即大数据日志解决技术栈Elasticsearch,Logstash,Kibana的简称),下载的Linux版本为centos 7系列,装完才知道相比于centos 6做了很大的改动,很多命令都不一样了,例如:系统服务都用systemctl命令来开启service,它是CentOS7的服务管理中主要的工具,融合了之前s
top命令是Linux下常用的性能分析工具,能够实时显示系统中各个进程的资源占用状况,类似于Windows的任务管理器。下面详细介绍它的使用方法。top - 01:06:48 up 1:22, 1 user, load average: 0.06, 0.60, 0.48 Tasks: 29 total, 1 running, 28 sleeping...