logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

TFE:一种用于深度学习的多阶段Python嵌入式DSL

在编程语言的观点下,DSL 可以分为命令式(Imperative)和声明式(Declarative)两种。使用命令式 DSL 编写可微分程序(基于现有自动微分软件编写的模型)就像使用命令式编程语言(比如 Python),它的性能瓶颈受制于解释器(Interpreter),并且模型的串行化比较困难。为了解决这个问题,声明式 DSL 把模型的执行与模型的定义分离,这类先定义后执行(Define-bef

#深度学习#tensorflow#边缘计算
TVM:一种自动端到端优化的深度学习编译器

现有的 DL 框架依赖于计算图 IR 来实现优化,比如自动微分(Auto Differentiation)和动态内存管理。然而计算图层级(Graph-level)的优化对硬件后端特定算子层级(Operator-level)的变换来说,往往视角太高了。这些框架大部分关注的都是服务器级 GPU 设备中的一小撮,而把目标机相关的优化委派给高度工程化的、厂家特化的算子库。这类算子库需要大量的人工调优,也因

#深度学习#人工智能#pytorch +1
TVM:一种自动端到端优化的深度学习编译器

现有的 DL 框架依赖于计算图 IR 来实现优化,比如自动微分(Auto Differentiation)和动态内存管理。然而计算图层级(Graph-level)的优化对硬件后端特定算子层级(Operator-level)的变换来说,往往视角太高了。这些框架大部分关注的都是服务器级 GPU 设备中的一小撮,而把目标机相关的优化委派给高度工程化的、厂家特化的算子库。这类算子库需要大量的人工调优,也因

#深度学习#人工智能#pytorch +1
TVM:一种自动端到端优化的深度学习编译器

现有的 DL 框架依赖于计算图 IR 来实现优化,比如自动微分(Auto Differentiation)和动态内存管理。然而计算图层级(Graph-level)的优化对硬件后端特定算子层级(Operator-level)的变换来说,往往视角太高了。这些框架大部分关注的都是服务器级 GPU 设备中的一小撮,而把目标机相关的优化委派给高度工程化的、厂家特化的算子库。这类算子库需要大量的人工调优,也因

#深度学习#人工智能#pytorch +1
到底了