logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

经典多目标跟踪算法DeepSORT的基本原理和实现

如果卡尔曼滤波输出确认态的预测结果,DeepSORT将采用马氏距离加余弦距离的级联方法对相关信息进行关联,通过马氏距离我们可以获取运动物体在两个不同状态的距离信息,如果某次关联的马氏距离小于指定的阈值,则设置运动状态的关联成功,但是DeepSORT不仅看框与框之间的距离,还要看框内的表观特征才能更好的进行关联匹配,所以DeepSORT还引入了表观特征余弦距离度量,这里会使用一个重识别模型来获取不同

文章图片
#目标跟踪#算法#计算机视觉
揭秘 XPU 架构下 AIGC 的推理加速艺术—— AI PC 新纪元:将 AI 引入 NPU,实现快速低功耗推理

踏入 AI PC 新纪元,其独特的 AI 加速能力横跨 CPU、GPU 及 NPU。本次活动我们特别携手知名 PC 品牌惠普,为您介绍其最新 AI PC 的卓越效能,并为您演示惠普全新开发,专注于电脑服务的本地模型 “AI 小惠”,它将成为您随时的 AI 助手,帮助您更高效的解决电脑问题。我们还将为您详细介绍运用 OpenVINO 优化AI 应用开发与 XPU 上的部署,尤其在 NPU 上执行 A

文章图片
#人工智能#openvino
开发者实战 | 如何在 Windows 上调用 NPU 部署深度学习模型

在最新一代的Intel Core Ultra移动端处理中已经集成了被称为 NPU 的神经网络加速处理器,以提供低功耗的AI算力,特别适合于PC端需要长时间稳定运行的AI辅助功能,例如会议聊天软件中的自动抠像,或是画面超分辨率等应用。而 OpenVINO™ 工具套件也在第一时间对 NPU 进行了适配,接下来就让我们一起看一下如何在 Intel Core Ultra 处理器上搭建基础环境,并调用 NP

文章图片
#windows#深度学习#人工智能
在英特尔平台本地优化和部署中文版Llama3

​Optimum Intel工具包简单易用,仅需三步即可完成开发环境搭建、Unichat-llama3-Chinese模型INT4量化和推理程序开发。基于Optimum Intel工具包开发Llama3推理程序仅需调用五个API函数,方便快捷的实现将Llama3本地化部署在基于英特尔处理器的算力魔方上。​

文章图片
#openvino#人工智能
在英特尔® 酷睿™ Ultra7处理器上优化和部署Phi-3-min模型

Phi-3模型是微软公司新近推出的一系列小型语言模型(SLM),旨在以更小的规模实现与大型语言模型(LLM)相媲美的性能,特别是在语言处理、推理、编码和数学基准测试方面;英特尔® 酷睿™ Ultra系列处理器是英特尔公司新近推出高端处理器,相对前代有显著的AI性能提升和能效优化;二者相互结合,使得广大的端侧设备都能受益于日益先进的AI技术。

文章图片
#人工智能#openvino
在英特尔®酷睿™Ultra处理器上优化和部署YOLOv8模型

英特尔®酷睿™Ultra处理器内置了CPU、GPU和NPU,相比之前,无论是能耗比、显卡性能还是AI性能,都有显著提升;通过OpenVINO™和NNCF,可以方便快捷实现AI模型的优化和INT量化,以及本地化部署,获得非常不错的端侧AI推理性能。

文章图片
使用OpenVINO™ C# API 部署 YOLO-World实现实时开放词汇对象检测

在该项目中,我们结合之前开发的 OpenVINO™ C# API 项目部署YOLOv9模型,成功实现了对象目标检测与实例分割,并且根据不同开发者的使用习惯,同时提供了OpenCvSharp以及Emgu.CV两种版本,供各位开发者使用。

文章图片
#openvino#c##人工智能
获奖名单出炉 物联网数据基础设施领域最优秀的案例都在这里了

随着物联网技术的成熟与普及,如今的世界早已进入万物互联的时代,全球年活跃连接的物联网设备已达数百亿规模(IoT Analytics, 2021)。海量物联设备产生的数据,需要通过统一汇聚和进一步的处理转化,才能成为对上层平台或应用有价值的信息,这个过程则需要可靠高效的物联网数据基础设施软件提供支撑。作为全球领先的开源物联网数据基础设施软件供应商, EMQ 多年来为各个行业的物联网关键业务提供了数据

#git#svn#ci
比YOLOv5还厉害的YOLOX来了,官方支持OpenVINO推理

旷视科技开源了内部目标检测模型-YOLOX,性能与速度全面超越YOLOv5,如此神奇原因在于模型结构的修改,下图说明了改了什么地方:把原来的耦合头部,通过1x1卷积解耦成两个并行的分支,经过一系列处理之后最终取得精度与速度双提升。实验对比结果如下:提供预训练模型分为标准模型与移动端支持的轻量化模型:官方支持自定义模型训练、导出ONNX与OpenVINO推理部署。论文与代码模型下载地址:https:

OpenVINO 2021r2 C++ 超分辨率重建 Waifu2x

最后试一下waifu2x, 因为我一直都喜欢waifu2x, 觉得他们家的超分算法在动画图像上的效果真的很惊艳,很久以前体验过windows版本,那时候机器又破,还用的是电脑上的caffe框架,超分个图片慢如老牛拉车。现在正好试试OpenVINO能不能加个速。先从https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.2.0.4下载一个re

暂无文章信息