登录社区云,与社区用户共同成长
邀请您加入社区
本文仿真模型基于永磁同步电机的双闭环控制结构,包含速度闭环和电流闭环两个控制环。速度闭环采用抗饱和PI控制器,电流闭环采用PI控制器。整个系统采用离散化仿真方法,以更好地反映数字控制系统的特点。在伺服系统中,摩擦力会降低系统的响应速度和精度。通过引入扰动观测器,可以实时观测摩擦力,并将其补偿到系统中,从而提高系统的性能。
多目标蜣螂优化算法NSDBO求解微电网多目标优化调度 Matlab语言1.单目标优化调度模型已不能满足专家的偏好,多目标优化可满足不同帕累托前沿的选择。输出包括帕累托曲线图、方案调度图等等,如图1所示,方便您撰写,可完全满足您的需求2.该多目标蜣螂算法将传统单目标蜣螂算法与非支配排序策略相结合,用于求解多目标问题,多目标蜣螂算法也可以换成多目标水母算法、多目标灰狼算法等等3.文件夹内也赠送多目标微
这些示例展示了 MNN 在 Android 上的典型应用场景:类用途输入源模型输出处理静态图像分类assets 图片MobileNet显示 top-3 类别及置信度实时视频分类相机预览实时更新 top-3 类别及置信度实时人像分割相机预览绘制分割掩码叠加在预览上OpenGL 渲染测试相机预览(可能无推理)仅渲染图像预处理:使用的或,支持 YUV_NV21、RGB、BGR 等格式,可配置 mean/
基于车速的变预测时域的MPC自适应轨迹跟踪控制,能够预测时域的, 类似驾驶员模型中的预瞄距离,在不同的车速下,预瞄控制器采用不同预瞄距离产生的控制效果不同,通过carsim与simulink联合仿真结果发现,改进后的轨迹跟踪控制器既满足了车辆低速行驶下的轨迹跟踪精度,也一定程度上克服了高速下车辆容易失去稳定性的问题。更妙的是,当车辆开始出现轻微滑移时,缩短的预测时域自动降低了控制器对远期状态的苛求
使用MNN的整体流程,训练,使用训练数据训练出模型;转换,将其他训练框架模型转换为MNN模型的阶段。MNN当前支持Tensorflow(Lite), ONNX, TorchScript的模型转换;推理,在端侧加载MNN模型进行推理。准备工作:1.下载MNN;——
1.linux上编译安装mnn;2.onnx模型转mnn模型;2.在Android上使用MNN测试工具
在大语言模型(LLM)端侧部署上,基于 MNN 实现的 mnn-llm 项目已经展现出业界领先的性能,特别是在 ARM 架构的 CPU 上。目前利用 mnn-llm 的推理能力,qwen-1.8b在mnn-llm的驱动下能够在移动端达到端侧实时会话的能力,能够在较低内存(<2G)的情况下,做到快速响应。背景在大型语言模型(LLM)领域的迅猛发展背景下,开源社区已经孵化了众多优异的 LLM 模
请参阅这里的文档: 在Jetson Nano上安装MNN深度学习框架参阅这里: NVIDIA Jetson编译报错安装 MNN 2.7.1 编译不会报错版本号 2.7.1参阅这里: 求助!MNN编译错误
MNN是一个轻量级的深度神经网络推理引擎,在端侧加载深度神经网络模型进行推理预测。目前,MNN已经在阿里巴巴的手机淘宝、手机天猫、优酷等20多个App中使用,覆盖直播、短视频、搜索推荐、商品图像搜索、互动营销、权益发放、安全风控等场景。此外,IoT等场景下也有若干应用。下面就介绍如何使用MNN在Android设备上实现图像分类。
1. Pytorch分类器网络# 定义一个简单的分类网络class SimpleNet(nn.Module):def __init__(self):super(SimpleNet, self).__init__()# 三个卷积层用于提取特征# 1 input channel image 90x90, 8 output channel image 44x44self.conv1 = nn.Seque
为了应对模块化神经网络(MNN)构建中子网络的冷启动问题并提高模型的计算效率,荐读的论文开发了一种多源迁移学习模块化神经网络(MSTL-MNN)方法,如图1所示。所提出的MSTL-MNN由两个部分组成:知识驱动的多源迁移学习过程和数据驱动的微调过程。对于前者,从每个源领域中提取有效知识,并将其融合成多源领域知识,以形成目标领域的初始子网络。知识驱动的多源迁移学习策略促进了积极的迁移过程,从而提高了
本文介绍了如何将 OpenCV Mat 对象转换为 MNN::CV 中的 VARP 对象,使您能够在 MNN 框架中进行深度学习计算和图像处理操作。这在涉及多个图像处理和计算框架的项目中是非常有用的技能,帮助您更灵活地处理和转换数据。// MNN 中的 CV 相关功能,您需要引入相应的头文件,然后读取图片。
随着移动端(手机/平板等)算力、内存、磁盘空间的不断增长,在移动端部署大模型逐渐成为可能。在端侧运行大模型,可以有一系列好处:去除网络延迟,加快响应速度;降低算力成本,便于大规模应用;不需数据上传,保护用户稳私。概述为了在更广泛的设备上部署大模型,MNN团队开发了 MNN-LLM / MNN-Diffusion,合称MNN-Transformer ,支持大语言模型和文生图等AIGC模型,具有如下特
选择合适版本下载,本文中使用的版本为arm-gnu-toolchain-15.2.rel1-x86_64-aarch64-none-linux-gnu,在x86的Linux平台使用的交叉编译工具。上方是部署到RK3588上的结果,未使用npu,仅cpu跑的结果,本意是想试试部署到树莓派上的效果的,当时没找着树莓派,不过也一样证明了mnn的有效性。需要一些工具,此处先构建MNN的转换工具、测试工具、
但对于个人开发者或小型团队来说,预算有限,如何低成本甚至免费发布应用到**App Store**和**Google Play**两大平台?- **隐私政策链接**:即使应用不收集数据,也需提供(可用免费生成工具如[PrivacyPolicies](https://www.privacypolicies.com))。Google Play一次性注册费**25美元**(终身有效),比苹果更划算,审核速
为了防止噪音在均匀区域被过度放大,CLAHE引入了对比度限制阈值,对直方图中超过该阈值的部分进行裁剪,并将其均匀分配到整个直方图区间,最后通过双线性插值来消除块状伪影。Gamma校正是一种非线性的对比度调整方法,它通过对图像中的每个像素值进行幂律变换来校正显示设备的非线性特性,同时也能用于调整图像的感知对比度。它能有效增强局部区域的对比度,同时抑制噪音的放大。然而,其缺点是可能会过度增强图像中的均
SME2 中一共有 32 个向量寄存器(z0-z31),每个向量寄存器的长度都是 512bit. SME2 指令架构相较于 SVE/SVE2 指令架构的最大特点是新增了数组寄存器 za. za 寄存器也可看作一个向量寄存器,特殊的是该向量中的所有元素都是 512bit 的向量寄存器. 所以 za 寄存器也可以看作是一个二维矩阵(数组),宽度是 512bit,za 寄存器的形状是 64x64 byt
通过以上的代码示例,我们可以看到使用C#和ORIN2 SDK进行DENSO机器人的二次开发还是比较简单的。我们可以方便地读取和写入机器人的数据,实现各种自动化操作。如果你也对DENSO机器人的二次开发感兴趣,不妨试试我的这套方法。要是在开发过程中遇到什么问题,或者想要整套源代码和DENSO机器人学习手册,都可以在评论区留言。DENSO机器人二次开发 C#读取和写入数据,使用官方SDK库ORIN2自
本文介绍了在瑞莎星睿O6开发板上基于MNN框架部署语言大模型和多模态模型的实践。文章详细阐述了软硬件环境配置,包括MNN引擎特性、开发板规格以及项目构建过程。重点解决了模型转换中的常见问题,提供了完整的编译配置方案,并展示了LLM模型的导出和基准测试方法。通过OpenCL和CPU两种计算方式的性能对比,验证了端侧AI部署的可行性,为边缘设备上的大模型应用提供了实用参考。
([使用MNN表达式API进行训练 · 语雀]( ))目前,MNN在移动端的训练机制已经在手机淘宝中得到充分验证,可以根据每个用户隐私的训练数据,定制化全局推荐模型,明显提升个性化推荐的效果。**1. 应用场景:**MNN立足于阿里巴巴集团,支持了众多有商业价值的场景(如淘宝直播,AR导购,搜索推荐,菜鸟IOT等),有天然的业务应用的优势。其痛点主要来自于:移动端设备的算力往往不足服务端,如何在内
LLM(大语言模型)因其强大的语言理解能力赢得了众多用户的青睐,但LLM庞大规模的参数导致其部署条件苛刻;在网络受限,计算资源有限的场景下无法使用大语言模型的能力;低算力,本地化部署的问题亟待解决。ChatGLM-6B在60亿参数的情况下做到了优秀的中英文对话效果,且能够支持在消费级显卡本地部署;因此在HuggingFace Trends上很快登顶。6B的参数量虽然能够做到本地部署,但是目前的实现
团队在端智能、端云协同、商品三维重建、真人三维重建、3D引擎、XR引擎等方面有着深厚的技术积累,先后发布深度学习引擎MNN、商品三维重建工具Object Drawer、3D真人数字人TaoAvatar、端云协同系统Walle等。最终,我们通过底层增加缓冲输出,中层合并更新请求,UI层提供视觉缓冲——这三层配合实现了从技术优化到体验优化的完整覆盖,提升整体性能和体验效果。综上,结合三层的优化,通过以
MNN/build/libMNN.so,MNN/build/express/libMNN_Express.so,MNN/build/tools/cv/libMNNOpenCV.so ,MNN-3.3.0/build/source/backend/opencl/libMNN_CL.so添加到libs,在CPU中耗时是1600ms,在opencl耗时是5ms,就是加载模型创建session稍微慢点,反
当别人还在为“跑得快”或“装得下”二选一时,
本文记录了在Ubuntu24.04系统下使用MNN和QNN运行大模型的环境搭建过程。重点包括:1)编译MNN时添加-DMNN_QNN=ON选项;2)获取QNN SDK依赖并配置路径;3)针对模拟器环境调整HTP核心库的配置方法;4)解决libc++.so.1缺失问题;5)处理模拟器运行时的平台信息查询警告。作者使用Modelscope提供的Qwen2.5-Omni-3B-MNN模型,详细说明了在没
在 DeepSeek R1 服务器不稳定令人困扰的背景下,MNN LLM 应运而生。这是一款开源工具,支持本地部署、移动端运行以及多模态处理(如文生图、语音输入等)。通过模型量化与硬件优化,MNN LLM 显著提升了推理速度与稳定性,同时解决了下载困难的问题。无论是 Android、iOS 还是桌面端用户,都可以轻松体验大模型的强大功能,真正实现 “自己动手,丰衣足食”。简介你有没有因为 Deep
本文详细介绍了从零实现医疗联邦学习框架的全过程。通过FedAvg算法、差分隐私和梯度压缩等技术,在3家医院心衰诊断数据集上达到0.894 AUC(接近集中式的0.901),同时将隐私泄露风险降低99.7%。系统包含客户端本地训练、服务器聚合、隐私预算分配等完整模块,并提供了符合HIPAA合规的生产级部署方案。与单医院模型相比,联邦学习在保护数据隐私的前提下显著提升了模型性能,有效解决了医疗AI面临
代码已经发布到github 分支lite端口默认8080,支持局域网内任何设备对话,仅支持文本跟多的实现参考我实现的这个分叉,按官方原版方式自行编译演示视频可在b站找到【手机离线跑大模型,还能对外提供API-哔哩哔哩】 https://b23.tv/vjmsfvC【手机运行大模型并提供API_支持图片-哔哩哔哩】 https://b23.tv/HmJlbgY如有问题出现关注+私信以下内容是今天的主
MNN(Mobile Neural Network)是阿里巴巴集团开源的轻量级深度学习推理框架,为移动端、服务器、个人电脑、嵌入式设备等多种设备提供高效的模型部署能力。MNN支持TensorFlow、Caffe、ONNX等主流模型格式,兼容CNN、RNN、GAN等多种网络结构。MNN具备轻量性、通用性、高性能和易用性特点,能在不依赖特定硬件NPU的情况下运行大型模型,支持模型量化和内存优化技术,能
TNN 是腾讯开发的高效深度学习推理框架,专为移动端和嵌入式设备优化。特点:高性能:通过内存优化和多线程加速,适合多平台部署。多平台支持:支持 ARM、X86、NPU 等多种硬件平台。灵活性:支持多种深度学习框架和模型格式,如 Caffe、TensorFlow。
Python 凭借其丰富的生态库(如 `pandas`, `scikit-learn`, `TensorFlow/PyTorch`)和简洁的语法,成为构建这类系统的关键语言。本文分步骤解析其开发流程,并提供可落地的代码示例。3. 实时计算支持:针对流数据场景,可集成 `Apache Flink` 或 `Apache Beam`,利用 Python API 进行实时特征提取与预测。2. 清洗与预处理
这篇文章主要介绍在linux上基于MNN部署yolov5,使用的是cpp_demo,并增加ROS相关代码,使得这个demo可以订阅topic和发布topic。
本文基于cool-pi CM5 32G内存版本验证,系统为coolpi官方ubuntu20.04.
展望未来,MNN 有望在技术和应用层面持续创新与拓展,不断突破边界。在技术上,MNN 将持续优化模型推理性能,进一步挖掘硬件潜力,特别是在异构计算方面,通过更智能的任务调度和资源分配,实现 CPU、GPU、NPU 等多种计算单元的深度协同,让模型推理速度更快、能耗更低 。随着人工智能技术的快速发展,模型结构和算法不断创新,MNN 也将紧跟潮流,及时支持新的模型和算法,如更加复杂的多模态模型,为开发
mnn
——mnn
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net