
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
应用使能套件openMind在华为全联接大会2024的展示吸引了我们的注意。通过专家们的分享,得以了解魔乐社区,也了解到openMind在其中发挥的技术能力和未来发展。通过本次微调的实践,更能体会到openMind套件的魅力。它让微调过程变得更加高效和直观,希望每一位开发者都来尝试它,一起交流经验,更好地提升它的能力。

2025年3月,硅基智能正式开源发布全球Top级数字人模型HeyGem.ai,迅速成为开发者社区热议焦点。用户仅需一张照片或一秒视频,即可生成高度逼真的数字分身,完整复刻面容与声音,并在60秒内输出4K高清视频口播。更令人兴奋的是,HeyGem.ai采取了免费、无限制、完全离线运行的开源策略,用户最低仅需一块NVIDIA 1080Ti显卡,即可在本地实现完整的数字人克隆和视频合成,无需额外的算力投

本文详细介绍了在魔乐社区部署多模态大模型推理服务的完整流程。首先配置基于OpenEuler的NPU开发环境,安装LLaMA-Factory等依赖包并进行环境验证。接着演示了如何下载Qwen2.5-VL-3B-Instruct等模型权重,并提供了三种推理部署方式:交互式终端、OpenAI兼容API服务以及离线推理脚本。重点说明了多模态模型处理图像输入的注意事项,包括正确的占位符使用方式。最后指导用户

本文详细介绍了在魔乐社区部署多模态大模型推理服务的完整流程。首先配置基于OpenEuler的NPU开发环境,安装LLaMA-Factory等依赖包并进行环境验证。接着演示了如何下载Qwen2.5-VL-3B-Instruct等模型权重,并提供了三种推理部署方式:交互式终端、OpenAI兼容API服务以及离线推理脚本。重点说明了多模态模型处理图像输入的注意事项,包括正确的占位符使用方式。最后指导用户

本文详细介绍了在魔乐社区部署多模态大模型推理服务的完整流程。首先配置基于OpenEuler的NPU开发环境,安装LLaMA-Factory等依赖包并进行环境验证。接着演示了如何下载Qwen2.5-VL-3B-Instruct等模型权重,并提供了三种推理部署方式:交互式终端、OpenAI兼容API服务以及离线推理脚本。重点说明了多模态模型处理图像输入的注意事项,包括正确的占位符使用方式。最后指导用户

魔乐社区始终致力于推动国产算力与开源模型的深度融合。本次活动由魔乐社区发起,聚焦大模型在基于昇腾的适配挑战,旨在为开发者搭建一个纯粹、开放的技术交流平台,共同突破推理适配的瓶颈与壁垒。 如果你是从事大模型部署、适配与推理优化的开发者,✨ 一场专为开发者打造的深度技术盛宴——「模型国产化推理适配实践Modelers GeekDay」即将开启!这场技术面基不容错过! 时间:9月20日(周六)9

本文将详细介绍,如何基于昇思MindSpore和Atlas 800T A2,完整实现HunyuanVideo-I2V从图像到视频生成的部署流程。

2024年12月26日,DeepSeek-V3横空出世,以其卓越性能备受瞩目。该模型发布即支持昇腾,用户可在昇腾硬件和MindIE推理引擎上实现高效推理,但在实际操作中,部署流程与常见问题困扰着不少开发者。本文将为你详细阐述昇腾 DeepSeek 模型部署的优秀实践。

智谱开源的GLM-4系列模型正式上线魔乐社区和昇思MindSpore开源社区,包括32B/9B两种参数规模的基座、推理和沉思模型。其中,32B推理模型GLM-Z1性能媲美DeepSeek-R1等大模型,实测推理速度达200Tokens/秒。该系列模型在数学推理、代码生成等任务上表现优异,部分指标接近GPT-4o等更大模型。社区提供了基于昇腾处理器的部署教程,包含Docker镜像下载、模型权重获取和










