logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

LoRA微调OpenAI Whisper:PEFT实现中文语音识别的实战优化

在中文语音识别领域,OpenAI Whisper凭借其多语言联合建模能力成为主流选择,但直接应用时中文识别准确率仍有提升空间。本文基于昇腾NPU实测经验,系统讲解如何通过LoRA(Low-Rank Adaptation)技术微调Whisper模型,结合PEFT(Parameter-Efficient Fine-Tuning)框架实现中文语音识别错误率显著降低的实战方案。

#语音识别#xcode
‌Llama 2大模型在昇腾NPU上的部署:从零到一的完整教程

注:本教程基于Llama-2-7B模型验证,更大模型需调整并行策略。部署完成后,可通过REST API封装服务,参考FastAPI框架实现。本文提供基于昇腾(Ascend)NPU平台的Llama 2大模型部署全流程指南,涵盖环境配置、模型转换、推理优化等关键步骤。$$ \text{量化误差} = \frac{|W - Q(W)|_2}{|W|_2} \leq \epsilon $$目标值:FP32

云原生存储 Rook+Ceph:K8s 集群持久化存储

Ceph:一个开源的分布式存储系统,提供对象存储、块存储和文件系统服务。它基于 RADOS(可靠自动分布式对象存储),通过数据分片和复制实现高可用性和容错性。例如,存储池容量 $C$ 可通过公式 $C = \sum_{i=1}^{n} v_i$ 计算,其中 $v_i$ 表示每个节点的存储量。Rook:一个 Kubernetes 操作器(Operator),用于自动化部署和管理存储系统(如 Ceph

#云原生#ceph#kubernetes
Stable Diffusion ControlNet 微调:自定义姿势引导的图像生成

准备数据集:收集图像-姿势对数据集。输入图像(如人物照片)。对应的姿势图(使用OpenPose等工具生成骨架图)。文本描述(可选,用于文本条件)。数据集应覆盖目标姿势的多样性(如不同角度、动作)。建议使用500-5000张图像以确保泛化能力。选择预训练模型:从Hugging Face模型库加载基础Stable Diffusion模型和ControlNet模型。。(专为姿势引导设计)。设置微调参数优

#人工智能#计算机视觉
4倍速+98%准确率!faster-whisper的跨平台部署与多语言支持

其核心优势在于优化的 CTranslate2 推理引擎,结合动态量化和硬件加速技术。Faster-Whisper 是 OpenAI Whisper 的高效重构版本,在保持。模型平衡速度与精度,FP16 量化在 NVIDIA GPU 上可额外提速 20%。

‌Llama 2大模型在昇腾NPU上的部署:从零到一的完整教程

注:本教程基于Llama-2-7B模型验证,更大模型需调整并行策略。部署完成后,可通过REST API封装服务,参考FastAPI框架实现。本文提供基于昇腾(Ascend)NPU平台的Llama 2大模型部署全流程指南,涵盖环境配置、模型转换、推理优化等关键步骤。$$ \text{量化误差} = \frac{|W - Q(W)|_2}{|W|_2} \leq \epsilon $$目标值:FP32

大模型评估:MMLU(知识)+GSM8K(数学)基准测试

MMLU 和 GSM8K 是大模型评估的核心基准,MMLU 测试知识深度,GSM8K 测试数学严谨性。在实际评估中,建议运行这两个测试以获得全面洞察:MMLU 揭示模型是否“知道什么”,GSM8K 揭示模型是否“能算对”。最终,这有助于推动 AI 模型向更智能、更可靠的方向发展。如果您有具体模型或数据想分析,我可以进一步提供细节!

#easyui#前端#javascript
‌Llama 2大模型在昇腾NPU上的部署:从零到一的完整教程

注:本教程基于Llama-2-7B模型验证,更大模型需调整并行策略。部署完成后,可通过REST API封装服务,参考FastAPI框架实现。本文提供基于昇腾(Ascend)NPU平台的Llama 2大模型部署全流程指南,涵盖环境配置、模型转换、推理优化等关键步骤。$$ \text{量化误差} = \frac{|W - Q(W)|_2}{|W|_2} \leq \epsilon $$目标值:FP32

‌Kotlin Multiplatform 移动端:共享核心逻辑实践

Kotlin Multiplatform(KMP)允许在 Android 和 iOS 应用中共享业务逻辑、数据模型等核心代码,显著提升开发效率。通过以上实践,KMP 能高效实现跨平台核心逻辑共享,显著提升移动端开发效率。:定义数据模型和业务逻辑(如用户认证)。

#kotlin#开发语言#android
4倍速+98%准确率!faster-whisper的跨平台部署与多语言支持

其核心优势在于优化的 CTranslate2 推理引擎,结合动态量化和硬件加速技术。Faster-Whisper 是 OpenAI Whisper 的高效重构版本,在保持。模型平衡速度与精度,FP16 量化在 NVIDIA GPU 上可额外提速 20%。

    共 13 条
  • 1
  • 2
  • 请选择