logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

‌PEFT实战:LoRA微调Whisper模型优化中文语音识别流程

通过LoRA微调Whisper模型,您能以极低资源开销优化中文语音识别流程。关键步骤包括:准备中文数据集、应用LoRA适配器、高效训练和WER评估。此方法不仅适用于中文,还可扩展到其他语言。实验时,建议从较小秩(如$r=8$)开始,逐步调整。PEFT库简化了实现,使高级微调更易上手。

#语音识别#xcode
‌基于DeepSeek的免费AI量化机器人:深度学习模型在量化中的应用

公式上,一个多模态输入模型可写为: $$ \hat{y} = \text{softmax}(W \cdot [\text{Embedding}(text) + \text{CNN}(numerical)] + b) $$ 其中$W$和$b$是权重参数,$\text{softmax}$函数用于概率输出。数学上,一个简单的预测模型可以表示为: $$ y = f(x) + \epsilon $$ 其中$

‌Flutter 状态管理:Riverpod 2.0 与 Provider 对比

Provider 是轻量入门的优选,而 Riverpod 2.0 在。

#flutter
‌Llama 2大模型在昇腾NPU上的运行:实战指南与性能优化

Llama 2是Meta发布的开源大型语言模型,广泛应用于自然语言处理任务。昇腾NPU(Neural Processing Unit)是华为的AI加速芯片,专为高效推理设计。在昇腾NPU上运行Llama 2可以显著提升推理速度,例如减少延迟$T_{\text{latency}}$,并优化资源利用率。本指南将帮助您从零开始部署和优化模型。通过本指南,您可以在昇腾NPU上高效运行Llama 2模型,实

#性能优化
‌基于DeepSeek的免费AI量化机器人:深度学习模型在量化中的应用

公式上,一个多模态输入模型可写为: $$ \hat{y} = \text{softmax}(W \cdot [\text{Embedding}(text) + \text{CNN}(numerical)] + b) $$ 其中$W$和$b$是权重参数,$\text{softmax}$函数用于概率输出。数学上,一个简单的预测模型可以表示为: $$ y = f(x) + \epsilon $$ 其中$

‌Llama 2大模型在昇腾NPU上的运行:实战指南与性能优化

Llama 2是Meta发布的开源大型语言模型,广泛应用于自然语言处理任务。昇腾NPU(Neural Processing Unit)是华为的AI加速芯片,专为高效推理设计。在昇腾NPU上运行Llama 2可以显著提升推理速度,例如减少延迟$T_{\text{latency}}$,并优化资源利用率。本指南将帮助您从零开始部署和优化模型。通过本指南,您可以在昇腾NPU上高效运行Llama 2模型,实

#性能优化
‌Llama 2大模型在昇腾NPU上的运行:实战指南与性能优化

Llama 2是Meta发布的开源大型语言模型,广泛应用于自然语言处理任务。昇腾NPU(Neural Processing Unit)是华为的AI加速芯片,专为高效推理设计。在昇腾NPU上运行Llama 2可以显著提升推理速度,例如减少延迟$T_{\text{latency}}$,并优化资源利用率。本指南将帮助您从零开始部署和优化模型。通过本指南,您可以在昇腾NPU上高效运行Llama 2模型,实

#性能优化
基于GPU集群的医疗元宇宙应用实践

常用AI模型如卷积神经网络(CNN),其损失函数为: $$ L = -\frac{1}{N} \sum_{i=1}^{N} \left[ y_i \log(\hat{y}_i) + (1 - y_i) \log(1 - \hat{y}_i) \right] $$ 其中$y_i$是真实标签,$\hat{y}_i$是预测值,$N$是样本数。例如,切割组织时,力学模型可表示为: $$ F = k \cd

‌基于DeepSeek的免费AI量化机器人:深度学习模型在量化中的应用

公式上,一个多模态输入模型可写为: $$ \hat{y} = \text{softmax}(W \cdot [\text{Embedding}(text) + \text{CNN}(numerical)] + b) $$ 其中$W$和$b$是权重参数,$\text{softmax}$函数用于概率输出。数学上,一个简单的预测模型可以表示为: $$ y = f(x) + \epsilon $$ 其中$

到底了