logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Paraformer实时语音识别中的碎碎念

语音识别服务中的尾部音频丢失问题 在使用Paraformer实时语音识别服务时,发现短音频(2-3秒)尾部内容(如"上号"中的"号"字)无法正确识别。通过分析发现: 客户端补静音空包可正确识别 服务端补固定包大小时仍会漏识 在服务端额外补0.12s空包后识别正常 问题原因可能与音频数据包处理方式有关,特别是在短音频尾部处理时,模型需要足够上下文才能准确识别。

#语音识别#xcode#人工智能
使用启智社区免费昇腾910B部署LLM

前段时间想玩玩昇腾,发现华为云上租地GPU服务器,没有最新地cann8.0的镜像,自己折腾了许久,根本无法替换自己的镜像上去,此处省略一万字关于华为云的吐槽。启智社区提供了不少国产厂家的免费算力,接下来,话不多说,开整。

文章图片
LLaMA及其子孙模型概述

Alpaca是Stanford用52k指令数据微调LLaMA 7B后得到的预训练模型,作者声称在单轮指令执行的效果上,Alpaca的回复质量和openai的text-davinci-003相当,但是Alpaca的参数非常少(微调一个7B的llama需要在8张A100 80G上训练3个小时,花费至少100美元)。为了更好的评估效果,我们使用了一个包含一千个样本和九个真实场景的评估集来测试各种模型,同

文章图片
#人工智能#深度学习
命名实体识别(NER)标注神器——Label Studio 简单使用

文章目录前言一、安装与启动二、基本使用前言近期在做NER的工作,由于缺乏标注数据,所以,你懂的😭😭Label Studio不仅可以用来标注文本NER任务,还可以用来标注文本分类、图像分类等等其他AI任务。官网——https://labelstud.io/其他标注任务自己去探索吧,我这里只讲一下NER任务。一、安装与启动安装pip install -U label-studio启动# 打开命令行

#python#nlp#自然语言处理
基于Ultravox训练自己的语音大模型

Ultravox 是一种新型的多模态语言模型,能够理解文本以及语音,无需单独的音频语音识别(ASR)阶段。基于像AudioLM、SeamlessM4T、Gazelle、SpeechGPT等研究,Ultravox 能够使用多模态投影扩展任何开放权重的语言模型,该投影将音频直接转换为语言模型使用的高维空间。我们已经在 Llama 3、Mistral 和 Gemma 上训练了版本。这种直接耦合使得 Ul

文章图片
基于聊天记录的问答——数据分块篇

本文介绍了基于聊天记录的问答项目中数据分块的关键方法。针对聊天记录的特点,作者提出了四步分块策略:1) 基于120分钟时间间隔的初步划分;2) 通过0.8相似度阈值合并相关窗口;3) 将超过8k token的长窗口分割;4) 合并短窗口以提高处理效率。该方法有效保持了话题完整性,解决了消息碎片化和LLM上下文限制问题。文中还提供了Python实现代码示例,包括时间分块、相似度合并等核心逻辑。这种分

#人工智能
LLaMA及其子孙模型概述

Alpaca是Stanford用52k指令数据微调LLaMA 7B后得到的预训练模型,作者声称在单轮指令执行的效果上,Alpaca的回复质量和openai的text-davinci-003相当,但是Alpaca的参数非常少(微调一个7B的llama需要在8张A100 80G上训练3个小时,花费至少100美元)。为了更好的评估效果,我们使用了一个包含一千个样本和九个真实场景的评估集来测试各种模型,同

文章图片
#人工智能#深度学习
TextCNN文本分类Pytorch

文章目录前言一、环境:二、数据:三、模型结构四、主要代码1.word2id与id2word2.word2vec3.加载word2vec总结前言之前写了一篇Fasttext文本分类的文章,三个类别的准确率达到90+%,这篇文章主要是想测试一下TextCNN在文本分类任务上的效果,与fasttext对比,孰优孰劣。代码已上传至GitHub:TextCNN文本分类一、环境:torch==1.9.0gen

#pytorch#深度学习#python
python异步执行

最近刚好用到python的异步执行,从网上找的其他例子发现有些错误,不能直接ctrl+c 、 ctrl + v于是自己修改了一下,代码如下:from threading import Threadfrom time import sleepdef async_call(fn):def wrapper(*args, **kwargs):Thread(target=fn, args=args, kwa

#python
Ktransformers实践-仅用14G显存就能跑Deepseek-R1 671B

KTransformers 的原理主要基于以下核心技术:1. **异构计算与任务卸载**:通过混合专家(MoE)架构的稀疏性,将稀疏矩阵卸载到 CPU/DRAM 处理,稠密部分保留在 GPU 上,从而大幅降低显存需求。2. **高性能算子优化**:- 在 CPU 端,使用 Llamafile 内核结合多线程、任务调度和负载均衡优化,提升推理效率。- 在 GPU 端,引入 Marlin 内核,专门优

文章图片
#人工智能#深度学习
    共 52 条
  • 1
  • 2
  • 3
  • 6
  • 请选择