logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【DEBUG】ValueError: Model architectures [] failed to be inspected.

当部署大模型时候遇到如下报错ValueError: Model architectures [''] failed to be inspected. Please check the logs for more details.比如:ValueError: Model architectures ['Qwen2ForCausalLM'] failed to be inspected. Please

#transformer
【语音合成】微软 edge-tts

语音合成微软 edge-tts 在Python代码中使用Microsoft Edge的在线文本到语音服务语音合成微软 edge-tts 在Python代码中使用Microsoft Edge的在线文本到语音服务语音合成微软 edge-tts 在Python代码中使用Microsoft Edge的在线文本到语音服务语音合成微软 edge-tts 在Python代码中使用Microsoft Edge的在

#语音识别
机器学习 - 机器学习理论基础

所谓理论理解,就是要考虑模型的可解释性,即输入与输出之间是什么关系,怎样才能获得预期的结果,这种方法的内部机制是什么,并考量方法涉及文献的深度和完整性。理论理解程度高的方法往往具有公式化的实现,具有强大的理论基础和可预测的结果。深度学习领域并不是由它的理论基础打开的,理论基础在2010之后深度学习热潮兴起的20多年前就被发现了,而是由消费级 GPU 实现的并行处理刺激了它的复兴。所谓的经验效用是一

#机器学习#算法#人工智能
【ChatGLM】大模型之 ChatGLM 微调

大模型之 ChatGLM 微调 对模型全量参数进行训练。前缀微调,在模型每一层都增加前缀,只训练这部分的参数,训练量明显小于全量微调。基于矩阵分解的微调,假设原权重喂 W_0,我们新增一个和 W_0 一摸一样形状的矩阵 W_delta,并且对 W_delta 分解为 A 和 B,在训练过程中只训练 A 和 B 的参数,最后的权重 W = W_0 + W_delta。

文章图片
#深度学习#人工智能
机器学习 - 机器学习理论基础

所谓理论理解,就是要考虑模型的可解释性,即输入与输出之间是什么关系,怎样才能获得预期的结果,这种方法的内部机制是什么,并考量方法涉及文献的深度和完整性。理论理解程度高的方法往往具有公式化的实现,具有强大的理论基础和可预测的结果。深度学习领域并不是由它的理论基础打开的,理论基础在2010之后深度学习热潮兴起的20多年前就被发现了,而是由消费级 GPU 实现的并行处理刺激了它的复兴。所谓的经验效用是一

#机器学习#算法#人工智能
Python - Pyside报错 qt.qpa.plugin: Could not load the Qt platform plugin “windows“ in ““

qt.qpa.plugin: Could not load the Qt platform plugin "windows" in "" even though it was found.This application failed to start because no Qt platform plugin could be initialized. Reinstalling the appl

#qt#开发语言
【ChatGLM】大模型之 ChatGLM 微调

大模型之 ChatGLM 微调 对模型全量参数进行训练。前缀微调,在模型每一层都增加前缀,只训练这部分的参数,训练量明显小于全量微调。基于矩阵分解的微调,假设原权重喂 W_0,我们新增一个和 W_0 一摸一样形状的矩阵 W_delta,并且对 W_delta 分解为 A 和 B,在训练过程中只训练 A 和 B 的参数,最后的权重 W = W_0 + W_delta。

文章图片
#深度学习#人工智能
【Python】Sphinx 文档生成器

Sphinx是一个Python文档生成器,它基于reStructuredText标记语言,可自动根据项目生成HTML,PDF等格式的文档。Sphinx可以令人轻松的撰写出清晰且优美的文档,除了天然支持Python项目以外,Sphinx对C/C++项目也有很好的支持,并在不断增加对其它开发语言的支持。

文章图片
#sphinx#全文检索#搜索引擎
    共 35 条
  • 1
  • 2
  • 3
  • 4
  • 请选择