logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【讯飞星火认知大模型】大模型之星火手机助理

讯飞星火认知大模型是科大讯飞自研的基于深度学习的自然语言处理模型,它可以理解和生成中文,执行多种任务,如问答、翻译、写作、编程等。它的目标是实现“智能涌现”,覆盖多维度多任务多行业的客观评测,对标ChatGPT和GPT-4。它还支持语音输入和输出,可以与用户进行自然对话。官网。

文章图片
#人工智能
机器学习 - 机器学习名字的由来

1956年,阿瑟·萨缪尔(Arthur Samuel)应约翰·麦卡锡(John McCarthy)邀请,在达特茅斯会议介绍自己研发的一个西洋跳棋程序,这个程序具有“学习能力”,它可以通过对大量棋局的分析逐渐辨识出当前局面下的"好棋"和"坏棋',从而不断提高下棋水平。从当时研究者的意图来看,机器学习是为了描述计算机的设计过程而创建的,该过程利用统计方法来改善性能。在那个年代,致力于“智能”的科学家们

#机器学习#人工智能
VS Code - 自动生成代码注释

VS Code - 自动生成代码注释VS Code - 自动生成代码注释代码注释在软件的迭代过程中举足轻重,所以一个规范化的代码注释也非常重要,在用 VS Code 中则可以使用插件来规范化代码注释。在 VS Code 插件选项中搜索 autoDocstring 然后 Install 安装即可使用。在 Python 代码函数下输入英文下的三个冒号,然后回车。

#vscode#ide#编辑器
【ChatGLM】大模型之 ChatGLM 微调

大模型之 ChatGLM 微调 对模型全量参数进行训练。前缀微调,在模型每一层都增加前缀,只训练这部分的参数,训练量明显小于全量微调。基于矩阵分解的微调,假设原权重喂 W_0,我们新增一个和 W_0 一摸一样形状的矩阵 W_delta,并且对 W_delta 分解为 A 和 B,在训练过程中只训练 A 和 B 的参数,最后的权重 W = W_0 + W_delta。

文章图片
#深度学习#人工智能
【Python】Sphinx 文档生成器

Sphinx是一个Python文档生成器,它基于reStructuredText标记语言,可自动根据项目生成HTML,PDF等格式的文档。Sphinx可以令人轻松的撰写出清晰且优美的文档,除了天然支持Python项目以外,Sphinx对C/C++项目也有很好的支持,并在不断增加对其它开发语言的支持。

文章图片
#sphinx#全文检索#搜索引擎
【大模型】LLaMA

LLaMA 模型权重下载LLaMA 模型权重下载LLaMA 模型权重下载LLaMA 模型权重下载LLaMA 模型权重下载LLaMA 是 2023 年 Meta 发布的基础大语言模型,该模型有四个版本,分别是7B、13B、33B、65B参数的模型。

【ChatGLM】大模型之 ChatGLM 微调

大模型之 ChatGLM 微调 对模型全量参数进行训练。前缀微调,在模型每一层都增加前缀,只训练这部分的参数,训练量明显小于全量微调。基于矩阵分解的微调,假设原权重喂 W_0,我们新增一个和 W_0 一摸一样形状的矩阵 W_delta,并且对 W_delta 分解为 A 和 B,在训练过程中只训练 A 和 B 的参数,最后的权重 W = W_0 + W_delta。

文章图片
#深度学习#人工智能
机器学习 - 机器学习理论基础

所谓理论理解,就是要考虑模型的可解释性,即输入与输出之间是什么关系,怎样才能获得预期的结果,这种方法的内部机制是什么,并考量方法涉及文献的深度和完整性。理论理解程度高的方法往往具有公式化的实现,具有强大的理论基础和可预测的结果。深度学习领域并不是由它的理论基础打开的,理论基础在2010之后深度学习热潮兴起的20多年前就被发现了,而是由消费级 GPU 实现的并行处理刺激了它的复兴。所谓的经验效用是一

#机器学习#算法#人工智能
    共 39 条
  • 1
  • 2
  • 3
  • 4
  • 请选择