
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
写给AI入行比较晚的小白们比如我自己看的,大神可以直接路过无视了。

是在 LoRA (Low-Rank Adaptation) 基础上发展起来的一种更高效的参数微调技术,尤其适用于资源极度受限的场景。它在保持 LoRA 优点的同时,进一步通过量化 (Quantization)技术压缩预训练模型,显著降低了内存占用,使得即使在消费级硬件上也能微调大型模型。

"LoRA for Vision Transformer (ViT)" 指的是将 LoRA (Low-Rank Adaptation) 技术应用于 Vision Transformer (ViT) 模型,以实现参数高效的微调。ViT 模型在图像识别领域取得了显著的成果,但其庞大的参数量使得全参数微调成本高昂。LoRA 提供了一种解决方案,通过只训练少量参数,即可使 ViT 模型适应新的图像任务,同

是一种将大语言模型 (LLM) 的推理能力(Reasoning)和行动能力(Acting)结合起来的框架,旨在让 LLM 能够像人类一样,在解决问题的过程中既能进行推理(思考、分析),又能采取行动(与外部环境交互、获取信息),从而更有效地解决复杂的任务。ReAct 是一种将大语言模型 (LLM) 的推理能力和行动能力结合起来的框架,旨在让 LLM 能够像人类一样,在解决问题的过程中既能进行推理,又

卷首语:我所知的是我自己非常无知,所以我要不断学习。写给AI入行比较晚的小白们(比如我自己)看的,大神可以直接路过无视了。

生成知识作为提示的一部分,是一种改进大语言模型推理能力的有效方法。它通过让模型生成相关背景知识,弥补了模型知识库的不足,从而提高了推理的准确性和解释能力。这种方法由Liu等人(2022)提出,旨在通过让模型先生成相关知识,再将这些知识整合到推理过程中,从而提高模型在常识推理和复杂任务中的表现。卷首语:我所知的是我自己非常无知,所以我要不断学习。

Dify 是一个专注于帮助用户快速构建、部署和管理基于大语言模型(LLM)的 AI 应用的工具。它的核心目标是降低开发门槛,让开发者和非技术用户都能轻松利用大语言模型(如 OpenAI 的 GPT 系列)来创建定制化的 AI 应用。总体而言,Dify 是一个非常适合快速开发和部署 AI 应用的工具,尤其适合那些希望快速验证想法或构建原型的用户。Dify 是一个强大的 AI 工具,旨在降低大语言模型

大运维平台常常需要展示系统健康度,究竟健康度要从哪些方面提取数据?本文浅析。
数据的离散程度,用来描述一组数据的分散程度。数据离散程度度量的标准和方式有很多,而具体选择哪一种方式则需要依据实际的数据要求进行抉择。常见的有几种:平均数、中位数、众数、四分位差、方差、标准差、离散系数。以下简单解释:众数、极差、四分位差、标准差、方差、离散系数。众数:通俗地理解是一组数中出现次数最多的那个数。极差:极差为数据样本中的最大值与最小值的差值R=max(i)-min(i),是所有衡量数
链式提示(PromptChaining)是一种提示工程技术,通过将复杂任务分解为多个简单的子任务,并将这些子任务的输出作为后续任务的输入,从而逐步完成复杂的目标。然而,链式提示也面临任务分解、提示设计和累积误差等挑战。未来,链式提示可以与其他技术(如生成知识、自我一致性)结合,进一步提升大语言模型在复杂任务中的表现。链式提示是一种强大的提示工程技术,通过将复杂任务分解为多个简单的子任务,逐步完成整
