logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【scikit-learn】sklearn.svm.OneClassSVM 类:一类支持向量机,用于异常检测

OneClassSVM 是 sklearn.svm 提供的异常检测(Outlier Detection) 方法,适用于无监督学习,用于检测异常点、孤立点或异常行为,例如欺诈检测、入侵检测、工业设备故障检测。OneClassSVM 适用于异常检测任务,利用支持向量机超平面分割异常点,适用于高维数据,但比 IsolationForest 计算成本更高。

文章图片
#支持向量机#sklearn#scikit-learn +1
什么是基于人类反馈的强化学习(RLHF)

RLHF(Reinforcement Learning with Human Feedback) 是大语言模型(如 GPT-4、Claude、ChatGPT)训练中的一项核心技术,用于让模型的输出更符合人类偏好、更有帮助、更安全。全称是基于人类反馈的强化学习,是一种用人类评价来优化生成式模型行为的方法。RLHF 是通过人类反馈信息,训练一个奖励模型,再用强化学习方法引导大模型的输出朝“人类更喜欢”

【scikit-learn】sklearn.ensemble.IsolationForest 类:孤立森林(异常检测)

IsolationForest是sklearn.ensemble提供的异常检测(Outlier Detection)方法,它通过构建多棵随机树,将异常点隔离,适用于异常检测、欺诈检测、入侵检测等任务。IsolationForest适用于异常检测任务,利用决策树隔离异常点,适用于高维数据和大规模数据,比基于距离的方法计算效率更高。

文章图片
#sklearn#scikit-learn#机器学习 +1
【PyTorch】torch.distributed 模块:支持分布式训练和计算

torch.distributed 是 PyTorch 提供的一个模块,用于支持分布式训练和计算。它允许在多个进程、多个 GPU 甚至多个节点(机器)之间协同工作,适用于数据并行、模型并行等场景。torch.distributed 提供了进程间通信的工具(如集合通信操作)和分布式训练的关键组件,配合工具如 torchrun 可以轻松启动分布式任务。

#pytorch#分布式#人工智能
什么是前缀微调(Prefix Tuning)

前缀微调(Prefix Tuning)是一种参数高效微调(Parameter-Efficient Fine-Tuning, PEFT) 方法,用于适配预训练模型(尤其是 Transformer 模型)到特定任务,而无需修改模型的全部参数。它的核心思想是在 Transformer 的注意力机制中引入一组可训练的“前缀”向量(prefix vectors),这些向量作为任务特定的上下文引导模型的输出,

#python
【Hugging Face】Trainer训练示例:使用bert-base-chinese作为预训练模型,ChnSentiCorp中文网购评价数据集进行情感分类

一个完整的 Trainer 训练示例,使用 google-bert/bert-base-chinese 作为预训练模型,并使用 lansinuote/ChnSentiCorp 中文网购评价数据集进行情感分类训练。代码步骤:1.加载数据集;2.加载分词器并预处理数据;3.构建 PyTorch Dataset;4.定义 Trainer 训练参数;5.启动训练;6.模型评估。

#python
什么是 Fashion-MNIST数据集

Fashion-MNIST 是一个替代经典 MNIST 的数据集,旨在更加贴近实际应用场景。它由 Zalando 提供,包含了 10 类服装物品的灰度图像,与 MNIST 数据集的结构相似。Fashion-MNIST 常用于图像分类和深度学习模型的测试和基准评估。

#python#pytorch#深度学习
【scikit-learn】sklearn.datasets.fetch_openml() 函数:获取 OpenML 数据集

fetch_openml()是sklearn.datasets提供的开放数据集接口,可从OpenML平台下载真实世界数据集,适用于机器学习研究和模型测试。可以下载分类、回归、文本等各种类型的数据集,并转换为Pandas进行分析。

文章图片
#sklearn#scikit-learn#机器学习 +1
vLLM(Virtual Large Language Model) 框架:一个开源的高性能推理和服务的框架

vLLM(Virtual Large Language Model)是一个开源的高性能推理和服务的框架,专为大语言模型(LLM)设计,旨在优化推理速度、内存效率和吞吐量。它通过创新的内存管理和调度技术(如PagedAttention)解决了传统LLM推理中的内存瓶颈和性能问题,广泛应用于对话系统、文本生成、实时翻译等场景。vLLM 由加州大学伯克利分校 Sky Computing Lab 开发,现

#python
【DeepSpeed】使用 DeepSpeed 进行 LoRA 微调 示例

结合 DeepSpeed 和 LoRA,可以在分布式环境中高效地微调大型语言模型(如 LLaMA、BERT),尤其适用于资源受限的场景。本示例将展示如何使用 DeepSpeed 进行 LoRA 微调,基于 Hugging Face 的 Transformers 库和 PEFT(Parameter-Efficient Fine-Tuning)库,结合 DeepSpeed 的 ZeRO 优化(Stag

#LoRA#pytorch#python
    共 1009 条
  • 1
  • 2
  • 3
  • 101
  • 请选择