
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本课程介绍如何基于HuggingFace Transformers进行GPT-2中文模型的全量微调训练。使用60万条对联数据集,通过自定义Dataset类加载数据,利用AutoTokenizer进行文本编码。采用AutoModelForCausalLM加载预训练模型,在3轮训练中优化模型参数,实现对联生成功能。训练过程中监控损失和准确率,每1000批次保存模型权重。测试结果显示模型已初步具备对联生

基于Python深度学习的车辆车牌识别系统(PyTorch2卷积神经网络CNN+OpenCV4实现)视频教程 - 裁剪和矫正车牌

基于Python深度学习的车辆车牌识别系统(PyTorch2卷积神经网络CNN+OpenCV4实现)视频教程 - 基于Django+Vue通用权限系统搭建车辆识别web系统

Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 残差连接(Residual Connection)详解以及算法实现

Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 编码器(Encoder)详解以及算法实现

基于Python深度学习的车辆车牌识别系统(PyTorch2卷积神经网络CNN+OpenCV4实现)视频教程 - 集成到web系统-车牌识别实现

本文介绍了基于BERT模型进行文本分类任务的微调方法。主要内容包括:1)模型微调的概念,即在预训练模型基础上使用特定领域数据进行针对性训练;2)具体实现步骤:准备自定义数据集(8k训练+2k测试数据)、文本编码处理、定义下游任务(在BERT后添加全连接层)、模型训练和评估;3)关键技术点:冻结BERT参数、获取[CLS]标记特征、批量数据处理等。实验结果显示,经过3轮训练后模型在测试集上达到97.

Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 自注意力机制(Self-Attention)原理介绍

Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 位置编码(Positional Encoding)详解与算法实现

Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 输入嵌入层(Input Embeddings)详解以及算法实现








