logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

self-attention于bert

下面几行代码将分词器处理后的 3 个核心张量(input_ids/attention_mask/token_type_ids)从默认的 CPU 设备,迁移到模型运行的目标设备(GPU/CPU),并返回这 3 个对齐设备的张量,供 BERT 模型直接使用。相比BertModel不需要手动分类头。# 文本预处理核心方法—— 作用是把原始文本(比如 “这家酒店太差了”)转换成 BERT 模型能识别的张量

#bert#人工智能#深度学习
半监督图像分类

transforms.ToTensor()# 转换为PyTorch张量,格式从(H,W,C)转为(C,H,W),并归一化到[0,1],把像素值归一化到 0-1,核心是为了让神经网络训练更稳定、收敛更快、效果更好。x = x.view(x.size()[0], -1)# 展平:(batch_size, 512*7*7) → (batch_size, 25088)semi_loss += semi_b

#分类#数据挖掘#人工智能
到底了