
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
self-attention于bert
下面几行代码将分词器处理后的 3 个核心张量(input_ids/attention_mask/token_type_ids)从默认的 CPU 设备,迁移到模型运行的目标设备(GPU/CPU),并返回这 3 个对齐设备的张量,供 BERT 模型直接使用。相比BertModel不需要手动分类头。# 文本预处理核心方法—— 作用是把原始文本(比如 “这家酒店太差了”)转换成 BERT 模型能识别的张量
到底了







