尝试了bert的-2层每个sentence被转化为128768 = 98304维的向量;-1层,每个sentence 被转化为7 768维向量在这里插入图片描述
尝试了后接轻量网络的维度设置 ,50维和10维

bert
TensorFlow code and pre-trained models for BERT
GitHub 加速计划 / be / bert
11
2
下载
TensorFlow code and pre-trained models for BERT
最近提交(Master分支:7 个月前 )
eedf5716 Add links to 24 smaller BERT models. 5 年前
8028c045 - 5 年前
Logo

旨在为数千万中国开发者提供一个无缝且高效的云端环境,以支持学习、使用和贡献开源项目。

更多推荐