您的位置: 首页 > 文章 > 新闻分类大赛task6 新闻分类大赛task6 分类: 文章 • 2024-08-14 22:50:40 基于bert的文本表示方法 由于数据采用匿名形式,使用bert需要自行训练模型。 Transformer原理 Transformer是在"Attention is All You Need"中提出的,模型的编码部分是一组编码器的堆叠(论文中依次堆叠六个编码器),模型的解码部分是由相同数量的解码器的堆叠。