来自Transformers的双向编码器表示(BERT)


Vincent
发布于 2024-04-07 / 7 阅读 / 0 评论 /
来自Transformers的双向编码器表示(BERT) 我们已经介绍了几种用于自然语言理解的词嵌入模型。在预训练之后,输出可以被认为是一个矩阵,其中每一行都是一个表示预定义词表中词的向量。事实上,这些词嵌入模型都是与上下文无关的。让我们先来说明这个性质。 从上下文无关到上下文敏感