【深度学习】预训练语言模型-BERT
时间:2024-04-08 10:25:31 来源:网络cs 作者:淼淼 栏目:广告工具 阅读:
1.BERT简介
BERT是一种预训练语言模型(pre-trained language model, PLM),其全称是Bidirectional Encoder Representations from Transformers。下面从语言模型和预训练开始展开对预训练语言模型BERT的介绍。
1-1 语言模型
语言模型 :对于任意的词序列,它能够计算出这个序列是一句话的概率。比如词序列A:“知乎|的|文章|真|水|啊”,这个明显是一句话,一个好的语言模型也会给出很高的概率,再看词序列B:“知乎|的|睡觉|苹果|好快”,这明显不是一句话,如果语言模型训练的好,那么序列B的概率就很小很小。
下面给出较为正式的定义。假设我们要为中文创建一个语言模型,V 表示词典, V = { 猫,狗,机器,学习,语言,模型,…}, 。语言模型就是这样一个模型:给定词典%20V,能够计算出任意单词序列(比如:单词序列[、、...]、[、、])是一句话的概率。probability =
%20从文本生成角度来看,我们也可以给出如下的语言模型定义:给定一个短语(一个词组或一句话),语言模型可以生成(预测)接下来的一个词。
%201-2 预训练模型
%20从字面上看,预训练模型(pre-training%20model)是先通过一批语料进行模型训练,然后在这个初步训练好的模型基础上,再继续训练或者另作他用。预训练模型的训练和使用分别对应两个阶段:预训练阶段(pre-training)和 微调(fune-tuning)阶段。
%20预训练阶段一般会在超大规模的语料上,采用无监督(unsupervised)或者弱监督(weak-supervised)的方式训练模型,期望模型能够获得语言相关的知识,比如句法,语法知识等等。经过超大规模语料的”洗礼”,预训练模型往往会是一个Super模型,一方面体现在它具备足够多的语言知识,一方面是因为它的参数规模很大。
%20微调阶段是利用预训练好的模型,去定制化地训练某些任务,使得预训练模型”更懂”这个任务。例如,利用预训练好的模型继续训练文本分类任务,将会获得比较好的一个分类结果,直观地想,预训练模型已经懂得了语言的知识,在这些知识基础上去学习文本分类任务将会事半功倍。利用预训练模型去微调的一些任务(例如前述文本分类)被称为下游任务(down-stream)。
%201-3%20BERT的原理
%20从BERT的全称,Bidirectional%20Encoder%20Representation%20from%20Transformer(来自Transformer的双向编码器表征),可以看出BERT是基于Transformer模型的,只是其中的编码器。输入一个句子,Transformer的编码器会输出句子中每个单词的向量表示。而双向则是由于Transformer编码器是双向的。它的输入是完整的句子,在指定某个Token时,BERT已经读入了它两个方向上的所有单词。举个例来理解BERT是如何从Transformer中得到双向编码表示的。
%20假设我们有一个句子A:He%20got%20bit%20by%20Python,现在我们把这个句子输入Transformer并得到了每个单词的上下文表示(嵌入表示)作为输出。Transformer的编码器通过多头注意力机制理解每个单词的上下文,然后输出每个单词的嵌入向量。如下图所示,我们输入一个句子到Transformer的编码器,它输出句子中每个单词的上下文表示。下图中代表单词He的向量表示,每个单词向量表示的大小应当于每个编码器隐藏层的大小。假设编码器层大小为768,那么单词的向量表示大小也就是768。
%201-4 BERT的参数
BERT初期有两个版本,分为base版和large版本。base版一共有110M参数,large版有340M的参数,两个版本的BERT的参数量都是上亿的。
%20%20L:Transformer%20blocks%20层数;H:hidden%20size ;A:the%20number%20of%20self-attention%20heads
%202.BERT预训练任务
%20Bert是Transformer的encoder部分,使用大量的未标记文本数据进行预训练,从而学习并掌握某种语言的表达形式。结构上使用了基于多头注意力机制的transformer,训练中采取两种不同的训练方式:(Masked%20Language%20Model)隐蔽语言模型、(Next%20Sentence%20Prediction)下一结构预测。其中双向主要体现在bert的训练任务一中:隐蔽语言模型。
%202-1 Masked%20Language%20Model
%20Masked%20LM%20可以形象地称为完形填空问题,随机掩盖掉每一个句子中15%的词,用其上下文来去判断被盖住的词原本应该是什么。随机Mask语料中15%的Token,然后将masked%20token位置的最终隐层向量送入softmax,来预测masked%20token。 举例来说,有这样一个未标注句子%20my%20dog%20is%20hairy%20,我们可能随机选择了hairy进行遮掩,就变成%20my%20dog%20is%20[mask]%20,训练模型去预测%20[mask]%20位置的词,使预测出%20hairy的可能性最大,在这个过程中就将上下文的语义信息学习并体现到模型参数中。
%20而在下游的NLP任务fine-tuning阶段中不存被Mask的词,为了和后续任务保持一致,作者按一定比例在需要预测的词的位置上输入了原词或输入了某个随机的词。[MASK]通过attention均结合了左右上下文的信息,这体现了双向。以下是MASK策略:
%20有80%的概率用“[mask]”标记来替换——my%20dog%20is%20[MASK]有10%的概率用随机采样的一个单词来替换——my%20dog%20is%20apple有10%的概率不做替换——my%20dog%20is%20hairy%20在任何一个词都有可能是被替换掉的条件下,强迫模型在编码当前时刻不能太依赖于当前的词,而是要考虑它的上下文,甚至根据上下文进行纠错。所以训练预料中有必须正确的信息(10%)、未知的信息(80%%20MASK,使模型具有预测能力)、错误的信息(加入噪声10%,使模型具有纠错能力),模型才能获取全局全量的信息。
%202-2 Next%20sentence%20prediction
%20很多下游任务(QA和natural%20language%20inference)都是基于两个句子之间关系的理解,基于此项任务,为了增强模型对句子之间关系的理解能力。 所以预测句子关系,判断两个句子之间是否是有关联,在训练过程中,BERT会抽全50%有关联的句子(这里的句子是指有联系的Token序列),百分之50的概率随机抽选两无关的句子,然后让BERT模型判断这两个句子是否相关。其输入形式是,开头是一个特殊符号[CLS],然后两个句子之间用[SEP]隔断:
%20Input%20=%20[CLS]%20the%20man%20went%20to%20[MASK]%20store%20[SEP]he%20bought%20a%20gallon%20[MASK]%20milk%20[SEP]
%20Label%20=%20IsNext
%20Input%20=%20[CLS]%20the%20man%20[MASK]%20to%20the%20store%20[SEP]penguin%20[MASK]%20are%20flight%20##less%20birds[SEP]
%20Label%20=%20NotNext
3.BERT的输入和输出
%203-1%20BERT的输入
%20在把数据喂给BERT之前,通过下面三个嵌入层将输入转换为嵌入向量:词嵌入(Token%20embedding);段嵌入(Segment%20embedding);位置嵌入(Position%20embedding)。
%20%20 %20 %20 %20以下面句子为例,展现三种嵌入向量的表示。
%20Sentence%20A:%20Paris%20is%20a%20beautiful%20city.Sentence%20B:%20I%20love%20Paris.
%201.Token%20Embedding(词嵌入)
%20表示的是词向量,既可以是原始词向量(源码中是token在词汇表中对应的索引),也可以是经过word2vector或者是glove等模型处理后的静态向量。在实际代码实现中,输入文本在送入token%20embeddings%20层之前要先进行tokenization处理。此外,两个特殊的token会被插入到tokenization的结果的开头%20([CLS])和结尾%20([SEP])
%20%20 %20 %20 %20第一步:使用使用WordPiece分词器分词。
%20#第一步:使用WordPiece分词器分词tokens%20=%20[Paris,%20is,%20a,%20beautiful,%20city,%20I,%20love,%20Paris]
%20 %20 %20 %20 %20第二步:在一个句子前面,添加[CLS]
标记。
tokens%20=%20[%20[CLS],%20Paris,%20is,%20a,%20beautiful,%20city,%20I,%20love,%20Paris]
%20 %20 %20 %20 %20第三步:在每个句子的结尾,添加[SEP]
标记。
tokens%20=%20[%20[CLS],%20Paris,%20is,%20a,%20beautiful,%20city,%20[SEP],%20I,%20love,%20Paris,%20[SEP]]
%20%20 %20 %20 %20特别说明:
%20 [CLS]
标记只加在第一个句子前面,而[SEP]
标记加到每个句子末尾。
[CLS]
标记用于分类任务,而[SEP]
标记用于表示每个句子的结尾。
在把所有的标记喂给BERT之前,我们使用一个叫作标记嵌入的嵌入层转换这些标记为嵌入向量。这些嵌入向量的值会在训练过程中学习。经过学习,得到了每个token的词嵌入向量。
%202.Segment Embedding (段嵌入)
段嵌入用来区别两种句子。因为Bert中存在着两个任务,一个是隐藏语言模型,另一个是预测句子关系,所以在输入时需要区分两个句子。 如果输入数据由两个句子拼接而成,如果词语是属于第一个句子A,那么该标记会映射到嵌入;反之属于句子%20B,则映射到嵌入。
%20如果输入仅仅只有一个句子,那么它的segment embedding只会映射到
3.Position Embedding(位置编码)
学习出来的embedding向量。与Transformer不同,Transformer中是预先设定好的值。
4.最终表示
如下图所示,首先我们将给定的输入序列分词为标记列表,然后喂给标记嵌入层,片段嵌入层和位置嵌入层,得到对应的嵌入表示。然后,累加所有的嵌入表示作为BERT的输入表示。
3-2 BERT的输出
bert模型的输出可以包括四个:
1. last_hidden_state
torch.FloatTensor类型的,最后一个隐藏层的序列的输出。大小是(batch_size, sequence_length, hidden_size) sequence_length是我们截取的句子的长度,hidden_size是768。
2.pooler_output
torch.FloatTensor类型的,[CLS]的这个token的输出,输出的大小是(batch_size, hidden_size)。
3.hidden_states
tuple(torch.FloatTensor)这是输出的一个可选项,如果输出,需要指定config.output_hidden_states=True,它也是一个元组,它的第一个元素是embedding,其余元素是各层的输出,每个元素的形状是(batch_size, sequence_length, hidden_size)。
4.attentions
这也是输出的一个可选项,如果输出,需要指定config.output_attentions=True,它也是一个元组,它的元素是每一层的注意力权重,用于计算self-attention heads的加权平均值。
4.BERT代码
Transformers(以前称为pytorch-transformers和pytorch-pretrained-bert)提供用于自然语言理解(NLU)和自然语言生成(NLG)的最先进的模型(BERT,GPT-2,RoBERTa,XLM,DistilBert,XLNet,CTRL ...) ,拥有超过32种预训练模型,支持100多种语言,并且在TensorFlow 2.0和PyTorch之间具有深厚的互操作性。我们借助Transformers来实现bert的调用。
import transformers#实例化bert模型bert_model = transformers.BertModel.from_pretrained( pretrained_model_name_or_path = '/ssd/Spider/Baidu_NER/Pre_Model/chinese_roberta_wwm_large_ext/', output_hidden_states=True, output_attentions=True)#bert需要的三种输入形式def encoder(vocab_path,sentence): #将text_list embedding成bert模型可用的输入形式 tokenizer = transformers.BertTokenizer.from_pretrained(vocab_path) tokenizer = tokenizer( sentence, return_tensors='pt' # 返回的类型为pytorch tensor ) input_ids = tokenizer['input_ids'] token_type_ids = tokenizer['token_type_ids'] attention_mask = tokenizer['attention_mask'] return input_ids,token_type_ids,attention_mask
sentence = "中华人民共和国万岁"#生成三种bert需要的输入形式input_ids,token_type_ids,attention_mask = encoder( vocab_path="/ssd/Spider/Baidu_NER/Pre_Model/chinese_roberta_wwm_large_ext/vocab.txt", sentence = sentence)#调用bert模型sentence_outputs = bert_model(input_ids,token_type_ids,attention_mask)
如下图所示:
input_ids表示的是分词后在token中添加了[CLS]和
[SEP]
标记之后的id表示。token_types_ids则表示的是Segment Embeddings ,如果输入数据由两个句子拼接而成,如果词语是属于第一个句子,则Segment Embeddings 对应的位置是0,如果属于第二个句子,则segment Embeddings对应的位置为1。
本文链接:https://www.kjpai.cn/news/2024-04-08/155385.html,文章来源:网络cs,作者:淼淼,版权归作者所有,如需转载请注明来源和作者,否则将追究法律责任!