BERT的两个输出在学习bert的时候,我们知道bert是输出每个token的embeding。但在使用huggingface的bert模型时,发现除了last_hidden_state还多了一个pooler_output输出。例如:fromtransformersimportAutoTokenizer,AutoModeltokenizer=AutoTokenizer.from_pretrained("bert-base-uncased")model=AutoModel.from_pretrained("bert-base-uncased")inputs=tokenizer("I'mcaixu