Cyan's Blog

Search

Search IconIcon to open search

D2L-76-BERT - Pretrain

Last updated Apr 30, 2022 Edit Source

# BERT: Pretrain

2022-04-30

Tags: #BERT #Pretrain #DeepLearning #Transformer

# Pretrain Tasks

# Task 1 - Masked Language Modeling

# Motivation

# 任务细节

预测哪些词? 预测多少词?

怎么处理输入?

为什么我们要加入随机词元的 10%和不做任何改动的 10%?

# Task 2 - Next Sentence Prediction

# Motivation

# 任务细节

# Data Representation

详见 14.9. 用于预训练BERT的数据集 — 动手学深度学习 2.0.0-beta0 documentation

# Start Pretrain

详细的过程可以参见: 14.10. 预训练BERT — 动手学深度学习 2.0.0-beta0 documentation , 这里说明几个需要注意的点:


  1. 14.8. Bidirectional Encoder Representations from Transformers (BERT) — Dive into Deep Learning 0.17.5 documentation ↩︎