深入理解BERT:双向Transformer编码器在自然语言处理中的应用
2025-06-04 06:50:16作者:宣聪麟
引言
BERT(Bidirectional Encoder Representations from Transformers)是自然语言处理领域具有里程碑意义的模型。本文将深入探讨BERT的核心概念、架构设计及其预训练任务,帮助读者全面理解这一革命性模型的工作原理。
从上下文无关到上下文相关的演进
传统词嵌入的局限性
早期的词嵌入模型如Word2Vec和GloVe采用上下文无关的表示方式,即无论单词出现在什么上下文中,其向量表示都是固定的。这种表示方式存在明显缺陷,无法处理自然语言中的多义性问题。
例如,"bank"一词在以下两个句子中含义完全不同:
- "I deposited money at the bank"
- "I sat by the river bank"
上下文敏感模型的发展
为解决这一问题,研究者开发了多种上下文敏感的词表示方法,包括:
- ELMo:使用双向LSTM,结合所有中间层表示
- CoVE:基于上下文向量
- TagLM:语言模型增强的序列标注器
这些模型虽然改进了词表示,但仍依赖于特定任务的架构设计。
BERT的创新设计
统一架构的优势
BERT的创新之处在于:
- 双向上下文编码:使用Transformer编码器同时考虑左右两侧的上下文
- 任务无关性:通过微调即可适应多种NLP任务,无需特定架构
- 高效预训练:设计了两个新颖的预训练任务
模型架构详解
BERT的核心是Transformer编码器堆栈,其输入表示由三部分组成:
- 词嵌入:将每个token映射为向量
- 段嵌入:区分句子对中的不同句子
- 位置嵌入:捕捉序列中的位置信息
# BERT输入表示示例
def get_tokens_and_segments(tokens_a, tokens_b=None):
tokens = ['<cls>'] + tokens_a + ['<sep>']
segments = [0] * (len(tokens_a) + 2)
if tokens_b:
tokens += tokens_b + ['<sep>']
segments += [1] * (len(tokens_b) + 1)
return tokens, segments
BERT的预训练任务
掩码语言模型(MLM)
MLM任务随机掩盖15%的输入token,要求模型预测被掩盖的词。具体掩盖策略为:
- 80%概率替换为
[MASK] - 10%概率替换为随机词
- 10%概率保持不变
这种策略避免了预训练与微调阶段的不一致性。
# MLM实现示例
class MaskLM(nn.Module):
def __init__(self, vocab_size, num_hiddens):
super().__init__()
self.mlp = nn.Sequential(
nn.Linear(num_hiddens, num_hiddens),
nn.ReLU(),
nn.LayerNorm(num_hiddens),
nn.Linear(num_hiddens, vocab_size))
def forward(self, X, pred_positions):
# 获取被掩盖位置的表示
batch_size = X.shape[0]
batch_idx = torch.arange(batch_size)
masked_X = X[batch_idx, pred_positions]
return self.mlp(masked_X)
下一句预测(NSP)
NSP任务判断两个句子是否是连续的,帮助模型理解句子间关系。具体实现:
- 50%正例(实际连续的句子)
- 50%负例(随机组合的句子)
# NSP实现示例
class NextSentencePred(nn.Module):
def __init__(self, num_inputs):
super().__init__()
self.output = nn.Linear(num_inputs, 2)
def forward(self, X):
# 使用[CLS]标记的表示进行预测
return self.output(X[:, 0, :])
完整BERT模型
将编码器和预训练任务组合成完整模型:
class BERTModel(nn.Module):
def __init__(self, vocab_size, num_hiddens, num_layers=12, heads=12):
super().__init__()
self.encoder = BERTEncoder(vocab_size, num_hiddens, num_layers, heads)
self.mlm = MaskLM(vocab_size, num_hiddens)
self.nsp = NextSentencePred(num_hiddens)
def forward(self, tokens, segments, valid_lens=None, pred_positions=None):
encoded_X = self.encoder(tokens, segments, valid_lens)
mlm_Y_hat = self.mlm(encoded_X, pred_positions) if pred_positions else None
nsp_Y_hat = self.nsp(encoded_X)
return encoded_X, mlm_Y_hat, nsp_Y_hat
总结
BERT通过创新的预训练任务和双向Transformer架构,实现了上下文敏感的深度语言表示。其关键优势在于:
- 双向上下文编码能力
- 统一的架构适应多种任务
- 高效的预训练策略
这些特性使BERT在11项NLP任务上取得了state-of-the-art的结果,推动了自然语言处理领域的重大进步。理解BERT的工作原理对于掌握现代NLP技术至关重要。
登录后查看全文
热门项目推荐
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
atomcodeAn open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust029
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
HY-Embodied-0.5这是一套专为现实世界具身智能打造的基础模型。该系列模型采用创新的混合Transformer(Mixture-of-Transformers, MoT) 架构,通过潜在令牌实现模态特异性计算,显著提升了细粒度感知能力。Jinja00
ERNIE-ImageERNIE-Image 是由百度 ERNIE-Image 团队开发的开源文本到图像生成模型。它基于单流扩散 Transformer(DiT)构建,并配备了轻量级的提示增强器,可将用户的简短输入扩展为更丰富的结构化描述。凭借仅 80 亿的 DiT 参数,它在开源文本到图像模型中达到了最先进的性能。该模型的设计不仅追求强大的视觉质量,还注重实际生成场景中的可控性,在这些场景中,准确的内容呈现与美观同等重要。特别是,ERNIE-Image 在复杂指令遵循、文本渲染和结构化图像生成方面表现出色,使其非常适合商业海报、漫画、多格布局以及其他需要兼具视觉质量和精确控制的内容创作任务。它还支持广泛的视觉风格,包括写实摄影、设计导向图像以及更多风格化的美学输出。Jinja00
热门内容推荐
最新内容推荐
塞尔达传说旷野之息存档跨平台迁移工具:轻松实现Switch与WiiU进度互通告别网盘限速困扰:网盘直链工具如何重塑下载体验iOS激活锁困境突破:AppleRa1n技术原理与实战应用指南7大维度突破工厂设计瓶颈:戴森球计划效率提升实战指南突破性双轨并行建模:腾讯SongGeneration如何重塑AI音乐创作旧Mac如何重获新生?OpenCore Legacy Patcher让经典设备运行最新macOSldm.data核心技术解析:Stable Diffusion数据处理引擎的架构与实践三步解决macOS Office故障:系统维护工具全攻略PPSSPP高级作弊指南:解锁CwCheat系统的5大实用技巧磁盘空间管理与优化:如何通过WinDirStat实现高效存储管理
项目优选
收起
暂无描述
Dockerfile
678
4.33 K
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.57 K
910
deepin linux kernel
C
28
16
暂无简介
Dart
923
228
Ascend Extension for PyTorch
Python
520
630
全称:Open Base Operator for Ascend Toolkit,哈尔滨工业大学AISS团队基于Ascend C打造的高性能昇腾算子库。
C++
46
52
旨在打造算法先进、性能卓越、高效敏捷、安全可靠的密码套件,通过轻量级、可剪裁的软件技术架构满足各行业不同场景的多样化要求,让密码技术应用更简单,同时探索后量子等先进算法创新实践,构建密码前沿技术底座!
C
1.07 K
559
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
399
305
🍒 Cherry Studio 是一款支持多个 LLM 提供商的桌面客户端
TypeScript
1.35 K
110
华为昇腾面向大规模分布式训练的多模态大模型套件,支撑多模态生成、多模态理解。
Python
134
212