🚡深度学习模型架构解析:以Encoder-Decoder为核心的分类体系
type
status
date
slug
summary
category
tags
icon
password
AI summary
Blocked by
Blocking
Category
引言
自2017年Vaswani等人发表的论文《Attention Is All You Need》中首次提出Transformer架构以来,深度学习领域,特别是自然语言处理(NLP)发生了革命性的变化 [1]。Transformer模型完全摒弃了以往主流的循环神经网络(RNN)和卷积神经网络(CNN)结构,仅依赖于注意力机制(Attention Mechanism)来捕捉输入数据中的长距离依赖关系。其核心思想在于通过编码器(Encoder)和解码器(Decoder)的协同工作,实现对序列数据的高效处理与转换。随着技术的发展,基于原始Transformer架构演变出了三种主要的模型类别:仅编码器(Encoder-Only)、**仅解码器(Decoder-Only)以及经典的编码器-解码器(Encoder-Decoder)**架构。理解这三种架构的原理、特点和适用场景,对于选择和应用合适的模型至关重要。本文将对这三大类模型进行详细的科普和梳理。
仅编码器(Encoder-Only)架构
仅编码器架构,顾名思义,它只利用了Transformer模型中的编码器部分。这类模型的核心优势在于其强大的上下文理解能力。
工作原理与特点
编码器模型采用双向注意力(Bidirectional Attention)机制,这意味着在处理输入序列中的任何一个词元(token)时,它都可以同时“看到”该词元之前和之后的所有词元。这种全方位的上下文感知能力,使得模型能够构建出对整个输入序列的深度、丰富的表示(representation)。这类模型通常被称为自编码(Auto-Encoding)模型 [2]。
其预训练过程通常围绕掩码语言建模(Masked Language Modeling, MLM)任务展开。具体来说,训练时会随机遮盖(mask)输入文本中一定比例的词元,然后让模型去预测这些被遮盖的原始词元。这种方式迫使模型学习词元之间以及词元与整个句子结构之间的复杂关系。
适用场景
由于其卓越的理解能力,仅编码器模型特别适用于那些需要对输入文本有全面理解的“自然语言理解(NLU)”任务,例如:
- 文本分类:如情感分析、新闻主题分类等。
- 命名实体识别(NER):从文本中识别出人名、地名、组织机构等特定实体。
- 抽取式问答:从给定的上下文中直接抽取出问题的答案。
- 句子对任务:如判断两个句子的语义相似度或逻辑关系。
代表模型
下表总结了该架构下一些具有里程碑意义的模型。
模型 | 发布机构 | 主要特点 |
BERT | Google | 首个大规模双向预训练模型,使用MLM和NSP(下一句预测)任务。 [3] |
RoBERTa | Meta AI | 优化了BERT的训练策略,移除了NSP任务,使用更大规模数据和动态掩码。 [4] |
ALBERT | Google | 轻量版BERT,通过参数共享等技术大幅减少参数量,同时保持高性能。 [5] |
DistilBERT | Hugging Face | BERT的蒸馏版本,参数量减少40%,速度提升60%,同时保留97%的性能。 [4] |
XLNet | Google/CMU | 采用排列语言建模(PLM),结合自回归和自编码的优点,并引入Transformer-XL的片段循环机制。 [6] |
仅解码器(Decoder-Only)架构
仅解码器架构是当前绝大多数大型语言模型(LLMs)所采用的结构,它在文本生成方面表现出无与伦比的能力。
工作原理与特点
与编码器模型相反,解码器模型采用单向(或因果)注意力(Unidirectional/Causal Attention)机制。在生成序列中的某个词元时,模型只能关注到该位置之前的所有词元,而不能“看到”未来的信息。这种机制确保了生成过程的连贯性和逻辑性,因此这类模型也被称为自回归(Auto-regressive)模型 [2]。
其预训练任务非常直观,即下一词元预测(Next Token Prediction)。模型根据已经给出的上文,预测下一个最有可能出现的词元。通过在海量文本数据上进行这种训练,模型学会了语言的语法、事实知识、推理能力甚至一定的世界模型。
适用场景
这类模型是生成式任务的理想选择,应用范围极其广泛:
- 文本生成:撰写文章、故事、诗歌等。
- 对话系统:构建聊天机器人和虚拟助手。
- 代码生成:根据自然语言描述生成代码片段。
- 指令遵循:作为通用助手,完成用户通过指令提出的各种任务。
代表模型
下表列出了一些在AI领域引起巨大反响的仅解码器模型。
模型系列 | 发布机构 | 主要特点 |
GPT系列 | OpenAI | 开创了大规模预训练生成模型的先河,从GPT-1到GPT-4不断刷新AI能力上限。 [7] |
LLaMA系列 | Meta AI | 高性能的开源模型系列,极大地推动了开源社区的发展。 |
Claude系列 | Anthropic | 专注于构建更安全、更可控、更符合人类价值观的AI模型。 |
Gemma系列 | Google | 源自Gemini模型的轻量级、高性能开源模型。 |
编码器-解码器(Encoder-Decoder)架构
编码器-解码器架构,也称为序列到序列(Sequence-to-Sequence, Seq2Seq)模型,是原始Transformer论文中提出的经典结构,它结合了前两种架构的优点。
工作原理与特点
该架构由两部分组成:
- 编码器:负责接收并处理整个输入序列,通过双向注意力机制形成对输入的全面理解,其最终输出的隐藏状态(hidden states)包含了输入序列的完整信息。
- 解码器:在生成输出序列时,除了像仅解码器模型一样使用单向自注意力(Self-Attention)处理已生成的词元外,还会通过一个额外的交叉注意力(Cross-Attention)层来关注编码器输出的隐藏状态。这个交叉注意力机制允许解码器在生成每个词元时,都能“查询”输入序列中最相关的部分,从而确保生成内容与输入内容的高度相关性 [8]。
适用场景
这种架构特别适合于那些需要将一个序列转换为另一个序列的“转换”类任务,例如:
- 机器翻译:将一种语言的句子翻译成另一种语言。
- 文本摘要:将长篇文章缩写成简短的摘要。
- 生成式问答:根据上下文生成问题的答案,而不是直接抽取。
- 数据到文本:将表格等结构化数据转换成自然语言描述。
代表模型
下表展示了该架构下的主要模型。
模型 | 发布机构 | 主要特点 |
T5 | Google | 提出“文本到文本”的统一框架,将所有NLP任务都视为文本转换任务,表现出色。 [9] |
BART | Meta AI | 采用去噪自编码器作为预训练目标,擅长处理文本损坏和重建,在摘要和翻译任务上效果显著。 |
MarianMT | 多方合作 | 专门为机器翻译任务设计和优化的模型。 |
架构选择指南
为了更直观地帮助您根据具体任务选择合适的模型架构,下表提供了一个快速参考指南。
任务类型 | 推荐架构 | 核心需求 | 代表模型 |
情感分析、文本分类 | 仅编码器 | 对整个句子的深入理解 | BERT, RoBERTa |
命名实体识别 | 仅编码器 | 理解词元在上下文中的角色 | BERT, ALBERT |
创意写作、内容生成 | 仅解码器 | 连贯、流畅的文本生成 | GPT系列, LLaMA |
聊天机器人、对话AI | 仅解码器 | 遵循对话逻辑并生成回应 | Claude系列, Gemma |
机器翻译 | 编码器-解码器 | 将源语言准确转换为目标语言 | T5, BART, MarianMT |
文本摘要 | 编码器-解码器 | 理解原文并生成精炼的概括 | BART, T5 |
抽取式问答 | 仅编码器 | 从文本中定位并抽取出答案 | RoBERTa, XLNet |
生成式问答 | 编码器-解码器/仅解码器 | 基于上下文生成新的答案文本 | T5, GPT系列 |
结论
以编码器和解码器为核心的分类体系为我们理解和应用庞大的Transformer模型家族提供了一个清晰的框架。仅编码器模型是理解任务的专家,凭借其双向上下文感知能力,在分析和分类文本方面无出其右。仅解码器模型是生成任务的大师,通过自回归机制创造出流畅、连贯且富有创造性的文本,驱动了当前生成式AI的浪潮。而编码器-解码器模型则是转换任务的桥梁,完美地结合了理解与生成,在机器翻译和文本摘要等领域表现卓越。
随着技术的不断演进,这些架构之间的界限有时也会变得模糊,混合式架构和新的训练方法层出不穷。
参考文献
[1] Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., ... & Polosukhin, I. (2017). Attention is all you need. In Advances in neural information processing systems (pp. 5998-6008).
[2] Hugging Face. (n.d.). Transformer Architectures. LLM Course. Retrieved from https://huggingface.co/learn/llm-course/en/chapter1/6
[3] Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. (2018). Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805.
[4] Phung, T. M. (2021, December 10). A review of pre-trained language models: from BERT, RoBERTa, to ELECTRA, DeBERTa, BigBird, and more. Tung M Phung's Blog. Retrieved from https://tungmphung.com/a-review-of-pre-trained-language-models-from-bert-roberta-to-electra-deberta-bigbird-and-more/
[5] Lan, Z., Chen, M., Goodman, S., Gimpel, K., Sharma, P., & Soricut, R. (2019). Albert: A lite bert for self-supervised learning of language representations. arXiv preprint arXiv:1909.11942.
[6] Yang, Z., Dai, Z., Yang, Y., Carbonell, J., Salakhutdinov, R., & Le, Q. V. (2019). Xlnet: Generalized autoregressive pretraining for language understanding. In Advances in neural information processing systems (pp. 5753-5763).
[7] Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., ... & Amodei, D. (2020). Language models are few-shot learners. In Advances in neural information processing systems (pp. 1877-1901).
[8] Alammar, J. (2018, June 27). The Illustrated Transformer. Jay Alammar's Blog. Retrieved from https://jalammar.github.io/illustrated-transformer/
[9] Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., ... & Liu, P. J. (2019). Exploring the limits of transfer learning with a unified text-to-text transformer. arXiv preprint arXiv:1910.10683.
Prev
Knative + Istio 环境下的会话亲和性实现方案
Next
从模型视角看上下文工程
Loading...