PEFT技术,全称为Parameter-Efficient Fine-Tuning(参数高效微调),是一种在人工智能领域中用于优化预训练模型的技术。这种技术的核心思想是在保持预训练模型大部分参数不变的情况下,通过仅调整少量额外参数来适应新任务,从而降低计算和存储成本,同时实现与全量微调相当的性能。

PEFT技术的主要方法包括:

  1. Prefix Tuning:在模型输入层添加可训练的前缀嵌入,这些前缀嵌入与原始输入拼接后一起输入到模型中,而模型的其他部分保持不变。

  2. LoRA(Low-Rank Adaptation):通过低秩矩阵近似模型参数更新,这是一种参数高效的微调方法,可以减少模型参数的更新量,从而降低计算成本。

  3. Adapter Tuning:在模型层间插入小型神经网络(adapters),这些adapters可以调整模型的行为以适应新任务,而不需要改变模型的主要结构。

PEFT技术的优势在于:

  • 降低计算成本:PEFT方法仅微调少量或额外的模型参数,固定大部分预训练参数,大大降低了计算和存储成本。
  • 提高适应性:PEFT可以使预训练模型高效适应各种下游应用任务,而无需微调预训练模型的所有参数。
  • 保持高性能:最先进的PEFT技术也能实现了与全量微调相当的性能。

Hugging Face提供了一个开源的PEFT库,支持包括LoRA、Prefix Tuning、Adapter Tuning等多种参数高效微调方法。这些技术的发展和应用,使得即使是计算资源受限的用户,也能够利用预训练模型的知识来迅速适应新任务,实现高效的迁移学习。