實(shí)戰(zhàn) Transformers 模型訓(xùn)練
1. 數(shù)據(jù)集處理庫 Hugging Face Datasets
2. Hugging Face Datasets 庫簡(jiǎn)介
3. 數(shù)據(jù)預(yù)處理策略:填充與截?cái)?/p>
4. 使用 Datasets.map 方法處理數(shù)據(jù)集
5. Transformers 模型訓(xùn)練入門
6. 模型訓(xùn)練基類 Trainer
7. 訓(xùn)練參數(shù)與超參數(shù)配置 TrainingArguments
8. 模型訓(xùn)練評(píng)估庫 Hugging Face Evaluate
大模型高效微調(diào)技術(shù)揭秘
1. PEFT 基于重參數(shù)化(Reparametrization-based)訓(xùn)練方法
2. LoRA 低秩適配微調(diào) (2021 Microsoft)
3. AdaLoRA 自適應(yīng)權(quán)重矩陣微調(diào) (2023 Microsoft, Princeton, Georgia Tech)
4. QLoRA 量化低秩適配微調(diào) (2023 University of Washington)
5. UniPELT:大模型 PEFT 統(tǒng)一框架(2022)
6. (IA)3:極簡(jiǎn)主義增量訓(xùn)練方法 (2022)