精彩视频亚洲无码_台湾香港经典免费三级网站_国产精品久久精品毛片_国产日韩欧美云霸高清一区_深夜福利视频一区二区在线观看_自拍一级av毛片_美女日批软件_2021在线观看无码_美女下面被插视频免费网站_亚洲日韩强奸在线视频一区二区

課程

課程介紹

隨著科技的飛速發(fā)展,人工智能(AI)技術(shù)正以前所未有的速度滲透到各個(gè)行業(yè)領(lǐng)域,傳統(tǒng)的業(yè)務(wù)模式正在經(jīng)歷著由AI技術(shù)帶來的深刻變革,為了適應(yīng)這一變革,各企業(yè)急需了解并掌握AI大模型的垂直優(yōu)化訓(xùn)練和開發(fā)框架、應(yīng)用場(chǎng)景以及潛在的商業(yè)價(jià)值。

培訓(xùn)對(duì)象

希望掌握大模型的企業(yè)領(lǐng)導(dǎo)和商業(yè)領(lǐng)袖;
希望迅速掌握利用大模型幫助工作的工程師;
人工智能應(yīng)用相關(guān)人員;
學(xué)員需具備:
初步的IT基礎(chǔ)知識(shí)、基本的python編程能力、熟悉深度學(xué)習(xí)和nlp的基本概念、熟悉人工智能基本概念。

課程收益

能夠掌握Python使用llm的相關(guān)預(yù)訓(xùn)練模型的基本流程和模型;
初步具備利用Python在工作中使用大模型構(gòu)建對(duì)話系統(tǒng)的能力;
理解人工智能基本原理;
掌握人工智能大模型相關(guān)概念和生態(tài)組件;
掌握深度學(xué)習(xí)和nlp相關(guān)知識(shí);
了解相關(guān)開源大語言模型;
結(jié)合老師多年行業(yè)實(shí)踐經(jīng)驗(yàn)以案例討論的方式為學(xué)員后續(xù)項(xiàng)目應(yīng)用提供針對(duì)性的建議參考。

知識(shí)概要

-- 實(shí)戰(zhàn) Transformers 模型訓(xùn)練;
-- 大模型高效微調(diào)技術(shù)揭秘;
-- 大模型高效微調(diào)工具 Hugging Face PEFT 入門與實(shí)戰(zhàn);
-- 實(shí)戰(zhàn)私有數(shù)據(jù)微調(diào) ChatGLM3。

課程大綱

模塊

學(xué)習(xí)內(nèi)容

第一天

實(shí)戰(zhàn) Transformers 模型訓(xùn)練

1. 數(shù)據(jù)集處理庫 Hugging Face Datasets

2. Hugging Face Datasets 庫簡(jiǎn)介

3. 數(shù)據(jù)預(yù)處理策略:填充與截?cái)?/p>

4. 使用 Datasets.map 方法處理數(shù)據(jù)集

5. Transformers 模型訓(xùn)練入門

6. 模型訓(xùn)練基類 Trainer

7. 訓(xùn)練參數(shù)與超參數(shù)配置 TrainingArguments

8. 模型訓(xùn)練評(píng)估庫 Hugging Face Evaluate

大模型高效微調(diào)技術(shù)揭秘

1. PEFT 基于重參數(shù)化(Reparametrization-based)訓(xùn)練方法

2. LoRA 低秩適配微調(diào) (2021 Microsoft)

3. AdaLoRA 自適應(yīng)權(quán)重矩陣微調(diào) (2023 Microsoft, Princeton, Georgia Tech)

4. QLoRA 量化低秩適配微調(diào) (2023 University of Washington)

5. UniPELT:大模型 PEFT 統(tǒng)一框架(2022)

6. (IA)3:極簡(jiǎn)主義增量訓(xùn)練方法 (2022)

第二天

7. Before PEFT:Hard Prompt / Full Fine-tune

8. PEFT 主流技術(shù)分類介紹

9. PEFT Adapter 技術(shù)

10. Adapter Tuning (2019 Google)

11. PEFT – Soft Prompt 技術(shù)(Task-specific Tuning)

12. Prefix Tuning (2021 Stanford)

13. Prompt Tuning (2021 Google)

14. PEFT – Soft Prompt 技術(shù)(Prompt Encoder)

15. P-Tuning v1 (2021 Tsinghua, MIT)

16. P-Tuning v2 (2022 Tsinghua, BAAI, Shanghai Qi Zhi Institute)

大模型高效微調(diào)工具 Hugging Face PEFT 入門與實(shí)戰(zhàn)

1. Hugging Face PEFT 快速入門

2. PEFT 庫是什么?

3. PEFT 與 Transformers 庫集成

4. PEFT 核心類定義與功能說明

5. AutoPeftModels、PeftModel

第三天

6. PeftConfig

7. PeftType | TaskType

8. 實(shí)戰(zhàn) PEFT 庫 LoRA 模型微調(diào)

9. OpenAI Whisper 模型介紹

10. 實(shí)戰(zhàn) LoRA 微調(diào) Whisper-Large-v2 中文語音識(shí)別 3.9.限制控制智能體執(zhí)行

11. AI調(diào)用shell接管控制電腦

實(shí)戰(zhàn)私有數(shù)據(jù)微調(diào) ChatGLM3

1. 實(shí)戰(zhàn)構(gòu)造私有的微調(diào)數(shù)據(jù)集

2. 使用 ChatGPT 自動(dòng)設(shè)計(jì)生成訓(xùn)練數(shù)據(jù)的 Prompt

3. 合成數(shù)據(jù): LangChain + GPT-3.5 Turbo

4. 數(shù)據(jù)增強(qiáng):提升訓(xùn)練數(shù)據(jù)多樣性

5. 提示工程:保持批量生成數(shù)據(jù)穩(wěn)定性

6. 實(shí)戰(zhàn)私有數(shù)據(jù)微調(diào) ChatGLM3

7. 使用 QLoRA 小樣本微調(diào) ChatGLM3

8. ChatGLM3 微調(diào)前后效果對(duì)比

9. 大模型訓(xùn)練過程分析與數(shù)據(jù)優(yōu)化

認(rèn)證過程

無認(rèn)證考試

開班信息

暫無開班信息