資料內(nèi)容:
一、為什么需要 提示學習(Prompting)?
在面對特定的下游任務時,如果進行Full FineTuning(即對預訓練模型中的所有參數(shù)都進行微調(diào)),太過低
效;而如果采用固定預訓練模型的某些層,只微調(diào)接近下游任務的那幾層參數(shù),又難以達到較好的效果。
二、什么是 提示學習(Prompting)?
Prompt提供上下文和任務相關信息,以幫助模型更好地理解要求,并生成正確的輸出。
實例一:問答任務中,prompt可能包含問題或話題的描述,以幫助模型生成正確的答案
實例二:在情感分析任務中,讓模型做情感分類任務的做法通常是在句子前面加入前綴“該句子的情感是”即可,
通過這種方式 將情感分類任務轉(zhuǎn)換為一個“填空”任務,在訓練過程中,BERT可以學習到這個前綴與句子情感之
間的關聯(lián)。例如,它可以學習到“該句子的情感是積極的”和“該句子的情感是消極的”之間的差異。
三、提示學習(Prompting) 有什么優(yōu)點?
提示學習(Prompting)旨在通過最小化微調(diào)參數(shù)的數(shù)量和計算復雜度,來提高預訓練模型在新任務上的性能,
從而緩解大型預訓練模型的訓練成本。這樣一來,即使計算資源受限,也可以利用預訓練模型的知識來迅速適應
新任務,實現(xiàn)高效的遷移學習。
四、提示學習(Prompting)有哪些方法,能不能稍微介紹一下它們間?
4.1 前綴微調(diào)(Prefix-tining)篇
4.1.1 為什么需要 前綴微調(diào)(Prefix-tining)?
1. 人工設計離散的 Prompts 缺點:
a. Prompts 的變化對模型最終的性能特別敏感,加一個詞、少一個詞或者變動位置都會造成比較大的
變化
2. 自動化搜索離散的 Prompts 缺點:
a. 成本也比較高
3. 離散化的token搜索出來的結果可能并不是最優(yōu)的;
4. 傳統(tǒng)的微調(diào)范式利用預訓練模型去對不同的下游任務進行微調(diào),對每個任務都要保存一份微調(diào)后的模型權
重,一方面微調(diào)整個模型耗時長;另一方面也會占很多存儲空間