3.0 為什么進(jìn)行參數(shù)高效微調(diào)?

3.1 prompt tuning

3.2 prefix tuning

3.3 adapter

3.4 LLaMA adapter

3.5 LoRA

3.6 實(shí)驗(yàn)比較

導(dǎo)讀

理解大語(yǔ)言模型,可以從‘LLM的架構(gòu)、LLL的訓(xùn)練、LLL的微調(diào)’三個(gè)方面進(jìn)行,也可以針對(duì)需求重點(diǎn)理解一部分。例如,訓(xùn)練+微調(diào),可以讀后兩篇,只做微調(diào),讀最后一篇。

參考資料

原文轉(zhuǎn)自 微信公眾號(hào)@AI大模型前沿

上一篇:

一文說(shuō)盡大語(yǔ)言模型技術(shù)之二:LLM的分布式預(yù)訓(xùn)練

下一篇:

大語(yǔ)音模型(LLM) 中的“參數(shù)”一詞是什么意思?
#你可能也喜歡這些API文章!

我們有何不同?

API服務(wù)商零注冊(cè)

多API并行試用

數(shù)據(jù)驅(qū)動(dòng)選型,提升決策效率

查看全部API→
??

熱門(mén)場(chǎng)景實(shí)測(cè),選對(duì)API

#AI文本生成大模型API

對(duì)比大模型API的內(nèi)容創(chuàng)意新穎性、情感共鳴力、商業(yè)轉(zhuǎn)化潛力

25個(gè)渠道
一鍵對(duì)比試用API 限時(shí)免費(fèi)

#AI深度推理大模型API

對(duì)比大模型API的邏輯推理準(zhǔn)確性、分析深度、可視化建議合理性

10個(gè)渠道
一鍵對(duì)比試用API 限時(shí)免費(fèi)