聽(tīng)說(shuō)過(guò)ChatGPT、文心一言這些高大上的AI嗎?它們背后的核心技術(shù)就是“大型語(yǔ)言模型”(LLM)。是不是覺(jué)得很復(fù)雜,很難理解?別擔(dān)心,即使你只有小學(xué)二年級(jí)的數(shù)學(xué)水平,看完這篇文章,也能輕松掌握LLM的運(yùn)行原理!
神經(jīng)網(wǎng)絡(luò):數(shù)字的魔法
首先,我們要知道,神經(jīng)網(wǎng)絡(luò)就像一個(gè)超級(jí)計(jì)算器,它只能處理數(shù)字。無(wú)論是輸入還是輸出,都必須是數(shù)字。那我們要怎么讓它理解文字呢?
秘訣就在于把文字轉(zhuǎn)化成數(shù)字! 比如,我們可以把每個(gè)字母用一個(gè)數(shù)字代表,比如a=1,b=2,以此類(lèi)推。這樣一來(lái),神經(jīng)網(wǎng)絡(luò)就能“讀懂”文字了。
訓(xùn)練模型:讓網(wǎng)絡(luò)“學(xué)會(huì)”語(yǔ)言
有了數(shù)字化的文字,接下來(lái)就要訓(xùn)練模型,讓神經(jīng)網(wǎng)絡(luò)“學(xué)會(huì)”語(yǔ)言的規(guī)律。
訓(xùn)練的過(guò)程就像玩猜謎游戲。 我們給網(wǎng)絡(luò)看一些文字,比如“Humpty Dumpty”,然后讓它猜下一個(gè)字母是什么。如果它猜對(duì)了,我們就給它獎(jiǎng)勵(lì);如果猜錯(cuò)了,就給它懲罰。通過(guò)不斷地猜謎和調(diào)整,網(wǎng)絡(luò)就能越來(lái)越準(zhǔn)確地預(yù)測(cè)下一個(gè)字母,最終生成完整的句子,比如“Humpty Dumpty sat on a wall”。
進(jìn)階技巧:讓模型更“聰明”
為了讓模型更“聰明”,研究人員發(fā)明了許多進(jìn)階技巧,比如:
詞嵌入: 我們不再用簡(jiǎn)單的數(shù)字代表字母,而是用一組數(shù)字(向量)來(lái)代表每個(gè)詞,這樣可以更全面地描述詞語(yǔ)的含義。
子詞分詞器: 把單詞拆分成更小的單位(子詞),比如把“cats”拆成“cat”和“s”,這樣可以減少詞匯量,提高效率。
自注意力機(jī)制: 模型在預(yù)測(cè)下一個(gè)詞時(shí),會(huì)根據(jù)上下文中的所有詞語(yǔ)來(lái)調(diào)整預(yù)測(cè)的權(quán)重,就像我們?cè)陂喿x時(shí)會(huì)根據(jù)上下文理解詞義一樣。
殘差連接: 為了避免網(wǎng)絡(luò)層數(shù)過(guò)多導(dǎo)致訓(xùn)練困難,研究人員發(fā)明了殘差連接,讓網(wǎng)絡(luò)更容易學(xué)習(xí)。
多頭注意力機(jī)制: 通過(guò)并行運(yùn)行多個(gè)注意力機(jī)制,模型可以從不同的角度理解上下文,提高預(yù)測(cè)的準(zhǔn)確性。
位置編碼: 為了讓模型理解詞語(yǔ)的順序,研究人員會(huì)在詞嵌入中加入位置信息,就像我們?cè)陂喿x時(shí)會(huì)注意詞語(yǔ)的順序一樣。
GPT 架構(gòu):大型語(yǔ)言模型的“藍(lán)圖”
GPT 架構(gòu)是目前最流行的大型語(yǔ)言模型架構(gòu)之一,它就像一個(gè)“藍(lán)圖”,指引著模型的設(shè)計(jì)和訓(xùn)練。GPT 架構(gòu)巧妙地組合了上述的各種進(jìn)階技巧,讓模型能夠高效地學(xué)習(xí)和生成語(yǔ)言。
Transformer 架構(gòu):語(yǔ)言模型的“革命”
Transformer 架構(gòu)是近年來(lái)語(yǔ)言模型領(lǐng)域的一項(xiàng)重大突破,它不僅提高了預(yù)測(cè)的準(zhǔn)確性,還降低了訓(xùn)練的難度,為大型語(yǔ)言模型的發(fā)展奠定了基礎(chǔ)。GPT 架構(gòu)也是基于 Transformer 架構(gòu)演變而來(lái)的。
參考資料:https://towardsdatascience.com/understanding-llms-from-scratch-using-middle-school-math-e602d27ec876

