最近在東京舉辦的 Gemma 開發(fā)者日上,谷歌正式推出了新的日語版本 Gemma AI 模型。這款模型的表現(xiàn)可以與 GPT-3.5媲美,但它的參數(shù)量只有僅僅20億,非常小巧,適合在移動設(shè)備上運(yùn)行。
這次發(fā)布的 Gemma 模型,在日語處理上表現(xiàn)出色,同時(shí)也保持了其在英語上的能力。對于小型模型來說,這一點(diǎn)特別重要,因?yàn)樵谶M(jìn)行新語言的微調(diào)時(shí),它們可能會面臨 “災(zāi)難性遺忘” 的問題,即新學(xué)到的知識會覆蓋之前學(xué)到的信息。但是 Gemma 成功克服了這個(gè)難題,展現(xiàn)了強(qiáng)大的語言處理能力。
更值得一提的是,谷歌還通過 Kaggle 和 Hugging Face 等平臺,立即發(fā)布了模型的權(quán)重、訓(xùn)練材料和示例,幫助開發(fā)者更快入門。這意味著,開發(fā)者們可以輕松使用這個(gè)模型來進(jìn)行本地計(jì)算,尤其是在邊緣計(jì)算應(yīng)用中,將會帶來更多的可能性。
為了鼓勵(lì)更多的國際開發(fā)者,谷歌還推出了一項(xiàng)名為 “解鎖全球溝通與 Gemma” 的比賽,獎(jiǎng)金高達(dá)15萬美元。這個(gè)計(jì)劃旨在幫助開發(fā)者將 Gemma 模型適配到本地語言。目前,已經(jīng)有阿拉伯語、越南語和祖魯語的項(xiàng)目在進(jìn)行中。在印度,開發(fā)者們正在進(jìn)行 “Navarasa” 項(xiàng)目,計(jì)劃將模型優(yōu)化為支持12種印度語言,而另一個(gè)團(tuán)隊(duì)則在研究通過微調(diào)支持韓語方言。
Gemma2系列模型的推出,旨在用更少的參數(shù)實(shí)現(xiàn)更高的性能。與 Meta 等其他公司的類似模型相比,Gemma2的表現(xiàn)同樣優(yōu)秀,甚至在某些情況下,2億參數(shù)的 Gemma2還能夠超越一些擁有700億參數(shù)的模型,比如 LLaMA-2。開
發(fā)者和研究人員可以通過 Hugging Face、谷歌 AI 工作室和谷歌 Colab 的免費(fèi)計(jì)劃獲取 Gemma-2-2B 模型及其他 Gemma 模型,此外,還可以在 Vertex AI 模型花園中找到它們。
官網(wǎng)入口:https://aistudio.google.com/app/prompts/new_chat?model=gemma-2-2b-it
Hugging Face:https://huggingface.co/google
谷歌 Colab:https://ai.google.dev/gemma/docs/keras_inference?hl=de
劃重點(diǎn):
?? 谷歌推出新日語 Gemma AI 模型,性能媲美 GPT-3.5,參數(shù)僅2億,適合移動設(shè)備運(yùn)行。
?? 谷歌發(fā)起 “解鎖全球溝通與 Gemma” 比賽,獎(jiǎng)金15萬美元,鼓勵(lì)開發(fā)本地語言版本。
?? Gemma2系列模型以少量參數(shù)實(shí)現(xiàn)高性能,甚至能超越更大模型,提升開發(fā)者的應(yīng)用潛力。

