谷歌發佈Gemma 2輕量級模型,以牽制Meta的開源模型Llama 3
藍鯨新聞6月28日訊(記者 朱儁熹)全球開發者和研究人員在大語言模型上又多了一項高性價比的選擇。
當地時間6月27日,谷歌終於發佈了一個月前在I/O開發者大會上預告過的Gemma 2大模型。據谷歌介紹,與第一代Gemma模型相比,新模型擁有更優的性能,推理效率也更高。Gemma 2包括9B和27B兩種參數大小,官方宣稱,其中27B模型在性能上能夠與比其大兩倍的模型相媲美,9B模型也優於Meta的Llama 3 8B等相似尺寸的開源模型。
根據谷歌官方博客,Gemma 2的突出優勢在於其效率上的提升。27B Gemma 2模型支持在單個Google Cloud TPU主機、英偉達的A100 80GB Tensor Core GPU或H100 Tensor Core GPU上以全精度運行推理,這能夠極大地降低部署AI模型所需的硬件要求和成本。在成本減少的同時,谷歌稱也能確保該模型在遊戲筆記本電腦、高端臺式機等各種硬件上保持較快的推理速度。
因爲無需佔用大量內存或處理能力,Gemma 2讓開發者能夠將AI部署到手機、個人電腦等資源受限的設備上。目前Gemma 2已上線Google AI Studio,開發者還可以通過數據科學社區Kaggle和開源平臺Hugging Face Models下載其模型權重。谷歌還面向研究人員推出了Gemma 2學術研究計劃,向他們提供Google Cloud額度。
對於Gemma系列模型,谷歌的定義是開放而非開源。谷歌並不會分享Gemma模型的源代碼、訓練數據等技術細節,在應用層面上,兩代模型都要求用戶在遵守許可協議的情況下才能進行商業使用和分發。
這也是谷歌爲應對AI競爭所採取的策略:依靠Gemini閉源模型對抗OpenAI,再通過Gemma模型牽制Meta的開源模型。Gemma雖然採用了和Gemini同源的技術,但參數規模更爲輕量。
今年2月發佈的第一代Gemma模型具有7B和2B兩種參數規模,谷歌稱其在各種服務平臺上的下載次數已超過數百萬次。以這兩個小模型爲基礎,谷歌還陸續推出了多款變體模型,包括用於代碼生成的CodeGemma、支持高效推理的RecurrentGemma,以及在5月先行發佈的視覺語言模型PaliGemma,具備圖像處理和語言理解的能力。
谷歌表示,計劃在未來幾個月內推出2.6B參數的Gemma 2模型,這款新模型將會更適用於在智能手機本地運行的場景。