聯發科強化AI量能 創新基地再推LLM可生成中英兩語言

聯發科(2454)集團轄下的前瞻技術研究單位聯發創新基地,繼2023年初釋出全球第一款繁體中文大型語言模型(LLM)後,今(7)日再度開源釋出能夠精準理解和生成中英兩種語言的MediaTek Research Breeze-7B 70億參數系列大型語言模型供大衆使用。

聯發科表示,Breeze-7B基於開源界最熱門的Mistral模型,較上一代繁體中文大型語言模型增加20倍以上的知識量,使Breeze-7B能更精確掌握中英文的細微語言與文化差異,呈現更自然、準確的溝通以及雙語內容創作。

此外,在聯發創新基地對模型的優化下,Breeze-7B繁體中文的推理處理速度只需要市面上其他70億參數級別的Meta或Mistral模型一半的時間,提供更順暢的使用體驗。

聯發創新基地負責人許大山博士指出,近期全球AI領域研究蓬勃發展,但多數研究與開發項目都以英文的大型語言模型進行,所以許多學術界專家與應用開發者,都在爲推進繁體中文AI的創新與應用而努力,看好這次聯發創新基地Breeze-7B繁體中文大型語言模型開源將有益於學術界與業界在AI的發展,未來聯發創新基地也將規劃開源多模態模型,期待持續與學術界及業界共同開創AI領域的更多可能性。

據悉,在市面上衆多70億參數級別的中英雙語模型中,Breeze-7B 模型在對話與表格處理能力上都是領先者,例如Breeze-7B能在更短的時間內理解並生成更流暢、精準的中英文迴應,還能精準捕捉語境,提供高度相關且連貫的回答,爲即時翻譯、商業溝通、智能客服對話等需要快速反應的即時中英雙語的場景提供顯著的效能提升。

聯發科強調,Breeze-7B也能精確地解讀和生成表格內容,無論是數據分析、財務報表還是複雜的排程任務,都能夠提供高效且可靠的支援,對於需要處理大量結構化數據的企業來說尤其重要。

聯發科進一步說,此次聯發創新基地Breeze-7B的模型開源有助學術研究人員深入理解大型語言模型的運作機制,持續改進大型語言模型的幻覺問題(hallucination)與問答校準(alignment)等,以優化未來語言模型的生成結果。

聯發創新基地會不斷地投入大型語言模型的開發,預計下一代以開源模型Mixtral爲基礎所訓練的470億參數大模型,將在近期開放給大衆測試。