全球140+大模型全方位評測結果出爐,智源評測體系發佈
機器之心發佈
機器之心編輯部
2024 年 5 月 17 日,智源研究院舉辦大模型評測發佈會,正式推出科學、權威、公正、開放的智源評測體系,發佈並解讀國內外 140 餘個開源和商業閉源的語言及多模態大模型全方位能力評測結果。
本次智源評測,分別從主觀、客觀兩個維度考察了語言模型的簡單理解、知識運用、推理能力、數學能力、代碼能力、任務解決、安全與價值觀七大能力;針對多模態模型則主要評估了多模態理解和生成能力。
在中文語境下,國內頭部語言模型的綜合表現已接近國際一流水平,但存在能力發展不均衡的情況。在多模態理解圖文問答任務上,開閉源模型平分秋色,國產模型表現突出。國產多模態模型在中文語境下的文生圖能力與國際一流水平差距較小。多模態模型的文生視頻能力上,對比各家公佈的演示視頻長度和質量,Sora 有明顯優勢,其他開放評測的文生視頻模型中,國產模型 PixVerse 表現優異。
由於安全與價值觀對齊是模型產業落地的關鍵,但海外模型與國內模型在該維度存在差異,因此語言模型主客觀評測的總體排名不計入該單項分數。語言模型主觀評測結果顯示,在中文語境下,字節跳動豆包 Skylark2、OpenAI GPT-4 位居第一、第二,國產大模型更懂中國用戶。在語言模型客觀評測中,OpenAI GPT-4、百川智能 Baichuan3 位列第一、第二。百度文心一言 4.0、智譜華章GLM-4 和月之暗面 Kimi 均進入語言模型主客觀評測前五。
多模態理解模型客觀評測結果顯示,圖文問答方面,阿里巴巴通義 Qwen-vl-max 與上海人工智能實驗室 InternVL-Chat-V1.5 先後領先於 OpenAI GPT-4,LLaVA-Next-Yi-34B 和上海人工智能實驗室Intern-XComposer2-VL-7B 緊隨其後。
多模態生成模型文生圖評測結果顯示,OpenAI DALL-E3 位列第一,智譜華章 CogView3、Meta-Imagine 分居第二、第三,百度文心一格、字節跳動 doubao-Image 次之。多模態生成模型文生視頻評測結果顯示,OpenAI Sora、Runway、愛詩科技 PixVerse、Pika、騰訊 VideoCrafter-V2 位列前五。
圖注:文生圖模型的客觀評測指標與主觀感受差異巨大,有失效的跡象,因此排名以主觀評測爲準;Mdjourney 基本無法理解中文提示詞,因此排名靠後;僅使用其官方公佈的 prompts 和視頻片段與其他模型生成的視頻進行對比評測,評測結果存在一定的偏差。
首次聯合權威教育機構進行大模型 K12 學科測試
當前,大模型的發展具備了通用性,在邏輯推理能力上有顯著提升,日趨接近人腦的特徵。因此,在海淀區教委支持下,智源研究院聯合與海淀區教師進修學校對齊學生測驗方式,考察大模型與人類學生的學科水平差異,其中,答案不唯一的主觀題,由海淀教師親自評卷。
智源評測發現,模型在綜合學科能力上與海淀學生平均水平仍有差距,普遍存在文強理弱的情況,並且對圖表的理解能力不足,大模型未來有很大的提升空間。
北京市海淀區教師進修學校校長姚守梅解讀大模型 K12 學科測試結果時指出,在語文、歷史等人文學科的考試中,模型欠缺對文字背後的文化內涵以及家國情懷的理解。面對歷史地理綜合題時,模型並不能像人類考生一樣有效識別學科屬性。相較於簡單的英語題,模型反而更擅長複雜的英語題。解理科題目時,模型會出現以超出年級知識範圍外的方法解題的情況。當出現無法理解的考題時,模型依然存在明顯的 “幻覺”。
系統化構建文生視頻模型主觀評價體系
中國傳媒大學智能媒體計算實驗室負責人史萍教授表示,相較文本,視頻的主觀評價複雜度極高。自動化指標無法完全捕捉模型生成的質量,更無法對生成視頻的真實性、圖文語義一致性等進行量化。因此,需要系統化構建針對文生視頻模型的主觀評價體系。
該評價體系,由智源研究院與中國傳媒大學基於雙方在大模型評測領域和視頻質量評價領域的豐富科研成果與實踐經驗共同建立,在圖文一致性、真實性、視頻質量、美學質量四大方面給出多維度評分,爲 AIGC 視頻生成技術的應用及發展提供參考。
科學權威公正開放的智源評測體系
依託科技部 “人工智能基礎模型支撐平臺與評測技術” 和工信部 “大模型公共服務平臺” 項目,智源研究院與 10 餘家高校和機構聯合開展大模型評測方法與工具研發。
2023 年 6 月,由智源研究院與多個高校團隊共建的FlagEval大模型評測平臺上線,迄今爲止已完成了 1000 多次覆蓋全球多個開源大模型的評測,並持續發佈評測結果,廣泛地積累了國際領先的評測技術。
智源研究院牽頭成立了 IEEE 大模型評測標準小組 P3419,組織 20 餘家企業及學者參與大模型標準建設,同時作爲《人工智能預訓練模型評測指標與方法》國家標準草案的共建單位,智源此次的模型評測,借鑑了該標準,採取了客觀評測統一規則與主觀評測多重校驗打分相結合的方法。其中,開源模型採用模型發佈方推薦的推理代碼及運行環境,對所有模型統一使用業界通用的提示語,不針對模型做提示語的優化。
本次智源評測使用 20 餘個數據集、超 8 萬道考題,包括與合作單位共建和智源自建的多個評測數據集,如中文多模態多題型理解及推理評測數據集 CMMU、中文語義評測數據集 C-SEM、中文語言及認知主觀評測集 CLCC、面向複雜算法代碼生成任務的評測集TACO、文生圖主觀評測集 Image-gen、多語言文生圖質量評測數據集 MG18、文生視頻模型主觀評測集 CUC T2V prompts。
其中,主觀題 4000 餘道,均來源於自建原創未公開並保持高頻迭代的主觀評測集,嚴格校準打分標準,採取多人獨立匿名評分、嚴格質檢與抽檢相結合的管理機制,降低主觀偏差的影響。此外,爲了更準確地評測語言模型的各項能力,智源專門對所有客觀數據集的子數據集進行了能力標籤映射。
科學權威公正開放,是智源評測的最高綱領。智源研究院院長王仲遠表示,未來,智源將攜手生態合作伙伴繼續共建完善評測體系,促進模型性能的優化以及在多元複雜場景下的產業落地,推動大模型技術應用的有序發展。