具身智能、超級應用加速落地 AI風險治理成焦點

作者 |《財經》新媒體 撰稿人 舒志娟/文 編輯 | 王婧雅

2025年,人工智能領域將迎來一場重大變革。近日,智源人工智能研究院發佈《十大AI技術及應用趨勢》報告顯示,具身智能將成爲AI技術及應用的重要焦點,它將AI融入機器人等實體,使它們具備類似感知、學習、交互能力。同時,超級應用的熱度也在不斷攀升,成爲人們日常生活中不可或缺的智能助手。多模態大模型亦在加速突破,將進一步提升AI的應用範圍和效果。

這些趨勢預示着,AI技術將在多模態整合、智能體應用、合成數據等領域掀起新的浪潮。而隨着AI應用持續走深向實,行業大模型將在金融、醫療、教育、零售、能源等多個行業領域實現了廣泛應用。據IDC最新公佈數據顯示,預計到2030年,AI將爲全球經濟貢獻19.9萬億美元,推動全球GDP增長3.5%。

值得注意的是,AI技術的快速發展在帶來便利的同時也帶來了挑戰。深度學習模型複雜性的增加讓AI的安全性和治理問題變得愈發重要。如何引入新的技術監管方法,以及在人工監管上平衡行業發展和風險管控,成爲了當前行業面臨的重要課題。

具身智能、超級應用迎發展元年

具身智能將成爲2025年AI技術及應用的重要焦點之一。這一技術作爲連接虛擬空間和現實空間的橋樑,將AI融入機器人等物理實體,使它們具備了類似人類的感知、學習和與環境交互能力。人形機器人作爲該領域的標誌性實體,截止2024年底,國內已發佈或者在研人形機器人廠商接近100家,融資規模超100億元。未來,部分人形機器人有望迎來量產。

相較於傳統工業機器人的“固定程序+機械臂”的模式,具身智能機器人實現了“多模態感知+大腦決策”的迭代,大幅提升了智能化水平。目前,銀河通用的Galbot機器人已經應用於美團24小時無人值守藥房;而智源研究院聯合高校院所,建設具身智能創新平臺,深化數據、模型及場景驗證等研究。

智源研究院副院長兼總工程師林詠華指出,具身智能的研究正由硬件主導轉向更高級認知能力的智能系統發展。未來,國內具身智能初創公司或將經歷洗牌,技術路線上端到端模型將持續迭代。在商業變現方面則更多聚焦於工業場景下的應用,部分人形機器人將迎來量產。

在全球數字經濟的浪潮中,超級應用正逐漸成爲新寵兒。從用戶規模、交互頻次及停留時長等維度來看,AI應用熱度持續攀升,已到應用爆發的黎明前夕。在服務類智能體賽道,螞蟻集團旗下支小寶、螞小財等系列AI管家產品,正重塑AI產品形態。

在智源研究院行業研究組負責人倪賢豪看來,儘管移動互聯網用戶增速已見頂,但非網民用戶羣體中仍存在規模龐大、具備消費能力但因代際原因難以便捷入網的用戶。針對這些用戶的非現金支付、信息獲取、線上服務需求,基於較好的基礎模型結合不同能力對應的廠商接口適配,打造滿足其需求的超級應用是可行的。然而,如何對接不同廠商完成接口適配、封裝成爲同樣重要的問題,這對廠商渠道建設和運營能力提出了更高要求。

倪賢豪認爲,在超級應用的比拼中,大廠因具備成熟的渠道建設能力而更具優勢,而創業公司則需從零開始,面臨較大挑戰。

此外,報告還提及AI在科學研究中的迅速發展。林詠華指出,未來將有更多科研人員利用AI輔助進行復雜研究,特別是在生物醫學、氣候變化和新材料發現等領域,AI不僅能優化科研流程,還能從海量數據中提取有用信息,爲科學創新提供新動力。

AI安全治理體系仍待完善

AI技術的飛速發展在帶來巨大潛力的同時,也引發了一系列社會與倫理問題。業內普遍認爲,隨着AI模型能力的提升,其潛在風險也隨之增加,確保AI系統的安全性和可控性成爲未來必須面對的重要挑戰。

大模型的風險主要包括生成幻覺、隱私敏感數據泄露、價值觀導向問題、專業度缺失、倫理問題等。此外,作爲信息系統,大模型還面臨傳統安全問題,如漏洞導致的模型丟失、數據泄露、可用性問題等。長遠來看,大模型的不可控性或對社會造成損害,存在被惡意應用和失控的風險。

螞蟻集團科技戰略與執行部副總經理彭晉指出,大模型安全問題主要源於其生成式架構的特性。在海量數據與算力的壓縮過程中,信息損失導致生成結果可能出現幻覺,且輸入數據的質量參差不齊,存在有害樣本和導向性問題,進一步惡化了生成質量。同時,訓練過程中涉及的個人信息與版權數據,也引發了治理層面的安全擔憂。

此外,AI安全具有“對抗性”特徵,這是一種此消彼長的關係。也就是說,當攻擊手段增強時,防禦手段也會相應提升,因此,在大型模型的安全能力方面,需要不斷地提升攻防兩端的實力,而採用“大模型對抗大模型”的方法,是一個積極的發展趨勢。另外,在安全圍欄技術方面,需要確保輸入和輸出的安全性,降低遭受攻擊的風險,通過建立一套完整的策略系統和安全防護組合,推動AI大模型的安全應用落地。

過去一年,國內外在AI模型治理方面做了大量工作。網絡安全標準化委員會制定了生成式人工智能服務的要求;OpenAI和Google等也發佈了安全措施和模型安全框架;螞蟻的“倚天劍”安全解決方案,則從模型開發生命週期出發,涵蓋語料管理、模型安全性管理、輸出管理等環節,爲大模型的安全應用提供了有力保障。

“未來大模型安全問題還需關注數據枯竭、合規治理、可解釋性等關鍵點。數據孤島和算力分離情況下,如何保證數據訓練安全,隱私計算、聯邦學習等技術的應用至關重要。”彭晉強調,儘管已有法律標準對個人信息保護進行規範,但缺乏實際操作指導,需要進一步細化。從更長遠角度看,大模型的可信性,包括可控性、專業性、可靠性、安全性,是實現人機協同的關鍵,未來還需在更寬泛的領域進行深入研究。