谷歌2小時瘋狂復仇,終極殺器硬剛GPT-4o!Gemini顛覆搜索,視頻AI震破Sora
新智元報道
編輯:編輯部
【新智元導讀】昨天被OpenAI提前截胡的谷歌,今天不甘示弱地開啓反擊!大殺器Project Astra效果不輸GPT-4o,文生視頻模型Veo硬剛Sora,用AI徹底顛覆谷歌搜索,Gemini 1.5 Pro達到200萬token上下文……谷歌轟出一連串武器,對OpenAI貼臉開大。
谷歌I/O 2024如期來了,眼花繚亂地發佈了一堆更新。
跟OpenAI半小時的「小而美」發佈會相比,谷歌顯然準備得更加充分,當然,時間也相當之長……
2個多小時的發佈會也是挑戰着觀衆們的極限,在場人羣早已困倒一大片
準備好,谷歌要開始轟炸了。
首先,Gemini 1.5 Pro,上下文長度將達到驚人的200萬token。
然後,面對昨天OpenAI GPT-4o的挑釁,谷歌直接甩出大殺器Project Astra,視覺識別和語音交互效果,跟GPT-4o不相上下。
接着,谷歌祭出文生視頻模型Veo硬剛Sora,效果酷炫,時長超過1分鐘,打破Sora紀錄。
最後來了一個重磅消息:谷歌搜索將被Gemini重塑,形態從此徹底改變!我們不再需要自己點進搜索結果,而是由多步驟推理的AI Overview來代辦一切。
發佈會結束後,劈柴甚至還用Gemini算了一下,整個發佈會共提了121次AI。
Gemini時代,來了
CEO劈柴上來就無視了GPT和Llama的存在,這樣總結道:「我們完全處於Gemini時代」。
並且給出數據:如今全世界使用Gemini的開發者,一共有150萬人。
萬衆矚目的Gemini更新如期而至。
Gemini 1.5 Pro最強特性之一,就是超長的上下文窗口,達到了100萬tokens的級別,超過了目前所有的大語言模型,而且開放給個人用戶使用。
今天,劈柴宣佈:它的上下文token數將會達到2000K(200萬)!相比之下,GPT-4 Turbo只有128K,Claude 3也只有200K。
而這也意味着——你可以給模型輸入2小時視頻、22小時音頻、超過6萬行代碼或者140多萬單詞。
2M長上下文窗口,可以去排隊申請了
這個上下文長度,已經超過了目前所有大模型。
但是,這並不是終點,谷歌的目標是——無限長上下文,不過,這就是後話了。
用籃球講解牛頓運動定律
在這樣的Gemini加持下,我們可以實現許多迅捷的功能。
比如,作爲父母需要了解孩子在學校的情況,就可以在Gmail中要求Gemini識別所有關於學校的電子郵件,然後幫你總結出要點。
如果你錯過了公司會議,但可以拿到一小時時長的會議錄音,Gemini就能立刻幫你總結出會議要點。
爲了幫助學生和教師,在NotebookLM中,谷歌設計了一個「音頻概述」的功能。
把左邊的所有材料作爲輸入,Notebook就可以把它們整合成一個個性化的科學討論了。
對於聽覺學習型學生,這種形式就非常生動。
演示這個demo的Josh表示,自己的兒子第一次看到這個功能時,直接驚掉下巴。
他第一次感覺到,學習不再是死板的,牛頓力學定律居然以通過籃球來學習!
支持多模態的Gemini可以處理你上傳的任何格式的信息,理解內容後將其改造成適合你的形式,與你對話互動了!
Agent:幫你申請退貨
接下來,劈柴展示了Agent的一些例子。
買了一雙鞋子,不合適想退回怎麼辦?
拍一張照片給Agent,它就可以從你的郵箱中搜出訂單後,幫你填寫退貨單了。
再比如,你剛搬到某個城市,Agent就能幫你探索你在這個城市所需的服務了,比如干洗店、幫忙遛狗的人等等。
如果靠我們自己搜索,可是要搜十幾個網站,但Gemini可以發揮自己的「多步推理」能力包攬這些任務,把你需要的信息一次性提供給你!
搜索和整合信息的功能非常強大,輸入新家的地址後,它甚至可以代替軟件問你外賣應該放哪個位置。
總的來說,谷歌的理念就是:利用Gemini的多模態、超長上下文和智能體能力,把世界上的所有信息組織起來,讓它們對每個人都可觸達、可利用。
而最終目標,就是讓AI對每一個人都有用。
谷歌搜索,被Gemini徹底重塑
之前OpenAI一直有意無意放出煙霧彈,聲稱要發佈全新的搜索產品,等於是把刀架在谷歌脖子上了。
果然,谷歌這次不甘示弱,放出了個大的。
從今天開始,在Gemini的加持下,谷歌搜索會徹底變樣。
在搜索框下,會出現一個爲你量身定做的AI總結。
注意,它並不簡單地將所有內容拼湊在一起,而是幫你把活都幹了!
你的問題是什麼樣,它就會幫你做規劃,展示出若干個卡片,讓搜索信息以鮮明的方式被呈現出來。
這次AI Overview即將發佈的另一個重磅功能,就是多步驟推理。
它能將用戶輸入的一個複雜問題分解成多部分,確定需要解決哪些問題,以及用什麼順序解決。
因此,以前可能要花幾分鐘甚至幾個小時的研究,現在幾秒鐘內就可以完成!因爲它將十個問題合而爲一。
比如,如果想找到波士頓最好的瑜伽或普拉提工作室,它會直接搜出來結果,然後幫你整理好情況介紹和工作時間。
只要一次搜索,所有需要的信息就自動呈現出來。
在下面這個例子中,你可以要求谷歌提供一個三天的膳食計劃。
這些食譜被從整個網絡整合出來,清晰又全面。
而且,我們還可以用視頻去搜索了!
比如,該怎麼修這個唱片機?
以前,我們需要進行一堆搜索,確定它的牌子、型號。
現在,直接拍一個視頻丟給谷歌,然後直接開口問:它的這個毛病是什麼原因?
谷歌用AI Overview,給出了最全面的信息。
從此,在谷歌搜索中,你需要做的,就是簡單的「張嘴問」。
對標GPT-4o,Project Astra打造通用AI智能體
我們已經看到,新模型GPT-4o賦予了ChatGPT強大的實時對話能力,讓Her走進現實。
全新AI語音助手,是通往AGI的下一個未來。
對標OpenAI,谷歌DeepMind今天首次對外公佈了「通用AI智能體」新項目——Astra。
其實,昨天谷歌放出了一個demo,已經讓所有人對Astra項目有了初步的瞭解。
而今天,現場的演示更加炸裂。
網友稱,這是谷歌I/O大會中,自己最喜歡的part。
不僅有Astra強大的對答如流的能力,還首次展示了「谷歌AR原型眼鏡」配上AI的震撼演示。
Astra兩部分演示,每段視頻均爲單次拍攝、實時錄製完成
召喚Gemini之後,測試者提出問題,「當你看到會發出聲音的東西時,告訴我」。
它回答道,「我看到一個揚聲器,它可能會發聲」。
接下來,測試者用紅色剪頭指向揚聲器的頂部,再次問道,「這個揚聲器的部件叫什麼」?
Gemini準確理解指令,並答出「這是高音揚聲器,能產生高頻的聲音」。
然後,對着桌上一桶彩色蠟筆,讓Gemini就展示的物體,給出了「押頭韻」的創意——
「Creative crayons color cheerfully. They certainly craft colorful creations.」
Gemini以「c」音重複開頭,生動形象地描繪了用蠟筆歡快塗色,可以創作出許多絢麗多彩作品的場景。
而更讓你意想不到的是,它還可以讀懂代碼。
甚至都不是截屏,而是用攝像頭懟着電腦屏幕拍,然後問Gemini「這部分代碼是做什麼的」?
Gemini看了一眼,就立即給出回答:「此段代碼定義了加密和解密函數。它似乎使用AES CBC加密,根據密鑰和初始化向量對數據進行編碼和解碼」。
再將鏡頭移向窗外,「我在哪個街區」?
Gemini便回答道,「這似乎是倫敦國王十字區,這裡以火車站和交通樞紐而聞名」。
眼鏡找不到了?
直接可以問Gemini,「你記得在哪裡見過我的眼鏡」?
它立刻回想剛剛見到的場景,「是的,我記得。你的眼鏡就在桌子上,旁邊有一個紅蘋果」。
要知道,剛剛這個問題並沒有向它提過,Astra完全是憑自己的視覺記憶回答出來的,簡直成精了。
而Astra的這番表現,直接讓全場倒吸一口涼氣,發出驚呼。
谷歌原型AR眼鏡首現身
接下來的演示,更炫酷了。
剛剛找到的眼鏡,竟是谷歌的原型AR眼鏡!配合上強大的Gemini模型,即將開闢全新的應用。
測試者走到白板前,看向一個「服務器」的構建示意圖,然後問道,「我應該怎樣做能使這個系統更快」?
Gemini表示,「在服務器和數據庫之間,添加緩存可以提高速度」。
再比如,「看到如下圖,會讓你想起什麼」?
——薛定諤的貓!
「在幫我給這對傢伙,起一個二重唱樂隊名字」。
——Golden Stripes
大會上,Hassabis稱,「一直以來,谷歌希望構建一個能在日常生活中真正有所幫助的通用AI智能體。如今,這一願景成爲現實,可以追溯到很多年前。這也是谷歌從頭開始打造多模態Gemini的主要原因」。
真正的通用AI智能體,必須像人類一樣,對複雜、動態的世界做出理解和響應。
它需要接受和記住所看到的內容,以便理解上下文采取行動,並且具備主動性和個性化。
甚至,你可以與其如真人般絲滑交流,沒有任何滯後或延遲。
爲了打造這款全能AI智能體,谷歌DeepMind克服了很困難的工程挑戰——將AI響應時間降低至對話水平。
具體來說,谷歌團隊在Gemini的基礎上,開發了能夠持續編碼視頻幀的智能體。
然後,將視頻和語音多模態輸入,整合到事件時間軸中並緩存,以便實現AI智能體高效召回,更快處理信息。
此外,谷歌還使用廣泛的語調變化,增強了語音輸出效果。
基於這些努力,Astra能夠更好理解上下文,在交談中可以快速做出反應,讓互動的節奏和質量感覺更加自然。
有網友稱,「谷歌的這個Astra項目絕對是遊戲規則的改變者,我們現在生活在一個由個人AI助手組成的世界,聊天機器人現在已經過時了。它可以實時地看、說、聽,幾乎沒有延遲」
當然,這次演示中,谷歌偷偷推出的AR硬件,也成爲網友們的關注點。
谷歌科學家剛剛放出了,用Astra看谷歌I/O大會的演示,可以自己感受下。
圖像、音樂、視頻,面面俱到
與此同時,谷歌大會上再次推出了一系列關於「生成式媒體工具」的最新進展。
其中,包括圖像、音樂,以及視頻模型。
最強AI文生圖Imagen 3
首先,AI文本到圖像生成模型Imagen 3迎來重磅升級。
比起上一代,Imagen 3能生成更多細節、光影豐富,且干擾僞影更少的圖像。
新模型對提示的理解能力,得到顯著提升,可以從較長的提示中,捕獲細節。
如下圖中,對狼的特徵,背景顏色,畫質質量等要求,Imagen 3一致地呈現了出來。
另外,Imagen 3可以生成視覺豐富、高質量的圖像,有良好光照和構圖。
它可以準確地渲染小細節,比如人手上的細微皺紋,以及複雜的紋理。
下圖中,毛絨大象清晰的編織紋理,還有光照,效果鮮明。
Imagen 3還可以在更長的提示中,加入一些微小的細節,比如「野花」、「藍色的小鳥」...
谷歌還極大地改進了Imagen 3的文本渲染能力。
如下圖片提示,「由各種顏色的羽毛組成的「光」字,黑色背景」,然後Imagen 3生成了漂亮的字體。
以下是官方給出的更多演示demo:
左右滑動查看
視頻生成模型Veo,1080p超過60秒
這次谷歌發佈的視頻模型Veo,可以看作是對OpenAI Sora的正面迎戰了。
可以看出,Veo生成的視頻不僅真實,而且在光線、構圖等方面具有驚人的電影感。
Veo的推出建立在DeepMind過去一年各種開創性成果的基礎上,包括GQN、Phenaki、Walt、VideoPoet、Lumiere等等。
谷歌結合了這些成果中最好的架構和技術,提高了一致性、質量和分辨率。
Veo具備1080p的高質量,用戶提示可以是文本、圖像、視頻等各種格式,還能捕捉到其中關於視覺效果和影像風格的各種細節描述。
通過點擊「擴展」按鈕,用戶就可以持續增加視頻的時長,最終,它的時長已經超過Sora達到了1分10秒。
可以看到,在下面這個視頻中,汽車的形狀與周圍環境始終保持一致。
有這種專業級的生成效果,電影製作人可以直接用Veo來協助創作了。
從此,每個人都可以成爲導演,也應該成爲導演。
好消息是,Veo已經開始在官網開放試用了。此外,團隊還開發了實驗性工具VideoFX搭載Veo模型。
申請入口:https://aitestkitchen.withgoogle.com/tools/video-fx
在谷歌官博中,給出了Veo更多演示,還特別強調了均是AI生成,未經過修改:
Music AI Sandbox
在音樂方面,谷歌和Youtube一起構建了Music AI Sandbox。
輸入一段旋律,它就可以進行風格遷移,幫助藝術家們快速實現自己的想法和創意。
爲此,谷歌還特意邀請了許多音樂家、詞曲作者和製作人來測試。
他們驚喜地發現,使用這個新的AI音樂工具,他們居然做出了自己從未想到的音樂!
比如這位音樂製作人,希望把樂曲中的這段旋律變一個風格。
Music AI Sandbox的產出,讓他激動地當場跳起來。
他表示,作爲一個嘻哈音樂製作人,AI帶給他的嘗試空間,是無止境的。
Demis Hassabis:我在思考智能的本質
谷歌DeepMind負責人Hassabis表示,自己從小玩國際象棋時,就一直在思考智能的本質是什麼。
他深信,如果我們能以負責任的方式建造AGI,影響將是深刻的。
谷歌DeepMind自去年成立以來成績斐然。而最近的大成就,就是幾乎可以預測所有生命分子結構和相互作用的AlphaFold 3了。
原生多模態Gemini App
谷歌還打造出了一款Gemini原生多模態應用,可以同時文本、音頻、視頻內容。
一直以來,谷歌希望能夠打造一個有用的個人AI助理。
Gemini App,正重新定義我們的交互方式。
爲了讓我們與Gemini交互更自然,谷歌發佈了Gemini Live。
有了它,你可以在給朋友發消息的同一個程序中,還能與Gemini聊天。
你甚至可以控制自己的說話節奏,或者隨時打斷Gemini回答,如同與真人交流一樣。
比如,你正在爲一場面試做準備,只需要進入Live,讓Gemini陪你一起做準備。
Gemini可以與你進行模擬面試排練,甚至在與潛在僱主交談時應該突出哪些技能,還能提供建議。
谷歌表示,今年晚些時候,會推出攝像頭模式,可以以周圍環境與Gemini實現對話。
與此同時,谷歌還推出了根據個人需求自定義的Gemini專家——Gems。
它可以是你的健身教練、瑜伽夥伴,也可以是你的寫作創意導師、編程夥伴等等。
接下來,谷歌還展示了通過規劃,讓我們如何離AI助手更近一步。
比如,一次旅行的規劃,需要涉及地理、時間、天氣等諸多因素,需要AI能夠做出優先順序和決策的能力。
Gemini Advanced的全新旅行規劃,可以將模型推理和智慧融爲一體,爲人類更好服務。
Ask Photos新功能
在Gemini的加持下,谷歌還會推出Ask Photos的新功能。
比如,如果付停車費時忘了自己的車牌號,就可以直接詢問自己的車牌照片是哪個,不需要翻閱手機裡的大量照片了。
在比如,你可以問它女兒是什麼時候學會游泳的?她的游泳是怎麼進步的?
Gemini會識別衆多照片中的不同場景,將所有相關內容彙總。
Gemini 1.5 Flash:更小,更快,200萬token
根據某些Gemini 1.5 Pro用戶的反饋,一些程序需要更低的延遲和服務成本。
針對這一點,谷歌發佈了Gemini 1.5 Flash。
跟Pro比,Flash是一個更輕量級的模型,專爲那些對響應速度要求極高的特定或頻繁任務優化。
並且,它同樣具有多模態、1M tokens長上下文的特點,只不過實現了輕量化、低延遲、高效推理,每百萬個token的價格僅是Pro版的二十分之一。
今天起,Gemini 1.5 Flash在Google AI Studio和Vertex AI中就可用了,開發者可以註冊申請兩百萬token的內測版。
此外,爲了方便開發者,谷歌還對Gemini的API功能進行了三項優化——視頻幀提取、並行函數調用和上下文緩存。
第六代TPU Trillium,4.7倍性能提升
在背後給這些技術進步提供基礎設施的,就是谷歌的TPU。
簡單來說,相較於TPU v5e,第六代Trillium TPU在性能上實現了高達4.7倍的提升,並在能效上提升了超過67%。
爲了實現這一飛躍,谷歌增大了矩陣乘法單元(MXUs)的規模並提升了時鐘速度。
併爲Trillium配備了第三代SparseCore——專門用於處理高級排序和推薦工作負載中常見的超大嵌入的加速器。
在這裡,SparseCores可以通過從TensorCores策略性地卸載隨機和細粒度訪問,有效加速了重嵌入型工作負載。
與此同時,谷歌還將高帶寬存儲器(HBM)的容量和帶寬翻倍,並將芯片間互連(ICI)的帶寬提升了一倍。
由此,Trillium可以支持更加複雜的模型,擁有更多的權重和更大的鍵值緩存,並大幅縮短了大模型的訓練時間和響應延遲。
在一個高帶寬、低延遲的Pod中,Trillium可以擴展至256個TPU。
而通過多切片技術和Titanium智能處理單元(IPU),Trillium還可以進一步擴展——通過數百個Pod,連接數以萬計的芯片,並在一個多千兆位每秒的數據中心網絡支持下,組成一個超大規模的超級計算機。
更多的開源模型
最後,谷歌還發布了自家首個視覺-語言開源模型——PaliGemma,專門針對圖像標註、視覺問答及其他圖像標籤化任務進行了優化。
不僅如此,谷歌還將在6月推出規模更大的開源模型——Gemma 2 27B。
在性能方面,全新的Gemma 27B不僅超越了規模大了2倍還多的模型,而且還能在GPU或單個TPU主機上高效運行。
參考資料:
https://blog.google/technology/developers/gemini-gemma-developer-updates-may-2024/
https://cloud.google.com/blog/products/compute/introducing-trillium-6th-gen-tpus?e=48754805
https://www.youtube.com/watch?v=XEzRZ35urlk