人工智能普及爲何頻頻受阻?真相在此!

儘管採用率很快,但首席執行官和行業領袖強調了一些關鍵問題,他們表示這些問題阻礙了全面採用:開放模型的複雜性、數據隱私問題、集成挑戰和成本。

在本文中,我們與領導公司並負責在現實世界中評估人工智能的人員進行了交談。

當前的人工智能模型主要是開源的,雖然這有利於提高透明度,但也使它們容易暴露在脆弱性之下。

馬特·哈桑博士是 aiRESULTS 公司的首席執行官,該公司致力於提供特別是在人工智能驅動技術方面的顛覆性解決方案。他的職業生涯使他成爲將複雜分析應用於開發業務解決方案的先驅,並在人工智能成爲公認的力量之前成爲其支持者。

他認爲開源是人工智能背後的主要阻礙因素:“開放人工智能模型的透明性是一把雙刃劍。它在加速發展的同時,也爲潛在攻擊者創造了一個活動場所。”他說。

亞歷克斯·烏加特是倫敦辦公空間的運營經理,這是一家在線經紀服務公司,幫助企業在英國首都找到最佳的工作空間解決方案。

負責我們數字經紀業務的端到端業務運營,他還負責將最新的數字工具和平臺(如人工智能)引入流程。

由於我們在商業地產領域的地位,我也得以深入瞭解我們最成功的商業租戶是如何設法將人工智能融入其流程的。

“開源人工智能模型確實提供了透明度,但也帶來了風險。對抗性攻擊的可能性着實令人擔憂。”烏加特說。

保羅·弗格森,人工智能顧問和Clearlead AI 諮詢公司的創始人,在該領域擁有超過 20 年的經驗,包括人工智能博士學位。他認爲開放人工智能模型面臨着類似的挑戰:

“由於要減輕這些風險,需要大量的定製和安全措施,所以對這些漏洞保持警惕的行業在採用人工智能時往往猶豫不決。”

“按照具體需求定製開源模型並確保其免受攻擊,可能既需要大量資源,在技術上也頗具挑戰性。”

“開放人工智能模型雖然對促進創新頗具價值,但確實帶來了讓組織難以減輕的安全風險。”

“在我與中小企業的合作過程中,我看到了缺乏專門的人工智能資源和專業知識是如何阻礙這些模型安全實施的。”

“解決這些漏洞往往需要在人才和基礎設施方面投入大量資金,這對許多公司來說難以證明其合理性。”他說。

數據隱私

開放人工智能模型還引發了數據隱私問題。人工智能系統通常需要大量數據纔能有效運轉,這引發了人們對於數據隱私和安全的擔憂。

處理敏感信息的行業,比如醫療保健和金融行業,尤其謹慎,擔心出現數據泄露或濫用的情況。

據秘密網絡基金會執行董事麗莎·勞德所言,鑑於當前人工智能模型的主導地位,隱私,或者更確切地講,缺乏隱私,乃是問題的核心所在。

“坦率地說,大多數行業在實際和有效地採用人工智能方面都有落後的危險。造成這種情況的原因雖有若干,但最爲重要的一個在於,儘管當前版本的人工智能是由大型知名科技公司提供的,但它們都是基於開放模型的,”勞德說。

公司、政府甚至個人都開始意識到,使用這些開放的人工智能模型,即使是在非常基礎的層面上,意味着所有的輸入和提示以及任何結果都會被吸入人工智能模型。這致使在線世界中的所有已知數據,連同任何錯誤、不良數據以及機密數據,均被人工智能模型全盤吸納。除了傳播不良信息的危險之外,這意味着在開放的人工智能世界中,數據沒有藏身之地。

“要讓人工智能發揮實效,它得去中心化、無需許可並且保密。這就是爲什麼秘密網絡的解決方案對於有效人工智能的發展至關重要——我們不僅提供保密計算,而且它是去中心化、無需許可的,就像所有區塊鏈一樣,也是端到端加密的。這是保密人工智能開發者的先決條件。

“一旦我們看到使用這種端到端無需許可加密的人工智能的發展,我們將開始看到許多行業採用實用、有用的人工智能工具,”勞德說。

她接着詳細闡述了能夠部署保密人工智能工具的一個具體領域爲用戶界面設計領域。

“公司能夠通過對用戶與其產品交互的測量和解釋,來對用戶體驗的具體改進進行投資。想象一下,如果你的銀行每次你使用其應用程序時都會進行調整,以便更容易找到你最常使用的東西。但如果沒有保密性,他們投資學習的方法和見解可能會被其他任何銀行使用,他們就會失去競爭優勢,”她說。

機密計算對於人工智能在多數行業成爲被廣泛應用的技術而言,是至關重要的。

Autonomys(致力於人類和人工智能的激進自主網絡)的首席執行官拉貝什·帕特爾(Labhesh Patel)對此表示認同:

“數據隱私不單是合規方面的問題,更是關乎信任的問題。隨着人工智能愈發普及,公司務必要優先考量強有力的數據保護舉措。公司需要將隱私設計原則納入其中,以確保企業在運用人工智能時不會損害客戶的信任或者數據安全。”

弗格森指出,某些行業對隱私的需求超過了人工智能所帶來的好處

“在諸如醫療保健和金融這類處理敏感信息的行業中,數據隱私問題尤爲突出。雖說技術保障極爲關鍵,但也需要強大的數據治理框架以及明確的道德準則。通過透明度和問責制來建立信任,對於克服這一障礙起着至關重要的作用。行業需要確保其數據會得到負責任的處理並且符合法規。”

然而,僅僅提供機密計算是遠遠不夠的,將人工智能集成至現有系統當中,需要對基礎設施和流程做出重大的變更。許多組織發覺很難讓人工智能解決方案與他們的遺留系統相適配,從而導致了採用的延遲。另外,缺乏熟練人員來對人工智能進行有效的管理和實施,這也加大了難度。

帕特爾因此主張 Autonomys 採用分階段的方法

“成功採用人工智能的關鍵,不僅在於擁有前沿技術,還在於將該技術無縫融入現有的業務流程之中。在 Autonomys,我們發現分階段的方法,結合全面的培訓計劃,可以顯著緩解過渡,並幫助組織克服人工智能集成的初始障礙,”他說。

其他問題包括成本和投資回報率的不確定性。實施人工智能解決方案可能很昂貴,且投資回報率(ROI)無法保證。初始設置成本、持續維護以及對專業人才的需求使其成爲一項重大的財務承諾。在沒有人工智能財務效益的明確證據之前,許多行業都不願進行大量投資。

最後,由於人工智能的監管環境仍在不斷髮展,一些部門,特別是金融和醫療保健部門,將需要嚴格的法規,使人工智能的部署變得複雜。圍繞未來法規的不確定性也導致行業推遲採用人工智能,直到建立更明確的指導方針。

因此,雖然營銷人員和銷售人員爲業務採用人工智能的狂熱衝動有充分的記錄,但首席執行官和首席運營官更爲謹慎的方法很可能會減緩實施的進程——至少在解決對成本、隱私和集成的擔憂之前。