Nvidia 推出面向智能代理 AI 的新型防護微服務

Nvidia 今天爲其 Nvidia NeMo Guardrails 軟件工具新增了用於 AI 防護的 Nvidia 推理微服務 (NIMs)。這些新的微服務旨在幫助企業提高智能代理 AI 應用的準確性、安全性和控制力,解決了 IT 領導者在採用該技術時的主要顧慮。

"目前已有十分之一的組織正在使用 AI 代理,超過 80% 的組織計劃在未來三年內採用 AI 代理," Nvidia 企業 AI 模型、軟件和服務副總裁 Kari Briski 在週三的新聞發佈會上表示。"這意味着你不僅要構建能準確完成任務的代理,還必須評估 AI 代理是否滿足安全性、數據隱私和治理要求,這可能成爲部署的主要障礙。"

Briski 解釋說,除了信任、安全和合規性之外,成功部署 AI 代理還需要確保其性能。它們必須在保持快速響應的同時,維持與終端用戶和其他 AI 代理交互時的準確性。爲此,Nvidia 今天推出了三個新的 NeMo Guardrails NIMs,用於內容安全、話題控制和越獄檢測。

內容安全 NIM 旨在防止 AI 產生偏見或有害輸出,確保生成式 AI 的響應符合道德標準。它基於 Nvidia 的開源 Aegis 內容安全數據集進行訓練,該數據集包含 35,000 個經人工標註的 AI 安全標記樣本。Aegis 用於教導 AI 如何審覈其他 AI 模型生成的潛在有害內容。

話題控制 NIM 使 AI 代理保持專注於已批准的話題,防止其偏離主題或涉及不當內容。例如,它可以防止 AI 代理討論競爭對手的產品。

越獄檢測 NIM 通過防止試圖繞過智能代理 AI 安全防護的"越獄"行爲,幫助在"對抗場景"中維護 AI 的完整性。它基於 Nvidia Garak 構建,這是一個開源的漏洞掃描工具包,使用 17,000 個已知越獄案例進行訓練。

通過防護實現更好的治理

NeMo Guardrails 是 NeMo 平臺的一部分,這是一個用於定義、編排和執行 AI 代理及其他生成式 AI 應用模型策略的可擴展平臺。

"防護機制通過對 AI 模型、代理和系統執行規範,幫助維護 AI 運營的可信度和可靠性,"Briski 說。"它有助於保持 AI 代理的正常運行。"

例如,這些新的微服務可以幫助汽車製造商創建用於車輛操作的 AI 代理,協助用戶控制空調、調節座椅、娛樂信息、導航等功能。製造商可以使用這些微服務來指定禁止的話題,如其他汽車品牌或提供背書和意見。

NeMo Guardrails 利用小型語言模型 (SLMs),其延遲低於大語言模型,這意味着它們可以在資源受限或分佈式環境中高效運行。Briski 指出,這些模型非常適合在醫療保健、汽車和製造業等行業擴展 AI 應用。一些 CIO 已經開始轉向 SLMs 尋求專用解決方案,將其作爲更通用的大語言模型的替代方案。

雖然可以使用默認配置的 NeMo Guardrails,但 Briski 表示其真正的力量在於定製和擴展防護功能。

"使用多個可定製的防護機制很重要,因爲沒有一種方案能適用於所有場景,"她說。"不同用例、品牌、公司準則,甚至基於行業和地理位置的不同監管要求都有各自的政策和要求。開發人員希望能夠爲其特定需求和不同智能代理 AI 系統的各種要求選擇合適的防護機制。"

Briski 表示,IT 部門現在將成爲"代理的人力資源部門",這正是新的微服務發揮作用的地方,允許開發人員應用多個輕量級的專用模型作爲防護措施,以填補僅依靠更通用的全局策略和保護時可能出現的空白。

這些新的微服務,以及用於防護編排的 NeMo Guardrails 和 Nvidia Garak 工具包,現在都已向開發人員和企業開放使用。