讓AI保持未來競爭力的明智舉措

在采訪中,普華永道美國公司網絡、數據和技術風險業務主管羅漢·森(Rohan Sen)探討了企業如何從設計之初就為自主式AI構建完善的治理體系。隨著AI日益融入商業生態系統,忽視智能體的安全性可能引發聲譽、運營和合規風險。
在設計自主式智能體時,從一開始就必須納入哪些最關鍵的治理和風險控制機制?你能否舉例說明,在實踐中的良好實施與薄弱實施分別是什么樣的?
最關鍵的一步是將自主式智能體視為具有現實影響的數字身份,要求其接受與人類用戶同等水平的治理,這包括從一開始就實施最小權限訪問原則、分配唯一憑證,并記錄所有操作以確保完全可審計性。
完善的實施體系會構建分層防護機制:嚴格限定權限范圍、設置沙盒環境、明確嚴格的升級路徑,并進行實時監控,這些控制措施使企業能夠根據需要監督、限制和回滾智能體的活動。
薄弱的實施體系則將智能體視為簡單的自動化工具,賦予其廣泛權限,卻缺乏所有權或監督機制。由于沒有輸入驗證或使用控制,智能體容易受到提示注入和對抗性操縱的影響,從而成為安全盲點。
歸根結底,區別在于企業對智能體的身份、權限和風險重視程度。治理良好的智能體會受到監督和限制,而治理不善的智能體則可能引發事故。
從你的角度來看,在未來12至24個月內,治理不善的自主式智能體最有可能引發哪些運營或聲譽風險?
在未來12至24個月內,自主式智能體最直接的風險包括:
? 冒名頂替和品牌受損:惡意行為者可以利用未受保護的智能體冒充高管、員工或客服,從而導致網絡釣魚、欺詐和聲譽受損。
? 非預期業務行為:擁有財務工作流程、供應商系統或敏感數據控制權的過度授權智能體,可能會在無人監督的情況下發起不可逆轉的操作,一個不良輸出就可能引發嚴重后果。
? 監管和合規風險:處理個人或敏感數據的智能體可能會無意中違反隱私或披露規定。許多智能體缺乏內置的可解釋性,導致難以證明合規性或調查有害結果,這一漏洞增加了審計、罰款或法律訴訟的風險。
? 事件響應不足:許多企業不具備實時檢測、隔離或修復行為異常智能體的能力。如果沒有專門的框架和遏制工具,響應工作可能過于遲緩,無法防止損害發生。
為增強AI生態系統的韌性,企業和IT安全領導者今天應采取哪些具體措施,特別是針對那些做出決策或采取自主行動的智能體?
企業和IT安全領導者增強AI生態系統韌性的措施包括:
? 將智能體視為行為主體,而非工具:將自主式智能體視為具有實際影響力且可能影響系統、決策和數據的實體,要求其接受與高權限人類用戶同等的治理和監督。
? 在部署前實施強大的基礎控制:在賦予自主權之前,實施最小權限訪問原則、分配唯一憑證、使用強大的身份驗證機制,并確保所有智能體操作都被不可篡改地記錄下來。
? 定期進行紅隊演練和壓力測試:模擬提示注入、對抗性輸入和邏輯陷阱等場景,以發現漏洞并驗證現有控制在現實條件下的有效性。
? 根據風險和自主性對智能體進行分類:開發分層系統,區分低風險和高風險智能體,對高風險功能應用更強的防護措施,如人工審核、實時監控或自動關閉。
? 提高全組織意識并做好準備:確保安全、人力資源、財務和運營等團隊了解智能體的工作原理、可能被利用的方式以及出現問題時的應對措施。
如果由于提示注入、意外行為或對抗性輸入,自主式智能體開始超出預期范圍行事,完善的應急響應計劃應包含哪些內容?
AI智能體的事件響應始于準備,這意味著要建立一個所有已部署智能體的注冊表,詳細記錄它們訪問的系統、擁有的權限以及所有者,此外,還需設定行為基準和檢測閾值,監控數據訪問異常、輸出量異常或決策路徑陌生等偏差情況。
領導者還應確認已設置并定期測試預定義的緊急關閉開關、可快速關閉的訪問權限或隔離工具,這些工具能夠在不要求完全關閉系統的情況下實現快速遏制。
強有力的響應還必須涉及法律、合規、溝通和領導團隊,如果事件影響客戶、觸發監管閾值或引起媒體關注,跨團隊協作至關重要,企業需要針對AI特定風險量身定制的事件響應計劃,并確保所有相關人員都經過測試、完善并理解該計劃。
購買方應向AI供應商提出哪些關鍵問題,以確保自己不會繼承隱藏的治理或合規問題?
在評估AI供應商時,應優先詢問有關治理、安全和風險控制的問題,首先,詢問智能體如何進行身份驗證和授權,尋找基于角色的訪問控制、限定權限范圍和完整審計跟蹤。如果供應商無法解釋這些問題,則是一個危險信號。
接下來,詢問采取了哪些防護措施來防止不安全決策,有力的回答將提及策略執行、沙盒化、升級邏輯和實時覆蓋,還要詢問對抗性測試情況,特別是供應商如何防范提示注入和意外行為。
可見性也至關重要,確認你是否可以訪問跟蹤每項操作的防篡改日志,因為沒有這些日志,一旦出現問題,你可能會失去控制權,最后,詢問供應商遵循哪些治理框架,如果他們無法描述其風險態勢,你很可能會繼承他們尚未解決的風險。























