每位CIO必須回答的六個AI戰略問題

如果研究結果無誤,那么大多數AI計劃都未能達成目標。
根據近期多份報告,這些計劃未能實現規模化應用、解決問題、滿足客戶需求或創造價值。
其中一份值得關注的報告是麻省理工學院發布的《2025年企業AI現狀報告》,該報告得出結論:盡管企業在生成式AI上投入了300億至400億美元,但仍有95%的企業未獲得任何回報。
然而,也有一些AI成功案例,在這些案例中,企業部署了AI,并在效率、生產力、市場差異化等方面獲得了足夠的可量化回報,從而宣告成功。
例如,Gartner在2025年的一項調查中發現,“在AI成熟度較高的企業中,45%的領導者表示,他們的AI計劃至少持續了三年,以確保產生持續的影響和價值。”
研究那些AI成功案例的專家以及取得這些成功的企業高管們表示,成功的AI戰略涉及許多因素。
Gartner在其《2025年成功AI戰略的支柱》報告中指出:“AI潛在的巨大商業價值不會自發地實現,AI領導者應引導其企業進入一個時代,在這個時代,AI不僅能創造實實在在的商業價值,還能超越這一層面,成為關鍵的競爭差異因素和行業顛覆者。”
研究人員、顧問和CIO們表示,不出所料,成功的AI戰略沒有單一的公式,每個企業都必須確定自己的道路。希望為AI戰略確定正確方向的CIO們應該向自己和企業提出以下關鍵問題。
1. 我們是否專注于希望AI實現的成果?
AI為重塑工作方式以及與客戶互動的方式提供了大量機會。
Principal Financial Group執行副總裁兼CIO Kathy Kay表示,為了避免采取散射式方法,CIO們需要問自己和同事,他們的AI計劃是否與他們希望為企業實現的成果相契合。否則,她表示:“我們只是在制造AI泛濫,增加技術債務。”
Kay說,高管們應明確闡述他們希望實現的具體成果,無論是提高效率、改善客戶體驗還是加快業務增長,并確保這些成果與業務目標相契合。
她解釋說,高管們不應像通常那樣,專注于使用AI來重塑某個流程或任務,因為這樣做可能無法實現期望的成果。
例如,投資AI來輔助或接管電子郵件撰寫工作——這是生成式AI在完成任務方面的一種流行應用。這看似是一個輕而易舉就能節省員工時間,從而帶來投資回報率的機會,但是,如果在一個企業中,電子郵件并不占用員工太多時間,也無法提供任何差異化價值,那么將AI應用于這項任務可能不會產生任何具有可衡量價值的成果。
Kay承認,專注于成果而非重塑任務是一個微妙的區別,但她強調這一點很重要,因為它迫使高管們確定他們的AI計劃是否會帶來真正的商業價值。
另一種揭示這一點的方法是問:“我們是否知道我們試圖用AI戰略解決的問題是什么,以免我們愛上解決方案?”Kay說。
據其他專家和從業者稱,CIO們還可以這樣提問:“AI戰略將解決客戶的哪些需求和期望?”以及“我們的AI戰略將創造什么價值?”和“我們所做的事情與我們的業務重點如何契合?”
Protiviti技術咨詢業務董事總經理Peter Mottram表示:“CIO們必須有一個漏斗,將有價值的用例引入其中,并通過KPI和衡量標準來衡量其是否實現了預期成果。”
2. 我們對AI的風險承受能力如何——以及我們如何調整戰略以與之匹配?
CIO們及其高管同事們認識到AI會帶來風險,但TD Bank執行副總裁兼分析、情報和AI負責人Ted Paris表示,僅僅闡述這些風險是不夠的。他說,高層領導團隊需要問:“這個[AI計劃]在我們的風險承受能力范圍內處于什么位置?我們對這個特定解決方案以及我們為其用例部署它的能力有何看法?我們必須滿足哪些條件才能部署它?”
研究表明,許多高管對這些問題沒有好的答案。
根據專業服務公司安永2025年10月發布的《負責任的AI現狀調查》,99%的受訪公司報告稱因AI相關風險而遭受財務損失,其中64%的公司損失超過100萬美元。該調查還發現,只有12%的高層領導能夠識別出針對五大關鍵AI風險的適當控制措施。此外,調查顯示,39%的員工對自身負責任地使用AI缺乏信心。
安永在其報告中指出:“投資于人工監督和安全提示至關重要。”
Kay建議建立風險評估流程和緩解流程,而Paris則建議CIO們與風險、法律、隱私和安全領導者合作,創建一個風險框架,以指導識別風險并制定適當級別的控制措施。
專業服務公司德勤的負責人兼美國AI與工程戰略及服務領導者Faruk Muratovic補充說:“需要集中實施一套必須遵守的防護措施,即引入針對某些類型流程的自主性和代理機制所必須滿足的原則,并且這需要在整個企業中滲透,以確保整個企業負責任地使用AI。”
3. 我們是否在創新與信任之間取得了恰當的平衡?
金融公司Vanguard的負責人兼咨詢與財富管理技術主管Charles Thompson表示,圍繞信任的問題也很重要,并補充說,沒有信任的AI創新是不可持續的。
他解釋說:“隨著企業將AI嵌入產品、服務和運營中,他們必須在內部和外部都增強信心。對于外部客戶,AI必須提供透明度、安全性和公平性。對于內部客戶/員工,AI必須具有可解釋性、可靠性,并且旨在支持而非取代人類判斷。”
他說,CIO們“必須在速度與管理之間取得平衡,在推動進步的同時保障數據完整性、客戶隱私和品牌聲譽,這是一個微妙但至關重要的平衡。”
Thompson補充說:“如果創新因規避風險而受到限制,則應重新調整以允許在明確治理框架下進行可控實驗。如果實驗超出了監督范圍,則應暫停以強化問責制和透明度框架。”
他還認為,CIO們需要向客戶和員工清楚地傳達AI的使用方式以及為何對他們有益,以便他們了解AI在流程中的位置,并學會信任它。
4. 我們的數據戰略是否真正為AI做好了準備?
SS&C Technologies的CIO兼首席技術官Anthony Caiafa表示,隨著企業制定AI戰略并追求特定的AI應用,他們需要確定哪些數據將進出,以及他們是否對這些數據進行了適當的管理。
“你知道你需要哪些數據集嗎?你知道你想與之交互的數據集嗎?你是否需要擔心數據本地化問題?”Caiafa問道。
Caiafa說,這些只是開始,他指出,隨著CIO們推進AI計劃,還有數十個與數據相關的問題需要他們回答。
例如,CIO們應該問,他們的企業是否甚至有權使用特定AI計劃所需的數據。正如Caiafa所解釋的,一個企業可能手頭有特定AI用例所需的客戶數據,但如果使用這些數據,可能會違反監管或合同條款。
盡管數據準備至關重要,但大多數企業領導者——包括CIO們——在踏上AI之旅之前并沒有應該有的答案。根據數據安全供應商Immuta發布的《2025年數據安全現狀報告》,55%的數據領導者表示,他們的數據安全戰略未能跟上AI的發展步伐。該報告還指出,64%的數據領導者在為授權用戶提供及時且安全的數據訪問方面面臨重大挑戰。
當然,CIO們必須與企業的數據領導者合作以克服這一挑戰,但Caiafa說,他們還需要業務領導者思考并回答數據準備問題,因為業務領導者應該擁有對其部門有益的AI用例——并且應該了解并擁有實現成功成果所需的數據。
Muratovic表示,對于大多數企業來說,圍繞數據準備的問題是一個重大障礙。
他說:“采用AI的最大障礙之一是數據未準備好,或者未正確合成或整理,因此無法被AI工具利用。因此,CIO們需要問:‘我們如何制定戰略,以使數據要求和可訪問性與我們的AI計劃相契合?’并且他們不僅需要考慮數據,還需要考慮數據基礎設施,無論數據是存儲在本地還是需要遷移到云端,或者AI用例是否需要將數據遷回本地以降低延遲或成本。”
5. 我們如何確保企業內AI的使用安全?
企業AI的應用正在擴大企業必須保護和防御的攻擊面,CIO們有責任詢問防御戰略——而不僅僅是將其留給CISO在事后加強安全措施,Booz Allen Hamilton商業AI解決方案副總裁Matt Costello表示。
“這些工具帶來了真正的安全挑戰。”他補充說。
這也是一項緊迫任務,因為企業正在看到其AI工具受到攻擊。
Gartner在2025年春季的一項調查中,29%的網絡安全領導者表示,他們的企業在過去12個月內遭受了對企業生成式AI應用基礎設施的攻擊,32%的領導者表示,他們經歷了對利用應用提示的AI應用的攻擊。
Gartner在發布調查結果時寫道:“聊天機器人助手容易受到各種對抗性提示技術的影響,例如攻擊者生成提示以操縱大型語言模型或多模態模型,使其生成有偏見或惡意的輸出。”
Costello說,雖然金融等受監管行業的企業更有可能制定了成熟的AI安全戰略,但大多數其他行業的企業仍在努力了解威脅以及應對這些威脅所需的安全措施。
他補充說,CIO們還必須詢問其AI工具的供應鏈,包括嵌入在SaaS產品中的AI功能,以及這些工具帶來的安全風險。
他說:“CIO們還必須問他們是否在使用安全的流程構建AI工具,”他解釋說,AI平臺與其他任何軟件一樣,都容易受到類似Apache Log4j漏洞的問題的影響。
“CIO們需要關注從企業外部進入的AI,因為這可能會引入安全風險,”他補充說,安全、法律和風險團隊都應參與提出和回答圍繞AI安全需求的問題。
6. 我們希望將多少工作和決策權交給AI?
隨著AI的進步以及企業在使用AI方面變得更加熟練,Protiviti的Mottram表示,CIO們應該讓同事們考慮將多少工作和決策權從人類手中轉移給AI。
他說:“你必須考慮控制點在哪里,你希望給機器多少權力,你希望有多少制衡機制,”他補充說,隨著企業開始更大量地投資于能夠自主做出并執行決策的智能體AI系統,提出并回答這些問題將變得越來越重要。

































