人工智能如何應對信任危機
在未來十年,人工智能有一個領域需要改進:透明度。但人工智能將如何應對“信任危機”呢?
人工智能更像一個黑匣子。只有開發(fā)者知道里面的算法是如何運作的,但對于其他人來說,AI的機制仍然很模糊。企業(yè)希望用戶相信人工智能的運行和判斷是完整且準確的。但如果不了解這些運作的來源——哪些數據和邏輯構成了它們的基礎——就很難讓我們相信人工智能。
隨著人工智能進入日常生活,這種透明度的缺乏越來越不可接受。從招聘決定到警察行動,一切都由人工智能決定時,怎么保障其準確和公平。隨著這些趨勢的繼續(xù),人工智能提出了關于偏見、公平和對機器的信任的難題。例如,亞馬遜開發(fā)的人工智能招聘工具被發(fā)現(xiàn)對女性有偏見。這一發(fā)現(xiàn)表明,這項技術遠沒有預期的那么客觀。
經濟合作與發(fā)展組織(OECD)等機構組織已經開始要求提高人工智能的透明度。歐盟通過的具有里程碑意義的《通用數據保護條例》(GDPR)允許個人了解算法如何利用其數據。這些都是朝著正確方向邁出的步驟,也清楚地表明了人工智能的發(fā)展方向。但讓人工智能過于透明也存在風險。
為什么人工智能在陰影中蓬勃發(fā)展
當人工智能變得更透明時,它也更容易被操縱。把它想象成一個保險箱——一旦你揭示了鎖機制的工作原理,保險箱就會變得更容易被破解。
對于不透明的AI所造成的所有問題,我們很容易想象,當AI的內部工作方式暴露出來時,也會出現(xiàn)同樣多的問題。一旦糟糕的參與者理解了算法的工作方式,他們就有可能通過輸入人工智能篡改的數據集或調整潛在邏輯來實現(xiàn)自己想要的結果。想象一下,如果一位教授公布了給學生作業(yè)打分的算法的得分代碼。學生們就可以利用評分系統(tǒng)。
還有一些關于知識產權的問題需要考慮。大多數算法都是由企業(yè)開發(fā)的,它們的工作方式被認為是公司的秘密——就像可口可樂的配方一樣。這是一個敏感的問題,呼吁人工智能開發(fā)者將他們的源代碼發(fā)布給專門的監(jiān)管機構,他們可以提供監(jiān)督。
無論最終實現(xiàn)何種解決方案,有一件事是清楚的:完全透明的人工智能可能會帶來麻煩。要讓這項技術發(fā)揮作用,有些東西必須是未知的。
未來的人工智能將小心行事
未來的人工智能將在透明和保密之間取得謹慎的平衡。在公共部門、私人部門和消費部門之間不可避免的一輪交鋒之后,這種情況將以何種形式出現(xiàn)還有待觀察。不過我們還是可以看到一些端倪。
提高AI的透明度不僅僅是打開大門那么簡單。理解算法實際上在做什么需要嚴格的審查。可解釋的人工智能(XAI)利用可解釋的機器學習算法,使人工智能操作員和用戶能夠理解人工智能系統(tǒng)為什么會做出這樣的決定。許多公司已經在宣傳他們的機器學習解決方案的可解釋性。美國國防高級研究計劃局(DARPA)已經投資了多個研究項目,重點是技術的環(huán)境適應性。這項多年投資是該機構“AI Next”活動的一部分??傮w目標是開發(fā)可以自動運行的人工智能,同時不會讓人擔心幕后的機器如何做出決定。
隨著這些工具的激增,用戶將期望他們的數據旅程的所有方面都是可解釋的。他們不會要求知道到底發(fā)生了什么,但他們也不會滿足于昨天的黑盒方法。
未來十年,人工智能將在各個方面得到改善,因為它將越來越多地融入日常生活的方方面面。
但最大的變化將涉及我們自己的態(tài)度。隨著人工智能獲得了做更多事情的能力——并告訴我們它是如何做到這一點的——我們將很高興地賦予它新的職責,而不必擔心失去控制權的風險。































