
譯者 | 陳峻
審校 | 重樓
2025年已過半,在線身份欺詐的行為已經從原始的信用卡號盜用和文件偽造,演變成為更具欺騙性的方式--合成身份欺詐(Synthetic identity fraud),即:由人工智能(AI)生成的角色來盜用和冒用你的身份,模仿你的語音與表達習慣,甚至深度融入你的數字生活,創造出令人信服的數字分身。這些數字幽靈已經成為我們從未預料到的最大威脅之一。
數字幽靈的剖析
傳統的身份盜竊需要竊取的真實信息包括:社會安全號碼、信用報告、駕照照片等。而合成身份欺詐可以創造一些從未存在過的東西,但在每個旨在檢測欺詐的驗證系統中被“看起來”完全合法。可見合成身份欺詐代表了從傳統機會主義犯罪到系統性實現的根本轉變。而且這種轉變過程簡單得令人惶恐,且越來越自動化。
具體而言,AI驅動的平臺能夠輕易生成逼真的個人資料圖片;大語言模型可以快速制作出順利通過人工審查和自動篩選系統的工作經歷、教育背景和個人簡歷;語音合成技術則能夠創建出音頻樣本,以騙過專門為防止此類攻擊而設計的生物識別驗證系統。
美國聯邦貿易委員會的2024年欺詐報告曾揭示了一個驚人的現實:目前,由合成身份欺詐每年造成的損失已超過 200 億美元,是增長最快的金融犯罪類別。而且該數字僅反映了直接的財務影響,尚不包括對數字系統信任產生的連鎖反應、在線驗證機制的破壞等。
合成身份的流水線化
目前,支持合成身份生成的基礎設施,已經發展成為一個成熟的犯罪生態系統,其運行效率已趕超合法的軟件即服務(software-as-a-service)平臺。其中:
- ThisPersonDoesNotExist 使用生成式對抗網絡,生成不受限的逼真人臉。
- D-ID 創建合成的視頻內容,具有以假亂真的說話方式。
- ChatGPT 和 Rezi 等專業平臺制作的詳細工作履歷,包括了特定行業的術語、合理的職業發展軌跡、以及對真實公司和教育機構的引述。
- ElevenLabs 和 PlayHT 已經將語音克隆全民化,可以從社交媒體視頻、播客或視頻通話中輕松獲得幾分鐘的音頻,以生成不受限的合成語音,并保留說話者的口音、情緒變化和講述模式。
- Documate 和高級 OCR 系統等平臺可以創建能順利通過人眼檢查、以及許多自動化驗證系統的駕照、護照、水電費賬單和就業文件。同時,綜合上述服務的完整合成身份包(即包括了生成的照片、背景故事、支持文件和語音樣本)只需 200 美元即可購買,其對應的高級套餐還能提供持續的支持和身份“維護”服務。據此,為網絡與傳統犯罪提供便利的暗網市場,也正在像合法的電子商務平臺一樣持續運作,甚至提供各種客戶評論、技術支持和滿意度保證。可以說,創建合成身份的商品化已將欺詐從需要技術專長的小眾,擴展到了任何具有基本電腦知識和犯罪意圖的人,都可以使用的點擊化服務。
當數字化變得極度危險時
合成身份從理論威脅到作戰武器化的轉變,實際上比大多數安全專業人員預期得要更快,而且現實世界的攻擊也證明了合成身份欺詐的災難性潛力。
就在今年的早些時候,一家大型科技公司發現他們最近聘請的一名軟件工程師其實并不存在。由AI生成的候選人通過了多輪面試,提交了令人信服的編程代碼樣本,并提供了完美的推薦信。這名合成員工在完全消失之前,曾被授予訪問敏感代碼庫和客戶數據的權限,并卷走了價值數百萬美元的知識產權信息。實際上,該攻擊一直無法通過傳統的安全監控檢測到,而是在人力資源部試圖為沒有合法存在的人員處理稅務文件時才發現。
在另一個震驚金融業的案例中,一位“首席執行官”參加了 Zoom 電話會議,授權進行了一筆 3500 萬美元的緊急收購。視頻通話中的“他”具有完美的口型同步、適當的照明條件,甚至是高管特有的手勢。直到真正的首席執行官度假回來后,才發現了該未經授權的交易系欺詐行為。可見,該深度偽造(Deepfake)是如此令人信服,以至于多名董事會成員后來作證說,他們在當時的通話中并沒有產生任何懷疑。
更有甚者,語音克隆攻擊可以成功繞過主要銀行的生物識別電話驗證系統,讓欺詐者使用合成音頻訪問賬戶、修改安全設置、并發起大額轉賬。而此類攻擊之所以有效,正是因為當前的語音身份驗證系統僅旨在檢測人類冒名者,并非AI生成的音頻,而后者保持了完美的聲學特性。
犯罪供應鏈的變革
現如今,合成身份欺詐已經超越了個人機會主義者的使用,發展成為了復雜犯罪組織的鏈條。其運作方式與合法企業一樣,具有專業化、質量控制和客戶服務。其中,Telegram 和 Reddit 上的地下論壇已成為“身份工具包”的市場,這些工具包不僅包括虛假角色的基本組件,還包括有效部署它們的整個運營框架。此類軟件包里往往包括有關繞過特定驗證系統的詳細教程、用于跨多個平臺自動創建帳戶的腳本,以及用于長期維護合成身份的持續技術支持。
“欺詐即服務(fraud-as-a-service)”平臺的出現代表了合成身份犯罪的產業化。這些服務使用大型語言模型來生成令人信服的客服交互,通過AI驅動的圖像識別繞過驗證碼系統,并創建甚至可以蒙騙經驗豐富的欺詐調查人員的對話腳本。
作為新的供應鏈,其間包含各級專家的協作。例如:專注開發的新深度偽造技術的AI研究人員、創建支持文檔的平面設計師、制作可信背景故事的社會工程師、以及幫助客戶有效部署合成身份的客服代表。
合成身份訂閱服務也相繼出現了。這些服務會隨著時間的推移,持續維護已生成的虛假角色、更新社交媒體資料、生成新的支持文檔、并適應不斷變化的驗證要求。這些服務將身份欺詐視為托管服務,按月收費,提供服務級別協議(SLA),以保證正常的運行時間和有效性。
當然,在某種程度上,合成身份犯罪的專業化也創造了一個反饋循環,推動了技術的快速進步,促進了犯罪組織在研發方面投入巨資,以對抗當前的防御措施。
API:不知情的同謀
合成身份欺詐者往往會利用系統在快速采用API 驅動的身份驗證過程中遺留的漏洞,制造毀滅性的攻擊。例如KYC(Know Your Customer)類API 旨在簡化合法的企業身份驗證,但它通常無法驗證視頻的活躍度,或檢測AI生成的內容。許多系統依賴于靜態圖像的比較算法。而這些算法可能會被高質量的深度偽造、甚至復雜的照片處理所蒙混。
同時,那些通過真實的人臉來訓練識別面部的系統,很難識別到由AI生成的與真實人臉的差別。訓練數據集中包括了數百萬張合法照片,但是合成的人臉示例相對較少,這便造成了系統被利用的盲區。
此外,開放的銀行和金融科技 API 也是被利用的目標之一。它們通常僅接受 OAuth 令牌和驗證憑證,而不會對底層身份進行充分的驗證。如果一個合成身份成功地在某家金融機構創建了賬戶,它便可以利用該憑據去訪問相關服務,進而在互連平臺上創建一系列欺詐性交易。
作為另一個嚴重漏洞,客戶服務聊天機器人系統通常被配置為根據成功的身份驗證,提供敏感信息。但它們缺乏上下文的感知能力,無法檢測到它們從何時開始與 AI 生成的角色、而非合法客戶進行交互。因此,在將AI集成到客服中時可能會創造出一個特別危險的場景:該AI系統在與外界其他AI系統進行通信的過程中,并沒有人工監督來檢測整個交互中何時發生了合成身份欺詐。
構造信任的心理學
合成身份欺詐的成功不僅依賴AI技術的高明,也在于它利用了人類的基本認知偏差,使我們容易受到AI真實性的影響。現如今,早期模仿人類的外表和聲音所帶來的“恐怖谷效應”已基本消失,取而代之的是能夠觸發我們心理共鳴的合成媒體。除了上文提到的通過合成身份實現的金融欺詐,由AI生成的角色約會詐騙,通過維持數月或數年的關系,不僅能夠從受害者那里詐騙金錢,還詐騙情感投資。這些關系通常包括:視頻通話、語音消息和廣泛的文本對話。所有這些都是由AI系統生成的,并且能夠隨著時間的推移,適應性地保持情感參與度。
類社會關系攻擊是另一種惡意演變。AI機器人模仿有影響力的名人,甚至家庭成員來建立信任并操縱人類行為。這些攻擊之所以有效,正是因為它們利用了人們與公眾人物或親人之間形成的情感聯系。而且,更麻煩的是,AI生成角色與目標會保持長時間的持續互動,建立信任和情感投資,進而造成重大的財務或情報利用。
同時,社會工程攻擊中合成身份的興起,也改變了傳統安全意識培訓的效果。當“可疑”的通信是由專門設計為顯得合法且值得信賴的AI系統生成時,員工已無法再依賴他們檢測“可疑”模型的能力。
硅基反擊
對于合成身份欺詐的防御主要涉及到使用AI來對抗AI,我們可以理解為攻擊者和網絡安全專業人員之間的技術軍備競賽。
- 由 Sensity 和 Microsoft Video Authenticator 等公司開發的 Deepfake 檢測模型,代表了第一代AI驅動的合成媒體檢測。此類系統主要分析面部動作、照明條件、以及能夠表明人工生成的偽壓縮陰影中的細微不同。然而,隨著合成媒體生成的改進,這些工具的有效性面臨著持續的挑戰。深度偽造檢測的每一次進步都會讓攻擊者的迭代速度超越防御系統的檢測能力。
- 數字水印和生物行為識別技術提供了更好的解決方案。TypingDNA 和 BioCatch 等公司的產品能夠分析人類打字節奏、鼠標移動、設備交互等行為模式,而AI系統很難令人信服地復制這些模式。
- iProov 和 IDnow 等提供商的活體檢測系統,可以使用實時交互請求,挑戰合成身份在多次驗證嘗試中保持角色一致性的能力。畢竟此類系統需要立即響應,避免了預先生成或編寫隨機提示的腳本。
- 區塊鏈技術正在成為身份證明和 API 調用可追溯性的潛在解決方案。該技術通過創建不可變的身份驗證記錄,在多個系統上完成驗證,而無需依賴可能受到蒙蔽的中心化節點。
- 基于AI的聲譽系統代表了另一種發展方向。它使用機器學習來分析跨多種交互和平臺的行為模式,以識別在某些領域保持了一致性,而在其他領域顯示為人工模式的合成身份。
監管之戰
目前,世界各國政府都在努力制定監管框架,以解決合成身份欺詐問題,同時又不至于扼殺合法的AI創新,或給企業帶來合規的負擔。顯然,挑戰在于如何平衡AI生成內容(例如娛樂、教育和輔助應用)的合法使用與防止犯罪利用。畢竟,過于嚴格的限制可能會損害有益的應用,而過于寬泛的限制則無法阻止犯罪組織的非法訪問與使用。目前較為典型的監管法規有:
- 歐盟的《人工智能法案》試圖通過披露要求和風險評估框架,來解決合成媒體的問題。不過,該執行機制仍不夠明確,而且AI技術的發展速度已超過了監管指南的制定速度。
- 美國已經發布了多項解決AI安全和數字身份問題的行政命令。不過它們分散在具有不同技術專長和執法水平的機構。
- 而KYC (Know Your Customer) 法規、通用數據保護條例 (GDPR) 和加州消費者隱私法 (CCPA) 合規框架都已受到了合成身份擴散的挑戰。這些法規在設計上假設的是:身份對應于具有明確權利和責任的真實人,但是合成身份恰恰存在于當前框架難以解決的法律灰色地帶。
此外,國際合作也會帶來了額外的挑戰。畢竟合成身份犯罪經常會使用分布在不同法律體系中的基礎設施和服務,跨越多個司法管轄區。這些地區往往會采用不同的AI監管和網絡犯罪執法方法。
驗證現實的成本
合成身份的激增不僅僅是一種新的網絡犯罪類別,也標志著技術與人類身份之間關系的根本轉變,其影響遠遠超出了欺詐預防的范圍。
隨著AI系統在生成人類角色方面變得越來越復雜,“在線交互是基于真人相互交流”的基本假設變得越來越不可靠。社交媒體平臺、約會應用、專業社交網站,甚至家庭交流渠道都可能包含大量AI生成的參與者,這些參與者與真實用戶幾乎沒有區別。
這種數字真實性的侵蝕已經對在線服務和社會關系的信任產生了連鎖反應。當任何人都可以創造無限的、令人信服的角色時,管理在線行為的社會契約就會瓦解。取而代之的是持續懷疑和驗證,這使得數字交互變得越來越繁瑣、越來越缺乏人情味。與此同時,其經濟影響將不僅限于直接的欺詐損失,還會包括驗證成本、增強安全措施帶來的生產力受損、以及當信任成為稀缺品時,數字商務效率的降低。
小結
綜上所述,合成身份欺詐已不僅僅是一種新的網絡犯罪類別,它是對于數字化應用信任關系的根本性挑戰。在這個AI分身的時代,身份早已不再是你聲稱的那樣,而是你的系統可以隨著時間的推移,持續證明、驗證和維護,以抵御日益復雜的欺詐企圖的形態。數字身份的未來不在于對合成角色的完美檢測,而在于即使無法可靠地確定真實和合成之間的區別,也可以建立和維持信任的開發驗證框架。這將持續考驗我們的防御能力是否能夠發展得足夠快,以確保數字交互的持續身份驗證,以構建社會和法律層面上的信任關系。
譯者介紹
陳峻(Julian Chen),51CTO社區編輯,具有十多年的IT項目實施經驗,善于對內外部資源與風險實施管控,專注傳播網絡與信息安全知識與經驗。
原文標題:Synthetic Identities and AI Doppelg?ngers: The Next Billion-Dollar Cybercrime,作者:Igboanugo David Ugochukwu
























