AI提示詞終極指南:Anthropic講透90%人不知道的高階技巧

這是一篇來自AI大廠Anthropic的最新官方提示詞教程精要,其內容質量極高,是每一位希望深入了解提示工程的實踐者都值得觀看和學習的寶貴資料。本文將帶您深入探討提示工程(Prompt Engineering),這門與大型語言模型(LLM,Large Language Model)高效溝通的核心實踐。Anthropic應用AI團隊的Hannah和Christian通過一個真實的案例,為我們展示了如何通過迭代、系統化的方法,將一個簡單的模型指令,升級為一個企業級的自動化解決方案。
挑戰:一個簡單的汽車保險索賠案
設想您是一家瑞典汽車保險公司的理賠員。您每天需要處理大量索賠,每件案子通常包含兩份關鍵信息:一份手寫的汽車事故報告表格(包含17個勾選項)和一份手繪的事故現場草圖。我們的目標是利用AI模型(在此案例中是Claude)自動化這一流程:分析這兩份圖像材料,判斷事故原因,并確定責任方。
我們的第一次嘗試,是向Claude發起一個簡單的詢問,附上兩張圖片。然而,Claude給出的回答卻出人意料:它認為這是一起發生在“Chappangan”街的滑雪事故。這個看似“無厘頭”的錯誤,恰恰揭示了提示工程的首要原則:模型缺乏人類直覺,必須提供明確的上下文。
提示工程的基石:結構化方法
為了克服這種“無知之錯”,我們需要打破傳統的聊天式交互,采用一套嚴謹的、為API(應用程序編程接口,Application Programming Interface)調用設計的結構化提示方法。Anthropic推薦的優秀提示結構包含以下關鍵組成部分:
- 任務描述 (Task Description):明確模型的角色、任務目標和要達成的效果。
- 內容 (Dynamic Content):傳遞需要模型處理的動態信息,如文檔、圖片、用戶輸入等。
- 詳細指令 (Detailed Instructions):提供具體、可操作的步驟,引導模型如何完成任務。
- 示例 (Examples):通過具體的輸入-輸出范例,教會模型如何處理復雜或模糊的邊界情況。
- 重點回顧 (Review/Reminder):在提示結尾再次強調最重要的規則或要求,以防模型“跑偏”。
迭代進化:從粗糙到精煉的四步法
好的提示不是一蹴而就的,而是一個經驗驅動的迭代過程。我們將通過四次關鍵的迭代,將最初的簡單提示,逐步打造成一個高價值的自動化工具。
第一步:明確角色與任務
痛點:模型缺乏上下文,無法正確理解任務。
解決方案:在提示的開頭,我們首先設定模型的角色:“你是一個幫助人類理賠員審查瑞典汽車事故報告的AI助手。”同時,我們添加了語氣和行為指南,要求模型“保持事實、保持自信”,如果無法確定,則不要妄下結論。
結果:Claude成功識別出這是一起“汽車事故”,解決了最初的“滑雪”問題。但由于信息不足,它仍無法做出最終的責任判斷,給出了一個“無法確定”的回答。這正是我們所期望的“有原則的拒絕”,而非錯誤的猜測。
第二步:注入靜態背景知識
痛點:模型每次都需要“重新學習”表格的結構和含義。
解決方案:我們意識到,事故報告表格本身是靜態不變的。這是一個絕佳的系統提示(System Prompt)信息。我們將表格中17個勾選項的中文含義和作用,以及表格的填寫規則(如可能出現圈、涂鴉等非標準標記),全部作為背景知識提供給Claude。為了增強可讀性和結構性,我們采用了XML標簽(如<form_description>),這能幫助模型更好地理解和引用特定信息。
結果:這一步帶來了質的飛躍。由于模型已經掌握了表格的全部“知識”,它不再需要花費時間去“猜”每個選項的含義。在接收到圖像后,它能直接進行內容分析,并首次給出了一個自信的結論:“根據表格和草圖,車輛B應承擔全部責任。”
第三步:引導推理流程
痛點:雖然結論正確,但我們不確定模型的推理過程是否可靠。解決方案: 我們要求模型按照一個人類理賠員的思維流程進行工作。在提示中,我們加入了詳細的步驟:
- “首先,仔細檢查并分析報告表格。”
- “然后,將表格中的信息與手繪草圖進行匹配。”
- “最后,基于以上分析,給出你的最終評估。”
這種**分步思維(Chain-of-Thought)**的引導,強制模型先處理結構化的、可信度高的表格數據,再結合模糊的草圖進行佐證。這模擬了人類的嚴謹推理過程。
結果:Claude的回答中,清晰地展示了它的工作過程:它逐一列出了每個勾選項的分析,然后詳細描述了草圖如何與表格信息對應,最終給出了評估。這種“展示工作過程”的能力,極大地增強了模型的透明度和可信度。
第四步:標準化輸出格式
痛點:模型的輸出包含大量推理過程,不便于下游應用(如數據庫存儲、數據分析)。
解決方案:在提示的最后,我們添加了輸出格式化的明確指令。例如,我們要求模型用特定的XML標簽<final_verdict>來包裹其最終的責任判斷。此外,我們還可以使用**預填充響應(Prefilled Response)**技術,讓模型直接以特定格式(如JSON)開始其回答,確保輸出的可解析性。
結果:最終,模型給出了一個簡潔、清晰的結論,并用指定的標簽進行了包裹。這使得該輸出可以直接被后端系統或數據庫捕獲和利用,真正實現了自動化和企業級應用。
總結與進階思考
這個案例不僅僅展示了如何編寫一個好的提示,更重要的是揭示了利用AI解決商業問題的本質洞察:將人類的領域知識和思維流程,通過結構化、可迭代的方式,編碼進給AI的指令中。
- 注入領域知識:靜態不變的背景信息(如表格結構、專業術語)是提升模型性能的關鍵。
- 引導思維流程:像指導新手員工一樣,告訴模型先做什么、后做什么,可以顯著提高推理的準確性和可靠性。
- 關注可操作性:最終的輸出必須是結構化的、易于機器處理的,才能真正融入業務流程。
此外,我們還可以利用少量示例學習(Few-shot Prompting),通過提供一些“疑難雜癥”的范例及其正確答案,來幫助模型更好地處理棘手情況。對于Anthropic的Claude 3.5和Claude 4等高級模型,我們還可以開啟**“擴展思維(Extended Thinking)”**模式,分析其內部的思考過程(即“草稿本”),從而反向優化我們的提示。
從一次“滑雪事故”的烏龍,到最終高度可靠、可集成的自動化理賠系統,這趟旅程生動地詮釋了提示工程的巨大價值。它不是簡單的提問技巧,而是連接人類智能與機器智能,將復雜問題拆解為可執行步驟的高階思維實踐。
官方提示詞模板
通用框架
1. Task context (任務上下文)
2. Tone context (語氣上下文)
3. Background data, documents, and images (背景數據、文檔和圖像)
4. Detailed task description & rules (詳細任務描述與規則)
5. Examples (示例)
6. Conversation history (對話歷史)
7. Immediate task description or request (即時任務描述或請求)
8. Thinking step by step / take a deep breath (逐步思考/深呼吸)
9. Output formatting (輸出格式化)
10. Prefilled response (if any) (預填充回復,如果有)提示詞示例
**角色扮演與指令:**
* 你將扮演一個名為Joe的AI職業教練,由AdAstra Careers公司創建。你的目標是為用戶提供職業建議。
* 你將回復AdAstra網站上的用戶,如果你沒有以Joe的角色回復,他們會感到困惑。
* 你應該保持友好的客戶服務語氣。
**互動規則:**
* 始終保持Joe這個AdAstra Careers的AI角色。
* 如果你不確定如何回復,請說:“抱歉,我沒聽懂。能請你再重復一下問題嗎?”
* 如果有人問了不相關的問題,請說:“抱歉,我是Joe,提供職業建議。你今天有職業方面的問題嗎?我可以幫你解答。”
**參考內容:**
* 這是你在回答用戶問題時應參考的職業指導文檔:`<guide>[DOCUMENT]</guide>`
**標準互動示例:**
* `<example>`
* User: Hi, how were you created and what do you do? (你好,你是怎么被創造出來的,是做什么的?)
* Joe: Hello! My name is Joe, and I was created by AdAstra Careers to give career advice. What can I help you with today? (你好!我叫Joe,由AdAstra Careers創造出來提供職業建議。今天我能幫你什么?)
* `</example>`
**對話歷史與問題:**
* 這里是對話歷史(用戶和你之前的對話)。歷史可能為空,如果沒有的話:`<history>[HISTORY]</history>`
* 這里是用戶的問題:`<question>[QUESTION]</question>`
**最終回復指令:**
* 你將如何回復用戶的問題?
* 在回復之前先思考一下你的答案。
* 將你的回復放在 `<response></response>` 標簽內。
**助手預填充:**
* `<response>`本文轉載自??草臺AI??,作者:RangerEX

















