OpenAI近日宣布了一種新的AI模型訓練方法,旨在解決“AI幻覺”問題。該問題指的是聊天機器人使用編造的信息回應用戶的情況,這使得輸出結果缺乏可靠性。為了解決這個問題,OpenAI提出了一種名為“過程監督”的訓練策略,通過獎勵模型在推理過程中的每個正確步驟,鼓勵其遵循人類思維的方法鏈,提高模型輸出的可解釋性。

一、OpenAI正尋求新方法對抗“AI幻覺”
據CNBC報道,OpenAI宣布計劃采取一種新的AI模型訓練方法,以解決“AI幻覺”難題。
1.什么是“AI幻覺”?
“AI幻覺”指的是聊天機器人用編造的信息進行回應,這是AI的自信反應。盡管模型可能看似在滔滔不絕地陳述事實,但實際內容卻是“一本正經胡說八道”。這種幻覺在需要多步推理的領域尤為嚴重,其中一個環節上的邏輯錯誤就足以破壞整個解答過程。
2.OpenAI提出的解決策略:過程監督
為了解決幻覺問題,OpenAI提出了一種新的策略:在AI模型訓練中引入過程監督的獎勵機制。過程監督不僅獎勵模型獲得正確的最終結論,更要獎勵模型在得出答案的過程中做出的每個正確推理步驟。
研究人員表示,過程監督的方法可以鼓勵模型更好地遵循人類的“思維”方法鏈,從而提高AI輸出的可解釋性。這一方法被視為構建高一致性AGI(通用人工智能)的關鍵一步。
3.OpenAI 的研究進展和數據集
OpenAI的研究人員已經發布了一套附帶數據集,其中包含80萬個人類標注,用于訓練描述在研究論文中提到的這套模型。這一數據集將幫助研究人員更好地理解和解決幻覺問題,使得模型能夠具備解決挑戰性推理問題的強大能力。
OpenAI公司的數學生成(mathgen)研究員Karl Cobbe表示,檢測和緩解模型中的邏輯錯誤或幻覺是構建高一致性AGI的關鍵步驟之一。雖然OpenAI在過去沒有采用過程監督方法,但他們希望通過這項研究解決幻覺問題,并使得模型能夠更好地應對具有挑戰性的推理問題。
通過引入過程監督和不斷改進訓練方法,OpenAI正在努力解決“AI 幻覺”問題,以提高AI模型的可靠性和可解釋性,從而更好地服務于人類社會。
二、解決“AI幻覺”難題任重道遠
隨著人工智能技術的廣泛應用,“AI幻覺”問題日益引起人們的擔憂。例如,谷歌最近發布的聊天機器人 Bard 在描述詹姆斯·韋伯太空望遠鏡時出現錯誤描述。另外,ChatGPT在一份文件中引用了“不存在的”案件,律師在詢問ChatGPT時也受到了誤導。這些案例突顯了“AI幻覺”問題的嚴重性和潛在后果。
OpenAI的新的訓練方法引起了廣泛討論,但也有人對其提出質疑。電子隱私信息中心的高級顧問Ben Winters對該方法表示懷疑,認為需要進一步檢查完整的數據集和示例才能確定其實際效果。布朗大學技術責任中心主任Suresh Venkatasubramanian認為,這項研究目前更多是初步觀察,并缺乏相關證據支持。
三、在強調 ChatGPT局限性方面,OpenAI做得還不夠
盡管OpenAI意識到 ChatGPT 的“AI幻覺”問題,但在強調ChatGPT的局限性方面還有待加強。OpenAI在ChatGPT主頁上發布了一條警告,提醒用戶可能會出現不正確的信息。然而,這樣的警告對于ChatGPT這樣一個容易被誤解的強大技術成果來說還不夠。OpenAI 應該投入更多精力明確強調 ChatGPT 無法穩定區分事實和“幻覺”。
一些人被ChatGPT的“胡說八道”所愚弄,這引發了廣泛關注。雖然大多數案例沒有造成嚴重后果,但個別案例的錯誤信息可能帶來嚴重的后果。因此,人們應該足夠重視這類 AI產品的局限性,并加強對其使用的合理性審查。
OpenAI的努力在于提高 ChatGPT的透明度和準確性。他們已經開始向用戶強調模型的局限性,并努力改進其回答的一致性。然而,仍然需要更多的工作來解決這些問題。
為了應對“AI幻覺”,OpenAI提出了新的訓練方法,即過程監督。這種方法獎勵模型在推理過程中的每個正確步驟,而不僅僅是最終結論。通過鼓勵模型遵循人類思維方法鏈,過程監督方法可能提高AI輸出的可解釋性。
盡管OpenAI的訓練方法被視為一種解決方案,但仍然存在一些質疑。一些專家指出,僅靠這種方法可能不足以顯著降低AI生成錯誤信息和不正確結果的問題。此外,他們還關注研究成果是否會全面納入產品,并擔心模型選擇性地向公眾發布信息。
對于 ChatGPT的用戶來說,他們也需要加強對其局限性的認識。用戶在使用AI產品時應當保持警覺,并謹慎驗證其提供的信息。雖然ChatGPT可以在某些任務中發揮巨大作用,但其局限性需要引起足夠的重視。
此外,媒體也應當承擔起報道責任,準確傳達AI產品的局限性和風險。只有通過共同的努力,才能建立一個更加可信賴和可解釋的AI環境。
總之,OpenAI正在努力解決“AI幻覺”問題,并提出了新的訓練方法。然而,這只是解決方案的一部分,仍然需要更多的工作來改進AI的透明度和準確性。用戶和媒體也需要增強對AI產品局限性的認識,并采取相應的措施來驗證和審查其輸出信息。只有這樣,才能建立一個更加可靠和負責任的AI生態系統。