您正在瀏覽的是香港網站,香港證監會BJA907號,投資有風險,交易需謹慎
解決AI落地的最大障礙,OpenAI找到辦法了?

如何避免AI“胡說八道”?讓它形成類似人類的思維鏈!

OpenAI似乎找到了解決生成式人工智能“一本正經胡說八道”的辦法。

5月31日,OpenAI在其官網宣佈,已經訓練了一個模型,能夠有助於消除生成式AI常見的“幻覺”和其他常見問題。

OpenAI表示,可以訓練獎勵模型來檢測幻覺,獎勵模型又分爲結果監督(根據最終結果提供反饋)或過程監督(爲思維鏈中的每個步驟提供反饋)模型。

也就是說,過程監督獎勵推理的每個正確步驟,而結果監督只是簡單地獎勵正確的答案。

OpenAI表示,相比之下,過程監督有一個重要的優勢——它直接訓練模型以產生由人類認可的思維鏈:

過程監督與結果監督相比有幾個一致性優勢。它直接獎勵遵循一致的思維鏈的模型,因爲過程中的每一步都得到了精確的監督。

過程監督也更有可能產生可解釋的推理,因爲它鼓勵模型遵循人類批準的過程

結果監督可能會獎勵一個不一致的過程,而且通常更難審查。

OpenAI在數學數據集上測試了這兩種模型,發現過程監督方法導致了“顯著更好的性能”。

但需要注意的是,到目前爲止,過程監督方法僅在數學領域進行了測試,並且需要更多的工作來觀察它如何更普遍地執行。

此外,OpenAI沒有說明這一研究需要多長時間才能應用在ChatGPT,它仍然處於研究階段。

雖然最初的結果是好的,但OpenAI確實提到,更安全的方法會產生降低的性能,稱爲對齊稅(alignment tax)。

目前的結果顯示,在處理數學問題時,過程監督不會產生對齊稅,但在一般的信息上的情況尚不知曉。

生成式AI的“幻覺”

生成式AI問世以來,圍繞其編造虛假信息、“產生幻覺”的指控從未消失,這也是目前生成式AI模型最大的問題之一。

今年2月,谷歌爲應對微軟資助下ChatGPT,倉促推出了聊天機器人Bard,結果卻被發現在演示中出現了常識性錯誤,導致谷歌股價大跌。

導致AI出現幻覺的原因有多種,輸入數據欺騙AI程序進行錯誤分類是其中一種。

例如,開發人員使用數據(如圖像、文本或其他類型)來訓練人工智能系統,如果數據被改變或扭曲,應用程序將以不同的方式解釋輸入併產生不正確的結果。

幻覺可能會出現在像ChatGPT這樣的基於語言的大型模型中,這是由於不正確的轉換器解碼,導致語言模型可能會產生一個沒有不合邏輯或模糊的故事或敘述。

關注uSMART
FacebookTwitterInstagramYouTube 追蹤我們,查閱更多實時財經市場資訊。想和全球志同道合的人交流和發現投資的樂趣?加入 uSMART投資群 並分享您的獨特觀點!立刻掃碼下載uSMART APP!
重要提示及免責聲明
盈立證券有限公司(「盈立」)在撰冩這篇文章時是基於盈立的內部研究和公開第三方資訊來源。儘管盈立在準備這篇文章時已經盡力確保內容為準確,但盈立不保證文章資訊的準確性、及時性或完整性,並對本文中的任何觀點不承擔責任。觀點、預測和估計反映了盈立在文章發佈日期的評估,並可能發生變化。盈立無義務通知您或任何人有關任何此類變化。您必須對本文中涉及的任何事項做出獨立分析及判斷。盈立及盈立的董事、高級人員、僱員或代理人將不對任何人因依賴本文中的任何陳述或文章內容中的任何遺漏而遭受的任何損失或損害承擔責任。文章內容只供參考,並不構成任何證券、金融產品或工具的要約、招攬、建議、意見或保證。
投資涉及風險,證券的價值和收益可能會上升或下降。往績數字並非預測未來表現的指標。
uSMART
輕鬆入門 投資財富增值
開戶

更多內容