新研究:新技術助力人工智能減少“胡謅”
人工智能(AI)中廣泛使用的大語言模型不時出現的“一本正經地胡謅”是其難以克服的問題。近日,英國牛津大學研究團隊開發出一種名為“語義熵”的新方法,有望大幅提升AI回答的可靠性。
5月30日,在瑞士日內瓦舉行的2024年“人工智能造福人類全球峰會” 上,參會者和一個用于社會關懷的機器人互動。新華社記者連漪攝
大語言模型的“胡謅”在業界被稱為“幻覺”,牛津大學計算機科學系的研究人員提出“語義熵”方法試圖解決這一問題。在熱力學中,熵描述的是系統的混亂或者說不穩定程度。這項研究中,熵衡量了大語言模型回答的不確定性,不確定性高意味著大語言模型的回答可能存在虛構。
該研究成果已發表在近期出版的英國《自然》雜志上。論文中說,如果AI對同一個問題,給出了許多語義相似的答案,那說明它對自己的回答比較有把握;反之,如果答案五花八門,那就意味著AI自己也“心里沒底”,很可能是在“胡謅”。
研究人員利用“語義熵”方法,讓大語言模型對同一問題生成多個答案,然后將語義相近的答案聚類,最后根據聚類結果計算熵值。熵值越高,表示大語言模型的回答越不確定。
值得注意的是,這一方法不僅考慮了大語言模型回答的字面差異,更關注語義層面的一致性。這使得“語義熵”能夠更準確地識別AI的“胡謅”,而不會被表達方式的多樣性所迷惑。
研究結果表明,“語義熵”方法在多個數據集和任務中都表現出色,能有效檢測大語言模型的錯誤回答,并通過拒絕回答不確定的問題來提高整體準確率。更重要的是,這一方法無需修改AI模型本身,可以直接應用于現有的大語言模型。
研究人員說,“語義熵”技術有望在問答系統、文本生成、機器翻譯等多個領域發揮重要作用,幫助AI生成更可靠、更有價值的內容。這不僅將提升AI在實際應用中的表現,也將增強用戶對AI系統的信任。
隨便看看:
相關推薦:
網友評論:
推薦使用友言、多說、暢言(需備案后使用)等社會化評論插件