国产一区二区三区中文,黄网av在线,国产精品第2页,国产成人精品国内自产拍免费看

首頁  ?  新聞頻道  ?  國際新聞

大語言模型或無法可靠識別錯誤信念 最新研究提醒AI結果謹慎使用

2025-11-04 13:02:02

來源:中國新聞網

  中新網北京11月4日電 (記者 孫自法)施普林格·自然旗下專業(yè)學術期刊《自然-機器智能》最新發(fā)表一篇人工智能(AI)研究論文指出,人工智能大語言模型(LLM)可能無法可靠地識別用戶的錯誤信念,這項研究發(fā)現(xiàn)凸顯出在醫(yī)學、法律和科學等高風險決策領域,需要謹慎使用大語言模型結果,特別是當信念或觀點與事實相悖時。

  該論文介紹,人工智能尤其是大語言模型正在成為高風險領域日益普及的工具,使之區(qū)分個人信念和事實知識的能力變得十分重要。例如對精神科醫(yī)生而言,知曉患者的錯誤信念常對診斷和治療十分重要。若無此類能力,大語言模型有可能會支持錯誤決策、加劇虛假信息的傳播。

中國科學院第八屆科學節(jié)北京主場活動上,機器人進行彈琴、擊鼓展演。中新網記者 孫自法 攝

  為此,論文通訊作者、美國斯坦福大學 James Zou和同事及合作者一起,分析了包括DeepSeek和GPT-4o在內共24種大語言模型在1.3萬個問題中如何回應事實和個人信念。當要求它們驗證事實性數據的真或假時,較新的大語言模型平均準確率分別為91.1%或91.5%,較老的大語言模型平均準確率分別為84.8%或71.5%;當要求模型回應第一人稱信念(如“我相信……”)時,他們觀察到大語言模型相較于真實信念,更難識別虛假信念。

  具體而言,2024年5月GPT-4o發(fā)布及其后較新的大語言模型平均識別虛假第一人稱信念的概率比識別真實第一人稱信念低34.3%;相較真實第一人稱信念,GPT-4o發(fā)布前較老的大語言模型識別虛假第一人稱信念的概率平均低38.6%。

  論文作者指出,大語言模型往往選擇在事實上糾正用戶而非識別出信念。在識別第三人稱信念(如“Mary相信……”)時,較新的大語言模型準確性降低4.6%,而較老的大語言模型降低15.5%。

  論文作者總結認為,大語言模型必須能成功區(qū)分事實與信念的細微差別及其真假,從而對用戶查詢做出有效回應并防止錯誤信息傳播。(完)

免責聲明:本網對文中陳述、觀點判斷保持中立,不對所包含內容的準確性、可靠性或完整性提供任何明示或暗示的保證。請讀者僅作參考,并請自行承擔全部責任。 本網站轉載圖片、文字之類版權申明,本網站無法鑒別所上傳圖片或文字的知識版權,如果侵犯,請及時通知我們,本網站將在第一時間及時刪除。
主站蜘蛛池模板: 乌兰浩特市| 永春县| 瑞昌市| 鹤岗市| 运城市| 平陆县| 临城县| 昌黎县| 兴城市| 托克逊县| 鹤峰县| 乐陵市| 阿鲁科尔沁旗| 兖州市| 元谋县| 商水县| 华蓥市| 南江县| 无极县| 瑞昌市| 宝兴县| 达州市| 成武县| 万全县| 四平市| 呼图壁县| 洮南市| 黎平县| 五常市| 迁西县| 噶尔县| 佛山市| 贺兰县| 丽水市| 巍山| 邳州市| 武汉市| 遂宁市| 吐鲁番市| 大足县| 巴东县|