當前,大模型正以日新月異的速度變革人類社會,其以強大的文字、圖像與視頻生成能力,帶給人們學習工作的效率革命與范式創新。越來越多人將大模型應用于日常實踐活動,然而在此過程中,部分用戶由于缺乏必要的媒介素養和信息驗證習慣,很容易被表面嚴絲合縫的人工智能幻覺蒙蔽欺騙,無條件信任大模型輸出的所有答案,進而對生活、學習或工作產生不良影響,引發決策誤導、認知偏差等風險。在推動大模型廣泛應用過程中,必須警惕與治理大模型幻覺問題及其價值風險,加快構建集技術優化、法律規制與倫理調適于一體的預防治理體系。
大模型幻覺的生成原因
在人工智能領域,幻覺特指大模型生成的內容看似語法正確、邏輯嚴謹,但實際上存在著事實錯誤或無法驗證事實的現象,具有“一本正經胡說八道”、無法確認現實依據等特征。大模型的幻覺包括事實性幻覺與忠實性幻覺兩種類型,前者指的是與事實不一致或存在事實捏造,后者指的是生成內容與用戶指令不一致、上下文不一致或邏輯不一致。
在本質上,大模型的幻覺問題是其技術架構、訓練和生成模式共同作用的產物,具有一般性、偶然性、隨機性、難以避免或克服等特征。在生成機制上,大模型幻覺的核心成因來自概率驅動的技術架構、訓練數據局限性以及人機互動生成邏輯的多重耦合。
首先是技術架構的能力短板。目前大模型主要采取基于轉換器結構的GPT范式,這種技術架構確能大幅度提高自然語言處理的精度與效率,但在預訓練、監督微調、推理等環節都可能存在能力短板,產生與事實、指令或上下文不一致的幻覺問題。例如在預訓練階段,大模型通過自回歸生成方式,基于歷史標記的概率分布逐詞預測輸出。這種機制天然缺乏對上下文語義一致性的把控能力,容易優先選擇概率更高但與事實、邏輯不一致的詞匯組合,輸出形成“語法正確但內容失真”的幻覺。
其次是訓練數據的天然缺陷。大模型基于互聯網海量數據進行深度學習,但由于互聯網語料并未經過嚴格檢驗處理,或者由于錯誤標注,不可避免存在事實錯誤或邏輯矛盾,大模型缺乏對數據真實性的鑒別能力,容易抓取或根據錯誤數據生成回答。例如,當要求GPT4大模型講述“林黛玉倒拔垂楊柳”的故事時,大模型并不能辨析其中的陷阱,而是未經事實驗證直接從海量文本數據中進行內容拼接,編造出一段荒謬情節。
最后是人機互動的刻板誤傷。大模型采取的人類反饋強化學習,容易導致大模型在刻意逢迎人類需求過程中出現信口開河、事實偽造等問題。如加拿大航空聊天機器人在錯誤理解“特殊退款”概念后,連續生成虛構的退款條件與時限,最終釀成法律糾紛。大模型特有的技術架構和生成邏輯,導致幻覺具有自我強化的危險性。
大模型幻覺的價值風險
大模型幻覺的隨機出現和難以避免,還存在著削弱人機信任、導向信息極化、沖擊社會秩序甚至引發意識形態安全危機等價值風險,亟待加強預防與治理。
大模型幻覺最直接的危害就是對用戶決策的誤導,特別是在醫療、健康、金融等領域。大模型的權威性表達風格與流暢的敘事邏輯,使得錯誤信息具有極強的迷惑性。如果用戶過于依賴大模型生成信息輔助決策,很有可能被誤導進而產生嚴重后果。例如,相信大模型提供的錯誤治療方案,可能導致疾病無法控制甚至進一步惡化。長此以往,恐將削弱人機信任關系。
更令人擔憂的是,大模型幻覺引發的價值風險呈現出從個人決策誤導向群體認知偏差、社會秩序沖擊的擴散路徑。在公共決策領域,幻覺可能扭曲政策認知,如果不加強對大模型輸出信息的甄別與把關,很有可能出現誤讀政策、發表歧視言論等幻覺問題,不僅會削弱政府公信力,甚至會危及社會公共安全。
在意識形態安全領域,相關威脅更加隱蔽。例如,相關研究監測到,某些境外大模型帶著意識形態的有色眼鏡看待中國特色社會主義發展成就與制度優勢,刻意混入虛假事實或錯誤評價,形成與主流話語不同的輸出。這種經過意識形態包裝的幻覺內容,通過知識問答形式進行價值滲透,其誤導性遠超傳統虛假信息。
大模型幻覺的治理對策
預防與治理大模型幻覺,應構建技術糾偏、法律規制與倫理調適的三維治理體系,通過技術優化消除幻覺問題,借助法律規制明確責任邊界,依托倫理調適培育價值理性,使大模型成為人類更可靠的合作伙伴。
構建多層次防治體系。“以技治技”是解決大模型幻覺問題的首選路徑。人工智能倫理的“價值敏感設計”或價值對齊策略,也有賴于技術層面創新與突破。這不僅需要人工智能企業與專家通過提高訓練數據質量、加強外部驗證與事實檢查、改進模型推理能力、增強透明度與可解釋性等途徑提升大模型性能,而且鼓勵哲學社會科學專家與人工智能專家攜手合作,通過知識庫優化、訓練語料糾錯、價值對齊監測等途徑,幫助大模型提高問答正確率,消除潛在的幻覺問題與價值風險。
建立適應性治理框架。面對大模型的普及化應用,敏捷、柔性、規范的立法治理勢在必行。國家網信辦等七部門頒布實施《生成式人工智能服務管理暫行辦法》,對訓練數據選擇、模型生成與優化、服務提供等提出明確的法律規制與風險防范要求,有利于推動“智能向善”,促進大模型的合規應用。歐盟《人工智能法案》要求大模型履行告知義務、確保技術方案的穩健性和可靠性等規范要求,對大模型的應用形成有效的制度約束和問責框架,值得參考借鑒。
提高技術開發應用的價值基準。對大模型幻覺更有意義的治理創新在于建立技術價值觀,將負責任創新、可控創造性等倫理價值融入工程師的頭腦、植入大模型的代碼。例如,倡導存在爭議結論不生成、無法溯源的信息不生成、超出模型認知邊界的內容不生成等原則,推動大模型從追求生成流暢度向確保內容可靠性轉型;又如,建立大模型回答事實性問題分級置信提示制度,按照高可信、需核實、推測性結論等進行分類標注,加強輸出內容的透明度與可解釋性。
對用戶而言,應進一步提高科學正確應用大模型的信息素養,進而成為引導內容生成的指揮官、幻覺問題的甄別者。研究表明,經過人工智能交叉驗證等使用習慣培訓,能夠顯著降低用戶被幻覺誤導的概率。人們需要與時俱進地提升自身辨析幻覺、掌握常識、批判思考的綜合能力,在利用大模型檢索信息、生成內容的過程中遵守履行事實核查、邏輯驗證、專業甄別、最小必要、場景控制等價值原則,最大限度消除幻覺問題和價值風險。
人工智能的可靠性建設往往滯后于其能力擴展。治理大模型幻覺的終極目標不是完全消滅技術的不確定性,而是要建立風險可控的人機協同機制。在這場人機協同的賽博進化中,始終保持技術的謙遜與倫理的清醒,是破除大模型幻覺迷霧的應有之義。
(作者:李凌,系復旦大學馬克思主義研究院副研究員)
當前,大模型正以日新月異的速度變革人類社會,其以強大的文字、圖像與視頻生成能力,帶給人們學習工作的效率革命與范式創新。越來越多人將大模型應用于日常實踐活動,然而在此過程中,部分用戶由于缺乏必要的媒介素養和信息驗證習慣,很容易被表面嚴絲合縫的人工智能幻覺蒙蔽欺騙,無條件信任大模型輸出的所有答案,進而對生活、學習或工作產生不良影響,引發決策誤導、認知偏差等風險。在推動大模型廣泛應用過程中,必須警惕與治理大模型幻覺問題及其價值風險,加快構建集技術優化、法律規制與倫理調適于一體的預防治理體系。
大模型幻覺的生成原因
在人工智能領域,幻覺特指大模型生成的內容看似語法正確、邏輯嚴謹,但實際上存在著事實錯誤或無法驗證事實的現象,具有“一本正經胡說八道”、無法確認現實依據等特征。大模型的幻覺包括事實性幻覺與忠實性幻覺兩種類型,前者指的是與事實不一致或存在事實捏造,后者指的是生成內容與用戶指令不一致、上下文不一致或邏輯不一致。
在本質上,大模型的幻覺問題是其技術架構、訓練和生成模式共同作用的產物,具有一般性、偶然性、隨機性、難以避免或克服等特征。在生成機制上,大模型幻覺的核心成因來自概率驅動的技術架構、訓練數據局限性以及人機互動生成邏輯的多重耦合。
首先是技術架構的能力短板。目前大模型主要采取基于轉換器結構的GPT范式,這種技術架構確能大幅度提高自然語言處理的精度與效率,但在預訓練、監督微調、推理等環節都可能存在能力短板,產生與事實、指令或上下文不一致的幻覺問題。例如在預訓練階段,大模型通過自回歸生成方式,基于歷史標記的概率分布逐詞預測輸出。這種機制天然缺乏對上下文語義一致性的把控能力,容易優先選擇概率更高但與事實、邏輯不一致的詞匯組合,輸出形成“語法正確但內容失真”的幻覺。
其次是訓練數據的天然缺陷。大模型基于互聯網海量數據進行深度學習,但由于互聯網語料并未經過嚴格檢驗處理,或者由于錯誤標注,不可避免存在事實錯誤或邏輯矛盾,大模型缺乏對數據真實性的鑒別能力,容易抓取或根據錯誤數據生成回答。例如,當要求GPT4大模型講述“林黛玉倒拔垂楊柳”的故事時,大模型并不能辨析其中的陷阱,而是未經事實驗證直接從海量文本數據中進行內容拼接,編造出一段荒謬情節。
最后是人機互動的刻板誤傷。大模型采取的人類反饋強化學習,容易導致大模型在刻意逢迎人類需求過程中出現信口開河、事實偽造等問題。如加拿大航空聊天機器人在錯誤理解“特殊退款”概念后,連續生成虛構的退款條件與時限,最終釀成法律糾紛。大模型特有的技術架構和生成邏輯,導致幻覺具有自我強化的危險性。
大模型幻覺的價值風險
大模型幻覺的隨機出現和難以避免,還存在著削弱人機信任、導向信息極化、沖擊社會秩序甚至引發意識形態安全危機等價值風險,亟待加強預防與治理。
大模型幻覺最直接的危害就是對用戶決策的誤導,特別是在醫療、健康、金融等領域。大模型的權威性表達風格與流暢的敘事邏輯,使得錯誤信息具有極強的迷惑性。如果用戶過于依賴大模型生成信息輔助決策,很有可能被誤導進而產生嚴重后果。例如,相信大模型提供的錯誤治療方案,可能導致疾病無法控制甚至進一步惡化。長此以往,恐將削弱人機信任關系。
更令人擔憂的是,大模型幻覺引發的價值風險呈現出從個人決策誤導向群體認知偏差、社會秩序沖擊的擴散路徑。在公共決策領域,幻覺可能扭曲政策認知,如果不加強對大模型輸出信息的甄別與把關,很有可能出現誤讀政策、發表歧視言論等幻覺問題,不僅會削弱政府公信力,甚至會危及社會公共安全。
在意識形態安全領域,相關威脅更加隱蔽。例如,相關研究監測到,某些境外大模型帶著意識形態的有色眼鏡看待中國特色社會主義發展成就與制度優勢,刻意混入虛假事實或錯誤評價,形成與主流話語不同的輸出。這種經過意識形態包裝的幻覺內容,通過知識問答形式進行價值滲透,其誤導性遠超傳統虛假信息。
大模型幻覺的治理對策
預防與治理大模型幻覺,應構建技術糾偏、法律規制與倫理調適的三維治理體系,通過技術優化消除幻覺問題,借助法律規制明確責任邊界,依托倫理調適培育價值理性,使大模型成為人類更可靠的合作伙伴。
構建多層次防治體系。“以技治技”是解決大模型幻覺問題的首選路徑。人工智能倫理的“價值敏感設計”或價值對齊策略,也有賴于技術層面創新與突破。這不僅需要人工智能企業與專家通過提高訓練數據質量、加強外部驗證與事實檢查、改進模型推理能力、增強透明度與可解釋性等途徑提升大模型性能,而且鼓勵哲學社會科學專家與人工智能專家攜手合作,通過知識庫優化、訓練語料糾錯、價值對齊監測等途徑,幫助大模型提高問答正確率,消除潛在的幻覺問題與價值風險。
建立適應性治理框架。面對大模型的普及化應用,敏捷、柔性、規范的立法治理勢在必行。國家網信辦等七部門頒布實施《生成式人工智能服務管理暫行辦法》,對訓練數據選擇、模型生成與優化、服務提供等提出明確的法律規制與風險防范要求,有利于推動“智能向善”,促進大模型的合規應用。歐盟《人工智能法案》要求大模型履行告知義務、確保技術方案的穩健性和可靠性等規范要求,對大模型的應用形成有效的制度約束和問責框架,值得參考借鑒。
提高技術開發應用的價值基準。對大模型幻覺更有意義的治理創新在于建立技術價值觀,將負責任創新、可控創造性等倫理價值融入工程師的頭腦、植入大模型的代碼。例如,倡導存在爭議結論不生成、無法溯源的信息不生成、超出模型認知邊界的內容不生成等原則,推動大模型從追求生成流暢度向確保內容可靠性轉型;又如,建立大模型回答事實性問題分級置信提示制度,按照高可信、需核實、推測性結論等進行分類標注,加強輸出內容的透明度與可解釋性。
對用戶而言,應進一步提高科學正確應用大模型的信息素養,進而成為引導內容生成的指揮官、幻覺問題的甄別者。研究表明,經過人工智能交叉驗證等使用習慣培訓,能夠顯著降低用戶被幻覺誤導的概率。人們需要與時俱進地提升自身辨析幻覺、掌握常識、批判思考的綜合能力,在利用大模型檢索信息、生成內容的過程中遵守履行事實核查、邏輯驗證、專業甄別、最小必要、場景控制等價值原則,最大限度消除幻覺問題和價值風險。
人工智能的可靠性建設往往滯后于其能力擴展。治理大模型幻覺的終極目標不是完全消滅技術的不確定性,而是要建立風險可控的人機協同機制。在這場人機協同的賽博進化中,始終保持技術的謙遜與倫理的清醒,是破除大模型幻覺迷霧的應有之義。
(作者:李凌,系復旦大學馬克思主義研究院副研究員)
本文鏈接:http://www.020gz.com.cn/news-2-1699-0.html構建大模型幻覺及其價值風險的預防治理體系
聲明:本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。
點擊右上角微信好友
朋友圈
點擊瀏覽器下方“”分享微信好友Safari瀏覽器請點擊“
”按鈕
點擊右上角QQ
點擊瀏覽器下方“”分享QQ好友Safari瀏覽器請點擊“
”按鈕