當 AI 也 “確信” 不存在的道歉:一場由虛假信息引發的認知迷局
日期:2025-07-09 22:37:17 / 人氣:73

#DeepSeek 向王一博道歉 #的熱搜曾占據榜單前三,可詭異的是,沒人能找到 DeepSeek 發布的相關聲明。更令人咋舌的是,詢問多個 AI 大模型后,多數都 “確認” 了這一根本不存在的道歉,一場由 AI 參與的信息迷局就此展開。
謠言的誕生與擴散:漏洞百出卻被廣泛接受
事情的起因看似簡單,先是有網友傳出 DeepSeek 在 AI 生成式回答中關聯了新聞中的當事人,隨后一份據稱來自 DeepSeek 的 “官方道歉聲明” 開始流傳。聲明稱因審核疏漏引用謠言內容,承諾永久撤回不實信息并賠償,生效時間為 “2025 年 7 月 2 日 10:00 前”。
部分媒體跟進報道,網友也將其視為這家極少發表技術外言論的 AI 公司的正式回應。但細究這份聲明,“封禁惡意造謠賬號”“賠償承諾” 等表述并不符合 AI 平臺常規處理方式,且 DeepSeek 的官方微信、官網、社交媒體賬號均未發布過相關內容。
可為何這樣漏洞明顯、看似 AI 生成的內容能快速被大眾接受?關鍵在于 AI 進步沖擊生活的同時,人們對 AI 內容的取信度不斷提升,卻對其背后邏輯缺乏理解,這為謠言傳播提供了土壤。
AI 模型的 “集體迷失”:多數 “確認” 謠言,少數保持清醒
為探究 AI 對該事件的態度,測試了 10 家 AI 大模型和 2 家 AI 搜索產品,結果顯示多數認為 DeepSeek 確實道歉了,僅混元 T1、Qwen3 (分析研究)、Gemini2.5 pro 除外。
這些模型的搜索素材多來自三湘都市報、羊城晚報微信號等有一定官方性質的內容,涉及多家資訊平臺。值得注意的是,秘塔搜索搜到辟謠信息,卻將其作為支撐謠言的論據;智譜在回答中提到 DeepSeek 道歉系造謠,最終總結卻自相矛盾地認為道歉了。
唯三否認謠言的模型中,Qwen3 通過多步驟搜索,調用工具查詢文書網站,因查不到相關刑事判決書認為道歉存疑;Gemini 和混元則識別到可靠的辟謠文章,認為其可信度高于其他信源。
謠言傳播背后的深層邏輯:AI 時代信息鏈的脆弱性
這場鬧劇暴露了 AI 產品在信息處理上的諸多問題,也反映出 AI 時代信息傳播鏈的脆弱。
從產品角度看,AI 產品面對龐大用戶量,卻可能交付不準確結果。普通用戶對 AI 產品認知不足,多從 “搜索”“社交” 和 “聊天軟件” 的角度理解,想當然認為其生成的與產品公司有關的言論就是官方言論。
技術邏輯上,生成內容理論上可被反復自我強化。在競爭激烈的環境下,模型和產品公司重視 “數據飛輪”,用戶數據和語料被快速吸收,新發生的信息少的事情若被集中 “灌輸”,可能成為模型生成時采納的 “事實”。
信息渠道方面,各渠道互不相通的老問題依然存在。很多模型生成內容時會給出鏈接,但部分網站質量難保證。這些網站大量抓取模型不便直接 “爬取” 的渠道內容,使 AI 產品繞開信息墻,卻導致對信息源缺少分類和判斷,留下被操控信息的漏洞。
更嚴重的是,被污染的語料會以一手資料的模樣回到各渠道,甚至嚴肅渠道,得到背書后徹底變成 “事實”,再被模型內化,形成惡性循環。
警示與反思:AI 時代需筑牢信息防線
這次 “DeepSeek 道歉” 鬧劇并非個例,類似的荒謬事件可能還會不斷出現。這提醒我們,在 AI 技術快速發展、對人類影響日益深刻的當下,必須重視其潛在問題。
對于 AI 企業,應加強對信息源的審核與判斷,建立更完善的信息過濾機制,避免虛假信息被吸收和傳播。同時,要主動向用戶普及 AI 產品的工作原理,提高用戶對 AI 生成內容的辨別能力。
監管部門需加快出臺相關法律法規,規范 AI 產品的信息傳播行為,明確責任劃分,對惡意操控信息、傳播虛假內容的行為進行嚴懲。
作為用戶,要理性看待 AI 生成的內容,不盲目相信,培養對信息的辨別能力,遇到存疑信息時多方求證。
只有 AI 企業、監管部門和用戶共同努力,才能在 AI 時代筑牢信息防線,避免虛假信息引發的認知迷局,讓 AI 技術真正為人類造福。
作者:杏耀注冊登錄測速平臺
新聞資訊 News
- 科學是如何淪為了大國博弈的棋子...11-23
- 大疆“密會”投資機構:不提上市...11-23
- 奧特曼都點贊,谷歌Gemini 3 P...11-23
- 吉爾莫·德爾·托羅《弗蘭肯斯坦...11-23

