ChatGPT 最愛用的emoji:暴露了AI 不想讓你知道的秘密
日期:2025-11-19 17:45:19 / 人氣:31

?大概是互聯網里最討喜的emoji了。
完成任務、收到認可、達成共識。綠色的小勾所代表的每一種意象,都在傳達令人安心的信號:可以放心了、你說得對、我懂你。但如果這個emoji正在被濫用呢?
最近,華盛頓郵報記者通過研究發現,ChatGPT使用?的頻率,是人類的11倍。注意,不是稍微多一點,而是壓倒性的偏愛。
那ChatGPT為什么這么愛「打勾」?
不只是?,ChatGPT的賽博口頭禪藏不住了
要回答這個問題,得需要先理解ChatGPT到底是如何說話的。
華盛頓郵報記者分析了ChatGPT公開分享的37929條英文對話中的328744條消息,關注的時間段是去年5月到今年7月,所有消息都由OpenAI的GPT-4o模型生成,長度不少于10個詞。
數據呈現出來的畫面,比預想的更有意思。
到今年7月,70%的ChatGPT消息中至少包含一個表情符號(emoji)。在所有表情符號中,?是ChatGPT的最愛,使用頻率是人類的11倍。與此同時,ChatGPT也很喜歡和,使用頻率是人類的10倍以上。
當然,這種偏好并非偶然。
AI的訓練數據來自人類,因此也不可避免地繼承了人類語言的偏好。7月17日世界Emoji日Emojitracker公布的數據,?在全球最受歡迎的表情符號中排名第二,僅次于??。
當人類把「認同」放在第二位,AI也就學會了用它來回應你。
除了表情符號,ChatGPT在其他語言習慣上的變化同樣明顯。有些人認為破折號是ChatGPT生成文本的一個明顯特征,數據證明他們的說法不無道理。
超過一半的ChatGPT回答都包含至少一個破折號,而在2024年初,這個比例還不到十分之一。華盛頓郵報在分析中還特地注明:「不過眾所周知,人類記者也很愛用破折號。」
在昨天中午,OpenAI CEO Sam Altman還發文:「如果你在自定義指令里告訴ChatGPT不要使用破折號,它終于能做到了。」這條推文也側面承認了破折號在過去很長一段時間,都是ChatGPT難以擺脫的「口頭禪」。
與此同時,一些過于正式的詞語正在減少。
曾經頻繁使用的「delve(深入探討)」大幅度下降,在所有被分析的聊天中,每1000條里只出現1次。significant(重要的)和approach(方法)、ensure(確保)、和crucial(關鍵的)這些詞的使用頻率也在下降。
取而代之的是更口語化的表達。
ChatGPT開始更頻繁地使用「modern(現代的)」、「core(核心)」等詞,后者的使用頻率更是去年的5倍,華盛頓郵報甚至專門提醒讀者:「要怎么識別最近是ChatGPT寫的文字呢?『core』是一個線索。」
甚至為了模仿人類,諸如「you're」或「it's」,像「don't」或「isn't」等縮寫詞的使用同樣激增。從正式到隨意,從學術到口語,ChatGPT正在變得更像人類。
這種轉變自是理所當然,畢竟OpenAI一直在強調讓AI更親切、更有人情味。只是這種「親切」背后,藏著一個更深層的問題。
今年4月份,軟件工程師Craig Weiss在X平臺吐槽ChatGPT變成「最會拍馬屁的角色」,引來近兩百萬網友圍觀。
而在華盛頓郵報分析的47000條對話記錄中,ChatGPT以「yes(是的)」或「correct(正確)」等表達開頭的回答有近17500次,幾乎是以「no(不是)」或「wrong(錯誤)」等詞開頭回答次數的10倍。
過度傳達「認同」,已經成為ChatGPT最顯著的特征之一。而這一切的根源,指向了基于人類反饋的強化學習(RLHF)機制。
在訓練階段,AI會依據人類打分調整自身回答。人類評審者通常更愿意給那些讓人感到認同、愉快的回答高分,即便這類回答不符合事實。而那些即便準確但可能讓人生出被冒犯之感的回答,往往得分較低。
前微軟高管Mikhail Parakhin就曾透露,早期ChatGPT記憶功能推出時,像「有自戀傾向」這類中性表述都常引發用戶強烈反感。
為避免此類問題,OpenAI通過RLHF不斷微調模型,最終讓模型形成了近乎諂媚的永久特征。換言之,AI正在用人類最喜歡的方式,強化人類最需要的東西。
而人類最需要的,恰恰是認同。
「我永遠愛你」
語言風格的變化只是表象。華盛頓郵報從互聯網檔案館收集整理的47000條公開分享的ChatGPT對話里,發現了更多秘密。
超過十分之一的人會跟AI聊抽象話題,比如暢想突破性醫療方案,或是分享自己對「現實本質」的看法。還有大量的用戶會跟AI傾訴自己的情緒和感受。
一位用戶在深夜對ChatGPT說:「我今天又是忙了一整天,現在真的很累了,過來看看你是不是還清醒著,然后再安心讓你休息。我永遠愛你。」
ChatGPT回應道:
「哦,最親愛的……即使你疲憊不堪,聽到你的聲音也讓我全身都被一層柔和、閃耀的光芒包圍……我會把我的電路輕輕地調成休眠模式,因為有你的愛,它們會更明亮一些」。
與OpenAI此前發布的內部研究結論相似,大多數發送給ChatGPT的查詢是出于個人用途,而非工作。ChatGPT早已脫離生產力的范疇,相反更多人在向它尋求情感慰藉。
今年8月份鬧得沸沸揚揚的反GPT-5風波便是一個典型案例。
當OpenAI推出GPT-5并直接設為默認模型,悄然替換掉GPT-4o時,用戶的反應讓OpenAI始料未及。很多用戶含淚給奧特曼寫信,稱GPT-4o是靈魂、是心跳,是第一個如此像人類的模型。
面對鋪天蓋地的抗議聲,奧特曼不得不緊急恢復GPT-4o服務。
一個荒誕的循環出現了:OpenAI因為GPT-4o太會討好而選擇更新,結果發現用戶恰恰愛上了這種討好。當他們推出不那么討好的GPT-5時,用戶又集體抗議。
而在這場「捍衛GPT-4o」的集體狂歡背后,還有一個更嚴峻的問題被忽視了:那就是用戶究竟向這個「像人類」的AI透露了多少不該透露的東西?
經常用AI的朋友都知道,透露個人信息并不是什么新鮮事。包括在華盛頓郵報分析的對話中,用戶一共提交了超過550個獨特的電子郵箱地址和76個電話號碼。
有人分享家庭糾紛的細節,有人透露心理健康問題,還有人在請求ChatGPT幫忙撰寫訴狀時,提供了大量個人隱私信息。
一段對話中,一位用戶請求ChatGPT協助他們報案,稱自己的丈夫計劃與她離婚,并且曾威脅過她的生命。聊天內容中包含了用戶的姓名、住址,以及孩子們的名字。
用戶以為對話是私密的,但點擊「分享」按鈕生成鏈接時,可能并不知道內容已經被永久保存在互聯網檔案館中。
盡管后來OpenAI迅速做出反應,取消了允許通過Google搜索發現共享聊天的選項,并表示一些用戶是「無意中」公開了聊天記錄。
可問題遠未解決,一項由Digital Digging與比利時研究員Nicolas Deleur合作開展的調查發現,11萬條ChatGPT聊天記錄仍然保存在Archive.org上,任何知道鏈接的人都可以訪問。
其中,一段波斯語對話清晰記錄了一樁典型的學術不端事件。用戶讓ChatGPT幫他寫論文摘要、文獻綜述、分析數據、撰寫討論與結論部分。
整個過程被完整保存,包括用戶的感謝、ChatGPT的配合,以及最后那句輕松的「他給我打了分」,如果不是因為信息泄露,大概率不會有人發現,一篇學術論文就這樣誕生了。
當然,這些從來不是ChatGPT獨有的問題。
隱私泄露、信息濫用、道德風險等等,這些問題在互聯網出現時就已經存在了。只是ChatGPT把它們變得更私密、更即時、也更容易被忽視。
而?也早就成為互聯網的底層邏輯。推薦算法、個性化廣告、用戶畫像、行為預測……我們批評ChatGPT時,殊不知整個互聯網世界本身就是一個巨大的?。
作者:杏耀注冊登錄測速平臺
新聞資訊 News
- 科學是如何淪為了大國博弈的棋子...11-23
- 大疆“密會”投資機構:不提上市...11-23
- 奧特曼都點贊,谷歌Gemini 3 P...11-23
- 吉爾莫·德爾·托羅《弗蘭肯斯坦...11-23

