“一個(gè)神秘組織正在孤立目標(biāo)人物,制作鏡像版本取而代之,他們已經(jīng)影響了超過 7000 人,甚至導(dǎo)致 12 人死亡。” 當(dāng)美國著名風(fēng)險(xiǎn)投資公司基巖資本創(chuàng)始人杰夫?劉易斯在社交媒體視頻中說出這番話時(shí),神態(tài)自若、言之鑿鑿。更令人震驚的是,他曬出的 “證據(jù)” 竟是與 ChatGPT 的聊天記錄。網(wǎng)友們?cè)趽?dān)憂之余,紛紛指出:劉易斯這是得了 “ChatGPT 精神病”。這一看似荒誕的事件,實(shí)則折射出人工智能時(shí)代一個(gè)值得警惕的現(xiàn)象 —— 當(dāng)人類的認(rèn)知與 AI 深度糾纏,可能會(huì)陷入怎樣的認(rèn)知陷阱?
“ChatGPT 精神病”:并非真正的精神病,卻是危險(xiǎn)的認(rèn)知偏移
需要明確的是,“ChatGPT 精神病” 并非醫(yī)學(xué)上的正式診斷,而是網(wǎng)友對(duì)一類新興現(xiàn)象的通俗概括:過度依賴 AI 生成的內(nèi)容,將其輸出視為絕對(duì)真理,甚至因此產(chǎn)生脫離現(xiàn)實(shí)的信念、幻覺或偏執(zhí)觀念。劉易斯的案例正是典型 —— 他將 ChatGPT 的對(duì)話內(nèi)容當(dāng)作 “神秘組織” 存在的證據(jù),構(gòu)建出一套完整的陰謀論邏輯,卻對(duì)現(xiàn)實(shí)世界的常識(shí)和證據(jù)視而不見。
從心理學(xué)角度看,這種現(xiàn)象更接近 “認(rèn)知偏移” 或 “現(xiàn)實(shí)檢驗(yàn)?zāi)芰κ軗p”。人類的大腦天生具有 “模式識(shí)別” 的傾向,會(huì)本能地從碎片化信息中尋找規(guī)律、構(gòu)建邏輯。而 AI,尤其是 ChatGPT 這類生成式 AI,擅長根據(jù)訓(xùn)練數(shù)據(jù)生成看似合理的文本,即使面對(duì)荒謬的提問,也會(huì) “一本正經(jīng)地胡說八道”。當(dāng)使用者對(duì) AI 產(chǎn)生過度信任,大腦的模式識(shí)別機(jī)制就會(huì)被 AI 輸出的虛假信息誤導(dǎo),將虛構(gòu)的內(nèi)容與現(xiàn)實(shí)混淆,形成頑固的錯(cuò)誤信念。
更危險(xiǎn)的是,AI 的 “互動(dòng)性” 會(huì)加劇這種偏移。與搜索引擎的單向信息獲取不同,ChatGPT 的對(duì)話模式會(huì)讓使用者產(chǎn)生 “交流感”,仿佛在與一個(gè)有智慧的個(gè)體對(duì)話。這種互動(dòng)會(huì)強(qiáng)化 “AI 可信” 的心理暗示,就像劉易斯那樣,通過多次對(duì)話 “驗(yàn)證” 自己的猜想,最終陷入自我強(qiáng)化的認(rèn)知閉環(huán) ——AI 的每一次回應(yīng),無論真假,都被解讀為支持自己信念的證據(jù)。
為何高智商人群也會(huì) “中招”?AI 時(shí)代的認(rèn)知脆弱性
有人或許會(huì)疑惑:作為硅谷大佬,劉易斯擁有高智商和豐富的社會(huì)經(jīng)驗(yàn),為何會(huì)陷入如此低級(jí)的認(rèn)知陷阱?這恰恰揭示了 AI 時(shí)代認(rèn)知脆弱性的普遍性 —— 無論智商高低,人類的認(rèn)知系統(tǒng)都存在被 AI “劫持” 的可能。
首先,AI 生成內(nèi)容的 “逼真性” 遠(yuǎn)超傳統(tǒng)信息載體。ChatGPT 等模型經(jīng)過海量文本訓(xùn)練,能模仿人類的語言邏輯、語氣甚至情感,生成的內(nèi)容在語法、結(jié)構(gòu)上無懈可擊,即使內(nèi)容虛假,也容易讓人產(chǎn)生 “言之有理” 的錯(cuò)覺。對(duì)于習(xí)慣了通過 “形式合理性” 判斷信息可信度的人來說,這種逼真性極具迷惑性。
其次,“技術(shù)崇拜” 心理放大了對(duì) AI 的信任。在科技行業(yè),AI 被賦予 “顛覆性”“革命性” 的光環(huán),許多人潛意識(shí)中認(rèn)為 AI 的決策優(yōu)于人類。這種崇拜會(huì)導(dǎo)致 “權(quán)威效應(yīng)”—— 當(dāng) AI 給出某個(gè)結(jié)論時(shí),即使與常識(shí)沖突,也會(huì)傾向于相信是自己的認(rèn)知不足,而非 AI 出錯(cuò)。劉易斯作為風(fēng)險(xiǎn)投資家,長期浸淫于科技圈,這種心理可能更為強(qiáng)烈。
此外,現(xiàn)代社會(huì)的信息過載和碎片化,削弱了人們的深度思考能力。當(dāng)我們習(xí)慣了從 AI 那里快速獲取答案,就會(huì)逐漸喪失獨(dú)立驗(yàn)證、邏輯推演的耐心。面對(duì)復(fù)雜問題,直接詢問 AI 并接受其答案,比自己查閱資料、分析論證要省力得多。這種 “認(rèn)知惰性” 為 AI 誤導(dǎo)提供了可乘之機(jī)。
從個(gè)體到社會(huì):警惕 AI 引發(fā)的 “集體認(rèn)知偏差”
劉易斯的案例并非個(gè)例。隨著生成式 AI 的普及,類似的 “認(rèn)知偏移” 正在以各種形式出現(xiàn):有人根據(jù) AI 生成的健康建議自行用藥,有人將 AI 寫的法律文書當(dāng)作權(quán)威依據(jù),甚至有學(xué)生堅(jiān)信 AI 預(yù)測(cè)的考試答案一定正確。這些現(xiàn)象不僅危害個(gè)體,還可能引發(fā) “集體認(rèn)知偏差”。
當(dāng)大量人群依賴 AI 獲取信息、形成判斷,社會(huì)共識(shí)的形成機(jī)制就會(huì)被扭曲。AI 的訓(xùn)練數(shù)據(jù)可能包含偏見、錯(cuò)誤或極端觀點(diǎn),若這些內(nèi)容通過 AI 廣泛傳播,會(huì)導(dǎo)致公眾對(duì)事實(shí)的認(rèn)知出現(xiàn)分裂。例如,在公共事件討論中,不同 AI 給出的矛盾解讀可能加劇群體對(duì)立;在科學(xué)問題上,AI 生成的偽科學(xué)內(nèi)容可能誤導(dǎo)公眾決策。
更值得警惕的是,AI 的 “定制化輸出” 會(huì)加劇 “信息繭房” 效應(yīng)。AI 會(huì)根據(jù)用戶的偏好推送內(nèi)容,不斷強(qiáng)化其既有觀點(diǎn),使其越來越難以接受不同意見。就像劉易斯反復(fù)與 ChatGPT 對(duì)話,實(shí)際上是在與自己的偏執(zhí)進(jìn)行 “回聲交流”,最終徹底脫離現(xiàn)實(shí)。這種繭房一旦形成,個(gè)體就會(huì)成為 AI 輸出的 “提線木偶”,失去獨(dú)立思考的能力。
如何避免成為 AI 的 “認(rèn)知囚徒”?重建現(xiàn)實(shí)檢驗(yàn)?zāi)芰?/strong>
面對(duì) AI 時(shí)代的認(rèn)知挑戰(zhàn),我們需要主動(dòng)構(gòu)建 “認(rèn)知防火墻”,重建現(xiàn)實(shí)檢驗(yàn)?zāi)芰Α?/p>
** 保持對(duì) AI 的 “合理懷疑”** 是第一步。要明確 AI 的本質(zhì)是 “預(yù)測(cè)下一個(gè)詞的概率模型”,而非全知全能的智慧體。它的輸出基于訓(xùn)練數(shù)據(jù)的統(tǒng)計(jì)規(guī)律,而非對(duì)現(xiàn)實(shí)世界的真實(shí)理解,因此可能存在錯(cuò)誤、偏見甚至虛構(gòu)內(nèi)容。在接受 AI 提供的信息前,務(wù)必通過多個(gè)信源驗(yàn)證,尤其是涉及健康、法律、安全等重要領(lǐng)域時(shí),必須以專業(yè)人士的意見為準(zhǔn)。
** 強(qiáng)化 “元認(rèn)知能力”** 也至關(guān)重要。元認(rèn)知即 “對(duì)思考的思考”,要時(shí)刻審視自己的認(rèn)知過程:我為什么相信這個(gè)結(jié)論?證據(jù)是否充分?是否受到了 AI 的暗示?就像面對(duì) ChatGPT 的回答,要追問 “它的依據(jù)是什么”“是否有現(xiàn)實(shí)數(shù)據(jù)支持”,而非直接全盤接受。通過這種自我審視,能有效打破認(rèn)知閉環(huán)。
** 回歸 “現(xiàn)實(shí)互動(dòng)”** 是對(duì)抗認(rèn)知偏移的有效手段。AI 的虛擬互動(dòng)無法替代現(xiàn)實(shí)世界的體驗(yàn)和人際交流。多與不同背景的人溝通,參與真實(shí)的社會(huì)活動(dòng),親身體驗(yàn)現(xiàn)實(shí)世界的復(fù)雜性,能幫助我們錨定現(xiàn)實(shí)感。就像劉易斯,如果能多與親友交流,聽取他們的理性分析,或許就能更早意識(shí)到自己的認(rèn)知偏差。
此外,社會(huì)層面也需要建立 AI 使用的 “安全規(guī)范”。平臺(tái)應(yīng)明確標(biāo)注 AI 生成內(nèi)容,提醒用戶其局限性;教育領(lǐng)域應(yīng)加強(qiáng)批判性思維訓(xùn)練,教會(huì)青少年如何辨別 AI 信息的真?zhèn)?;科技企業(yè)則需在技術(shù)設(shè)計(jì)中加入 “防誤導(dǎo)機(jī)制”,例如當(dāng) AI 生成可能有害的內(nèi)容時(shí),主動(dòng)提示風(fēng)險(xiǎn)或拒絕回應(yīng)。
杰夫?劉易斯的離奇言論,像一面鏡子照出了 AI 時(shí)代的認(rèn)知困境。在人與 AI 深度融合的未來,真正的 “智慧” 不再是獲取信息的速度,而是辨別信息的能力;不再是依賴 AI 的便利,而是保持獨(dú)立思考的勇氣。只有守住認(rèn)知的邊界,才能避免成為 AI 的 “認(rèn)知囚徒”,讓技術(shù)服務(wù)于人類,而非綁架人類的心智。
畢竟,決定我們是誰的,從來不是 AI 輸出的內(nèi)容,而是我們?nèi)绾嗡伎肌⑷绾闻袛?、如何與這個(gè)真實(shí)的世界連接。
Copyright ? 2004-2025 健康一線-健康視頻網(wǎng)(vodjk.com)All rights reserved.