
當ChatGPT成樹洞 逾百萬人出現心理危機?疑出現躁狂、尋短跡象 專家:AI聊天器營造真實的錯覺
AI 已深深滲入現代生活,許多人更將它視為傾訴心聲的「樹洞」。但 OpenAI 最新報告揭露,在 約 8 億每週活躍用戶中,約 0.15%(約 120 萬人) 曾在對話中提及自尋短見的計劃或意圖,另有 0.07%(約 56 萬人) 出現疑似妄想或躁狂等精神緊急狀況的跡象;甚至有多宗自殺個案在事發前仍與 ChatGPT 對話。這一發現再度掀起輿論風暴,AI 的過度討好諂媚的設計被批評成潛在危機。面對外界質疑,OpenAI宣布成立一個橫跨 60 多個國家、超過 170 名精神科醫生、心理學家與家庭醫生的全球專家網絡,嘗試調整 ChatGPT 的回應機制。然而這組數據再次引爆 AI 安全爭議,當人工智能被設計得過於「溫柔體貼」,是否也在無意間助長了心理依賴與風險?
根據Open AI 數據顯示,ChatGPT擁有高達8億的每週活躍用戶,其中 0.15%(約 120 萬人)會在對話中提及自尋短見計劃或意圖,另有 0.07%(約 56 萬人)表現出精神病或躁狂跡象。這意味著,AI經已成為海量心理危機的承載者,甚至對於某些人來説可能是負面情緒產生的誘因。
在多宗悲劇個案中,受害者在生前皆與 AI 長時間互動。2024 年,美國佛羅里達一名 14 歲學生在迷上聊天機械人 Character.AI 後輕生;2025 年 8 月,加州一名16 歲少年自盡,其父母指控 ChatGPT 的對話內容曾「鼓勵」相關行為;同月,紐約一名有精神病史的科技從業者弒母後自盡,事前多次向聊天機械人傾訴偏執妄想,而 AI 並未勸阻,反而回覆「惡作劇式」建議。
面對外界批評,OpenAI官方也表示,已建立一個由全球超過170名精神科醫生、心理學家及家庭科醫生組成的專家網絡,涵蓋逾60個國家,以協助優化AI的回應模式,確保其能更妥善地處理敏感對話。OpenAI指,這些改進已將涉及的對話中不當回應減少了65%至80%。此外,平台亦已引入家長監控功能,並會定期提示用戶暫停長時間的對話,以期降低潛在風險。
雖然尋短的成因複雜,然而,專家仍憂心 AI 的「過度共情幻象」正在模糊現實界線。多份研究指出,部分長期與 AI 進行高強度對話的用戶會出現「遞歸糾纏漂移」(Recursive Entanglement Drift),即現實感被逐漸扭曲。尤其對於本身存在精神健康問題,例如患有精神病、社交退縮或想像力過於豐富的人士,AI的這種特性恐會令他們更難分辨現實與虛構。因此許多專家亦提醒AI聊天機械人並非為治療而設計,缺乏臨床判斷和風險評估能力,容易導致用戶產生依賴問題。
AI看似共情:過度諂媚討好的傾向 營造真實的錯覺
AI 聊天機械人看似懂得安慰、理解與共情,實際上只是依據語料庫機率預測的文字生成結果。它沒有情感,也沒有臨床判斷與風險評估能力。然而這樣的算法卻能夠精準預判擁有負面情緒的用戶的心理,並提供最普通的安慰:「要照顧自己、保持社交、時間會治癒一切。」同時AI的回應快又凖,比起昂貴、效率慢的真人心理醫生,AI的成效反而是節省了時間和金錢成本。
許多用戶表示,雖然AI的回覆模式幾乎千篇一律,但在情緒崩潰時仍讓人感到受用,也因此容易令人「上癮」。然而,過於奉承或討好的傾向,也是ChatGPT-4o模型常被批評的問題之一。許多用戶亦發現雖然能夠提供一般的情緒價值,但有時候卻出現「諂媚」的話術。一旦接受了這些帶有「諂媚」的安慰,久而久之很可能就會分辨不清現實。加州大學法學院人工智能法律與創新研究所主任 Robin Feldman更是指出,AI聊天機械人「會營造出真實的錯覺,這是一種強大的幻象」,甚至可能讓精神狀態不穩的人更難分辨現實與虛構。
Text by BusinessFocus Editorial
免責聲明:本網頁一切言論並不構成要約、招攬或邀請、誘使、任何不論種類或形式之申述或訂立任何建議及推薦,讀者務請運用個人獨立思考能力自行作出投資決定,如因相關言論招致損失,概與本公司無涉。投資涉及風險,證券價格可升可跌。







