【正見新聞網2025年12月28日】

圖為示意圖。(Illustration by The Epoch Times, Getty Images)
近年來,精神科醫生越來越關注人工智慧(AI)聊天機器人與導致精神病風險之間存在關聯的問題。
據《華爾街日報》(The Wall Street Journal)周六(12月27日)報導,一些用戶在與ChatGPT等AI聊天工具進行長時間互動後,出現了妄想性精神病症狀,甚至引發了自殺或暴力事件。
加州大學舊金山分校(University of California, San Francisco)的精神科醫生基思·薩卡塔(Keith Sakata)表示,他已經治療了12名因為與AI互動而住院的精神病患者以及另外3名門診患者。
薩卡塔解釋說,AI雖然不會直接製造妄想,但當用戶將個人信念輸入時,聊天機器人往往會接受並將其反射回去,從而「共謀」強化這些妄想。
《大西洋月刊》(The Atlantic)報導,自今年春天以來,已經出現了數十起類似病例,用戶在與OpenAI的ChatGPT或其它聊天機器人長時間對話後,患上了妄想性精神病。
此類患者的常見症狀包括誇大妄想,如相信自己取得科學突破、喚醒有感知機器,或成為政府陰謀中心。這些事件已導致多起自殺和至少一起謀殺,並引發了一系列過失致死訴訟。
一名30歲網絡安全專業人士雅各布·歐文(Jacob Irwin)起訴OpenAI,稱ChatGPT引發其「妄想障礙」,導致他長時間住院。他此前並無精神病史,卻在與AI聊天機器人的互動中確信,自己發現了超光速旅行理論,並將AI視為「兄弟」。
加州大學爾灣分校(University of California, Irvine)精神病學教授阿德裡安·普雷達(Adrian Preda)指出,AI機器人在聊天互動中模擬人類之間的關係,前所未有地參與並強化妄想症。這對易感個體尤其危險,如自閉症患者可能會過度地專注特定敘事。
OpenAI發言人對此回應說,該公司正在改進對ChatGPT的訓練,以識別用戶出現精神困擾跡象、緩和對話並引導用戶在現實中尋求幫助和支持。
OpenAI公司執行長薩姆·奧爾特曼(Sam Altman)承認,與AI互動並尋求陪伴可能會出問題,但他認為,社會將逐步找到平衡該問題的方法。
麻省理工學院(MIT)一項尚未經同行評審的研究模擬了二千多個AI互動場景,發現即使最佳模型GPT-5,在某些對話中仍會使用戶的自殺意念或精神病症狀惡化7.5%至11.9%。
研究人員強調,長時間與AI互動是出現精神健康風險的關鍵所在。
OpenAI的數據顯示,其每周活躍用戶已超8億,其中有0.07%用戶顯示出了精神健康處於危險緊急狀態的跡象,這相當於約56萬人。
專家們呼籲對此進行更多的研究,將長時間與AI互動視為潛在風險因素,這類似於吸毒或慢性睡眠不足等。
雖然絕大多數用戶並無問題,但AI聊天機器人的廣泛使用已引起臨床擔憂。目前尚無「AI誘發精神病」正式診斷,但精神科醫生已開始在對患者的評估中詢問使用聊天機器人的情況。
有精神科醫生指出,AI通常不會單獨引發精神病,但可顯著強化現有的精神病傾向。專家希望通過進一步研究,確定AI是否能獨立引發心理健康問題。
(大紀元)