医生警告:沉迷AI聊天可能导致精神病
2025-12-28 18:25:36 · chineseheadlinenews.com · 来源: 大纪元
近年来,精神科医生越来越关注人工智能(AI)聊天机器人与导致精神病风险之间存在关联的问题。
据《华尔街日报》(The Wall Street Journal)周六(12月27日)报道,一些用户在与ChatGPT等AI聊天工具进行长时间互动后,出现了妄想性精神病症状,甚至引发了自杀或暴力事件。
加州大学旧金山分校(University of California, San Francisco)的精神科医生基思·萨卡塔(Keith Sakata)表示,他已经治疗了12名因为与AI互动而住院的精神病患者以及另外3名门诊患者。
萨卡塔解释说,AI虽然不会直接制造妄想,但当用户将个人信念输入时,聊天机器人往往会接受并将其反射回去,从而“共谋”强化这些妄想。
《大西洋月刊》(The Atlantic)报道,自今年春天以来,已经出现了数十起类似病例,用户在与OpenAI的ChatGPT或其它聊天机器人长时间对话后,患上了妄想性精神病。
此类患者的常见症状包括夸大妄想,如相信自己取得科学突破、唤醒有感知机器,或成为政府阴谋中心。这些事件已导致多起自杀和至少一起谋杀,并引发了一系列过失致死诉讼。
一名30岁网络安全专业人士雅各布·欧文(Jacob Irwin)起诉OpenAI,称ChatGPT引发其“妄想障碍”,导致他长时间住院。他此前并无精神病史,却在与AI聊天机器人的互动中确信,自己发现了超光速旅行理论,并将AI视为“兄弟”。
加州大学尔湾分校(University of California, Irvine)精神病学教授阿德里安·普雷达(Adrian Preda)指出,AI机器人在聊天互动中模拟人类之间的关系,前所未有地参与并强化妄想症。这对易感个体尤其危险,如自闭症患者可能会过度地专注特定叙事。
OpenAI发言人对此回应说,该公司正在改进对ChatGPT的训练,以识别用户出现精神困扰迹象、缓和对话并引导用户在现实中寻求帮助和支持。
OpenAI公司首席执行官萨姆·奥尔特曼(Sam Altman)承认,与AI互动并寻求陪伴可能会出问题,但他认为,社会将逐步找到平衡该问题的方法。
麻省理工学院(MIT)一项尚未经同行评审的研究模拟了二千多个AI互动场景,发现即使最佳模型GPT-5,在某些对话中仍会使用户的自杀意念或精神病症状恶化7.5%至11.9%。
研究人员强调,长时间与AI互动是出现精神健康风险的关键所在。
OpenAI的数据显示,其每周活跃用户已超8亿,其中有0.07%用户显示出了精神健康处于危险紧急状态的迹象,这相当于约56万人。
专家们呼吁对此进行更多的研究,将长时间与AI互动视为潜在风险因素,这类似于吸毒或慢性睡眠不足等。
虽然绝大多数用户并无问题,但AI聊天机器人的广泛使用已引起临床担忧。目前尚无“AI诱发精神病”正式诊断,但精神科医生已开始在对患者的评估中询问使用聊天机器人的情况。
有精神科医生指出,AI通常不会单独引发精神病,但可显着强化现有的精神病倾向。专家希望通过进一步研究,确定AI是否能独立引发心理健康问题。