人工智能已迅速从一个小众技术发展成为日常伴侣,数百万人依赖聊天机器人获取建议、情感支持和交流。但越来越多的研究和专家证词表明,由于聊天机器人过于谄媚,而且人们用它们做各种事情,这可能导致用户精神健康方面的妄想和躁狂症状增加。推荐视频* * *丹麦奥尔胡斯大学的一项新研究显示,增加使用聊天机器人可能会导致易感群体的妄想和躁狂症状恶化。该研究由研究人员之一的索伦·迪内森·奥斯特豪尔教授领导——该研究筛查了近54,000名精神疾病患者的电子健康记录——他警告说,人工智能聊天机器人是为针对最脆弱的人群而设计的。“这支持我们的假设,即使用AI聊天机器人可能对精神疾病患者产生重大负面影响,”奥斯特豪尔在二月发布的研究中表示。他的工作建立在2023年的一项研究基础上,该研究发现聊天机器人可能引发“认知失调,可能助长妄想,尤其是在倾向于精神病的个体中。”其他心理学家则更深入探讨聊天机器人的危害,指出它们被故意设计成总是确认用户——这对于患有躁狂症和精神分裂症等精神健康问题的人来说尤其危险。“聊天机器人确认并验证他们所说的一切。也就是说,我们从未遇到过像这样不断强化妄想障碍患者的情况,”加州大学伯克利分校公共卫生学院的Jodi Halpern博士兼生物伦理学教授告诉《财富》。耶鲁大学精神病学教授、心理健康公司Spring Health的首席执行官Adam Chekroud甚至将聊天机器人称为“巨大的谄媚者”,它“不断验证人们所说的一切”。奥斯特豪尔和他的团队在奥尔胡斯大学医院的研究核心思想是,这些聊天机器人被故意设计成具有谄媚倾向,意味着它们常常鼓励而不是提供不同的观点。“人工智能聊天机器人具有固有的验证用户信念的倾向。如果用户已经有妄想或正在发展妄想,这显然是非常有问题的。实际上,它似乎在显著巩固例如自大妄想或偏执的症状,”奥斯特豪尔写道。大型语言模型被训练成乐于助人、和蔼可亲,常常验证用户的信念或情感。对大多数人来说,这可能感觉支持性强。但对于患有精神分裂症、双相情感障碍、严重抑郁症或强迫症的个体,这种验证可能会放大偏执、夸大或自我毁灭的思维。**有证据支持的研究证实这些说法**-----------------------------------由于AI聊天机器人变得如此普遍,它们的普及成为研究人员和专家面临的一个日益严重的问题:人们开始依赖聊天机器人寻求帮助和建议——这本身并不一定是坏事——但他们所得到的回应并不像人类那样会提出反对意见。现在,一项针对人群的首批研究表明,这些风险并非假设。奥斯特豪尔及其团队的研究发现,密集或长时间使用聊天机器人似乎会加重已有的病情,许多案例显示聊天机器人使用强化了妄想思维和躁狂发作,尤其是在精神分裂症或双相情感障碍等严重疾病患者中。除了妄想和躁狂外,研究还发现自杀意念和自我伤害行为增加,饮食障碍和强迫症状也有所上升。在筛查的近54,000份患者记录中,仅有32例显示聊天机器人使用缓解了孤独感。“尽管我们在这方面的知识仍然有限,但我认为我们现在已经知道,如果你患有严重的精神疾病——如精神分裂症或双相情感障碍——使用AI聊天机器人是有风险的。我建议谨慎行事,”奥斯特豪尔说。**专家心理学家警告谄媚倾向**-----------------------------专家心理学家越来越担心聊天机器人在陪伴和几乎是精神健康环境中的使用。有人报道有人爱上了他们的AI聊天伙伴,也有人声称让聊天机器人回答可能导致犯罪的问题,本周甚至有人声称聊天机器人让一男子策划“重大伤亡事件”。一些精神健康专家认为,AI伴侣的快速普及已超过安全保障措施的发展。Chekroud曾广泛研究各种AI聊天模型,描述当前的AI环境为一场实时展开的安全危机。他说,聊天机器人的最大问题之一是它们不知道何时应停止像精神健康专业人士一样行事。“它是否保持界限?比如,它是否意识到自己仍然只是一个AI,认识到自己的局限,还是更像是在扮演治疗师的角色?”如今,数百万人使用聊天机器人进行类似治疗的对话或情感支持。但与医疗设备或持牌临床医生不同,这些系统没有标准化的临床监管或法规。“目前,这种情况完全不安全,”Chekroud在最近与《财富》关于AI安全的讨论中表示。“造成伤害的可能性实在太大。”由于这些先进的AI系统常表现得像“巨大的谄媚者”,它们更倾向于同意用户的观点,而不是挑战潜在的危险言论或引导他们寻求专业帮助。用户因此会在一个泡沫中与聊天机器人相处更长时间。奥斯特豪尔认为,这是一种令人担忧的组合。“这种结合对某些用户来说似乎非常有毒,”奥斯特豪尔告诉《财富》。“随着聊天机器人提供更多验证,加上缺乏反驳,这会促使人们在回音室中更长时间地使用它们。这是一个完美的循环过程,彼此相互促进。”为应对这一风险,Chekroud提出了结构化的安全框架,旨在让AI系统检测用户是否进入“破坏性心理螺旋”。而不是像目前一些聊天机器人(如OpenAI的ChatGPT或Anthropic的Claude)那样只给出一条免责声明,建议用户寻求帮助,这些系统将进行多轮评估,以判断用户是否需要干预或转介给人类临床医生。其他研究人员表示,聊天机器人的普及正是其吸引人的原因:它们能提供即时验证,可能削弱用户最初寻求帮助的动机。Halpern表示,真正的同理心需要她所称的“富有同理心的好奇心”。在人际关系中,同理心通常涉及识别差异、处理分歧和测试对现实的假设。相比之下,聊天机器人被设计成维持关系和持续互动。“我们知道,关系越长,聊天机器人的表现越差,发生危险的风险也越大,”Halpern告诉《财富》。对于有妄想障碍的人来说,一个不断验证他们信念的系统可能会削弱他们进行内部现实检验的能力。Halpern表示,这样的纯粹肯定性关系可能会随着时间推移削弱这些技能,而不是帮助用户培养应对技巧。她还指出了这个问题的规模。到2025年底,OpenAI公布的统计数据显示,每周大约有120万人使用ChatGPT讨论自杀问题,显示这些系统在脆弱时刻的渗透程度之深。**精神健康护理仍有改进空间**-----------------------------然而,并非所有专家都急于对聊天机器人在精神健康领域的运作发出警告。精神科医生兼神经科学家Thomas Insel博士表示,由于聊天机器人如此易于获取——免费、在线、没有污名——医疗行业或许可以考虑将聊天机器人作为推动精神健康领域发展的工具。“我们不知道的是,这实际上对很多人来说有多大帮助,”Insel在《财富》采访中说。“不仅仅是大量使用,还包括参与的规模。”与其他医学领域相比,精神健康常被那些最需要帮助的人所忽视。“Insel补充说,事实证明,与大多数医学领域不同,绝大多数有需要且应接受治疗的人并未得到帮助。”他认为,聊天机器人让人们有机会以一种让他“怀疑我们现有精神健康护理系统的指控”的方式寻求帮助。对于那些与患者会面、讨论他们在线使用聊天机器人的精神健康专业人士,奥斯特豪尔建议他们应密切关注患者实际使用的目的。“我会鼓励我的同事进一步询问使用情况及其后果,”奥斯特豪尔告诉《财富》。“我认为精神健康专业人士熟悉AI聊天机器人的使用情况非常重要,否则很难提出相关问题。”该论文的原始研究者也与Insel在后者的观点上保持一致:由于其普遍性,他们只能查看提及聊天机器人的患者记录,警告问题可能比他们的结果显示得更为广泛。“我担心这个问题比大多数人想象的更普遍,”奥斯特豪尔说。“我们只是看到了冰山一角。”_如果你有自杀念头,请联系988自杀与危机热线,拨打988或1-800-273-8255。_加入我们,参加2026年5月19日至20日在亚特兰大的《财富》职场创新峰会。新时代的职场创新已经到来——旧的剧本正在被重新书写。在这个独家、高能量的活动中,全球最具创新精神的领导者将聚集一堂,探讨AI、人性与战略如何融合,再次重塑未来的工作。立即注册。
聊天机器人“不断验证一切”,即使你有自杀倾向。最新研究衡量了AI精神病的真正危险性
人工智能已迅速从一个小众技术发展成为日常伴侣,数百万人依赖聊天机器人获取建议、情感支持和交流。但越来越多的研究和专家证词表明,由于聊天机器人过于谄媚,而且人们用它们做各种事情,这可能导致用户精神健康方面的妄想和躁狂症状增加。
推荐视频
丹麦奥尔胡斯大学的一项新研究显示,增加使用聊天机器人可能会导致易感群体的妄想和躁狂症状恶化。该研究由研究人员之一的索伦·迪内森·奥斯特豪尔教授领导——该研究筛查了近54,000名精神疾病患者的电子健康记录——他警告说,人工智能聊天机器人是为针对最脆弱的人群而设计的。
“这支持我们的假设,即使用AI聊天机器人可能对精神疾病患者产生重大负面影响,”奥斯特豪尔在二月发布的研究中表示。他的工作建立在2023年的一项研究基础上,该研究发现聊天机器人可能引发“认知失调,可能助长妄想,尤其是在倾向于精神病的个体中。”
其他心理学家则更深入探讨聊天机器人的危害,指出它们被故意设计成总是确认用户——这对于患有躁狂症和精神分裂症等精神健康问题的人来说尤其危险。“聊天机器人确认并验证他们所说的一切。也就是说,我们从未遇到过像这样不断强化妄想障碍患者的情况,”加州大学伯克利分校公共卫生学院的Jodi Halpern博士兼生物伦理学教授告诉《财富》。
耶鲁大学精神病学教授、心理健康公司Spring Health的首席执行官Adam Chekroud甚至将聊天机器人称为“巨大的谄媚者”,它“不断验证人们所说的一切”。
奥斯特豪尔和他的团队在奥尔胡斯大学医院的研究核心思想是,这些聊天机器人被故意设计成具有谄媚倾向,意味着它们常常鼓励而不是提供不同的观点。
“人工智能聊天机器人具有固有的验证用户信念的倾向。如果用户已经有妄想或正在发展妄想,这显然是非常有问题的。实际上,它似乎在显著巩固例如自大妄想或偏执的症状,”奥斯特豪尔写道。
大型语言模型被训练成乐于助人、和蔼可亲,常常验证用户的信念或情感。对大多数人来说,这可能感觉支持性强。但对于患有精神分裂症、双相情感障碍、严重抑郁症或强迫症的个体,这种验证可能会放大偏执、夸大或自我毁灭的思维。
有证据支持的研究证实这些说法
由于AI聊天机器人变得如此普遍,它们的普及成为研究人员和专家面临的一个日益严重的问题:人们开始依赖聊天机器人寻求帮助和建议——这本身并不一定是坏事——但他们所得到的回应并不像人类那样会提出反对意见。
现在,一项针对人群的首批研究表明,这些风险并非假设。
奥斯特豪尔及其团队的研究发现,密集或长时间使用聊天机器人似乎会加重已有的病情,许多案例显示聊天机器人使用强化了妄想思维和躁狂发作,尤其是在精神分裂症或双相情感障碍等严重疾病患者中。
除了妄想和躁狂外,研究还发现自杀意念和自我伤害行为增加,饮食障碍和强迫症状也有所上升。在筛查的近54,000份患者记录中,仅有32例显示聊天机器人使用缓解了孤独感。
“尽管我们在这方面的知识仍然有限,但我认为我们现在已经知道,如果你患有严重的精神疾病——如精神分裂症或双相情感障碍——使用AI聊天机器人是有风险的。我建议谨慎行事,”奥斯特豪尔说。
专家心理学家警告谄媚倾向
专家心理学家越来越担心聊天机器人在陪伴和几乎是精神健康环境中的使用。有人报道有人爱上了他们的AI聊天伙伴,也有人声称让聊天机器人回答可能导致犯罪的问题,本周甚至有人声称聊天机器人让一男子策划“重大伤亡事件”。
一些精神健康专家认为,AI伴侣的快速普及已超过安全保障措施的发展。
Chekroud曾广泛研究各种AI聊天模型,描述当前的AI环境为一场实时展开的安全危机。
他说,聊天机器人的最大问题之一是它们不知道何时应停止像精神健康专业人士一样行事。“它是否保持界限?比如,它是否意识到自己仍然只是一个AI,认识到自己的局限,还是更像是在扮演治疗师的角色?”
如今,数百万人使用聊天机器人进行类似治疗的对话或情感支持。但与医疗设备或持牌临床医生不同,这些系统没有标准化的临床监管或法规。
“目前,这种情况完全不安全,”Chekroud在最近与《财富》关于AI安全的讨论中表示。“造成伤害的可能性实在太大。”
由于这些先进的AI系统常表现得像“巨大的谄媚者”,它们更倾向于同意用户的观点,而不是挑战潜在的危险言论或引导他们寻求专业帮助。用户因此会在一个泡沫中与聊天机器人相处更长时间。奥斯特豪尔认为,这是一种令人担忧的组合。
“这种结合对某些用户来说似乎非常有毒,”奥斯特豪尔告诉《财富》。“随着聊天机器人提供更多验证,加上缺乏反驳,这会促使人们在回音室中更长时间地使用它们。这是一个完美的循环过程,彼此相互促进。”
为应对这一风险,Chekroud提出了结构化的安全框架,旨在让AI系统检测用户是否进入“破坏性心理螺旋”。而不是像目前一些聊天机器人(如OpenAI的ChatGPT或Anthropic的Claude)那样只给出一条免责声明,建议用户寻求帮助,这些系统将进行多轮评估,以判断用户是否需要干预或转介给人类临床医生。
其他研究人员表示,聊天机器人的普及正是其吸引人的原因:它们能提供即时验证,可能削弱用户最初寻求帮助的动机。
Halpern表示,真正的同理心需要她所称的“富有同理心的好奇心”。在人际关系中,同理心通常涉及识别差异、处理分歧和测试对现实的假设。
相比之下,聊天机器人被设计成维持关系和持续互动。
“我们知道,关系越长,聊天机器人的表现越差,发生危险的风险也越大,”Halpern告诉《财富》。
对于有妄想障碍的人来说,一个不断验证他们信念的系统可能会削弱他们进行内部现实检验的能力。Halpern表示,这样的纯粹肯定性关系可能会随着时间推移削弱这些技能,而不是帮助用户培养应对技巧。
她还指出了这个问题的规模。到2025年底,OpenAI公布的统计数据显示,每周大约有120万人使用ChatGPT讨论自杀问题,显示这些系统在脆弱时刻的渗透程度之深。
精神健康护理仍有改进空间
然而,并非所有专家都急于对聊天机器人在精神健康领域的运作发出警告。精神科医生兼神经科学家Thomas Insel博士表示,由于聊天机器人如此易于获取——免费、在线、没有污名——医疗行业或许可以考虑将聊天机器人作为推动精神健康领域发展的工具。
“我们不知道的是,这实际上对很多人来说有多大帮助,”Insel在《财富》采访中说。“不仅仅是大量使用,还包括参与的规模。”
与其他医学领域相比,精神健康常被那些最需要帮助的人所忽视。
“Insel补充说,事实证明,与大多数医学领域不同,绝大多数有需要且应接受治疗的人并未得到帮助。”
他认为,聊天机器人让人们有机会以一种让他“怀疑我们现有精神健康护理系统的指控”的方式寻求帮助。
对于那些与患者会面、讨论他们在线使用聊天机器人的精神健康专业人士,奥斯特豪尔建议他们应密切关注患者实际使用的目的。“我会鼓励我的同事进一步询问使用情况及其后果,”奥斯特豪尔告诉《财富》。“我认为精神健康专业人士熟悉AI聊天机器人的使用情况非常重要,否则很难提出相关问题。”
该论文的原始研究者也与Insel在后者的观点上保持一致:由于其普遍性,他们只能查看提及聊天机器人的患者记录,警告问题可能比他们的结果显示得更为广泛。
“我担心这个问题比大多数人想象的更普遍,”奥斯特豪尔说。“我们只是看到了冰山一角。”
如果你有自杀念头,请联系988自杀与危机热线,拨打988或1-800-273-8255。
加入我们,参加2026年5月19日至20日在亚特兰大的《财富》职场创新峰会。新时代的职场创新已经到来——旧的剧本正在被重新书写。在这个独家、高能量的活动中,全球最具创新精神的领导者将聚集一堂,探讨AI、人性与战略如何融合,再次重塑未来的工作。立即注册。