📢 转载信息
原文链接:https://www.technologyreview.com/2025/12/30/1129392/book-reviews-ai-therapy-mental-health/
原文作者:Becky Ferreira
AI治疗师的崛起
全球正处于一场心理健康危机之中。世界卫生组织的数据显示,全球有超过十亿人患有心理健康问题。焦虑和抑郁的患病率在许多人群中,尤其是年轻人中持续增长,而自杀每年夺走全球数十万人的生命。
鉴于对可及且负担得起的心理健康服务的明确需求,人们自然将目光投向人工智能(AI),希望从中找到可能的缓解之道。数百万用户已经在积极地从OpenAI的ChatGPT和Anthropic的Claude等热门聊天机器人,或Wysa和Woebot等专业心理应用中寻求治疗。在更广泛的层面上,研究人员正在探索AI利用可穿戴设备和智能设备进行行为和生物识别观察的潜力,分析海量的临床数据以获取新见解,并协助人类心理健康专业人员防止职业倦怠。
但到目前为止,这场基本不受控制的实验产生了参差不齐的结果。许多人在基于大型语言模型(LLM)的聊天机器人中找到了慰藉,一些专家认为它们作为治疗师前景可观,但其他用户却被AI的幻觉、过度奉承的言辞推入妄想的旋涡。最悲惨的是,多个家庭声称聊天机器人导致了他们亲人的自杀,并引发了针对负责这些工具的公司的诉讼。十月份,OpenAI首席执行官Sam Altman在博客中透露,0.15%的ChatGPT用户“的对话中包含明确的自杀计划或意图指标”。这意味着仅使用其中一个软件系统的人,每周就有大约一百万人分享自杀念头。
AI治疗在现实世界中带来的后果以意想不到的方式集中爆发于2025年,当时我们浏览了大量关于人机关系、许多LLM的安全护栏的脆弱性,以及与那些有经济动机收集和货币化敏感数据之公司的产品分享深刻个人信息的风险的故事。
几位作者预见到了这一转折点。他们适时的著作提醒我们,尽管现在感觉像是突破、丑闻和混乱的模糊集合,但这段令人迷失方向的时期根植于关怀、技术和信任的更深层次历史。
LLM常被称为“黑箱”,因为没有人确切知道它们如何产生结果。指导其输出的内部运作机制是模糊的,因为它们的算法极其复杂,训练数据极其庞大。在心理健康圈子里,人们常因类似的原因将人脑描述为“黑箱”。心理学、精神病学及相关领域必须应对无法清晰看到他人头脑内部,更不用说精确指出其痛苦确切原因的不可能性。
这两种黑箱现在正在相互作用,产生了不可预测的反馈循环,这可能会进一步阻碍我们了解人们心理健康困境的根源以及可能出现的解决方案。对这些发展的焦虑很大程度上与AI近期的爆炸性进步有关,但也重新唤起了几十年前先驱者们的警告,例如麻省理工学院计算机科学家Joseph Weizenbaum,他早在20世纪60年代就反对计算机化的治疗。
How AI Could Save Lives
Charlotte Blease
医学哲学家夏洛特·布利斯(Charlotte Blease)在她的著作《机器人医生:为什么医生会让我们失望——以及人工智能如何拯救生命》(Dr. Bot: Why Doctors Can Fail Us—and How AI Could Save Lives)中提出了乐观的观点。她的书广泛探讨了AI在各个医疗领域的潜在积极影响。虽然她对风险保持清醒的认识,警告那些期待“对技术的热烈赞美之词”的读者会感到失望,但她认为这些模型可以同时帮助减轻患者的痛苦和医疗人员的职业倦怠。
布利斯写道:“卫生系统正因患者压力而崩溃。”“医生负担加重,等待时间延长,使许多人深感沮丧。”
布利斯认为,AI不仅可以减轻医疗专业人员的巨大工作量,还可以缓解一直存在于某些患者与其照护者之间的紧张关系。例如,人们常常因为害怕被医疗专业人员评判而不敢寻求必要的治疗;对于有心理健康挑战的人来说更是如此。她认为,AI可以使更多人能够分享他们的担忧。
Daniel Oberhaus
丹尼尔·奥伯豪斯(Daniel Oberhaus)引人入胜的著作《硅谷心理医生:人工智能如何将世界变成疯人院》(The Silicon Shrink: How Artificial Intelligence Made the World an Asylum)也洋溢着类似的张力。奥伯豪斯以悲剧为起点:他失去了妹妹,她因自杀离世。在奥伯豪斯进行“典型的二十一世纪哀悼过程”——筛选她留下的数字遗物时,他想知道技术是否可以减轻她自童年起就困扰她的精神问题的负担。
他写道:“所有的这些个人数据可能包含了重要的线索,她的心理健康提供者本可以利用这些线索来提供更有效的治疗。如果运行在我妹妹智能手机或笔记本电脑上的算法能够利用这些数据来了解她何时处于困境,是否可以带来及时的干预,挽救她的生命?即使那样,她会想要吗?”
这种数字表型分析的概念——即挖掘一个人的数字行为以获取有关痛苦或疾病的线索——在理论上看起来很优雅。但如果将其整合到精神病学人工智能(PAI)领域,情况可能会变得复杂,PAI的范围远远超出了聊天机器人治疗。
奥伯豪斯强调,数字线索实际上可能会加剧现代精神病学现有的挑战,精神病学在精神疾病和障碍的根本原因上仍然存在根本性的不确定性。他说,PAI的出现,“相当于将物理学嫁接到占星术上”。换句话说,数字表型分析产生的数据与行星位置的物理测量一样精确,但它被整合到一个更宏大的框架中——在这种情况下是精神病学——这个框架像占星术一样,是建立在不可靠的假设之上的。
奥伯豪斯将基于行为数据将临床决策外包给LLM的做法称为“
他还以过去的疯人院为参照点——在那里,住院患者失去了自由、隐私、尊严和生活自主权——来警示PAI可能带来的更隐秘的数字禁锢。LLM用户已经通过告诉聊天机器人敏感的个人信息来牺牲隐私,而这些信息随后被公司收集和货币化,助长了新的监控经济。当复杂的内心生活被转化为为AI分析量身定制的数据流时,自由和尊严就受到了威胁。
A Critical Analysis of
AI Mental Health Treatment
Eoin Fullam
伊恩·富拉姆(Eoin Fullam)是一位研究技术与心理健康交叉领域的学者,他在《聊天机器人疗法:AI心理健康治疗的批判性分析》(Chatbot Therapy: A Critical Analysis of AI Mental Health Treatment)一书中呼应了同样的担忧。这本书是一本学术性很强的入门读物,它分析了AI聊天机器人提供的自动化治疗背后的假设,以及资本主义激励措施如何可能腐蚀这类工具。
富拉姆指出,新技术背后的资本主义心态“通常会导致可疑、非法甚至不道德的商业行为,在这些行为中,客户的利益从属于市场主导战略”。
但这并不意味着治疗机器人制造商“为了市场主导而不可避免地进行有害于用户利益的活动,”富拉姆写道。
但他指出,AI治疗的成功取决于赚钱和治愈人的不可分割的冲动。在这种逻辑下,剥削和治疗相互助长:每一次数字治疗都会产生数据,而这些数据又会推动这个以无偿用户寻求治疗为基础的获利系统。治疗看起来越有效,这个循环就固化得越深,使得区分关怀与商品化变得更加困难。“用户从应用程序获得治疗或其他任何心理健康干预的益处越多,”他写道,“他们所遭受的剥削就越严重。”
这种经济和心理上的衔尾蛇——吞食自己尾巴的蛇——的感觉,是弗雷德·伦泽(Fred Lunzer)的处女作小说《Sike》中的中心意象,这位作者在AI领域拥有研究背景。
《Sike》被描述为“一个男孩遇到女孩遇到AI心理治疗师的故事”,讲述了阿德里安(Adrian)的故事,他靠代写说唱歌词为生,并与马基(Maquie)相恋,马基是一位擅长在Beta阶段发现有利可图技术的商业人士。
Fred Lunzer
书名指的是一款名为Sike的炫酷商业AI治疗师,它被植入智能眼镜中,阿德里安用它来审视他无数的焦虑。“当我注册Sike时,我们设置了我的仪表盘,一个宽大的黑色面板,就像飞机的驾驶舱,显示我的每日‘生命体征’,”阿德里安叙述道。“Sike可以分析你的走路方式、眼神交流方式、你谈论的内容、你穿的衣服、你小便、大便、笑、哭、接吻、撒谎、抱怨和咳嗽的频率。”
换句话说,Sike是终极的数字表型分析师,它持续而详尽地分析用户日常经历中的一切。一个转折是,伦泽选择将Sike定位为奢侈品,每月订阅费高达2000英镑,只有能负担得起的人才能使用。
阿德里安靠一首热门歌曲的收入而变得财力雄厚,他开始依赖Sike作为他内心世界与外界之间的可信中介。这部小说探讨了这款应用对富裕人群健康的影响,讲述了富人自愿投身于奥伯豪斯所描述的那种数字疯人院的精品版本。
《Sike》中唯一真正的危险感涉及一个日本的酷刑蛋(别问了)。这部小说奇怪地回避了其主题更广泛的反乌托邦影响,转而描绘了在高级餐厅和精英晚宴上的醉酒交谈。
AI治疗师的突然崛起似乎惊人地具有未来感,仿佛它应该在另一个时代展开,届时街道会被自动清洁,我们通过气动管道环游世界。
在阿德里安看来,Sike的创造者只是“一个很棒的人”,尽管他有着通过训练应用程序来缓解全国人民疾苦的“技术弥赛亚”愿景。似乎总有一个包袱该掉下来,但最终,它并没有掉下来,给读者留下一种悬而未决的感觉。
虽然《Sike》的背景设定在当代,但AI治疗师的突然崛起——无论是在现实生活中还是在小说中——都显得惊人地具有未来感,仿佛它应该在另一个时代展开,届时街道会被自动清洁,我们通过气动管道环游世界。但心理健康与人工智能的这种融合已经酝酿了半个多世纪。心爱的天文学家卡尔·萨根(Carl Sagan)曾设想过一个“由计算机心理治疗终端组成的网络,有点像一排排大型电话亭”,以应对日益增长的心理健康服务需求。
奥伯豪斯指出,可训练神经网络的早期实例之一,即感知器(Perceptron),并非由数学家,而是由心理学家弗兰克·罗森布拉特(Frank Rosenblatt)于1958年在康奈尔航空实验室发明的。AI在心理健康方面的潜在用途在20世纪60年代就得到了广泛认可,启发了早期的计算机心理治疗师,例如约瑟夫·魏岑鲍姆(Joseph Weizenbaum)开发的ELIZA聊天机器人中的DOCTOR脚本,他在本文介绍的所有三本非虚构著作中都有提及。
魏岑鲍姆于2008年去世,他对计算机治疗的可能性深感担忧。他在1976年的著作《
这是一个值得铭记的警示。随着AI治疗师规模化出现,我们正在目睹它们演绎出一个熟悉的动态:带有表面上良好意图的工具与能够剥削、监视和重塑人类行为的系统纠缠在一起。在为急需心理健康支持的患者解锁新机会的狂热尝试中,我们可能正在锁上他们身后的其他门。
贝基·费雷拉(Becky Ferreira)是纽约州北部的一名科学记者,也是《第一次接触:我们对外星人的痴迷史》(First Contact: The Story of Our Obsession with Aliens)的作者。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区