2025-12-06 15:37来源:本站

微软刚刚为一款人工智能治疗师应用申请了专利。你对此有何感想?
根据该文件(最先被关注windows的人发现),人工智能收缩被描述为“在用户和对话代理之间的会话中提供情感护理的方法和设备”,旨在为用户提供情感支持,分析他们的感受,并仔细存储用户信息和对话,以便能够建立用户、他们的生活和他们的情感触发器的“记忆”。
该模型显然能够处理图像和文本,重要的是,它似乎不太像是一种紧急服务——如果你处于严重的情绪危机中,你肯定想寻求人类的帮助——而更像是一个让用户能够谈论生活的一般空间。
文件显示,随着人工智能收集到更多关于用户的信息,它可以开始捕捉到某些情感线索。基于这些线索,它可能会提出一些提示问题——甚至在某些情况下,为用户如何处理他们的问题提供建议。正如微软提供的一份数据所示,一位用户发来的信息显示,他们“最近感觉很糟糕”,这促使人工智能问:“发生了什么?”当用户回答说家庭问题让他们感到疲惫时,人工智能会建议用户考虑“跑步30分钟来提神”。
但微软似乎相信,人工智能还可以进行更深入的精神分析。据一位数据显示,用户还可以选择进行“明确的心理测试”,微软表示,该测试将由“心理学家或心理学领域专家预定义的评分算法”进行评估。
这当然不是第一次尝试将人工智能应用于心理健康。一个叫Woebot的东西显然是存在的,谁能忘记美国饮食失调协会(National Eating Disorder Association)进军聊天机器人服务的惨痛经历呢?同样,人类已经转向一些非特定治疗的机器人寻求陪伴和支持,许多人与这些人工智能建立了深厚的个人联系。
然而,为了达到这个目的,我们可能忽略了在一些情况下,这些相互作用最终造成的伤害远远大于它们的好处。今年4月,据称一名患有严重气候焦虑症的比利时男子在寻求聊天机器人的帮助后自杀。2021年,一名当时19岁的男子试图用弓弩杀死已故的女王伊丽莎白二世——是的,说真的——在他的人工智能女友的支持和鼓励下,他执行了这个致命的阴谋。
在其他地方,在一些不那么极端的情况下,一些聊天机器人伴侣应用程序的用户表示,当他们的聊天机器人朋友和情人被拆解时,他们会感到痛苦。如果微软的人工智能与用户建立了密切的关系,然后出于某种原因关闭了——这不是微软第一次杀死一个机器人——我们可以想象,人工智能疗法的赞助人可能会经历类似的痛苦考验。
这里还有一些更明显的责任警告。为了让这样的应用既实用又安全,微软需要植入一些防弹的人工智能护栏。而且,就像人类治疗师一样,机器人可能应该被要求向当局或特殊卫生服务机构报告危险或令人不安的行为。尽管有护栏,但目前的人工智能是否具备处理与心理健康和疾病相关的复杂且往往脆弱的情况所需的情感细微差别,仍有待观察。如果它对挣扎的人说错了话,或者只是说得不够呢?
很难想象一个机器人能够像一个优秀的人类治疗师一样为一个人提供同理心和支持——但是,根据这项专利,这显然还有待观察。