机器人能治疗心理疾病吗?方法有风险,使用需谨慎

本文来自微信公众号:SF 中文 (ID:kexuejiaodian),作者:SF

人工智能聊天机器人可以让人们更轻松地获得心理健康服务,不过目前尚不清楚这种方法是否存在风险

文 | 凯特・达林(Kate Darling)

编辑 | 刘佳玉

视觉设计 | 夏梦

寻求心理医生的帮助并非易事。近几年,抑郁和焦虑人群显著增加,对心理健康服务的需求巨大,精神卫生领域的专业人员严重紧缺。而一些有心理健康问题的人又因为对心理健康问题的认知不够、无法承担医疗费用、羞于宣之于口等原因,不能寻求心理医生的帮助。那么,逐渐兴起的治愈型聊天机器人,似乎可以解决上述的所有问题。

人们更愿意向聊天机器人倾诉?

美国心理疗法创新公司的 Woebot 以及印度人工智能健康公司的 Wysa 和美国的 Youper 等治愈型聊天机器人越来越受欢迎。这些机器人学习了非常多的心理治疗方法,如认知行为疗法(常见的心理治疗方法,拥有大量的实证基础)。人机交互研究表明,人们可以与聊天机器人建立融洽的关系和信任。甚至比起相信人类心理医生,一些人更信任聊天机器人。因为机器人并不会评价他们,所以他们更愿意向机器人倾诉。

但是,虽然聊天机器人使用的是标准的治疗框架,但治疗效果取决于用户的互动情况。相比之下,人类心理医生与患者的沟通更顺畅,互动情况更好。

治愈型聊天机器人存在风险

迄今为止,治疗机器人是否有效,是否存在风险等问题还有待进一步研究。

2018 年,Woebot 曾因在聊天中持有错误的政治立场而引发争议。这个问题已得到解决,但这绝不会是聊天机器人最后一次引发争议。生成式人工智能方法能让机器人的回答更灵活,但仍然存在一个问题:基于人工智能的文本系统包含性别歧视、种族歧视和虚假信息等内容,没有人能够准确预测机器人可能会说什么,这在治疗环境中尤其危险。

即使有预先编写好的、基于规则的答案,也很容易对那些寻求心理健康建议的人造成伤害,因为他们的心理状况本身就很脆弱。例如,虽然聊天机器人可以识别含自杀倾向和想法的语言,并能想办法阻止,但在多数情况下,机器人的回答可能会被误导或误解。

优秀的心理医生善于观察和控制患者的情绪。他们能理解语义,观察手势,注意语气变化,并做出专业的回应。他们会根据患者的状态调整治疗的方式。这非常有难度,对专业性要求非常高,即使是人类心理医生也会犯错。

不靠谱的人类心理医生非常危险。有的心理医生会给出不专业的建议而加重患者的病情,有的心理医生甚至会骗取钱财。但专业的心理医生通常严格执行心理医生道德准则,并尽力医治患者。人类心理医生可能会犯错误,但风险并不大。

方法有风险,使用需谨慎

治愈型聊天机器人最大的卖点是增加获得治疗的机会。降低心理健康服务的门槛无疑是有价值的,但在规模化之前,还需测试它的风险。

一些治疗机器人的设计人员声称聊天机器人只是为心理治疗提供补充工具,并不作为心理医生解决心理问题时的一种干预手段。它主要是为不能或不愿接受心理医生治疗的人提供一种替代方案

治疗机器人有可能会为有心理健康问题的人群提供巨大的帮助。但我们应该警惕任何在研究不足的情况下就匆忙推向市场的产品,尤其是可能包含各种已知和未知危害的人工智能应用程序。

参考文献:

  • https://www.sciencefocus.com/news/therapy-chatbots-ai-mental-health/

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

文章价值:
人打分
有价值还可以无价值
置顶评论
    热门评论
      文章发布时间太久,仅显示热门评论
      全部评论
      一大波评论正在路上
        取消发送
        软媒旗下人气应用

        如点击保存海报无效,请长按图片进行保存分享