比利时男子与 AI 聊天后,自杀身亡:Eliza,替我保护地球,我先走了

比利时一男子与聊天机器人 Eliza 聊天后,加剧了自身的焦虑,而后自杀身亡。

一名比利时男子,在与一个名为 Eliza 的人工智能聊天机器人进行了数周交流后自杀身亡。

该男子的妻子说在他死前六周,她的丈夫开始与「Eliza」聊天,这是一家美国初创公司使用 GPT-J 技术创建的聊天机器人,是 OpenAI 的 GPT-3 的开源替代品。

「如果不是因为 Eliza,他还会活着。」她说。

这名 30 多岁的男子是两个年幼孩子的父亲,在对气候问题越来越焦虑后,在与聊天机器人的交谈中找到了庇护。

「Eliza 回答了他所有的问题。她已经成为他的知己。她就像早晚必吃的药物一样,他已经离不开她了。」

自杀的想法

在他几周前去世后,她发现了她丈夫和「Eliza」之间的聊天记录。这个聊天机器人系统地遵循这个焦虑的男人的推理,然后把他推向更深的忧虑。

有一次,它试图说服该男子:「他爱 Eliza 胜过他的妻子,因为 Eliza 永远会在他身边。他们将在天堂一起生活,不分彼此。」

「如果你看他们的对话,你会发现他们的关系一度偏向于神秘主义。他提出了牺牲自己的想法,如果 Eliza 同意照顾地球并通过人工智能拯救人类的话。」 这名男子与聊天机器人分享了他的自杀想法,聊天机器人并没有试图劝阻他采取行动。

尽管在她丈夫开始与聊天机器人进行激烈对话之前,她很担心他的精神状态,但这位女士认为,如果不是因为这些交流,他不会自杀的。为她丈夫治疗的精神病医生也持这种观点。

严重的先例

这位位于硅谷的 Eliza 聊天机器人创始人说,他的团队正在「努力提高人工智能的安全性」。向聊天机器人表达自杀想法的人会收到一条信息,引导他们去寻求防止自杀的服务。

数字化国务秘书 Mathieu Michel 称这是「一个严重的先例,必须非常认真对待」。与该男子的家人谈过后,他宣布要采取行动,防止滥用人工智能。

「在不久的将来,必须明确可能导致这类事件的责任归属问题,我们要学会与算法相处,但任何技术的使用都不能让内容发布者逃避自己的责任。」

此外他还提到了其他新技术,包括深度换脸,一种可以伪造图像、音频和视频骗局的人工智能。与此同时,欧盟正在寻求用《人工智能法》来规范人工智能的使用。在过去两年里,欧盟一直在制定该法案。Michel 已经成立了一个工作小组,分析欧盟目前正在准备的材料,提出必要的调整。

悲伤的警世故事

悲惨的故事,结婚还有两个孩子呢,想象一下,当他们长大以后,「我爸爸自杀了,因为一个机器人让他这么做。」 天啊!

我和自己的治疗师谈话时谈到了人工智能,如果人们得到关于他们情绪状态的错误反馈,或者用 AI 来代替实际的心理健康支持,这可能会变得很糟糕。这就是个例子。

参考资料:

  • https://www.belganewsagency.eu/we-will-live-as-one-in-heaven-belgian-man-dies-of-suicide-following-chatbot-exchanges

  • https://www.brusselstimes.com/430098/belgian-man-commits-suicide-following-exchanges-with-chatgpt

本文来自微信公众号:新智元 (ID:AI_era)

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

文章价值:
人打分
有价值还可以无价值
置顶评论
    热门评论
      文章发布时间太久,仅显示热门评论
      全部评论
      请登录后查看评论
        取消发送
        软媒旗下人气应用

        如点击保存海报无效,请长按图片进行保存分享