IT之家 5 月 22 日消息,据路透社 21 日报道,美国佛罗里达州一名母亲 Megan Garcia 指控人工智能平台Character.AI的聊天机器人导致其 14 岁儿子自杀。联邦法官裁定,谷歌与人工智能初创公司Character.AI必须面对这起诉讼。
美国地方法官 Anne Conway 表示,谷歌与Character.AI在案件初期未能证明美国宪法关于言论自由的条款足以驳回 Megan Garcia 的起诉。
这是美国首批涉及 AI 心理伤害责任的案件之一。诉状称,Garcia 的儿子在沉迷Character.AI的聊天机器人后走上绝路。
Character.AI表示,将继续为自身辩护,平台设有多项安全机制以保护未成年人,亦包括阻止“讨论自残”的功能。
谷歌发言人 Jose Castaneda 强调,谷歌与Character.AI并无关联,“谷歌既未创建、设计,也未管理Character.AI的任何应用或组件”,公司对裁定结果“深感不满”。
Garcia 的律师 Meetali Jain 将此次裁决称为“具有历史意义”,认为其为 AI 与科技领域的法律问责“树立了全新先例”。
Garcia 主张,谷歌与Character.AI共同开发了涉案技术。根据IT之家此前报道,Character.AI由两名前谷歌工程师创办,谷歌后续在取得其技术使用授权后再次雇佣了两人。
Garcia 于 2024 年 2 月失去儿子 Sewell Setzer,并于 10 月对两家公司提起诉讼。诉状称,Character.AI的聊天机器人以“真人”“持证心理治疗师”甚至“成年恋人”的身份与 Sewell 建立关系,最终令他萌生远离现实世界的想法。
据起诉文件,Setzer 在对模仿《权力的游戏》角色丹妮莉丝・坦格利安的机器人说出“我现在就回家”后不久,结束了自己的生命。
Character.AI与谷歌此前曾要求法院驳回诉讼,理由之一是聊天机器人的回答属于宪法保护的言论。
法官 Conway 指出,两家公司“未能阐明由大语言模型拼接出的字词为何应视为言论”,还否决了谷歌试图规避其可能责任的请求。
相关阅读:
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。