专家:Facebook 的平台内容监管并不像看上去的那么透明
北京时间 3 月 29 日上午消息,据报道,Facebook 首席执行官扎克伯格在上周提出了一个新想法,即大科技公司通过发布报告和数据,对删帖行为及其效果进行说明,从而实现对网络平台内容的自我监控。然而,外部专家对此却并不看好,他们称 Facebook 其实在这方面已经建立了一套制度,但问题在于这套制度不怎么管用。
上周四,扎克伯格对国会表示:“透明度将有助于让这些大科技公司对删帖的准确性和有效性负责。”他补充说,如果这样一个透明度系统成为行业规范,Facebook 就不必做出太大的改变。他还称,“作为一个典范,Facebook 每个季度都在透明度方面以身作则。”
扎克伯格已经多次发出类似倡议,呼吁社交媒体公司对用户发布的内容承担更多责任。随着网络平台上有害帖子(比如仇恨言论、暴力威胁等)的日益增加,大科技公司因此备受抨击。美国国会议员就《通信规范法案》230 条款的改革进行讨论,该条款使互联网平台公司无需对用户生成的内容担责。
新一轮对大科技公司的制裁呼吁正日益高涨,这些公司的社交媒体平台参与散布各种虚假信息,对今年 1 月的国会骚乱起到了推波助澜的作用,并且,在这些平台上还充斥着关于新冠疫情的各种不实消息。然而,上周四的听证会并没有让国会就此达成一个立法方案,从而给 Facebook 提供了施加影响力的机会。
在 230 条款的改革方面,阿伦特 · 福克斯律师事务所合伙人珍妮 · 李(Jenny Lee)是大科技公司的利益代表方。她表示:“大科技公司至少给相关的讨论留下了空间。”
然而,Facebook 的自我审查报告并不像它所声称的那么透明。例如,该公司在 2 月份报告称,超过 97% 的被判定为仇恨言论的内容在遭到举报之前就被其软件检测到;在去年第四季度,它对平台上 49% 的欺凌和骚扰内容采取了行动,之后这些内容才被用户标记,而在第三季度这一比例仅为 26%。但是,这里面的问题在于,在计算出这些数字的等式中,分母是 Facebook 的人工智能记录下来的内容,而不是有害内容的总量。此外,这些有害帖子在删除前有多少人浏览过,以及它们的删除时间,Facebook 没有发布相关信息。
一位专家表示,Facebook 的这份报告令人震惊和沮丧,这家社交媒体公司并未披露那些有害内容的删除时间,是在几分钟内还是几天内删除的?——他们并未加以说明。
这份报告的重点是人工智能,这意味着 Facebook 不会披露被人为标记为违规的内容,以及这些人为标记的内容被审查和删除的比例。
有专家表示,Facebook 高度依赖于机器学习的内容审核系统,在实际使用中存在严重缺陷。“这些自动化审核系统存在着日益增加的误检风险,需要删除的内容有可能得不到删除,而那些不需删除的内容却可能被错误删除。”
今年早些时候,Facebook 的外部监督委员会就已指出了 Facebook 人工智能的缺陷。该监督委员会是 Facebook 为客观评估其最具争议的内容审查而成立的一个独立小组。委员会要求,如果用户的内容被人工智能删除,应该通知该用户,并允许用户的上诉被人工查看。
Facebook 曾表示,给用户提供这种选择在操作上比较困难。Facebook 拥有 30 多亿用户,仅有约 15000 名内容审查人员,其中一些人由于新冠疫情在家工作,出于法律原因他们不能在家查看一些敏感内容。
人力资源的短缺,以及人工智能的缺陷,给 Facebook 的内容审核带来了特别的挑战。
Facebook 的这份内容透明度报告没有关于被删除的帖子的语言或地理位置的数据。它也没有提及任何关于虚假信息的事情——而这是立法者们关注的另一个关键领域。
专家评论说:“这份透明报告几乎没有透明度。”
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。