Facebook 吹哨人亮明身份:他们牺牲社会利益赚取利润

2021-10-05 14:32新浪科技 - -

北京时间 10 月 5 日下午消息,据报道,一名向美国执法部门举报 Facebook 的前雇员日前接受 CBS《60 分钟》栏目采访时表示,她在 Facebook 目睹了“公众利益和 Facebook 利益之间的冲突”

她叫弗朗西斯・豪根(Frances Haugen)。事实上自从上个月遭到前员工的匿名举报以来,Facebook 一直都想知道这名神秘举报人的身份。

举报信显示,Facebook 的内部研究表明,这个全球头号社交网络对仇恨心理、错误信息和政治动荡都起到了推波助澜的作用 —— 但他们却对此秘而不宣。

其中的一项指控称 Facebook 旗下的 Instagram 对青春期少女构成伤害。豪根的这封举报信的破坏力堪称史无前例,原因是她在 5 月份离职时带走了 Facebook 的大量内部研究报告。上个月这份文件被媒体曝光。而在 10 月 4 日晚间,豪根则通过 CBS 的《60 分钟》节目首次公开了自己的身份,还亲自解释了她为何要充当 Facebook 不端行为的“吹哨人”。

豪根:我在 Facebook 反复目睹了公众利益与 Facebook 利益之间的冲突。而 Facebook 则一次又一次地选择追求自身利益,努力赚钱就是其中最典型的一项。

豪根今年 37 岁,是一位来自爱荷华州的数据科学家,她拥有计算机工程学位和哈佛商科硕士学位。她曾为谷歌和 Pinterest 等公司效力了 15 年。

豪根:我见过很多社交网络,从没见过 Facebook 这么糟糕的公司。

主持人:其他人离职以后可能不会“多管闲事”。我想知道你为什么要这么做。

豪根:换位思考一下,如果你是我,你知道 Facebook 内部发生了什么,你还知道外界对此一无所知。我知道如果我继续留在 Facebook,我的未来会是什么样子,那就是不断在内部消化这个问题,然后彻底躺平。

主持人:你是什么时候把这些文件带出公司的?具体是怎么做的?

豪根:2021 年的某个时候,我意识到,“我必须采取系统性的方式来做这件事,而且我必须要拿出足够的证据,让这件事情无可置疑。”

她偷偷复制了好几万页的 Facebook 内部研究报告。她说,有证据表明,该公司欺骗公众,让人们以为它在打击仇恨、暴力和虚假信息方面取得了重大进展。她今年发现的一项研究报告里面提到:“我们估计,尽管我们在这方面处于全球顶尖水平,但我们可能只会在对 Facebook 上 3% 至 5% 的仇恨内容和 0.6% 的暴力和煽动性内容采取行动。”

主持人:你提供的另一份文件写道,“我们从各种来源获得的证据表明,Facebook 以及旗下的各类应用程序上的仇恨言论、分裂性政治言论和错误信息正对世界各地的社会产生影响。”

豪根:当我们生活的信息环境中充斥着愤怒、仇恨、极端的内容时,就会侵蚀民众的信任,侵蚀我们对彼此的信心,侵蚀我们相互关怀的能力,Facebook 目前的这种形态正在撕裂我们的社会,并在世界各地引发种族暴力。

“种族暴力”包括 2018 年缅甸军方使用 Facebook 发动的种族灭绝行动。

豪根表示,她于 2019 年加入 Facebook。她加入 Facebook 是为了打击错误信息,因为她曾因为网络阴谋论而失去了一位朋友。

豪根:我从不希望任何人遭受我这样的痛苦经历。确保 Facebook 呈现高质量信息事关重大。

在 Facebook 总部,她被分配到公民诚信(Civic Integrity)部门,负责处理包括错误信息在内的选举风险。但在美国大选之后,事情却发生了转折。

豪根:他们告诉我们,“我们准备解散公民诚信部门。”他们的意思是说,“哦,太好了,我们过了大选这一关。没有发生骚乱。现在可以解散公民诚信部门了。”但几个月后却发生了暴乱。当他们解散公民诚信部门时,我心想:“我不相信他们愿意投入应该投入的资源来防止 Facebook 变成危险的地方。”

Facebook 表示,公民诚信部门的工作已分配给其他部门。豪根则表示,Facebook 问题的根源在于它在 2018 年对算法进行的调整 —— 正是这个算法决定了你能在 Facebook 信息流上看到什么内容。

豪根:所以,如果你您坐下来刷 5 分钟手机,可能只会看到 100 条内容。但这确是 Facebook 从成千上万的备选项里面挑选出来的。

这套算法根据你过去互动率最高的内容进行选择。

豪根:Facebook 的这种内容筛选方式存在很多弊端,其中之一就是它会针对我们所参与的内容或引发我们反应的内容进行优化。但它自己的研究表明,仇恨、分裂、极端的内容更容易引发人们的愤怒情绪,而不太容易激发其他的情绪。

主持人:错误信息、愤怒的内容 —— 这些都很吸引人,而且……

豪根:非常诱人。

主持人:…… 能加强用户的粘性。

豪根:没错。Facebook 已经意识到,如果他们把算法调整得更加安全,人们在它网站上停留的时间会减少,点击的广告也会减少,他们赚的钱也会减少。

豪根说,Facebook 明白 2020 年大选蕴含的危险。因此,它开启了安全系统以减少错误信息 —— 但她说,其中许多变化都是暂时的。

豪根:选举一结束,他们就把系统关掉了,或者把设置改回原来的样子。这时的重点是增长,而不再是安全。

在我看来,这简直是对民主的背叛。

Facebook 表示,该公司仍然保留了一些安全系统。但在大选结束后,一些人利用 Facebook 来组织 1 月 6 日的暴乱。检察官引用了一些 Facebook 的帖子作为证据 —— 包括武装人员的照片以及许多文字内容,例如“赶紧通过子弹或投票来恢复共和吧!”极端分子使用了许多平台,但 Facebook 是主要阵地。

根据豪根保留的内部留言板副本,Facebook 员工在袭击发生后情绪激动。“…… 难道我们没有足够的时间来弄清楚如何在不助涨暴力的情况下管理言论吗?”我们搜寻其中的积极的评论后,发现了这一条,“我认为我们的领导团队没有无视数据,无视异议,无视真相……”但却引来了这样的回复:“欢迎来到 Facebook!我发现你是 2020 年 11 月才入职的…… 我们多年来一直都在目睹…… 公司领导层不痛不痒的行动。”“…… 同事们…… 不能问心无愧地为一家没有采取更多措施减轻平台负面影响的公司工作。”

主持人:Facebook 本质上放大了人性中最阴暗的一面。

豪根:这是这些不幸的后果之一,对吧?Facebook 没有人是恶意的,只是激励措施错位了,对吧?问题在于,你看的内容越多,Facebook 赚的钱就越多。人们喜欢参与引起情绪反应的事情。他们接触到的愤怒越多,互动就越多,看的内容也就越多。

正因如此,欧洲的一些主要政党才投诉 Facebook。豪根获得的这份 2019 年的内部报告称,各方“…… 强烈认为算法的变化迫使他们在 Facebook 上的沟通中产生了负面情绪…… 导致他们采取更极端的政策立场。”

主持人:欧洲政党其实是在对 Facebook 说:你编写算法的方式正在改变我们领导国家的方式。

豪根:是的。你在强迫我们采取我们不喜欢的立场,众所周知,这对社会有害。我们知道,如果我们不采取这些立场,就无法在社交媒体行业胜出。

她说,有证据显示,Facebook 的这种负面影响已经蔓延到 Instagram 上。

主持人:你发现的 Facebook 内部研究中,有一份谈到了 Instagram 如何伤害青春期少女。一项研究表明,13.5% 的少女表示,Instagram 会使强化她们的自杀念头;17% 的少女表示,Instagram 会使饮食失调更为严重。

豪根:Facebook 自己的研究表明,当这些年轻女性开始观看这种强化饮食失调的内容时,她们会变得越来越沮丧。这实在令人心痛不已。实际上,这能让她们更多地使用这款 Instagram。因此,他们最终进入了这个反馈循环,让她们越来越讨厌自己的身体。Facebook 自己的研究表明,Instagram 不仅对青少年构成危险,而且还对青少年构成了实实在在的伤害,这种情况比其他社交媒体更为严重。

就在上周,Facebook 宣布推迟为年幼的儿童创建 Instagram 帐号的计划。

上个月,豪根的律师向负责金融市场执法的美国证券交易委员会(SEC)提交了至少 8 项投诉。这些投诉将 Facebook 的内部研究与公司的公众形象进行了对比 —— 主要是其 CEO 马克・扎克伯格(Mark Zuckerberg)的公众形象,他在 3 月通过远程方式出席了美国国会的听证会。

扎克伯格在 3 月 25 日的证词中说:我们删除了可能对现实世界立刻构成伤害的内容。我们建立了前所未有的第三方事实核查项目。这套系统并不完美。但在符合我们国家价值观的错误信息处理方式中,这是我们所能找到的最优解。

约翰・泰伊(John Tye)是豪根律师团的成员之一。他在华盛顿创办了一家名为“吹哨人援助机构”( Whistleblower Aid)的法律团体。

主持人:你投诉到 SEC 的法律依据是什么?你认为他们违反了哪些法律?

泰伊:作为一家上市公司,Facebook 不得对投资者撒谎,甚至不得隐瞒重要信息。因此,SEC 定期采取执法行动,指控 Facebook 等公司存在重大的虚假陈述和信息遗漏,对投资者产生不利影响。

主持人:Facebook 可能指控豪根窃取公司文件。

泰伊:10 年前通过的《多德-弗兰克法案》(Dodd-Frank Act)在 SEC 内部设立了一个吹哨人办公室。该法律的一项条款规定,任何公司都不能禁止其员工与 SEC 沟通并与 SEC 共享公司内部文件。

豪根:我非常同情马克。马克从来没有打算建立一个充满仇恨情绪的平台。但他允许人们做出选择,而这些选择的副作用导致仇恨、极端的内容得到更广泛的传播,产生更大的影响。

Facebook 拒绝接受采访。但该公司在发给《60 分钟》栏目的书面声明中说:“我们一方面要保护数十亿人公开表达自己的权利,一方面还要确保我们平台成为一个安全而积极的地方,我们的团队每天都要在二者之间努力平衡。我们仍在通过大幅改进来解决错误信息和有害内容的传播问题。关于我们鼓励不良内容且无所作为的指控完全不实。”

“如果有任何一项研究能找到明确解决这些复杂挑战的方案,那么科技行业、政府和社会早就解决了。”

Facebook 是一家市值 1 万亿美元的公司。仅仅创立 17 年,它就拥有了 28 亿用户,覆盖全球 60% 的网民。豪根计划本周前往美国国会作证。她认为联邦政府应当对此实施监管。

豪根:Facebook 的所作所为表明他们不能独立行事。Facebook 一次又一次地表明它更看重利润,而不是安全。它牺牲我们的安全来换取利润。我希望能通过这件事情对世界产生足够大的影响,让他们有毅力和动力去真正执行这些监管规定。这就是我的希望。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

文章价值:
人打分
有价值还可以无价值
置顶评论
    热门评论
      全部评论
      一大波评论正在路上
        取消发送
        软媒旗下人气应用

        如点击保存海报无效,请长按图片进行保存分享