IT之家 8 月 9 日消息 苹果公司发布了题为“扩大对儿童的保护”的常见问题(FAQ),旨在消除用户对该公司上周宣布的 iCloud 照片中的 CSAM(儿童受虐材料)检测和信息通信安全功能的隐私担忧。
“自从我们宣布这些功能以来,包括隐私组织和儿童安全组织在内的许多利益相关者都表示支持这个新的解决方案,有些人还提出了一些问题,”FAQ 中写道,“这份文件的作用是解决这些问题,并在这个过程中提供更多的清晰度和透明度。”
苹果在文件中称,信息中的通信安全“只对家庭共享中设置的儿童账户在信息应用中发送或接收的图像有效”,而 iCloud 照片中的 CSAM 检测“只影响选择使用 iCloud 照片存储其照片的用户...... 对任何其他设备上的数据没有影响。”
FAQ 中写到:
这两个功能是不一样的,也没有使用相同的技术。
信息中的通信安全旨在为家长和儿童提供额外的工具,以帮助保护他们的孩子避免在信息应用中发送和接收色情图片。它只对在家庭共享中设置的儿童账户在信息应用中发送或接收的图像起作用。它在设备上分析图像,因此不改变信息的隐私保证。当儿童账户发送或接收色情图片时,照片将被模糊化,儿童将被警告,并提供有用的资源,并保证如果他们不想查看或发送照片也没关系。作为额外的预防措施,还可以告诉年幼的孩子,为了确保他们的安全,如果他们真的查看了照片,他们的父母会收到一条信息。
第二项功能,即 iCloud 照片中的 CSAM 检测,旨在将 CSAM 挡在 iCloud 照片之外,而不向苹果提供任何与已知 CSAM 图像相匹配的照片的信息。在大多数国家,包括美国,拥有 CSAM 图像是非法的。这项功能只影响选择使用 iCloud 照片来存储照片的用户。它不影响没有选择使用 iCloud 照片的用户。对任何其他设备上的数据都没有影响。该功能不适用于信息。
该文件的其余部分分为三个部分(以下为黑体字),并对以下常见问题进行了解答:
信息中的通信安全
谁可以在信息中使用通信安全?
这是否意味着信息将与苹果或执法部门共享信息?
这是否会破坏信息中的端到端加密?
这项功能是否会阻止受虐待家庭的儿童寻求帮助?
在儿童没有得到警告和选择的情况下,父母是否会得到通知?
CSAM 检测
这是否意味着苹果要扫描我的 iPhone 上存储的所有照片?
这是否会将 CSAM 图像下载到我的 iPhone 上,与我的照片进行对比?
为什么苹果现在要这样做?
iCloud 照片的 CSAM 检测的安全性
iCloud 照片中的 CSAM 检测系统能否被用来检测 CSAM 以外的东西?
政府能否迫使苹果公司将非 CSAM 图像添加到哈希列表中?
能否将非 CSAM 图像“注入”系统,以标记 CSAM 以外的账户?
iCloud 照片中的 CSAM 检测是否会向执法部门错误地标记无辜者?
有兴趣的读者应该查阅该文件,了解苹果对这些问题的完整回应。然而,值得注意的是,对于那些可以用“是/否”回答的问题,苹果都以“否”开头,但“iCloud 照片的 CSAM 检测安全”部分的以下三个问题除外:
iCloud 照片中的 CSAM 检测系统能否被用来检测 CSAM 以外的东西?
我们的程序是为了防止这种情况发生。iCloud 照片的 CSAM 检测是这样建立的:该系统只对 NCMEC 和其他儿童安全组织提供的 CSAM 图像散列进行检测。这套图像散列值是基于儿童安全组织获得并验证为 CSAM 的图像。没有自动向执法部门报告,苹果公司在向 NCMEC 报告之前进行人工审查。因此,该系统的设计仅用于报告 iCloud 照片中已知的 CSAM 照片。在大多数国家,包括美国,只要拥有这些图片就是犯罪,苹果有义务向有关当局报告我们了解到的任何情况。
政府能否迫使苹果将非 CSAM 图像添加到哈希列表中?
苹果将拒绝任何此类要求。苹果公司的 CSAM 检测能力完全是为了检测存储在 iCloud 照片中的已知 CSAM 图像,这些图像已经被 NCMEC 和其他儿童安全团体的专家确认。我们以前曾面临过建立和部署政府授权的、降低用户隐私的变化的要求,并坚定地拒绝了这些要求。我们将在未来继续拒绝它们。我们要清楚,这项技术只限于检测存储在 iCloud 中的 CSAM,我们不会答应任何政府的要求,扩大它。此外,苹果公司在向 NCMEC 进行报告前会进行人工审查。在系统标记的照片与已知的 CSAM 图像不一致的情况下,该账户不会被禁用,也不会向 NCMEC 提交报告。
能否将非 CSAM 图像“注入”系统,以标记 CSAM 以外的账户?
我们的程序是为了防止这种情况发生。用于匹配的图像哈希值集来自已知的、现有的 CSAM 图像,这些图像已被儿童安全组织获得并验证。苹果公司不会向已知的 CSAM 图像散列集添加。同一套哈希值存储在每个 iPhone 和 iPad 用户的操作系统中,所以在我们的设计中,不可能只针对特定的个人进行攻击。最后,没有自动向执法部门报告,苹果在向 NCMEC 报告前会进行人工审查。在不太可能发生的情况下,系统标记的图像与已知的 CSAM 图像不匹配,该账户不会被禁用,也不会向 NCMEC 提交报告。
IT之家了解到,苹果公司已经面临来自隐私倡导者、安全研究人员、密码学专家、学者和其他人的重大批评,因为苹果公司决定在预计 9 月发布的 iOS15 和 iPadOS15 中部署该技术。
有人还为此发布了一封公开信,批评苹果扫描 iPhone 的 iCloud 照片中的 CSAM 和儿童信息中的露骨图像的计划,截至发稿,该信已获得 5500 多个签名。苹果也收到了来自 Facebook 旗下 WhatsApp 的批评,其负责人 Will Cathcart 称这是“错误的做法,是对全世界人民隐私的挫败”。Epic Games 首席执行官蒂姆-斯威尼(Tim Sweeney)也对这一决定进行了攻击,声称他“努力”从苹果的角度看待这一举动,但得出的结论是,“不可避免地,这是苹果基于有罪推定而安装的政府间谍软件”。
“不管用意多么好,苹果正在以此向整个世界推出大规模监控,”爱德华-斯诺登说,“如果他们今天能扫描儿童色情,明天就能扫描任何东西。”非营利性的电子前沿基金会也批评了苹果公司的计划,称“即使是一个有详细记录的、经过深思熟虑的、范围狭窄的后门,仍然是一个后门”。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。