周四,苹果宣布了三项新举措,旨在为欧洲的 iPhone、iPad 和 Mac 添加新的儿童保护功能。现在,该公司在一份内部备忘录中解决了问题。分发给参与该计划并由9to5Mac获得的团队,内部备忘录看到苹果承认最近的“误解”并担心该技术的影响。
尽管如此,该公司表示将“继续解释和详细说明功能,以便人们了解”已经构建的内容。与此同时,Apple表示“要在未来几个月内提供这些功能,还有很多艰苦的工作要做。” 迄今为止,批评主要集中在 Apple 计划扫描 iCloud 照片以查找儿童性虐待材料 (CSAM),许多人认为该功能可能为其他更令人担忧的监视用途打开大门。
迄今为止,最受瞩目的批评者之一是爱德华·斯诺登,他说:“无论多么善意,苹果公司都在向全世界推出大规模监控。毫无疑问:如果他们今天可以扫描儿童色情内容,他们明天就可以扫描任何内容。”
发送给 Apple 员工并由软件副总裁 Sebastien Marineau-Mes 撰写的完整内部备忘录如下:
今天标志着扩大儿童保护计划的正式公开揭幕,我想花点时间感谢你们每一个人在过去几年中的辛勤工作。如果没有你们的不懈奉献和弹性,我们就不会达到这个里程碑。
保护儿童安全是一项如此重要的使命。在真正的 Apple 时尚中,实现这一目标需要深入的跨职能承诺,涵盖工程、GA、HI、法律、产品营销和公关。我们今天宣布的是这种令人难以置信的合作的产物,它提供了保护儿童的工具,同时也保持了 Apple 对用户隐私的坚定承诺。
我们今天看到了许多积极的回应。我们知道有些人有误解,而且有不少人担心其影响,但我们将继续解释和详细说明这些功能,以便人们了解我们构建的内容。虽然在接下来的几个月中需要付出很多努力才能交付这些功能,但我想分享我们今天从 NCMEC 收到的这篇笔记。我发现它令人难以置信的激励,希望你也能。
我很自豪能在 Apple 与如此出色的团队一起工作。谢谢!
Apple 的儿童保护功能包括哪些内容?
云
为了防止儿童性虐待材料(描述涉及儿童的色情活动的内容)的传播,Apple 正在其 iCloud 照片服务中添加 CSAM 检测功能。
在将照片上传到 iCloud 照片之前,Apple 设备现在将分析图像,以查找与失踪和受虐儿童中心提供的 CSAM 图像数据库的任何匹配项。
苹果声称已将数据库转换为“安全存储在用户设备上的一组不可读的哈希值”。匹配过程由对匹配结果进行编码的加密安全凭证提供支持。
除非有 CSAM 内容的特定阈值,否则 Apple 无法解释安全凭证的内容。如果达到该阈值,Apple 将手动查看报告以确认任何匹配项并禁用用户帐户。
此外,该公司表示将向失踪和受虐儿童中心发送一份报告。
重要的是,此功能目前仅限于欧洲,但苹果希望将来扩展到其他地方。此外,仅存储在设备上的照片不包括在扫描过程中。
留言
除了颇受争议的 iCloud 照片计划外,苹果还在 Messages 应用程序中为属于 iCloud 家庭的儿童推出了一项新的选择加入的通信安全功能。
该功能使用设备上的机器学习来分析照片的内容。如果孩子收到露骨的色情图片,孩子会看到警告,并且图片在 Messages 应用中会变得模糊。
如果孩子选择点击“查看照片”,则会出现一条简短的弹出消息,告知为什么该图像被认为是敏感的。如果孩子选择继续,他们的 iCloud 家庭家长将收到通知。
这也将在弹出消息中解释。也将提供指向其他帮助的链接。至关重要的是,家长通知仅适用于 13 岁以下的儿童。
Apple 宣布的最后一次更新是对 Siri 和搜索的指导进行了扩展。具体而言,这些服务将提供额外资源,以帮助儿童和父母保持安全并在需要时获得帮助。
所有这些功能都将在今年晚些时候在 iOS 15、iPadOS 15、watchOS 8 和 macOS 12 的更新中推出。