苹果承认从2019年就开始扫描iCloud Mail 寻找CSAM虐童资料

36氪的朋友们·2021年08月24日 12:05
美国当地时间周一,苹果证实其从2019年就开始在iCloud Mail上扫描CSAM内容,但称没有扫描iCloud Photos或iCloud备份信息。

8月24日消息,苹果公司计划在今年晚些时候开始在iCloud Photos中扫描CSAM(儿童性虐待照片)内容,许多苹果粉丝对此感到不安。但事实上,苹果早已经在其他服务中使用该功能。

美国当地时间周一,苹果证实其从2019年就开始在iCloud Mail上扫描CSAM内容,但称没有扫描iCloud Photos或iCloud备份信息。

关于苹果的CSAM照片扫描计划已经引发了很多争议。隐私倡导者不喜欢该功能,就连许多苹果员工也对此表达了担忧。人权组织敦促苹果首席执行官蒂姆·库克(Tim Cook),在开始向美国iPhone用户推出这个功能之前将其搁置。不过,CSAM扫描在苹果似乎并不是新功能。虽然该公司过去没有扫描过iCloud Photos,但它始终在悄悄地检查iCloud Mail,寻找虐待儿童的材料。

苹果证实,该公司从2019年开始iCloud Mail中使用图像匹配技术检测CSAM内容,因为含有CSAM内容的账户违反了其条款,将被禁用。苹果还表示,该公司正在对其他数据进行有限的扫描,但没有透露详情。绝大多数iCloud Mail用户可能都不知道发生了这样的事情,不过苹果并没有对此保密。

苹果儿童安全网站的一个存档版本称:“苹果正使用图像匹配技术来帮助发现和报告儿童虐待行为。就像电子邮件中的垃圾邮件过滤器一样,我们的系统使用电子签名来发现可疑的虐待儿童行为。我们会验证每个异常,并进行单独审查。含有儿童虐待内容的账户违反了我们的服务条款,任何此类账户都将被禁用。”

苹果首席隐私官简·霍瓦特(Jane Hovarth)也在2020年1月的消费电子展上证实了这一做法。她当时参加小组讨论时表示:“我们正在利用一些技术来帮助筛查儿童虐待材料。”但她没有提供有关苹果当时使用的技术的太多细节,也没有具体说明苹果是如何发现证据的。

苹果决定扩大CSAM扫描的原因尚不完全清楚。但根据苹果公司员工在2020年的一次谈话,该公司反欺诈负责人埃里克·弗里德曼(Eric Friedman)曾称苹果是“传播儿童色情作品的最大平台”。这段谈话是在苹果与游戏开发商Epic Games的法律大战中被曝光的。

苹果的扩张还可能与包括微软在内的许多竞争对手也在扫描CSAM内容有关。苹果可能会觉得,如果其他平台都在努力打击CSAM,而苹果却视而不见,这看起来似乎不太好。

本文来自“腾讯科技”,审校:金鹿,36氪经授权发布。

+1
0

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

汇川技术上半年的毛利率为38.32%,同比下降3.74%,若以2017年中报公布的毛利率45.78%来看,其毛利率实际上已经连续5年下滑。

2021-08-24

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业