苹果公司以打击儿童色情名义监控所有美国用户的iPhone
据《零对冲》8月6日报道,智能手机因其传送手机持有者的地理位置已经变成了追踪设备。而苹果公司将要推出的一项旨在检测和报告用户的iphone是否存有儿童色情内容的新计划是对智能手机的更进一步监控。
预计在本周晚间时候推出的被称为”神经匹配(neuralMatch)”的软件系统将会通过软件更新安装在美国用户的iPhone上。据《金融时报》(Financial Times)报道,神经匹配系统将会持续扫描美国用户iPhone里储存的照片,同时将其上传到iCloud备份系统。这些照片经过散列算法(Hashing,把任意长度的输入变换成固定长度的输出)处理后被转化成了一串数字,再与数据库中已存有的儿童性侵图像进行比较。该系统已经接受了20万张儿童性虐待图片的训练,这些图片由美国国家失踪及被侵犯儿童保护中心(National Center for Missing and Exploited Children.)收集。如果该自动系统认为美国iPhone用户的手机上存在儿童性虐待材料(Child Sexual Abuse Material , CSAM),将会主动向人工审核团队发出警报。审核员一旦确认该材料确实是涉嫌儿童性侵犯,将会立即联系执法部门。
已经预览过该软件的学者马修格林(Matthew Green)担心这将造成严重的隐私风险。苹果公司因其承诺保护用户隐私而赢得了许多正面报道。比如拒绝帮助美国联邦调查局解锁2015年圣贝纳迪诺(San Bernardino)枪击案凶手的iPhone手机。但是在2020年1月,由于执法部门的投诉,苹果公司悄悄放弃了允许苹果用户完全加密其iCloud备份内容的计划。现在他们找到了中立地带,认为其至少在某种程度上有责任监控iPhone。于是推出了这款机器学习工具扫描用户iPhone里的照片,以鉴定是否存在儿童色情内容。正如学者们所抱怨的那样,苹果的此举是对个人隐私的严重侵犯。这个工具也许有一天会被的专制政府滥用于监控其人民,离乔治奥威尔在其小说《1984》中描述的监视型社会只有数步之遥。
除了传统的唆使人互相举报,还利用配有人脸识别系统的监视摄像头等现代科技加强管控,活在其之下的百姓早就毫无隐私可言。苹果以打击儿童色情名义推出的这个监控软件表明大科技公司正在原有的打压言论自由基础上,进一步地侵犯公民权利,向专制社会迈进。