新欧盟法律:发送裸照可能违法

欧盟议会星期一投票表决同意监控所有私人聊天软件。如果AI人工智能发现了涉嫌儿童色情的图片,系统会将其有关信息自动发送给当局机构。而评论家则担心各种问题。

到目前为止,欧盟的“电子隐私”指令阻止当局在毫无疑问地情况下搜索和监控私人消息。但是,根据欧盟的新决定,打击儿童色情是一个例外。为此,应允许通信平台使用相关技术(如Microsoft的Photo DNA)进行筛选。

美国已经使用人工智能技术来检测网络信息中传播的照片,据说已经找到了成千上万的犯罪者。而Facebook等公司在非欧盟国家中筛选相关信息也已经有一段时间了。而欧盟现在也通过了新法规,但是下一步要各个欧盟国家自己讨论具体如何进行。预计该法律将于一月份生效。

注意,所有的在线聊天的信息都接受监控,在实施的第一阶段,只会将发送的照片与美国数据库中的儿童色情内容进行比较。涉嫌的点击和转发信息都将自动发送到联邦刑事警察局。

而下一步,人工智能可能会搜索G-Mail,Outlook,Facebook和X-Box这些本地程序中是否有涉嫌的裸照或其他色情内容的传播。

第三步,软件应搜索所有发送的文本,以查找是否是恋童癖者写给孩子的消息等等。而像WhatsApp和Threema这样的加密聊天记录也可以解密。

人工智能的安全性尚不清楚

问题是很多无辜公民的文本也可能被软件误判。数据保护委员会(BfDI)对计划的新法律持批判态度,例如没有为相关数据指定存储期限,并且存在对通信内容进行全面监控的风险。但是,这些批评意见并没有阻止新法律的通过。

另外,人工智能如何区分人们是否是自愿发送裸照仍然不清楚。联邦数据保护委员会也没有此方面的信息。“欧洲数字版权”组织则担心很多误报事件。

而海盗党的布雷耶(Patrick Breyer)表示反对该法律,他还提到了美国情报部门的一次事件,软件删选出了私人照片被NSA员工评论和传播,如何保护不会侵犯隐私是个问题。

隐私权倡导者担心该技术将来可能会过滤更多内容。此外,像Facebook这样的私有公司也被允许屏蔽有关消息,而实际上,这些公司真正想要限制的是欧盟数据能力。批评者还担心,儿童色情内容的传播正在进一步转移到“暗网”,而这些网络是当局部门很难查到的。

关注DOLC

(0)

相关推荐