云存储应用 ‘Ever’ 已经武器化你的脸

  • 在监视资本家的眼里,你身上的一切都应该拿来卖钱。包括你的虚荣心。

如今真的应该非常小心那些用晒照片来吸引注册的应用;因为所有这些照片都会被拿去训练算法,以形成更加危险的面部识别监视技术。

Ever 大概是其中做得最“绝”的一个 —— 它的开发目的就是为钓鱼。但要知道,这种做法整体上并不特殊。

云存储应用程序 Ever 是一个以危险的方式开发面部识别技术的例子,并且可能冒着放大歧视的风险。

Ever 是一个云存储应用程序,自称“帮助您捕捉和重新发现生活的记忆”,包括上传和存储个人照片;但是该应用程序并没有告知用户它在使用人们上传的数百万张照片来训练其面部识别软件,⚠️然后将识别技术出售给执法部门、私营公司、甚至军方

需要严重关切的是,Ever 正在以一种侵犯人们隐私权的方式使用其平台,它创造了一种固有的歧视性、容易出错的、法律上不可靠的技术。

Ever 创造技术的整个过程都是不透明和不负责任的。

虽然亚马逊和微软等许多巨头公司都在使用可公开获得的数据集(包括在没有用户知情或许可的情况下获得的照片)培训其面部识别技术。

但 Ever 本身就是一个坑,它创建技术并诱导用户上传照片的目的就是利用。

只是在媒体追问后 Ever 才更新了政策,写出了它“使用这些照片训练面部识别技术”,人们上传的内容“可用于帮助改进和培训我们的产品和这些技术”。

尽管隐私政策做出了修改,但是,Ever 使用人们的照片的具体方式依旧无法预测,最终可用于什么样的监视软件或产生哪些歧视性结果,都不清楚。

并且,没有注册过该应用程序的人 —— 用户的朋友和家人,也被利用了,他们并不知道自己的脸被用于了什么。

使用人们的照片并将识别技术出售给外部公司并不主要为了保护客户的利益或改善他们的云存储体验。Ever 的做法从根本上侵犯了使用其服务的人的隐私权以及在上传到 Ever 的照片中出现的其他人的隐私权。

正在开发的技术明显缺乏透明度和问责制。Ever 使用的照片数据集无法代表更广泛的人口。因此,该技术可能具有更高的错误率。

因为 Ever 的数据集来自人们存储的照片,所以独立的外部团队无法检查数据库、也无法发现此类问题并要求更改

相比之下,在亚马逊的 Rekognition 的情况下,研究人员揭露了软件中的错误和偏见,这些错误和偏见推动了亚马逊停止将其出售给执法部门的要求。

此外,目前还不清楚 Ever 在其面部识别技术中是如何标记人们面部特征的,该技术依赖于机器学习创建人物面部的详细生物特征图并用于匹配照片。

错误标记的特征会导致歧视性结果并加剧歧视程度。

Ever 作为一家利用用户发财的公司是一个典型的例子,造成这种生意出现的部分原因是由于缺乏限制面部识别技术的开发和使用的法律。

在世界各地,这种技术正在被推广并被用于广泛的目的,通常都是秘密操作的,具有高度歧视性的影响。

旧金山正朝着正确的方向迈出一步,并正在作为司法管辖区如何应对此类问题的蓝图。但是,旧金山的法令不适用于私营公司。警方可以与私营公司合作绕避法律限制。

具体分析详见《禁止面部识别可以做到什么、不能做到什么》;《禁止面部识别,真的可以吗?》。

每年的6月20日是英国的监控摄像机日。人权倡导者可以利用这样的日子推广隐私保护意识。

比如制作参与式活动,看看谁知道所有本地摄像机的位置都在哪?您当地的垃圾箱上有没有监视器?灯柱广告牌上都有什么样的监视器?

你当地的社区有面部识别面包车/公交车/地铁吗?警察的直升机正盘旋在你家房顶拍摄你晒日光浴的画面吗?

监视摄像机可能是肉眼看不到的,例如那些据报被用来监视 Boots、Asda 和 Tesco 购物者的情况;更不用说人们不可能知道哪里启用了面部识别技术;在超市结账排队时可能会有不止一只监视器在分析你的脸和情绪状态

美国公民自由联盟指出,“视频分析”技术可以被政府用于监控政治竞争对手,企业可以根据人们的习惯不成比例地剥夺消费者的利益,警监视公民的一举一动并实施所谓的预测犯罪。

更多详见《“未来是一项方程式” — 少数派报告的威胁不是这两年才有的新事物》。

人们有权匿名表达意见,有权参加公共集会,参加和平抗议或参与有争议的对话。但是在监视状态下这一切都不再可能。

监视远不止隐私和数据的问题。

要重新抢回公民权,必须有更多人站起来抵制监视技术、要求透明度和问责制。

在你的社区开展活动,让更多人了解监视之恶的真相。在为时已晚之前。⚪️

Cloud Storage App ‘Ever’ Has Been Weaponising Peoples’ Photos

广告

发表评论

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据