算法殖民:从不知所云的流行语到金钱驱动的流行病

  • 由于“患病”能获得巨额利润,于是全世界的人类正在疯狂地追求全面患病。它被称为流行病

首先回顾我们曾经推荐过的一套视频,关于算法专制的噩梦《你正在如何被操纵:这是每个人都难以躲避的无形专制》。

CyFyAfrica 2019 — 技术、革新和社会大会 — 于6月在摩洛哥丹吉尔举行。

今年的会议是第二届。这是一个充满活力的多元化的聚会,由来自65个国家(主要是非洲和亚洲国家)的各种政策制定者、联合国代表、部长、政府代表、外交官、媒体、科技公司代表和学者参加。

会议的中心目标是在全球语话中提高非洲大陆的声音。

Observer Research Foundation 主席(该会议的共同主持人之一)在开幕致辞中强调,随着非洲大陆越来越依赖高端技术以解决其社会、教育、健康、经济和金融问题,非洲年轻人的声音需要被放在首位。

该会议的目的部分是为这些年轻人提供一个平台,让他们与来自各大学的许多西方学者和工商业部门的技术开发人员一起获得提高的机会。

技术倡导者通常会提供各种理由,不惜一切代价地试图将生活的各个方面数字化……

相当于硅谷的科技创业公司如今可以在非洲大陆的任何角落找到 —— 亚的斯亚贝巴的“Sheba Valley”,拉各斯的“Yabacon Valley”、以及内罗毕的 “Silicon Savannah”,这是仅举几例 —— 并且非洲正在追求“银行、金融、健康护理和教育等各个领域的前沿创新。

非洲大陆确实可以从各种数字技术和人工智能发展中受益:例如,埃塞俄比亚农民可以使用众包数据分析来预测和生产更好的作物。

正如世界卫生组织公告所讲述的那样,大数据有助于改善教育和医疗保健领域的服务。数据可以帮助弥合困扰每个社会、政治和经济领域的巨大不平等…

但是,所有这些都不是我想在这里讨论的内容。

在非洲大陆内外已经有无数的顽固技术崇拜者,他们非常乐意盲目地采用任何所谓的“AI”、“智能”或“数据驱动”,而不愿重新思考可能出现的意外后果

这很像你目前在中国看到的情况。

无论技术创新的主题出现在哪里,你通常都会发现这种情况,技术倡导者提供各种理由,试图将生活的各个方面都变成数字化,不惜一切代价。

他们在“创新”的旗帜下盲目地接受道德上完全可疑的和危险的做法和应用、“破坏性的实践”和“改变游戏规则”,几乎不会受到批评或怀疑

在整个非洲大陆发生的一些最大规模的人工智能或机器学习会议的演讲者阵容和讨论主题中,几乎没有任何人提到道德考虑、数据隐私、或人工智能的意外后果。

再一次,和中国一样。

鉴于已经有足够多的科技崇拜者掌握着非洲大陆的技术未来,重要的是要指出需要采取的警告以及需要从世界其他地方吸取的教训。

非洲不需要也不应该亲自经历灾难性的警示故事才能发现数字化的黑暗面和生活全面技术化所带来的危机。

大数据和AI似乎为复杂的社会问题提供了快速的解决方案。但是,这正是问题出现的地方。

在全球范围内,人工智能技术正在逐步融入保险、移动银行、医疗保健和教育服务等各种领域的决策过程中。

来自非洲大陆各地的各种初创公司正在兴起 —— 例如在尼日利亚的 Printivo、在肯尼亚的 Mydawa 等等 —— 它们旨在开发下一个“前沿”应用程序、工具或系统。

与所有监视资本主义一样,他们收集尽可能多的数据来分析、推断、预测 “用户”的各种行为和习惯

但是,在建立最新的招聘应用程序或最先进的移动银行系统的竞赛中,创业公司和大公司均忽视了每个数据点背后的人类/人权。

“数据”被视为可以争夺的东西,一种无可争议地属于科技公司和政府的东西,完全抹去了创造数据的个人。

这使得行为操纵和诱导变得非常容易,一切都是为了公司的盈利,以牺牲个人权利为代价。

从诱导到操纵,一切都是开发自动化系统的私营部门工程师才有权决定什么是“正确”。

在整个过程中,每一种被认为是“老土陈旧”的人和行为都会被迅速排斥,并加深边缘化。每当异议试图进入讨论,都会被推到一边。

与大数据一样,人工智能只是一个不经意间被抛出的流行语;众所周知的只是跨不同学科的持久争论,这个词根本无法最终定义。

它可以指从高度夸张的欺骗性机器人到 Facebook 和谷歌的内容 feeds 算法的所有一切,是这些算法在决定你能在互联网上看到什么样的内容。

所有混迹该领域的研究人员和媒体记者都有助于过度夸大和吹嘘所谓的人工智能的能力,往往将其归功于神一般的力量。

但是,正如 Melanie Mitchell 等领先的AI学者所强调的那样,我们离“超级智能”还有很远。

同样,Jeff Bigham 指出,在许多被广泛讨论的“自动”系统中 —— 无论是机器人还是语音识别算法 —— 大部分的工作都是由人类来完成的,那些通常只有微薄薪水的工人。

对所谓的人工智能系统功能的夸大,将人们的注意力从这些技术构成的真正危险中转移开来,这些危险比“杀手机器人”更加隐蔽、细致、和渐进

人们将算法默认为是更加客观的,毕竟那些规则“适用于每一个人”。但这是关于自动化系统的最错误和最有害的误解之一。

正如哈佛数学家 Cathy O’Neil 在《Weapons of Math Destruction》中所解释的那样,“算法是嵌入代码中的意见。”

在“AI”和“数据驱动”的幌子下,系统被假装为政治中立,但由于数据被解释、收集和用于产生某些结果的方式本身具有固有的政治倾向,其结果只是加深了人类固有的偏见。

在分析数据时,这些系统改变了社会结构,强化了社会刻板印象,并进一步使那些已经处于社会等级底层的人群处于劣势。

“数据”被视为可以争夺的东西

人工智能是人类创造、控制和负责的工具,与任何其他工具一样,它嵌入并反映了人类的不一致、局限、偏见以及政治和情感的欲望。

人类对世界的看法和选择就构建在算法模型中。

因此,由谁来建立系统并选择所使用的数据和来源,将深刻影响技术可能产生的效果。

人工智能系统产生的结果反映了社会和文化上的刻板印象,而非客观事实。

社会领域中的技术使用经常是有意或无意地集中在惩罚性实践上,无论是预测谁将犯罪,还是谁不能支付抵押贷款。

宣称为了 实现“安全”和“秩序”而建立和应用的技术发展,往往旨在惩罚而不是恢复

此外,这些技术必然会给某些人带来残忍、歧视和不人道的做法。

在这方面,中国维吾尔人遭受的残酷待遇和全世界穷人所遭受的不公平待遇就是例证。

同样,随着约翰内斯堡和坎帕拉等城市引入面部识别技术的使用,对边缘群体的歧视排斥和过度监管是不可避免的。

无论是否明确承认,商业公司开发人工智能的核心目标不是一般地纠正偏见,而是要推断个体“用户”的弱点和不足,好像人们只是作为被操纵的对象而存在。

这些公司理所当然地认为,他们能搜罗到的所有数据都应该“属于”他们。

围绕“数据挖掘”和“数据丰富的大陆”(非洲科技领域的共同语言)的讨论,显示了每个数据点背后的个体在多大程度上从这些寡头公司的角度来看仍然是无关紧要的。

这是殖民者的态度,数字殖民,即 宣称人类是可以被自由采集的原材料

当我们将关于社会问题的决策交给由利润驱动的寡头公司开发的自动化系统时,这意味着不仅允许社会关注的重要问题全部由这些公司的激励(利润)决定,而且,也将复杂的道德问题交给了寡头体制。

与民主背道而驰 —— 任何一个寡头公司的负责人和算法的构建者都不是民选的,不会也没有没有义务为人民的权益负责。

人类不再有自主权,仅仅被视为等待被采集的资源。

行为算法模型的推论并不反映世界的中立状态没有提供任何深入的因果解释,而是重新描述已经强烈持有的社会性和历史性的不公正。

技术总体上不是中立的或客观的;它是反映社会偏见、不公平和不公正的镜子。

例如,在会议期间,一名联合国代表处理了正在制定的打击在线恐怖主义的工作,但令人失望地明确仅仅关注伊斯兰群体,描绘了一种不切实际和有害的在线恐怖主义形象:在过去九年中,欧洲、澳大利亚和北美洲发生了350起白人主导的极端恐怖主义袭击事件;在美国这个时期,所有此类攻击中有三分之一是由于白人极端主义。

这说明了一个令人担忧的现状,即 刻板的观点驱动了所谓的问题以及我们为应对问题而开发的技术类型。进而通过一系列技术将我们所发现的东西作为偏见直觉的证据,并进一步强化刻板印象

社会最脆弱的群体正遭受各种数字化技术的不成比例的影响。然而,许多适用于人工智能的道德原则是坚定的功利主义。

他们宣称所关心的是“对于最多人来说最大的幸福”,显然这意味着从不寻求以少数群体为中心的解决方案。

即使在算法决策过程中的不公平和歧视被提到了前台,“解决方案”中也几乎找不到边缘人士的利益:企业和学术道德委员会制定的缓解建议通常是在没有受影响人员的协商和参与的情况下制定的。

但是,边缘人士的声音需要在每一步都被优先考虑,包括设计、开发和实施任何技术,以及政策制定。

随着非洲努力追赶最新的技术发展,他们还必须保护非洲大陆最脆弱人群免受技术可能造成的伤害性后果。

如果真的保护和尊重 CyFyAfrica 会议领导人想要重视的年轻人的权利,那么自由和隐私就应该被优先考虑。

只有通过考虑当地价值观、背景和生活方式,以及通过将批判性声音纳入技术叙事的重要部分,才能实现个人权利和自由的指导和保障。

公平地说,CyFyAfrica 确实允许某些小组中的一些批评声音。然而,更大范围的批评声音被埋没在压倒性的科技爱好者声音之下。

会议结束后,发言人有机会在观察研究基金会运作的半学术期刊上分享他们的观点和研究成果。

具有讽刺意味的是,声称为非洲青年发声的平台只有在其声音与强大的科技寡头公司、政策制定者和政府的叙述和动机保持一致时,才能实现

流行语就像一场流行病,目前已经席卷全球。在利益的驱动下所有人都变得疯狂。

制止技术发展是不可能的,大数据和所谓的AI必然继续被更广泛的利用;如何才能使其民主化以为大众的利益服务,也许是一个长期且艰难的问题。⚪️

广告

发表评论

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据