数据、机器学习掀巨变,误用等同毁灭性武器
作者:邱莉燕
2020-06-01
摘要:在美、日、韩出尽风头的”AI面试”,在各地也陆续上线,AI面试高竿之处在于能够分析”微表情”。想要应聘工作的人,拍下一段自我介绍的影片,上传到面试App之后,···

在美、日、韩出尽风头的”AI面试”,在各地也陆续上线,AI面试高竿之处在于能够分析”微表情”。

想要应聘工作的人,拍下一段自我介绍的影片,上传到面试App之后,AI会预先整理出人类脸部86次方的特征,再根据影片中应聘者的微表情,进行数据演算,评测出应聘者的六大人格特质。过程中,面试者和应聘者完全不会见到面。

AI会给出应聘者在情绪稳定性、外向性、经验开放性、亲和性、责任心、人际沟通技巧的六项得分,做为人资要不要邀请应聘者进一步进行真人面试的参考。

 AI面试省麻烦,也得当心黑暗面

AI找人可以‘三省吾身’,省人省钱省麻烦。AI面试,代表新招募时代的来临,选才流程缩短,时间大幅减少一半以上。同时,还提供科学性解读,与人的经验交叉比对,可以规避人难免会有偏颇的主观意识。而且,随着数据愈喂愈多,深度学习会使分数愈来愈精准。

但,人资部门不必担心自己会因此失业,AI提供的报告仅是判断依据,而不是由AI直接决定要不要聘用。

反倒是人资和面试官,可以从中学会如何利用AI分析报告。比方说,在招募业务营销的报告中,亲和力、外放性,以及人际关系互动的得分,就相对重要。若找的是工程师,或许得思考的,就是尽责性和经验开放性。

AI的功能,其实是帮助企业更快速又精准地找到对的人,每一项人格特质都高分的,是完美的圣人,而真正能为企业所用的,并不是这样的人。

未来的3-5年可以预见,世界各大企业将会全面导入AI简历筛选与AI面试模拟。然而,若没有抱持着戒慎恐惧的心面对新趋势,”新雅努斯”的黑暗面可能就会露脸。

现在大家担心的,就是AI变成面试官这件事,但其实,当AI是决定要不要录取员工的最后底线,会产生很大的影响,万一训练AI的过程出现偏见,工程师可能无意识将自己的价值观灌输给AI,结果,某一种人可能因此永远没办法进入某家公司。

韩国则以另一种形式,展现了对机器的不信任。一些脑筋动得快的补习班开设起专班,教导求职者如何应对AI机器人的面试。毕竟,所有的科技都有正面与负面的影响,当人工智能重建入职的方式,或许一不小心就触碰了科技与人伦的界限。

数据的利与弊之间,AI的伦理很重要,威胁不是来自技术,而是在技术背后,能否经得起人性与商业的侵染。例如,若交由AI筛选入学学生,取样的偏误,或是在设计程序时,把“选择精英”的偏见放入,而在无意识的情形下,把某些弱势学生排除掉,这就很麻烦。

《大数据的傲慢与偏见》一书中,作者卡西·欧尼尔(Cathy O'Neil)曾是位“圈内数学家”,从事资料科学多年。最后导致她出言警告与揭发:“不当的数据应用,是安静的恐怖主义,数学模型若被误用,可能成为毁灭性的武器。”

如此揭开“大数据的黑暗面”,绝非恫吓,至少在以人工智能测量个人信用评级的领域,的确每个人都身陷风险。

靠数据评分,阶级流动更困难

数据的弱势者容易成为被剥削的对象,有人可能是“数据小白”,不容易累积数据信用。有人可能因为数据分类偏误,而被打入数据应用的冷宫。

AI的黑盒子,光是想就令人害怕。数据若变成最重要的分层标准,财富与声望都依附着信用评等,当数据形成新的社会阶级,善用数据的人拥有晋级机会,反之只能沉沦。

“被机器评分的人生”,在中国的芝麻信用分就发挥得淋漓尽致。支付系统针对用户的信用程度划分五等级,芝麻信用分在600分以上,便能轻松贷款;若在750分以上,无需财力证明,便可申请新加坡签证。如此有力的“身份象征”,一度导致中国女性的择偶标准,加入了“芝麻信用分700分以上,其他非诚勿扰”这一条。

针对日本企业推出J.Score等虚拟货币融资贷款,庆应大学教授山本龙彦(Tatsuhiko Yamamoto)则提出了“虚拟贫民窟”的警告,运用AI分析个人的大量数据,并藉以评分可信度的机制,若广泛传播将可能产生“虚拟贫民窟”。

山本龙彦指出,以积分高低对个人进行分类,可能引起差别对待,否定了日本宪法第13条的尊重个人原则。

 2030年,5.4亿人陷”数位贫困”

而且在未来,虚拟贫民窟的规模似乎还不小。

德勤日本《人工智能时代的新贫困》这份报告中试算,到了2030年,G20国家将产生最多达5.4亿人的虚拟贫民窟,亦即15-64岁的劳动年龄人口中,每6个人就有1个人将陷入“数字贫困”。

虚拟贫民窟现象,或许尚未广泛发生,但数据高速运转无国界,未来已来。

AI赋予个人很高的生产力,所以,个人的竞争力随之变得很强。具备AI能力的人,职涯发展通常比一般人更顺利一点。这就是一种不公平,但时势造英雄,我们改变不了这个事实。

数据炼金路上的不公平,衍生出新的赢家和输家。而类似这样的情形,也可能发生在中小企业的身上。无法像互联网巨头,豪掷巨资建置数据中心,负担不起庞大算力的中小企业,自然而然在竞争上处于劣势。于是,数据霸权崛起,唯有少数的科技大咖公司,才是真正“得数据者得天下”。

数据霸权崛起,攸关国际竞争力

AI拉大不平等的差距,不只导致个人与企业有高下之别,还会延伸影响到国家竞争力。

将过去数年AI发展得最好的国家进行排名,领先的是中国,其次美国,再来是以色列,这些国家的共同点,都是从小学就投入AI教育。准确来说,大数据成为网络、电视和杂志的热门词汇,也不过是近六年的事。

若简单定义AI等于大数据加算法,2016年以深度学习开发的围棋程序AlphaGo首度击败人类棋王,促使了产业巨头、年轻创业家和民间资本纷纷加入大数据大军。愈来愈多企业利用数据的力量,转化为商业营销利器,进行数字转型。愈来愈多公部门也不落人后,努力挖掘数据金矿,优化政府治理。

过去许多发展中国家得以经济起飞,靠的是人口红利。如今,新的发展动能将切换成“数据红利”,收集海量资料整合提炼,全方位开发出数据的价值。

金山贫民或数据精英?

创新科技仰赖监理沙盒

面对数据时代,你不能成为坐在金山上的贫民!问题是,你准备好了吗?

强大的科技,通常会导致权力与金钱的集中。某些个人、企业与国家,通过大数据和算法,一跃成为掌握大量资源和权力的“数据精英”,跻身新统治阶层。

而且,这种新财富不见得会重新分配。美好的数据红利,并未让所有人共享,虚拟贫民窟里住着数字贫民。

监理沙盒,或许是消除虚拟贫民窟办法之一。监理沙盒的重点是accountability(问责制),给出交代,将一项创新科技在实验期内,将风险系数、个资保护、资安等信息都公诸于众,提供检视公开讨论。与传统作法不一样的地方,若会造成某些“不利益”,新的算法必须能给出交代,说明起因是否因为歧视或偏见。

数据不会消失,也不必把AI信用评等视为洪水猛兽,要做的是携手规管这些”数学毁灭性武器”,驯服它们,让它们能够被稽查和复核,并消除它们在侵犯人权与个人意志上的杀伤力。

热门文章