【黄宗洁书评】小心你的愿望──《打开演算法黑箱:反噬的AI、

702人参与 |来源: |时间:2020-06-14
【黄宗洁书评】小心你的愿望──《打开演算法黑箱:反噬的AI、

黄宗洁书评〈小心你的愿望──《打开演算法黑箱:反噬的AI、走钟的运算,当演算法出了错,人类还能控制它吗?》〉全文朗读

黄宗洁书评〈小心你的愿望──《打开演算法黑箱:反噬的AI、走钟的运算,当演算法出了错,人类还能控制它吗?》〉全文朗读

00:00:00 / 00:00:00

读取中...

生活在这个被科学家韦思岸(Andreas Weigend)称为「后隐私」的年代,大数据往往令人感到又爱又恨,却未必人人都有充分的了解。近几年,由于许多学者忧心忡忡提醒我们注意数位时代的各种网路陷阱,过于乐天地抱持着毫无警觉的心态,以为「谁会需要我们这种小人物的数据资料」的人,或许已经较为减少,但如同本书作者汉娜‧弗莱(Hannah Fry)所指出的:「我们与机器之间的关係有个弔诡。虽然我们对自己不了解的事物有过度信任的倾向,但我们一旦知道演算法会犯错,也有一种蛮恼人的习性:过度反应、彻底弃绝,转而回头依靠我们自己有瑕疵的判断。」(页46)

但是,在全盘将自己的隐私当成商品送出去,以及把网路当成万恶的洪水猛兽之间,是否有可能找出一个相对安全与务实的态度,去面对这不可逆的数位时代?演算法就像是当代的神灯精灵,提醒我们「小心你的愿望」,想要善用祂的力量,前提或许是我们得先知道自己到底许下了什幺样的愿望,又付出了什幺可观的代价去交换。

大部分的人提到演算法,最先联想到的,可能就是切身相关的数位足迹商品化问题。任何一个网路使用者,对于网站上无所不在的广告必然不陌生,稍微敏感一点的人,或许还会注意到这些广告的反应速度越来越惊人──你可能这边刚和朋友在聊天室聊完,那头就看到脸书「贴心」地提供某个关键字商品,如果友人传了网站连结,那幺这些网站也会如影随形地被视为你可能感兴趣的物件,在网页上常相左右。

《打开演算法黑箱:反噬的AI、走钟的运算,当演算法出了错,人类还能控制它吗?》,汉娜‧弗莱着,林志懋译,脸谱出版

如果只是把这些广告视为生活中小小的干扰,或许就太小看了大数据「比你更了解自己」的惊人分析力,所谓个资,并不只是姓名、电话、身分证字号这类基本资料而已,我们每一次在网路上的搜寻、点讚、餐厅打卡、分享文章,也都是累积自己数位足迹的过程,就算禁绝了社群网站的使用,你的手机里也同样记载着你移动的位置,以及你用电话购物、挂号看病等生活纪录。若干知名的案例让我们看到,将这些个人化的讯息透过演算法加以分析之后,可以对行为模式得出颇为準确的预测。厂商透过这样的方式,让广告只针对目标客群发放,表面上看来确实是更有效率(甚至也更环保)的做法,但当美国超商Target比某位少女的父亲早一步知道她可能怀孕了,而父亲却是在收到超商寄来的商品折价券,才发现这个事实时,演算法是否踩界,遂成为一个浮上水面的问题。(页55-57)

如果隐私被侵犯的感觉还不够令人感到不快,那幺得知演算法可以用来进行对个人的全方位评估,并因此改变社会对你的信任程度,甚至对待你的方式呢?而且判断的标準甚至仅来自于观察超市购物篮里的购买品项就可以做到──某保险业者表示,购物篮里有一个品项比其他商品都更能凸显购物者是个居家型的可靠父母,他们提出居家保险理赔的机率更低,是业者更喜欢的投保对象,而那个可以充分提升个人形象的东西,叫做新鲜茴香。(页58)

乍看之下,单凭购物清单里的一个品项,就可以决定我们是否能被纳入「居家负责好爸妈」的行列,似乎显得草率与儿戏,但本书的目的之一,就在于让我们清楚看到演算法是如何全方位渗入生活的各个面向,它们能做到哪些超乎想像的事,以及我们的生活如何以自己未必意识到的方式高度依赖演算法,以致它们一旦出了差错,后果往往也非常严重。凯西‧欧尼尔(Cathy O’Neil)在《大数据的傲慢与偏见》一书中,就以「数学毁灭性武器」(Weapons of Math Destruction)来称呼这些在大数据经济的逻辑之下,可能造成重大影响的有害数学模型。她以2009年美国华盛顿特区为了优化教育品质而推行的教师评价系统为例,某位认真负责颇受好评的教师,却因为被系统评了一个很低的分数而失去教职。儘管后来她怀疑学生的成绩可能在前一学年度被人为窜改,导致表现看似大幅退步,教育当局却不愿接受此一解释。欧尼尔据此提醒读者:

某个演算法处理了一些数据,估算出某个人不适合聘用、将会借钱不还、将参与恐怖活动或教学表现不称职的机率,然后根据该机率算出一个分数,而该分数可能令当事人的生活天翻地覆。当事人试着反击时,「很有意思的」反证无法证明自身清白,因为当局仅接受确凿的证据。我们将一再看到,在证据标準这一点上,当局对数学毁灭性武器受害者的要求,远高于对演算法的要求。(《大数据的傲慢与偏见》,页26)

欧尼尔的提醒确实相当重要,她的观点对于那些盲目信任大数据,或因无所知而任其摆布的民众而言,可说敲响了一记警钟。但同样是「圈内数学家」的角度,《打开演算法黑箱》抱持的态度却没有这幺悲观──儘管书中所揭露的,演算法一旦失误可能产生的风险,以及其中牵涉的道德争议,并不比前述《大数据的傲慢与偏见》,或是马克‧古德曼谈论高科技犯罪危机的《未来的犯罪》等书要少。

《大数据的傲慢与偏见:一个「圈内数学家」对演算法霸权的警告与揭发》,凯西.欧尼尔(Cathy O’Neil)着,许瑞宋译,大写出版

事实上,书中提到的建筑师伊布拉馨(Rahinah Ibrahim)的遭遇,与华盛顿特区被解聘的那位老师虽然状况不同,却似乎同样证明了将大数据称为数学毁灭性武器并非夸大其辞。由于联邦调查局干员在对照表单时的疏失,导致伊布拉馨被置入恐怖组织名单中而遭到禁飞,儘管错误很快被发现,但她「顺利」出境后,却依然在回程时被挡下,这次,她的护照被注销,最后花了十年才打赢官司──但在这漫长的过程中,她被剥夺了回家的权利,一切只是因为当人为的错误进入了自动化系统之后,就被视为不容质疑的权威所致。(页262-263)。

但是,与其说弗莱想藉此说明大数据的不可靠,不如说她想挑战的,是整个社会看待大数据的心态。以全有或全无的态度面对大数据,既不实际也办不到,这精灵已被放出来了,无法回收。但它同时也完成了许多单凭人力无法实现的事,弗莱像个公平的评审,她打开黑箱,将演算法在当代社会所扮演的角色与权力一一进行盘点,并且釐清这些眩目戏法背后运作的关键。她说:「演算法很像魔术幻觉。一开始看起来简直是真实版的巫术,然而一旦你知道戏法是怎幺变的,神秘感便烟消云散了。往往有某种简单到可笑(或是明目张胆到令人忧心)的东西隐藏在幕后。」(页41) 明目张胆到令人忧心的例子我们已知不少,但本书特别精彩之处,在于弗莱同时也让我们看见演算法为何迷人,以致我们一步步堕入失去警觉心的陷阱。

对大数据的议题稍有涉猎的读者,就会知道大数据绝不仅是用在网路资料分析这个领域而已,司法、医疗、交通、政治……现实生活中所有重要的层面都有它们的存在。她在前作《数学的恋爱应用题》,就曾精彩地分析如何将数学模式应用在看似毫无关联的爱情领域,例如计算出在社交场合主动出击绝对比被动等待要好,或是如何将性伴侣人数的调查,应用在减缓流行病的传播上……透过这些生活化的例子,她强调「数学本身是将现实抽象化,而不是複製现实的学科,过程中能带给我们很真实的价值。……数学是用来研究人类行为的模式,让我们得以用深刻的新观点,观察从恐怖主义到城市生活等事物。」(《数学的恋爱应用题》,页187)这些模式当然有其必然的侷限,但弗莱透过和数学公式一般简洁优雅的文笔,指出若我们善用演算法,反而可以协助更容易因为主观、疲倦或各种身心状况而发生误判的人类,减少决策时的错误。

《数学的恋爱应用题》(TED Books系列)》,汉娜‧弗莱着,洪慧芳译,天下杂誌出版

以无人自驾车为例,许多人对其保持疑虑的理由,早已从技术上的可行性,转为人类驾驶会面临大规模失业,以及机器人如何进行道德判断的质疑──如同除草机不会自动避开小动物,如何训练无人自驾车避免路杀,又不会造成危险驾驶的风险?如果某人的道德选择成为程式设计内建的道德标準,我们愿意接受吗?书中提到,宾士汽车发言人冯‧胡戈(Christoph von Hugo)曾在一次受访时表示,如果知名的道德思想实验「电车难题」发生,宾士未来的自驾系统毫无疑问会选择「救车里的那个」。此言一出,宾士几乎被各种谴责的声音淹没,大众主张,自驾车当然应该符合我们在面对电车难题时多数人的共识:救越多人命越好。但弗莱冷静地要求读者思考这个问题:你愿意花钱买一台确定在面临状况时会优先让你送命的车子吗?

据此,她进一步提问:「我们现在对无人驾驶车的思考是不是整个搞错方向?」我们应该想像的未来,不是一堆会说话的霹雳车在路上乱跑,而是没那幺戏剧性的,「让机器的技能与人类的技能互补,并且提升两者的能力……可以耐心地监视路况,并对驾驶人忽略的危险保持警戒。不那幺像司机,而是像守护神。」(页190-191)不难发现这是弗莱最核心的主张:提出对演算法合乎实际的期待,让演算法成为好用的助手,而不是将一切转嫁到演算法身上,盲目地放弃人类原本的责任。更重要的是,当我们将某些权力交给机器的同时,我们就是在做道德选择──2014年,无辜的男子塔利(Steve Talley)因脸部辨识软体将其指认为抢匪遭到逮捕(页215-217),但2017年在伦敦桥进行恐怖攻击的男子之一札巴克(Youssef Zaghba),早已列名义大利的恐怖主义嫌犯观察名单,若使用脸部辨识系统,入境前应该可以将其指认出来。(页230)在个人隐私和社会安全之间,我们要如何取捨?多大的误判比例是我们可接受的範围?儘管对无辜的当事人来说,可能要付出无比惨痛的代价?如同所有的道德两难,无论选择哪一边,永远都可以找到无数的反例来反对我们的决定。

《打开演算法黑箱:反噬的AI、走钟的运算,当演算法出了错,人类还能控制它吗?》作者汉娜‧弗莱(东方IC)

但是,如果对演算法的选择,终究成了道德与价值观的选择,我们要把人与机器/演算法的界线画在哪里?有趣的是,弗莱选择应该捍卫的那条底线,却是一个相较于是否要用演算法判断肿瘤细胞、评估再犯风险、计算信用评分都更「无伤大雅」的领域,那就是艺术。不过,她反对的不是用演算法来评估热门排行榜、预测某部电影会不会大卖,而是运用演算法「製造」艺术的可能性──儘管曾经有个实验结果显示,用演算法模仿巴哈风格的作品,反而被听众误认为是巴哈本尊创作的。(页251)但在书末,弗莱却语重心长地提醒读者,「可被量化的物事有其极限,资料和统计学所能告诉我种种惊世骇俗的事物中,生而为人有何感受,并不包括在内。」(页259)一如安德鲁‧基恩(Andrew Keen)在他那本反对大数据垄断的着作《修复未来》中强调的,我们以为这是一个物联网的时代,但这一切其实是「人联网」(《修复未来》,页17)。我们对科技的思考,终究要回归到对人的思考上。人从不完美,我们又怎能天真地认为人所创造出来的演算法会是完美的?意识到人与其创造物的不完美,才能更加审慎地评估与行动。弗莱让我们看到,神秘的黑箱只是幻象,里面装着的,是我们向科技许下的愿望,在享受眩目声光秀的同时,我们也不能忘记,魔术师从来变不出无中生有的鸽子,所有的演出背后都可能有着黯淡的真相,一如所有的愿望,都会有代价。

本文作者─黄宗洁

国立台湾师範大学教育心理与辅导系学士、国文学系硕、博士。长期关心动物议题,喜欢读字甚过写字的杂食性阅读动物。着有《生命伦理的建构》《当代台湾文学的家族书写──以认同为中心的探讨》《牠乡何处?城市‧动物与文学》《伦理的脸──当代艺术与华文小说中的动物符号》。现任国立东华大学华文文学系副教授。

按讚加入《镜文化》脸书粉丝专页,关注最新贴文动态!

上一篇:
下一篇: