麦肯锡全球研究所(MGI)的研究发现,具有“不可预测”、“具备极专业知识或技能”、“需与利益关系人互动”等特性的工作电脑难以胜任。(ShutterStock)

(大纪元记者陈霆编译报导)今年4月,传出亚马逊公司使用人工智能(以下简称AI)系统追踪员工效率,提醒动作变慢的员工,并自动开除未达目标者。同样在4月,一位布朗大学(Brown University)的学生被误认为是斯里兰卡爆炸案的嫌犯,起因也是斯里兰卡当局的脸部辨识AI出错。

这些事件显示,当人们越来越依赖AI进行决策,将AI系统引入司法、金融、雇用等重大议题时,可能会造成隐忧。“我最担心的是,我们想用来解决问题的系统,最终可能会加剧这些问题。”纽约大学的AI Now研究所共同创办人凯特.克劳福德(Kate Crawford)如是说。

AI为什么会出错?

过去,人们相信AI的一个理由是,AI不像人类受情绪、疲倦所影响,可直接分析事件进行准确判断。但许多证据表明AI也会有“偏见”(AI bias),并不总是像我们想像的那么客观真实。一项调查显示,部分美国法院采用的累犯风险评估软体COMPAS,在评估非裔美国人时准确性较低,可能高估他们成为累犯的概率。执法单位的面部辨识系统在妇女、青少年和少数族裔上,错误率也比较高。这种情况,被称作“AI偏误”或“算法偏误”,怎么形成的呢?

1. 偏误来自于AI的学习过程

AI的准确度需要经过训练,训练时提供的资料如果不足,无法反映复杂的真实世界,就会造成AI有偏误。Edge Case Research共同创办人暨执行长华格纳(Michael Wagner)指出,在训练自动驾驶车AI时,尽管感测器已分析了数千或数百万个人类影像,AI还是会忽略坐轮椅的使用者或穿着萤光背心的建筑工人,因为这些例子在数据库中是少数。

华格纳认为,安全可靠的产品不仅需测试已知的偏误,还应该仔细寻找新的以及意想不到的新偏误,而这些偏误可能不会被发现,直到产品被广泛运用。

“机器学习与人类学习相当不同”,华格纳说,“例如电脑可能会漏掉一个站在垂直物体(如电线杆)附近的人。你想过这个吗?”

2. 面对偏见,AI没有思考能力

AI程式也可能“学会”人类的偏见。训练AI时,它们依靠从大量数据中找寻不可见的模式来分析信息。当这些资讯中隐藏了人类的偏见时,AI会复制这样的偏见。但AI和真人不同,在面对偏见时,它们没有思考能力。Google决策智能主管凯西.科兹科夫(Cassie Kozyrkov)表示,AI只是收集数据、呈现模式的工具,永远不会自己思考,

3. 抽象价值无法被合适定义

出错的另一个原因是,当人类试图让AI进行涉及公平、正义、信赖等抽象价值的决策时,因为无法将抽象意义用数学术语呈现出来,导致AI的判断违背人们的期待。

例如,一家银行希望预测贷款申请人的信誉度,“信誉”是一个模糊的概念。为了将其转换为可以计算的内容,就会将“信誉”转变为可量化的因素。如果贷款模型发现,老年人有较高的违约可能性,并根据年龄减少了放款金额,就可能造成非法歧视。

AI金融平台AppZen的联合创始人维尔玛(Kunal Verma)也表示,如果申请人居住在很多人拖欠贷款的地区,系统也可能将其判断为不可靠。

涉及工作的争议

许多研究都指出,在各行业中引入AI技术,可能造成许多人失业。牛津经济研究院(Oxford Economics)在2019年6月的一份报告中预测,到2030年,机器人将取代全球8.5%的制造业工作职位(约2000万个职缺)。不少行业的雇员因此感到担忧,他们担心自己的专业能力被电脑取代。

与此同时,也有许多人担心,人们试图将算法无法处理的问题交给AI判断。例如:亚马逊公司曾借助AI将求职者予以排名,但后来发现该系统倾向录用男性求职者,尽管工程师进行调整后仍无法解决,最终只得放弃该计划。

麦肯锡全球研究所(MGI)的研究发现,具有“不可预测”、“具备极专业知识或技能”、“需与利益关系人互动”等特性的工作电脑难以胜任。如果我们勉强将这类任务交给电脑处理,可能就会出现各种错误。

像是司法、执法等工作,就涉及了需要衡量各方的公正性,或是在极短时间做出关乎生死的判断,AI算法是否能承担这样的责任?一些改过自新的人所做的努力,在算法的计算中能否被看见?

或许,我们要记得,人工智慧并非万能,只是一种工具,最终不能代替我们来思考。