七星资讯 | AI若无人性,你我只是被任意曲解的数据碎片

阳光七星2019-03-23 06:25:57

本文转自:凤凰网


目前仍无法确定通用型AI何时能实现,然而,最近有几则新闻令人警觉,伦理在AI里的应用,可能比我们想像得更急迫。例如英国《金融时报》中文网3月7日的一篇文章“人工智能的算法黑箱与数据正义”。



该文颇长,且充满许多AI专业用语与法律用语,所以对一般读者而言不太容易咀嚼,用最简单的话来描述该文的主旨,就是“AI的判断造成了歧视与不正义,所以其算法需要透明,以确保人权”。论述的出发点,则是针对欧盟可能于5月出台的法案《一般数据保护条例》(GDPR),以及其对AI深层学习所可能造成的负面影响。


以下,我试着将重点做些比较清晰易懂的说明,阐述“为何伦理知识可能要在通用型AI阶段以前就需要用上”,且不是明天,就是现在。


该文作者将具备知觉与自我意识的通用型AI称为“强人工智能”,有限功能的AI则为“弱人工智能”。由于强人工智能尚未出现,所以该文所阐述的“AI之乱”,是针对目前许多已在社会各角落被使用的弱人工智能。


什么是“算法黑箱”?


用一个简单的例子来说明。买新车,许多人会保“车体险”,以期在爱车遭受碰撞时,能取得保险理赔。在台湾,相较于窃盗险或其他,车体险最为昂贵,因为车辆遭受或小或大的碰撞机率,远高于遭窃。车体险的保费并非固定金额,而是随着一些条件的差异而有不同。决定保费的要件如车辆的售价,车辆品牌的理赔率,车主的年龄,性别,肇事纪录等等,甚至车辆的颜色都属于评估范围,因为开红色汽车的年轻男性,发生碰撞的几率较高。


保险金融业,是以精算来生存的,所以引入能精细评估投保者的AI,理所当然。而若使用AI来评估,决定保费的要件,当然会比上述更为细腻。AI会广泛地搜罗保险公司的理赔历史数据,来分析哪一种人或哪一种车的理赔率较高,以作为保费金额的参考。


如果开红车的年轻男性要交比较高额的保费让你觉得有点歧视,试想,如果AI分析得出单亲家庭的成员肇事率较高,所以应该缴交更高的保费时,你服气吗?


问题是,AI如何得知你出身于单亲家庭呢?这么说吧,如果民间征信社可以查出你是否出身单亲家庭,AI当然也查到。我们的个人数据资料,如果没有受到严密的保护,根本无法逃遁于AI的搜查罗网。


这时你会问,谁能决定要将单亲家庭这项条件纳入保费评估的?当然是透过保险公司与AI科技公司的合作,而且保险人恐怕根本不会知道这项条件其实被纳入了考虑。


“单亲家庭”纳入评估,就是一种AI算法,而若只有保险评估单位与AI科技公司知道这种算法,被“算计”的人不知道,就是所谓“算法黑箱”。


如果以传统人工来评估保费,某些算法很可能会受到起码的道德制约,避免这种歧视性的评估。当然,我们也不能对“人性”打包票,即使完全人工设定评估项,这类问题也未必能完全避免,但没有“人性”的AI,很可能会肆意地选择,毕竟它只知如实呈现“客观”的数据分析结果。


与全人工设定相比,了解并参与AI整个分析过程的人更少,这些人完全可能也有更多的机会“放纵”AI。如果需要他们“监管”AI的工作,对其“人性”的要求更高。甚至当AI的“自动化”发展到一定程度,几乎无人能知道“黑箱”内部的情况。所以,保险公司若不将AI算法透明化让大众知晓,就会发生数据不正义的现象。


欧盟的《一般数据保护条例》,就是在限制AI可能造成的人权侵害,它要求所有科技公司对其AI算法的自动决策机制提出解释。而这种法令出台,也等于直接限制了AI的深度学习技术。


说白了,就是重新以“人性”去审视,限制“非人性”的决策模式。而这将使大量依赖深度学习的AI应用不合法。



大数据的阴暗面


《人工智能的算法黑箱与数据正义》一文,也指出了若干已经发生的数据不正义案件,例如美国每周超过1000人被机场AI使用的算法错误辨识为恐怖分子。美国法院用以评估犯罪风险的算法COMPAS,对黑人族群造成系统性歧视。华盛顿特区某个受到普遍认可的教师,被政府的自动化决定程序筛选为表现不佳,而与其他205人一起被解雇。


数据不正义的例子又如:当你向银行贷款,不会希望自己所属的种族,在银行的放贷评估范围内。你也不会希望自己在社群网站上的私密发言,在求职或面临遣散的时候被纳入考虑事项。你更不会希望因为自己丰富的性生活经验,而被性保守的国度拒绝入境。


目前,大数据是没有人性可言的,它不会按照道德标准去弹性处理分析结果,对于依赖大数据作为决策基础的AI而言,你我都只是数据碎片,至于要如何组织纷杂零散的数据碎片形塑一个“你”,不在你的控制范围内,算法黑箱就是这个意思。在这种状况下,你很有可能觉得AI曲解了你的人格,经历,性向,并错误预测你可能产生的行为,进而使你的人权遭受不人道的剥夺。


去年,脸书运用AI根据大数据辨识用户偏离正常贴文的行为模式,并对于可能出现的轻生念头发出警讯,此举引起了广泛的伦理讨论:我们若在脸书表达轻生念头,会引来警察上门盘查,这是否侵犯了个人隐私?这么做合乎道德吗?类似的例子不胜枚举,大数据侵害人权的质疑已广泛地出现在各个精准营销的手段上。


大数据的阴暗面在于,每一个被分析的对象,都被细锁地分割成许多的数据切片,而我们不会知道哪一分切片会被不当使用。房地产业者会不会根据大数据剔除自杀倾向较高的租房者?企业主会不会根据求职者在网路上贴文的大数据分析,将反社会倾向较高的人剔除?婚姻仲介公司会不会根据你偏好的AV题材大数据,而拒绝为你媒合对象?


欧盟可能即将生效的《一般数据保护条例》设下了两种规范,其一:AI的自动化决定,除非你同意,或在合约条件上不可少,否则你有权不受该决定的限制。其二:将个人敏感数据排除在自动化决定,也就是AI算法之外。所谓敏感数据是指种族、政治倾向、宗教信仰、健康、性生活、性取向的数据,或者可唯一性识别自然人的基因数据、生物数据。


法律只是道德的底线,有许多大数据曲解,可能是合法却不符合人情道德的,故而对AI与大数据的法令限制,也不可能消除所有“科技的不义”,并有法律自身的限制与可钻的漏洞。


如规范一,当你已被AI贴上了标签,即便你有权否决AI判断,但标签贴上了就是贴上了,他人也可以自由心证地决定是否采纳这个标签,让你受到隐性的不公平待遇。


再如标签二,即便种族不在AI的数据分析之内,但它仍可透过你的居住地,收入或前科纪录推论出你所属的种族。尤其重要的是,即便法律规定的算法透明化了,一般人恐怕也难以读懂复杂的运算法。


亦即,外在的法律规范是不足的,要更彻底地解决问题,必然要在AI科技的内部,做算法的自我规范。换言之,即是建立AI决策技术上的伦理规范,用道德、风俗、人情以规范AI的分析路径。



让AI主动避免逾越法律界线


就像克隆人科技的发展命运,AI这种同样牵涉到人类道德的科技,最大的瓶颈不是来自于技术,而是来自于道德束缚。事实上,克隆人,基因治疗,太空生活等领域,早已进入了伦理学的范畴。这些与人类生命有关的新兴科技,被纳入应用伦理学的生命伦理学范围,并在这些科技领域里发挥限制或引导的作用。所以AI伦理学迟早也会成为一门严肃而专精的学术,而从已然发生的AI误判或大数据歧视案件来看,这门学问将成为左右人类社会发展的重要知识系统之一。


《一般数据保护条例》对AI产业的发展,无疑是一项重击,因为它对AI的核心技术产生了人道上的质疑。法律的限制将使得现有技术绑手绑脚,迫使某些重要计划产生停顿也是有可能的。但从产业面的角度来看,限制技术的法律也应该正面看待,因为产品终究得获得人们的信任,才得以继续发展,而法令限制也会迫使产业将技术加速导向人性化。


发展AI的道德自主判断技术,则是最能确保此项科技逾越法律界线的方式。用最简单的方式来说,就是让AI比人还道德。这里的道德包含对人全面性的综合评估,宽容、平等,与客观无私。


上一篇我谈到AI的核心是“人的思考模式”。我们的思考运作特征,是跳跃性思考与综合式判断,这也正是AI最难处理的技术问题。


你希望心仪的对象如何看待你?难道乐见她对你的了解仅止于网路上的情绪发言,断章取义,愤世忌俗,或偏激思想?不会,你希望对方也能综合性地考虑你良善的一面。对AI而言,综合式地算出你的各个大数据切片,才是符合人情道德的运算法。


你希望你任职的公司如何预测你的潜力?难道你乐见只因要求加薪,公司就认为你难以管理,利己主义,或缺乏团队合作的特质?不会,你会希望公司也能跳跃性思考,考虑“要求加薪”这项行为所需的胆识,积极,谋略等正面特质。


总而言之,AI必须能从人性的角度来判断一个人,并在各种决策要求上,能适切地筛除不符合人情义理的大数据切片。这就是伦理学等文科知识,在未来科技上所能扮演的关键角色。


其实,大数据的伦理问题在2015年时就已受到大陆学术单位的正视,如国家社会科学基金中大项目“高科技伦理问题研究”项目组与湖南省伦理学学会联合主办的“第一届赛博伦理学研讨会”。显示大数据,AI发展的同时,急迫需要伦理规范的知识系统对科技予以引导,以免因弱人工智能所引发的道德疑虑,一方面使社会进入失序的数据曲解,另一方面阻碍了强人工智能的发展。


两岸都有类似的问题,即文科知识正面临学生、家长与社会的普遍轻视,这是由于工业化与后工业化环境的人才需求,倾向于培养理工科的人力资源。然而,当科技绕了一圈,由数理逻辑发展到非线性思维的应用时,文科终于在适应与启发现代社会的层次上,派上了用场。


所以,我们都得与时俱进,重新正视文科知识在人类文明发展里应有的高度,也让学文的人才,能在未来的劳动市场里有更多样性的选择,与学理工的人才一起推动社会进步。



- THE END -


点击下方的阅读原文,即可浏览原发文章

长按二维码

关注阳光七星

Copyright © 古田计算器虚拟社区@2017