人工智慧与犯罪预测
日本VAKK公司的VAAKEYE系统(行动.异常検知AI),能通过监视影像,分析人类的脸部表情与肢体动作,进而预测出潜在行为异常者。据媒体报导,2018年,该公司与日本横滨的某便利商店合作,辨识预测一名有犯罪可能的人士,而该名人士,果真在数日后,因涉嫌窃盗罪被检警侦办。
VAKK的VAAKEYE系统,是典型运用(弱)人工智慧技术,进行辨识或预测的模式。简单来说,就是设定特定问题后,搜集大量相关资料,以训练资料集(training dataset)推进机器学习,再透过验证资料集(validation dataset)、测试资料集(test dataset)调整、评估机器学习的成果。通常,这类系统能在庞大的资料库中,建构特定模式,进行规律的识别或预测,并且持续优化,除了辨识个人资讯(如年龄、性别、衣服及物品)或人数,更可以辨识或预测人的行为--特定行为或异常行为。如此一来,人工智慧就有可能应用在预测犯罪。
利用人工智慧预测犯罪的潜在风险
或许,预测犯罪,有助于犯罪预防,建构更安全的社会;但应注意的是,「预测」行为本身,具有相当程度的风险,且此风险可能反噬人类原先希望借此维护安全社会的初衷。
此风险来源在于,人工智慧可能在机器学习或实际应用的过程,吸收人类社会既有的偏见或歧视。我们无法否认的是,人类在成长(社会化)过程中,会自然接受社会既有的框架与标签,容易对于特定的族群、地区或身分等特征的人,给予不同(通常是较差)的对待,但却可能未曾察觉,进而产生对特定对象的偏见或歧视。这种常人可能无法发现,也未必外显的偏见或歧视,一旦涓滴成流、聚沙成塔,成为供应人工智慧学习的巨量资料时,就可能不当影响人工智慧的预测能力,造成人工智慧歧视特定族群、地区或身分等特征的人。
换言之,人工智慧的研制人员,对资料标签不能完全中立,或资料采样不足或过度,而这些资料投入人工智慧的机器学习模型,人工智慧就可能受人类的偏见或歧视影响,因无法跳脱预设的运作框架,只能成为具有歧视性的人工智慧。这样的风险也存在于使用者,勿忘2016年的经验:微软在Twitter推出聊天人工智慧Tay,但一日的使用后,Tay成为种族主义者,使得微软火速停止Tay的应用;Tay的异变在于,使用者的歧视文字资料,成为Tay学习的养分。
多元的、公平的、不歧视的人工智慧
我们可以想像,有朝一日,当犯罪预测的人工智慧,被广泛运用,如果前述的风险不能排除,将有某些人会生活在不平等的歧视风险之下,对他们的名誉、自由等基本权利,恐怕产生不良影响。凡是涉及价值判断的人工智慧,偏见或歧视的恶灵都有可能躲藏在其中。也因为如此,欧美国家对于人工智慧的发展,重视人工智慧的公平、反歧视,致力于建构相互尊重的人工智慧生态系统。
例如,2019年4月,欧盟发布可信赖的人工智慧伦理准则(Ethics Guidelines for Trustworthy AI),旨在促进可信赖的人工智慧发展;其中包含「多样性、非歧视性和公平性」准则,就是希望人工智慧的发展,应当尊重多元社会,营造平等的人工智慧应用环境,特别在资料库的搜集、标签阶段,应消除偏见与歧视,在系统开发上,应建立监督流程,确保人工智慧对于众人的和谐尊重。
无独有偶,2020年1月,美国发布人工智慧应用监管指南草案(Guidance for Regulation of Artificail Intelligence Applications),同样强调「公平与非歧视」。也就是说,人工智慧的发展及应用,必须避免受偏见或歧视影响,以免产生具有歧视性的结果或决策,破坏公众信任,要求政府对人工智慧的监管,应考量结果的公平与非歧视性;同时,期许未来的人工智慧,可以协助减少人类主观造成的偏见或歧视。
未来展望
犯罪或许有迹可循,运用人工智慧进行犯罪预测,理论上也具有一定的准确性;但是,人类的价值判断难以中立完美,使得涉及价值判断的人工智慧科技,难保不在研制或使用过程中,感染人类的主观偏见或歧视,而成为有带有偏见或歧视的人工智慧。是故,我们可以能看见各国积极建立人工智慧伦理准则,或采取相关措施因应,希望人工智慧的发展,安全并值得信赖。
对此,2019年科技部订定「人工智慧科研发展指引」,以科研人员为主要指导对象;该指引中,亦包含「公平性与非歧视性」,明确表示人工智慧的科研人员从事人工智慧的「系统、软体、演算法等技术及进行决策时,落实以人为本,平等尊重所有人之基本人权与人性尊严,避免产生偏差与歧视等风险」。除了人工智慧的科研领域,人工智慧发展及应用,均应重视公平性,并反对一切歧视,并积极完善相关准则或规范,使人工智慧为人类社会带来最大的正面助益。
新闻来源:
BBC, Tay: Microsoft issues apology over racist chatbot fiasco, https://www.bbc.com/news/technology-35902104
The Guardian, Tay, Microsoft's AI chatbot, gets a crash course in racism from Twitter,
https://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism-from-twitter
科技新报,日本便利商店用AI预测窃盗,《关键报告》正成为现实,https://technews.tw/2019/03/12/vaak-ai/
延伸阅读:庄贯勤,欧盟发布可信赖的人工智慧伦理准则,科技法律透析第31卷第8期,2019年8月;王纪轩,人工智慧于司法实务的应用,月旦法学第293期,2019年10月;张丽卿,AI伦理准则及其对台湾法制的影响,月旦法学杂志第301期,2020年6月