作者:王紀軒(中國文化大學法律學系副教授;人工智慧法律國際研究基金會副執行長)、蘇偉綸(資訊工業策進會科技法律研究所副研究員)

人工智慧與犯罪預測

  日本VAKK公司的VAAKEYE系統(行動.異常検知AI),能通過監視影像,分析人類的臉部表情與肢體動作,進而預測出潛在行為異常者。據媒體報導,2018年,該公司與日本橫濱的某便利商店合作,辨識預測一名有犯罪可能的人士,而該名人士,果真在數日後,因涉嫌竊盜罪被檢警偵辦。

    VAKKVAAKEYE系統,是典型運用(弱)人工智慧技術,進行辨識或預測的模式。簡單來說,就是設定特定問題後,蒐集大量相關資料,以訓練資料集(training dataset)推進機器學習,再透過驗證資料集(validation dataset)、測試資料集(test dataset)調整、評估機器學習的成果。通常,這類系統能在龐大的資料庫中,建構特定模式,進行規律的識別或預測,並且持續優化,除了辨識個人資訊(如年齡、性別、衣服及物品)或人數,更可以辨識或預測人的行為--特定行為或異常行為。如此一來,人工智慧就有可能應用在預測犯罪。

利用人工智慧預測犯罪的潛在風險

  或許,預測犯罪,有助於犯罪預防,建構更安全的社會;但應注意的是,「預測」行為本身,具有相當程度的風險,且此風險可能反噬人類原先希望藉此維護安全社會的初衷。
  
       此風險來源在於,人工智慧可能在機器學習或實際應用的過程,吸收人類社會既有的偏見或歧視。我們無法否認的是,人類在成長(社會化)過程中,會自然接受社會既有的框架與標籤,容易對於特定的族群、地區或身分等特徵的人,給予不同(通常是較差)的對待,但卻可能未曾察覺,進而產生對特定對象的偏見或歧視。這種常人可能無法發現,也未必外顯的偏見或歧視,一旦涓滴成流、聚沙成塔,成為供應人工智慧學習的巨量資料時,就可能不當影響人工智慧的預測能力,造成人工智慧歧視特定族群、地區或身分等特徵的人。

  
       換言之,人工智慧的研製人員,對資料標籤不能完全中立,或資料採樣不足或過度,而這些資料投入人工智慧的機器學習模型,人工智慧就可能受人類的偏見或歧視影響,因無法跳脫預設的運作框架,只能成為具有歧視性的人工智慧。這樣的風險也存在於使用者,勿忘
2016年的經驗:微軟在Twitter推出聊天人工智慧Tay,但一日的使用後,Tay成為種族主義者,使得微軟火速停止Tay的應用;Tay的異變在於,使用者的歧視文字資料,成為Tay學習的養分。

多元的、公平的、不歧視的人工智慧
  
       我們可以想像,有朝一日,當犯罪預測的人工智慧,被廣泛運用,如果前述的風險不能排除,將有某些人會生活在不平等的歧視風險之下,對他們的名譽、自由等基本權利,恐怕產生不良影響。凡是涉及價值判斷的人工智慧,偏見或歧視的惡靈都有可能躲藏在其中。也因為如此,歐美國家對於人工智慧的發展,重視人工智慧的公平、反歧視,致力於建構相互尊重的人工智慧生態系統。

  
     例如,
20194月,歐盟發布可信賴的人工智慧倫理準則Ethics Guidelines for Trustworthy AI,旨在促進可信賴的人工智慧發展;其中包含「多樣性、非歧視性和公平性」準則,就是希望人工智慧的發展,應當尊重多元社會,營造平等的人工智慧應用環境,特別在資料庫的蒐集、標籤階段,應消除偏見與歧視,在系統開發上,應建立監督流程,確保人工智慧對於眾人的和諧尊重。
  
       無獨有偶,
20201月,美國發布人工智慧應用監管指南草案(Guidance for Regulation of Artificail Intelligence Applications),同樣強調「公平與非歧視」。也就是說,人工智慧的發展及應用,必須避免受偏見或歧視影響,以免產生具有歧視性的結果或決策,破壞公眾信任,要求政府對人工智慧的監管,應考量結果的公平與非歧視性;同時,期許未來的人工智慧,可以協助減少人類主觀造成的偏見或歧視。

未來展望
  
       犯罪或許有跡可循,運用人工智慧進行犯罪預測,理論上也具有一定的準確性;但是,人類的價值判斷難以中立完美,使得涉及價值判斷的人工智慧科技,難保不在研製或使用過程中,感染人類的主觀偏見或歧視,而成為有帶有偏見或歧視的人工智慧。是故,我們可以能看見各國積極建立人工智慧倫理準則,或採取相關措施因應,希望人工智慧的發展,安全並值得信賴。

  
       對此,
2019年科技部訂定「人工智慧科研發展指引」,以科研人員為主要指導對象;該指引中,亦包含「公平性與非歧視性」,明確表示人工智慧的科研人員從事人工智慧的「系統、軟體、演算法等技術及進行決策時,落實以人為本,平等尊重所有人之基本人權與人性尊嚴,避免產生偏差與歧視等風險」。除了人工智慧的科研領域,人工智慧發展及應用,均應重視公平性,並反對一切歧視,並積極完善相關準則或規範,使人工智慧為人類社會帶來最大的正面助益。

新聞來源

BBC, Tay: Microsoft issues apology over racist chatbot fiasco, https://www.bbc.com/news/technology-35902104 
The Guardian, Tay, Microsoft's AI chatbot, gets a crash course in racism from Twitter,
https://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism-from-twitter 
科技新報,日本便利商店用AI預測竊盜,《關鍵報告》正成為現實,https://technews.tw/2019/03/12/vaak-ai/ 

延伸閱讀:莊貫勤,歐盟發布可信賴的人工智慧倫理準則,科技法律透析第31卷第8期,2019年8月;王紀軒,人工智慧於司法實務的應用,月旦法學第293期,2019年10月;張麗卿,AI倫理準則及其對臺灣法制的影響,月旦法學雜誌第301期,2020年6月