立法院趕在2025年將結束前,終於三讀通過「人工智慧基本法」(以下稱「AI基本法」),將由國科會擔任主管機關。台灣首部針對AI的法規,對產業與社會帶來什麼樣的影響,備受產官學關注。

實踐大學法學院講座教授、人工智慧法律國際研究基金會執行長張麗卿分析,「AI基本法」接近「框架法」,並非以強制約束為核心的「監管法」。

比起歐盟和韓國針對人工智慧運用進行嚴格管控,「AI基本法」核心價值更接近日本,促進與治理原則並行、保留創新空間,「基本法完成只是階段性任務,真正挑戰是如何將立法精神與政策方針,具體落實在個別法律,」張麗卿說。

基本法沒有設置罰則、規定義務,在落地時需要更多配套。以監理與數據治理為例,勤業眾信科技與轉型資深執行副總經理溫紹群指出,AI治理最核心的難題,是抽象的法律原則落地到具體商業場景時,如何畫出紅線?

溫紹群舉例,銀行依據行銷目的做客戶分群和貼標,使用AI找出有錢、信用好的客戶,提供更好優惠條件,本質上就和基本法中「公平與不歧視」原則矛盾。

究竟規範尺度在哪?需要主管機關推動落地時通盤思考,尤其AI發展涉及複雜的利害關係人,「跨部會、跨領域的對話機制至關重要,」人工智慧科技基金會執行長溫怡玲觀察。

即便「AI基本法」三讀,即將上路,外界認為挑戰巨大。面對外界的疑惑,主管機關國科會主委吳誠文接受《天下》專訪,強調「AI基本法」是加速台灣AI發展的一大步,也讓2026年會成為台灣AI應用的元年。以下為專訪摘要:

國科會、數發部各有任務

「AI基本法」是「上位法」,從施政角度來看,國科會任務是科技研發以及編列科技預算、制定政策,不會直接面對人民。

但數發部會直接面對人民,因此由數發部制定相關的「做用法」,例如跟經濟部合作的《台灣主權AI訓練語料授權條款—第1版》,以及防治AI詐騙,都是數發部的權責。

未來,跨部會的合作會愈來愈多,數發部支持AI軟體產業、硬體則歸經濟部,兩部門合作會更頻繁;而國家政策的制定與發展,如「AI新十大建設」,則是國發會跟國科會一起努力。


將來各部會都有AI應用,不能單靠國科會,而我也不是法律背景,所以我們有一個3名政委組成的平台,由我和政委林明昕、國發會主委葉俊顯,一起協助溝通數位治理以及法案審查。


基本法通過,AI發展將加速

基本法過了之後,整個AI發展會加速,像衛福部已經通過了好幾個法案,數發部近期也提出「促進資料創新利用發展條例」草案,就是在保障基本人權之下,盡量鼓勵創新。當然還是有紅線,所以每個部會要決定你的紅線在哪,不能畫一條線、所有東西都禁止,這樣會阻礙創新發展。

我們很急著要通過基本法,廠商才知道哪些可以做、哪些不能做。既有法令下,如果往最嚴格的解釋走,廠商都不敢投資。即便外商進來,也只敢在台灣做硬體。


所以目標是基本法通過後,鼓勵廠商做應用軟體,這才是AI的核心重點,所以2026年,將會是台灣的自主AI應用元年。

「AI新十大建設」進度也會跟著加速,例如高速量子運算技術,可以幫助生醫領域有更好的發展;矽光子則是未來光通訊的關鍵技術,攸關低軌衛星和AI資料中心的互聯傳輸。

人才部份也要跟上,同樣是「AI新十大建設」的機器人產業,台灣不僅會成立研發團隊,國發基金已經編列100億預算,作為投資與人才培育基金,也期許台灣的法案完備後,能吸引新創、國外人才來台。2026年希望一步一步,從法案的搭配、科研經費、提升廠商投資意願,來推動AI產業發展。

數發部提供風險識別分類,提供測試工具

數發部政務次長侯宜秀指出,台灣「AI基本法」將風險分為三類:系統與服務本身風險、人機互動風險,以及社會影響風險。

數發部完成風險分類框架後,將協助各主管機關在特定場域與應用情境下,針對特定技術定義風險。譬如在台灣常見將臉部辨識應用於門禁,但歐盟就禁止在公共場所進行即時性、持續性大規模使用。 然而,透過風險分類框架歸類出高風險項目,就能採取相應政策工具,例如要求透明度、經過測驗才能上市,或在特定場景禁止使用。

數發部在AI發展、基本法規定原則下,制定可操作的風險分類框架範本,讓各主管機關能跟著操作,訂出各單位的風險應對措施。