朱宸佐(人工智慧法律國際研究基金會秘書長)

代理人AI的法律人格探討
根據大陸法系的概念,法律人格是指法律認可的享受權利和承擔義務的資格,包括自然人主體和法律擬制主體。對於任何自然人,法律均承認其法律人格,而法人的法律主體地位則是經由法律程序所取得。值得注意的是,2016年歐盟議會法律事務委員會發布《就機器人民事法律規則向歐盟委員會提出立法建議的報告》,首次提出考慮賦予自主機器人法律地位,即「電子人」的可能性。

根據大陸法系民法對法律人格的定義,判斷法律人格的關鍵,在於該主體是否具有自主性和意識能力。若AI具有自主性和意識能力,能完全自主將內在思想透過外在行為表達出來,或在完成特定任務時,能完全獨立作業或擺脫既有演算法自主創建新的演算法,此時的AI將被認定為具有法律人格。

那麼,代理人AI是否具有法律人格呢?

一、關於意識能力
2023年8月17日,Patrick Butlin等人發表的論文中,以神經科學的意識理論評估了當前AI是否具備意識,其結論是目前的AI系統雖不具備意識,但在技術上創造具備意識的AI並無障礙。(註1)2024年1月28日,Microsoft發表的論文(作者包括知名科學家李飛飛)指出,代理人AI不只是簡單地協調各個組件,還可能具備某種「意識」。(註2)

2024年10月15日,Simon GoldsteinCameron Domenico、Kirk-Gianninim  研究團隊從全局工作空間理論(GWT)探討AI是否可能具備意識,認為現有的AI語言代理架構在進行修改後,可以具備部分意識特徵。(註3)
二、關於完全自主
2023年12月14日,OpenAI將代理人AI定義為在「有限監督下」能適應複雜環境或達成複雜目標的系統。(註4)2024年10月11日,IBM則提到,憑藉LLM的大腦和代理人的目標能力,代理人AI可獨立運作,無需持續的人工監督。2024年10月22日,NVIDIA更進一步指出,人工智慧的下一個前沿是代理人AI,它使用複雜的推理和迭代規劃來自主解決複雜的多步驟問題。

這些觀點均指出,代理人AI具備「自主執行」任務的能力,但對於代理人AI是否具有完全自主能力,仍有不同認知。

綜合上述學術界及業界對於當前代理人AI的意識或自主性的描述,可以得出以下結論:
目前代理人AI的技術已接近具有意識及獨立自主AI的邊緣。


然而,在代理人AI的技術定義在學術界及業界標準不一的現況下,例如是在有限監督下運作的AI或是完全自主的AI,尚難僅以書面文獻判斷代理人AI是否具有法律人格。但對於代理人AI是否具有法律人格的討論,將成為未來無法迴避的重要課題。
量子AI的創新突破

目前,AI技術尚未發展至Level 4創新AI和Level 5組織AI的等級。這是因為AI發展尚需解決諸多現實問題:訓練大型語言模型成本高昂,無法達成商業普及;半導體的發展面臨摩爾定律的極限,晶片的功耗及訊號傳輸量將面臨瓶頸;AI運算中的「黑箱」問題導致AI的產出結果缺乏透明度;訓練AI模型耗費大量電力,對全球能源供應造成挑戰等問題。
因現實成本與能源限制等問題,目前AI的發展速度減緩,若要提升AGI等級需結合創新技術。圖片來源:Shutterstock

因此,若AI要達到創新AI和組織AI等級,勢必要有突破性的創新技術融入現有的AI技術之中。

當前,量子技術正在迅速發展,為全球帶來前所未有的機遇和挑戰。其核心在於量子技術與AI相結合的混合計算架構(QAI),將成為新一代計算方式。雖然AI和量子技術通常被分開討論,但愈來愈多人相信這兩種技術可以深度互補。量子技術可提供傳統計算機無法觸及的運算能力,而AI亦可幫助解決量子力學中如穩定性等複雜問題,優化量子演算法。
在速度和效率方面,量子技術可徹底改變AI的計算速度,目前需要數天甚至數週訓練的AI模型,將在數秒或數分鐘內完成。此外,透過在機器學習過程中應用量子現象(如疊加和糾纏)的量子機器學習(QML)(註5),將實現更強大、更準確的機器學習模型,對自然語言處理、影像識別和自主系統等領域產生深遠影響。量子技術亦可能在現行半導體技術外,形塑另一種高速運算工具,協助AI提升至更高階的AGI等級。

QAI技術的出現,預計將對大數據分析、優化演算法、密碼學和材料科學等領域產生重大影響,並推動醫療、氣候預測、金融和網路安全等產業的變革。

建構可信賴的QAI發展框架
然而,QAI的誕生也將對人類文明構成嚴重風險。它可能影響軍民兩用技術,改變未來戰爭的本質;顛覆現有加密協議,造成國家和資訊安全漏洞;加劇演算法偏見和歧視,導致道德和隱私侵犯。更有甚者,QAI的發展推動Level 4創新AI及Level 5組織AI誕生時,將有高度可能創造出一個具有完全自主能力及意識能力的AI。

這樣的技術革新,將顛覆目前所有法律體系對於人的定義,若出現了比人類更有創意的AI,或者AI能有自我意識地形成社群,將衝擊人類對於「人類」普世價值的認知,甚至可能導致人類文明的滅絕。

因此,在QAI的開發過程中,必須同時建立一個負責任的量子技術(RQT)框架(註6)將道德、法律、社會和政策(ELSPI)等框架(註7)嵌入整個技術的發展過程,確保QAI在可信賴、安全及可控管的環境中發展。此外,在中美的AI及量子技術的競爭下,QAI的發展過程,勢必更加劇了全球地緣政治及供應鏈的緊張關係,技術的競爭與孤立主義,將屏蔽國際間量子技術發展的透明度,導致量子技術的失控風險。


QAI與人類文明及普世價值緊密相連,在技術發展的過程中,如何形塑國際間的共同監管規則以及ELSPI技術框架(註8),並在完全自主及具備意識能力的AI誕生前,建立價值相同的國際技術及產業鏈夥伴關係,避免AI失控,威脅人類文明,是國際社會在QAI時代的共同責任與目標。

更多FAQ:代理人AI帶來哪些優點與風險?
Q:代理人AI可能具有法律人格嗎?

A:關鍵在於是否具備意識能力和完全自主性。最新研究顯示,技術上已經接近這個可能性,但目前業界對AI自主程度的定義尚未統一。

Q:為什麼需要發展量子AI?

A:現有AI技術面臨訓練成本高、半導體限制、能源消耗大等問題。量子技術可提供突破性的運算能力,並透過量子機器學習提升AI效能。

Q:QAI發展的主要風險是什麼?

A:包括軍民兩用技術影響、加密協議安全、演算法偏見,以及AI可能發展出完全自主意識的潛在威脅。


參考資料

註1:Butlin, P., Long, R., Elmoznino, E., Bengio, Y., Birch, J.C., Constant, A., Deane, G., Fleming, S.M., Frith, C.D., Ji, X., Kanai, R., Klein, C., Lindsay, G.W., Michel, M., Mudrik, L., Peters, M.A., Schwitzgebel, E., Simon, J., & VanRullen, R. (2023). Consciousness in Artificial Intelligence: Insights from the Science of Consciousness. ArXiv, abs/2308.08708.

註2:Huang, Q., Wake, N., Sarkar, B., Durante, Z., Gong, R., Taori, R., ... & Gao, J. (2024). Position Paper: Agent AI Towards a Holistic Intelligence. arXiv preprint arXiv:2403.00833.

註3:Goldstein, S., & Kirk-Giannini, C. D. (2024). A Case for AI Consciousness: Language Agents and Global Workspace Theory. arXiv preprint arXiv:2410.11407.

註4:Goldstein, S., & Kirk-Giannini, C. D. (2024). A Case for AI Consciousness: Language Agents and Global Workspace Theory. arXiv preprint arXiv:2410.11407.

註5:Cerezo, M., Verdon, G., Huang, HY. et al. Challenges and opportunities in quantum machine learning. Nat Comput Sci 2, 567–576 (2022).

註6:Gasser, U., De Jong, E. & Kop, M. A call for responsible quantum technology. Nat. Phys.20, 525–527 (2024)

註7:Kop, M. Quantum-ELSPI: A Novel Field of Research. DISO 2, 20 (2023).

註8:Kop, M., Quantum Technology Impact Assessment, 20 April 2023.


*完整文章內容,請參閱雜誌,未來城市專欄,永齡基金會。
https://futurecity.cw.com.tw/article/3549