張麗卿(本會執行長、實踐大學講座教授)
人工智慧的運用,以自動駕駛車(下稱「自駕車」)最受關注,亦是目前最能凸顯人工智慧與法律衝突之議題。然而,自駕車本身仍然不具有法律上的人格,其行為不具有刑法意義,因此非刑法所要過問。既然自駕車不是可以歸責的主體,那麼自動駕駛造成的死傷,應否處罰使用者或生產者(程式設計者)?就有必要探討。尤其,當自駕車發生兩難困境時,應選擇犧牲誰,始合乎規範,沒有定論。不論誰承擔責任,將容許風險作為阻卻歸責事由,值得肯定,亦是帶動科技發展之重要觀點。
*完整文章內容,請參閱<月旦法學>雜誌,2019年3月,第二百八十六期。
人工智慧的運用,以自動駕駛車(下稱「自駕車」)最受關注,亦是目前最能凸顯人工智慧與法律衝突之議題。然而,自駕車本身仍然不具有法律上的人格,其行為不具有刑法意義,因此非刑法所要過問。既然自駕車不是可以歸責的主體,那麼自動駕駛造成的死傷,應否處罰使用者或生產者(程式設計者)?就有必要探討。尤其,當自駕車發生兩難困境時,應選擇犧牲誰,始合乎規範,沒有定論。不論誰承擔責任,將容許風險作為阻卻歸責事由,值得肯定,亦是帶動科技發展之重要觀點。
*完整文章內容,請參閱<月旦法學>雜誌,2019年3月,第二百八十六期。