不妨想象一下:今年是2023年,自動駕駛汽車終于在我們的城市街道上行駛了。然而,這也是自動駕駛汽車第一次撞擊一名行人并致其死亡,媒體對此進行了廣泛報道。一個備受矚目的訴訟案很有可能發生,但是這個事件應該適用什么樣的法律呢?
今天,基于英國布萊頓大學John Kingston的相關研究,我們得到了一些答案——他在這個剛剛開始的法律領域做出了一些探索。他分析指出了汽車、計算機和法律領域人士應該認真對待的重要議題。如果他們還沒有開始思考這些問題,現在也是時候準備了。
這場爭論的核心是,人工智能系統是否可以為其行為承擔刑事責任。Kingston說,以色列Ono Academic College的Gabriel Hallevy對這個問題進行了深入探討。
現行法律可能適用于AI的三個場景
刑事責任通常需要一個行動和一個心理意圖(在法律術語中可以表述為一種犯罪行為和犯罪意圖)。Kingston說,Hallevy探索了三種可能適用于人工智能系統的場景。
第一種被稱為“通過他者犯罪的肇事者”(perpetrator via another),患有精神疾病的人或動物犯下罪行時適用,他們也因此被認為是無辜的。但是,任何指使過精神病人或動物的人都可以被追究刑事責任。例如,一條狗的主人命令其攻擊另一個人。