關(guān)于我們
書單推薦
新書推薦
|
人工智能與法律的對話
隨著人工智能的逐步發(fā)展,人工智能中出現(xiàn)的種種問題對現(xiàn)有法律提出了一定的挑戰(zhàn)。本書匯聚了不同專業(yè)背景的學(xué)者的探討,在機(jī)器人技術(shù)發(fā)展的起步時期,他們以各自不同的方式嘗試突破機(jī)器人法目前遭遇的發(fā)展障礙。通過闡釋充滿爭議的法律、倫理和哲學(xué)問題,本書揭示了圍繞機(jī)器人及其調(diào)控產(chǎn)生的問題遠(yuǎn)比人們預(yù)計的復(fù)雜,尚有大量關(guān)于機(jī)器人界定和適用的問題等待解決
本書以多方位的視角,針對人工智能的不同方向,對人工智能和法律提出了獨(dú)特的專業(yè)的見解。
無論生物學(xué)意義上的自然人類(以下簡稱人類)是否做好準(zhǔn)備,人工智能時代正逐步走來,而這恰恰是由人類自身所引起。 初級的人工智能或許能為人類帶來便捷,在我國,或許還能帶來規(guī)則意識,甚至法治理念的真正普及。這是因?yàn),人工智能的本質(zhì)就是算法,任何算法必然建立在對某項(xiàng)事物認(rèn)識的共性與常識之上。也正是在此意義上,人工智能能為人類服務(wù),能代替自然人為人類服務(wù)。初級的人工智能,如果還沒有深度學(xué)習(xí)能力,或者深度學(xué)習(xí)能力尚不充分,它就難以進(jìn)行諸如自然人價值判斷與情感判斷的活動,比如包含愛的交流與體驗(yàn),難以對疑難案件作出理性裁判,對案件的漏洞填補(bǔ)與價值補(bǔ)充等。在此意義上,人工智能產(chǎn)品還主要表現(xiàn)為人工智能物,僅在有限的意義上具有自然人的屬性。但即便是初級的人工智能,在我國也具有非常重要的意義,主要表現(xiàn)為規(guī)則意識與誠信觀念的建立。人工智能最核心的大腦就是算法,算法本身便是規(guī)則。初級人工智能對人類的服務(wù)就是規(guī)則服務(wù);而人類要接受人工智能的服務(wù),就必須接受算法設(shè)定的各種規(guī)則。人工智能,尤其是結(jié)合網(wǎng)絡(luò)運(yùn)用的人工智能,會促使與提升自然人的規(guī)則意識,因?yàn)闊o論自然人在線下是否遵守規(guī)則,也無論規(guī)則在線下如何難以推行與實(shí)現(xiàn),只要自然人接受線上服務(wù),就必須遵守線上規(guī)則;無論自然人在線下如何不守信,他在線上也必須誠實(shí),否則他就進(jìn)入不了虛擬世界,便也無從獲得特定人工智能的服務(wù)。在初級的人工智能時代,人類仍是核心,是世界的主宰,畢竟自然人仍是規(guī)則的制定者,是人工智能的服務(wù)對象。 而到了高級人工智能時代,即,當(dāng)人工智能能夠進(jìn)入深度學(xué)習(xí)與感情交流,可以進(jìn)行團(tuán)體合作與共同行動時,換句話說,當(dāng)人工智能可以改變甚至完全脫離自然人為其設(shè)計好的初始算法而創(chuàng)制新的算法時,那時的人工智能物便實(shí)實(shí)在在地變成了人工智能人。人工智能人如何改變自然社會,甚至如何引導(dǎo)與影響整個自然社會走向,已非自然人所能完全掌控與想象,恐怕也為人工智能人本身所不知。尤其是,當(dāng)人工智能人可以在虛擬世界制定規(guī)則(創(chuàng)制新的算法),而這種規(guī)則又必然會影響到自然世界時,那時自然世界的主宰到底是人工智能人,還是自然人,或許現(xiàn)在的我們(人類)已經(jīng)難以給出確定答案。那時的人類在自然世界或虛擬世界中處于何種主體地位,現(xiàn)在的我們也不得而知。當(dāng)人工智能人有了情感交流能力并具有生物生成功能后,在自然人與自然人、人工智能人與人工智能人以及自然人與人工智能人之間的多元關(guān)系中,誰來制定規(guī)則,為誰制定規(guī)則,誰是自然世界或者虛擬世界的主宰或規(guī)則主體,以及各種形態(tài)主體之間具體的生活樣態(tài)如何等問題,可能都遠(yuǎn)遠(yuǎn)超出了我們當(dāng)下的想象,或許那時的社會狀態(tài)本身就不可想象! 正是為了認(rèn)真面對這些問題,警惕與體味這些問題,以便未來更好地深入研究或應(yīng)對這些問題,上海人民出版社曹培雷副總編輯、法律與社會讀物編輯中心蘇貽鳴總監(jiān)、秦堃編輯等及本人一起探討決定編譯人工智能叢書,幫助我國讀者了解既有的人工智能研究,并以此為切入口對人工智能進(jìn)行深度了解與學(xué)習(xí)。我們篩選并翻譯了國外有關(guān)人工智能研究的較有影響力的三部經(jīng)典著作,推介給中國讀者。這三部著作便是意大利學(xué)者烏戈·帕加羅所著的《誰為機(jī)器人的行為負(fù)責(zé)?》、美國律師約翰·弗蘭克·韋弗所著的《機(jī)器人是人嗎?》以及美國學(xué)者瑞恩·卡洛、邁克爾·弗魯姆金和加拿大學(xué)者伊恩·克爾編輯的文集《人工智能與法律的對話》。 二 《誰為機(jī)器人的行為負(fù)責(zé)?》一書,由張卉林、王黎黎和筆者共同翻譯。該書通篇都在試圖回答一個問題:誰來承擔(dān)責(zé)任(Who Pays)。作者建構(gòu)了一種分析法律責(zé)任模型。他在刑法、合同法和侵權(quán)法的框架下討論了27種假設(shè)情況,例如刑法中的機(jī)器人士兵、合同法中的外科手術(shù)機(jī)器人以及侵權(quán)法中的人工智能雇員等,目的是分析在不同的情況下設(shè)計者、生產(chǎn)者、使用者和機(jī)器人之間應(yīng)當(dāng)如何分配責(zé)任。作者還討論了機(jī)器人對現(xiàn)代法學(xué)體系中的若干重要內(nèi)容帶來的挑戰(zhàn),比如刑法中的正義戰(zhàn)爭理論、合同法中的代理資格以及侵權(quán)法中的責(zé)任承擔(dān)。上述問題的討論建立在作者對法律責(zé)任和義務(wù)的概念的分析基礎(chǔ)上,討論法律基礎(chǔ)是否會受到機(jī)器人技術(shù)的影響。最后,作者討論了作為元技術(shù)的法律,即如何通過法律實(shí)現(xiàn)對技術(shù)發(fā)展的控制。 《機(jī)器人是人嗎?》一書由劉海安、徐鐵英和向秦翻譯。該書認(rèn)為,人工智能可以達(dá)到如同與真人一樣進(jìn)行語音交流的程度,并自主學(xué)習(xí)知識和判斷問題。作者討論了人工智能的知識產(chǎn)權(quán)享有和責(zé)任承擔(dān)問題。作者認(rèn)為,面對人工智能承擔(dān)法律責(zé)任,可以通過人工智能保險或儲備基金支付賠償費(fèi)用。如何規(guī)范人工智能?作者以美國各州對自動駕駛汽車的相關(guān)立法為例,對未來人工智能統(tǒng)一立法作出合理預(yù)測:(1)當(dāng)產(chǎn)品制造商、開發(fā)商和人類都沒有過錯時,不同體系的機(jī)構(gòu)將會為涉及人工智能的事故受損者建立賠償或補(bǔ)償基金;(2)至少在初期,很多形式的人工智能產(chǎn)品的使用將被要求獲得執(zhí)照許可背書;(3)在初期,往往需要對人工智能進(jìn)行人為監(jiān)督,但是最終,只有那些主要用于改善人類表現(xiàn)的人工智能才需要人為監(jiān)督;(4)盡管最初的立法將會經(jīng)常把人類作為操作者(行為人),即使這種標(biāo)簽不適用于人工智能的類型,但最終立法會在以確定操作者責(zé)任為目的時變得更加細(xì)分;(5)立法將始終區(qū)分用于測試目的的人工智能和向消費(fèi)者提供的人工智能;(6)立法將始終要求這樣一個機(jī)制,允許人類脫離人工智能但很容易重新控制人工智能;(7)立法將始終要求在自動化技術(shù)失敗時,人工智能產(chǎn)品能向周圍的人發(fā)出警告;(9)對采集個人信息的擔(dān)憂將會迫使法律要求披露人工智能運(yùn)作時所收集的信息。 《人工智能與法律的對話》由陳吉棟、董惠敏和杭穎穎翻譯。本書共分討論起點(diǎn)、責(zé)任、社會和道德意義、執(zhí)法和機(jī)器人戰(zhàn)爭5個部分,共14篇論文。其中,大部分是首次在We Robot這一跨學(xué)科會議上發(fā)布的最新論文。這些論文探討了機(jī)器人的日益復(fù)雜化以及它們在各個領(lǐng)域的廣泛部署,重新思考了它所帶來的各種哲學(xué)和公共政策問題、與現(xiàn)有法律制度不兼容之處,以及因此可能引發(fā)的政策和法律上的變化。整本書為我們生動地展現(xiàn)了一場內(nèi)容廣泛、啟發(fā)深遠(yuǎn)的對話,如本書第二部分有關(guān)機(jī)器人行為責(zé)任的講述:F.帕特里克·哈伯德教授《精密機(jī)器人所致人身損害的風(fēng)險分配》一文對普通法應(yīng)對技術(shù)變革的能力提供了一種樂觀的評估:普通法系統(tǒng)包含了內(nèi)部機(jī)制,能夠?yàn)閼?yīng)對機(jī)器人化的世界作出必要的相對較小的變化;而柯蒂斯·E.A.卡諾法官在《運(yùn)用傳統(tǒng)侵權(quán)法理論迎接機(jī)器人智能》一文中則提出了截然相反的觀點(diǎn):傳統(tǒng)的過失和嚴(yán)格責(zé)任理論不足以應(yīng)對真正自主性機(jī)器人的挑戰(zhàn)。 需要說明的一點(diǎn)是,我們從2017年9月確定翻譯書目,10月組建翻譯團(tuán)隊(duì),到12月后陸續(xù)落實(shí)版權(quán)并著手翻譯,翻譯時間可謂十分緊張。叢書譯者多為高;蛘哐芯繖C(jī)構(gòu)的青年科研教學(xué)人員,需要克服繁重的教學(xué)和科研壓力;加之,所譯著作內(nèi)容涉及法律、計算機(jī)和倫理等多元且交叉的學(xué)科知識,遠(yuǎn)遠(yuǎn)超出了多數(shù)譯者所在的法學(xué)學(xué)科領(lǐng)域,翻譯不當(dāng)甚至錯誤恐在所難免,在此我們衷心懇請并接受各位讀者、專家批評指正。 三 2017年7月中華人民共和國國務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,強(qiáng)調(diào)建立保障人工智能健康發(fā)展的法律法規(guī),妥善應(yīng)對人工智能可能帶來的挑戰(zhàn),形成適應(yīng)人工智能發(fā)展的制度安排!兑(guī)劃》為此要求開展與人工智能應(yīng)用相關(guān)的民事與刑事責(zé)任確認(rèn)、隱私和產(chǎn)權(quán)保護(hù)、信息安全利用等法律問題研究,建立追溯和問責(zé)制度,明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任等。但正如弗魯姆金(Froomkin)指出的,也可能是本譯叢三本書的作者們皆認(rèn)可的:(1)對于機(jī)器人和監(jiān)管問題,現(xiàn)在還為時尚早;(2)技術(shù)問題遠(yuǎn)比律師想象的復(fù)雜,法律、倫理和哲學(xué)問題比工程師想象的更有爭議(有時也更復(fù)雜);(3)我們要徹底解決這些問題的唯一辦法就是擴(kuò)大和深化我們跨學(xué)科的努力。讓世界為機(jī)器人做好準(zhǔn)備的同時,使機(jī)器人也為世界做好準(zhǔn)備,這必須是一個團(tuán)隊(duì)項(xiàng)目否則它可能會變得很糟糕。由此揭示出,對于人工智能的探討與研究,即便是對于人工智能的規(guī)范性研究,并非法學(xué)一個學(xué)科所能勝任。人工智能本身就是一個具有綜合性、復(fù)雜性、前沿性的知識、智識與科學(xué),它需要幾乎所有的理工與人文社會科學(xué)學(xué)科進(jìn)行交叉性研究,也需要研究者、實(shí)體技術(shù)者與產(chǎn)業(yè)者等各個領(lǐng)域的人配合與對話。法律人在人工智能的研究、開發(fā)、規(guī)則制定等各個環(huán)節(jié)中是不可缺少的一環(huán),但也僅僅是一個環(huán)節(jié),他只有加入人工智能的整體研究與發(fā)展中去,才會發(fā)揮更大的價值。我們期待這套譯叢的出版有助于人工智能在法學(xué)及其他領(lǐng)域展開深入討論,為跨學(xué)科的對話甚至團(tuán)隊(duì)合作提供一定程度的助益。 無論未來人工智能時代的社會生活樣態(tài)如何,無論人工智能時代的社會主體如何多元,多元的主體依然會形成他們自己的存在哲學(xué),也許依然需要他們自己的情感系統(tǒng)。無論未來的人工智能時代多么不可預(yù)測,問題的關(guān)鍵還是在于人類的自我與社會認(rèn)知。就像蘋果公司首席執(zhí)行官蒂姆·庫克(Tim Cook)在麻省理工學(xué)院(MIT)2017屆畢業(yè)典禮演講中指出的,我并不擔(dān)心人工智能能夠像人一樣思考,我更關(guān)心的是人們像計算機(jī)一樣思考,沒有價值觀,沒有同情心,沒有對結(jié)果的敬畏之心。這就是為什么我們需要你們這樣的畢業(yè)生,來幫助我們控制技術(shù)。是的,我們或許不知未來的人工智能是否會產(chǎn)生包含同情與敬畏的情感,但我們能夠確信的是,即便在人工智能時代,我們最需要的依然是人類飽含同情與敬畏的愛!未來的人工智能時代無論是初級樣態(tài)還是高級學(xué)習(xí)樣態(tài),能夠讓多元的主體存在并和諧相處的,能夠把多元主體維系在一起的或許唯有愛。這個從古至今在自然世界難以找到確定含義的概念,在虛擬與現(xiàn)實(shí)共處的世界中更是難以獲得其固定內(nèi)涵,但我們唯一知道并可以確信的是,如果沒有愛,那么未來的人工智能時代就真的進(jìn)入了一個混沌而混亂的世界! 上海交通大學(xué)凱原法學(xué)院2018年7月10日人工智能與法律的對話前言前言xA.邁克爾·弗魯姆金A.邁克爾·弗魯姆金,美國邁阿密大學(xué)法學(xué)院法學(xué)杰出教授。就像互聯(lián)網(wǎng)一樣,機(jī)器人技術(shù)是一種社會和經(jīng)濟(jì)上的變革性技術(shù)。接下來幾個章節(jié)將探討機(jī)器人的日益復(fù)雜化以及它們在各個領(lǐng)域的廣泛部署,如從家庭到醫(yī)院、公共場所以及戰(zhàn)場,同時需要重新思考它們所帶來的各種哲學(xué)和公共政策問題、與現(xiàn)有法律制度不兼容之處,以及因此可能引發(fā)的政策和法律上的變化。 這些討論是必要且及時的。當(dāng)今與機(jī)器人技術(shù)有關(guān)的法律和政策問題類似于學(xué)者和決策者在萬維網(wǎng)之前對互聯(lián)網(wǎng)的處理。想象一下,如果在互聯(lián)網(wǎng)開始發(fā)展的1980年(第一個互聯(lián)網(wǎng)標(biāo)準(zhǔn)文件RFC 1出現(xiàn)的十多年后),或者在第一個網(wǎng)站上線的1992年,一些跨學(xué)科的學(xué)者試圖研究互聯(lián)網(wǎng)有關(guān)的政策和法律問題。毫無疑問,研究者無法預(yù)見今天我們享受到的互聯(lián)網(wǎng)的所有產(chǎn)物,無論其是好是壞。然而,他們很可能會發(fā)現(xiàn)與域名、商標(biāo)、信息安全、殘疾人使用以及隱私等相關(guān)的重大困難。事實(shí)上,當(dāng)意識到這些問題很重要的時候,機(jī)器人的應(yīng)用基礎(chǔ)已經(jīng)強(qiáng)大到足以改變相關(guān)協(xié)議和應(yīng)用中存在的爭議(例如IPSEC),包括在某些情況下(例如域名)是不切實(shí)際的爭議。 正如后面的章節(jié)所描述的那樣,盡管在考慮機(jī)器人的社會和法律效應(yīng)方面我們?nèi)匀惶幱谠缙陔A段,但我們已經(jīng)可以確定機(jī)器人在社會中廣泛應(yīng)用所帶來的一系列問題。機(jī)器人引發(fā)的問題涉及廣泛的學(xué)科領(lǐng)域,可能不僅影響日常生活和商業(yè)生活的各個方面,而且還會影響戰(zhàn)爭。除此之外,正是問題識別的這一過程揭示了還有多少定義和應(yīng)用工作仍有待完成。以一種有序的方式處理這些問題是一項(xiàng)重大的任務(wù),它需要一種延伸的對話,必須跨越學(xué)科,才能使其真實(shí)有效。 xi關(guān)于什么應(yīng)該算作機(jī)器人,目前仍然沒有定論,這說明我們處于一個十分早期的階段,大多數(shù)人包括本書的所有參與者都會同意,能夠?qū)ν獠看碳ぷ鞒龇磻?yīng)并且不需要直接的或持續(xù)的人類控制就可以采取行動的人造物體就是一個機(jī)器人,盡管有些人可能會爭論并要求一個更廣泛的定義。這種相對狹窄的、可能涵蓋不足的工作定義的三個關(guān)鍵要素是:(1)某種傳感器或輸入機(jī)制,沒有這種機(jī)制就不會有刺激反應(yīng);(2)一些控制算法或其他系統(tǒng)將管理對感測數(shù)據(jù)的響應(yīng);(3)對外部世界產(chǎn)生顯著影響的能力(我最喜歡的定義是一個范圍更窄的版本,因其尖銳性而非準(zhǔn)確性受到重視,它說一個機(jī)器人是帶著電鋸的iPhone)。 這個工作定義允許很大的兼容性。機(jī)器人的尺寸可以是任意大小,從納米機(jī)器人到巨人機(jī)器人,但除了納米機(jī)械可能引發(fā)的特殊問題之外,并不是尺寸讓機(jī)器人變得有趣和存在潛在問題。 機(jī)器人實(shí)例化及其獨(dú)立性有更大的變量,也更為重要。機(jī)器人可以是有形的,也可以是純軟件產(chǎn)品,只要它們從外部世界接收信息輸入,能夠以對主機(jī)程序之外的世界進(jìn)行響應(yīng);軟件當(dāng)然是由算法控制的。機(jī)器人的功能范圍比較靈活;它們的行動和決策自由范圍可能非常狹窄,也可能非常寬泛,甚至可能是無限的。在極端的情況下,人們可以在機(jī)器人裝配線上找到自動機(jī)器。在某些情況下,這些機(jī)器重復(fù)著同樣的事情,并不算作機(jī)器人。但在其他情況下,即使是只能小范圍運(yùn)動或識別范圍較窄的機(jī)器,在技術(shù)上也可能符合上述工作定義:例如,機(jī)器人手臂可能設(shè)計為檢測某一部件流下傳送帶的不同位置,并且可以抓住并固定它。根據(jù)我們的說法,這可能足以將其定性為機(jī)器人,盡管這不是一件很有趣的事情。 在物理性和不可測性方面的另一個極端是米勒(Millar)和克爾(Kerr)所著章節(jié)中所描述的一個運(yùn)行在超級計算機(jī)上的醫(yī)療診斷機(jī)器人程序。它可能收集患者身上的傳感器信息,或者它可能根本沒有傳感器,只是對診斷人員輸入的數(shù)據(jù)作出響應(yīng)。在任何一種情況下,其反應(yīng)都只是文字和數(shù)字,除了建議之外,xii它沒做任何其他的事情,所以它對世界的直接影響盡管廣泛,但是有限的。但它非常獨(dú)立,并且它在巨大數(shù)據(jù)集中發(fā)現(xiàn)相關(guān)性的方法非常難懂,我們可能永遠(yuǎn)無法理解為什么它會作出某種選擇。相反,我們只能衡量它的成功率,將它與人類醫(yī)生進(jìn)行比較,并開始認(rèn)真思考如果或者更確切地說當(dāng)機(jī)器人醫(yī)生開始表現(xiàn)出更高成功率時意味著什么。 盡管如此,人們通常所稱的機(jī)器人超出了上面的工作定義,也超出了這個項(xiàng)目的范圍。被排除在這個工作定義之外的是許多在大眾意識中大量出現(xiàn)的自動機(jī)器。機(jī)器完全由人類遠(yuǎn)程監(jiān)控操作如沃爾多斯(Waldos)包括我們所知的目前部署在戰(zhàn)場的所有軍用無人機(jī)(與繪圖板上的以及可能正在測試的那些不同),它們在某種意義上不是機(jī)器人,因?yàn)樗鼈儾粫䦟Υ碳ぷ鞒龇磻?yīng)。它們無非是沒有機(jī)器人駕駛的傳統(tǒng)機(jī)動車。它們也不是那種能產(chǎn)生我們關(guān)心的有趣問題的機(jī)器人。相反,所謂的半機(jī)器人,即那些通過使用或植入某些技術(shù)而增強(qiáng)身體的人,并不是機(jī)器人,因?yàn)樗麄內(nèi)匀皇侨耍驗(yàn)橥瑯拥脑,駕駛傳統(tǒng)的汽車不能使駕駛員成為機(jī)器人。 盡管如此,即使在最狹隘的意義上,這些設(shè)備可能不被稱為機(jī)器人,但其中一些部分的增強(qiáng)(如機(jī)械義肢),也會引發(fā)與機(jī)器人類似的問題。舉個例子,考慮一下,一條機(jī)械腿被設(shè)計來響應(yīng)甚至是預(yù)見與機(jī)械相連接的人類神經(jīng)的命令。在理想情況下,從用戶的角度來看,行走所需要的有意識的意向?qū)τ跈C(jī)械肢體和正常的肢體來說是沒有區(qū)別的。然而,人們只需要想象一下,如果假體沒有完全調(diào)試好,會發(fā)生什么:肢體的主人被困在一個雞尾酒會上,聽著一次特別無聊和不愉快談話,想象著有人踢他一腳。無意識的沖動沿著神經(jīng)傳遞,遇到機(jī)器人控制器,突然,聚會變得更有趣了。 玩笑歸玩笑,這種半機(jī)器人意外的結(jié)局突出了由具有任何自主度的(至少是非軟件的)機(jī)器人引發(fā)的法律和社會問題與互聯(lián)網(wǎng)所帶來的不同:因?yàn)樗鼈兇嬖谟诂F(xiàn)實(shí)世界中,機(jī)器人可以對世界造成直接的影響。通過設(shè)計,無論是意外還是軍事機(jī)器人,都可能造成實(shí)質(zhì)性損害,傷害甚至殺害人類。xiii機(jī)器人有很大的潛力來承擔(dān)不愉快、困難或無聊的任務(wù),但它們也存在真正的風(fēng)險,需要設(shè)計者和決策者仔細(xì)規(guī)劃。 關(guān)于新技術(shù)在社會、政治、道德和法律方面作用的研究,往往會在該技術(shù)尚處于萌芽階段時遭遇不同尋常的障礙。部署尖端技術(shù)的工業(yè)科學(xué)家傾向于關(guān)注使機(jī)器人工作、將它們推向市場并獲利。他們認(rèn)為,社會政策及法律問題可以忽略或克服。學(xué)術(shù)科學(xué)家可能考慮更廣泛的問題,但他們并不總是接受有關(guān)學(xué)科的訓(xùn)練,無論是社會科學(xué)、哲學(xué)或法律。相反,在這些領(lǐng)域接受過訓(xùn)練的學(xué)者往往缺乏相關(guān)技術(shù)的必要背景,并且往往對相關(guān)文獻(xiàn)不熟悉;可能會發(fā)現(xiàn)自己無法理解。隨著技術(shù)的推廣和普及,這些問題往往會得到解決:當(dāng)該技術(shù)成為主流,會吸引更多人。更重要的是,隨著技術(shù)的發(fā)展,新技術(shù)帶來的新問題變得明顯但到那時圍繞問題改變技術(shù)設(shè)計已經(jīng)太遲了。同樣,潛在的贏家和輸家可能會使政策或技術(shù)的調(diào)整實(shí)施變得比以前更困難。 本書匯集了不同學(xué)者的努力,他們每個人都努力克服這些早期障礙,進(jìn)入并試圖解決機(jī)器人普及所帶來的后果。本書中的大部分貢獻(xiàn)是首次在我們機(jī)器人(We Robot)上發(fā)布的最新論文,我們機(jī)器人始于2012年,是一年一度的跨學(xué)科會議,曾在邁阿密大學(xué)(兩次)、斯坦福大學(xué)和華盛頓大學(xué)舉辦。就像下面章節(jié)的作者一樣,We Robot的參與者們相信,如果要制造出能夠適應(yīng)一切環(huán)境的機(jī)器人,我們還有很多工作要做。如果我們要建造這樣一種法律環(huán)境:一方面,正確平衡需要鼓勵實(shí)驗(yàn)技術(shù)和投資的目的,保護(hù)公共安全,另一方面,平衡機(jī)器人行業(yè)的競爭經(jīng)濟(jì)參與者的需求更不用說考慮工業(yè)機(jī)器人承諾的利益增強(qiáng)或取代,我們面臨著更加艱巨的任務(wù)。 第一部分:起點(diǎn)xiv 本書第一部分是律師尼爾·M.理查茲和機(jī)器人專家威廉·D.斯馬特合作的《法律如何看待機(jī)器人?》,面對越來越多的機(jī)器人在公共空間、家庭、辦公室和醫(yī)院的使用以及面臨的挑戰(zhàn),法律體系將需要決定如何處理相關(guān)問題。目前,我們的法律傾向于認(rèn)為機(jī)器人的行為是由設(shè)計決定的,并把機(jī)器視為使用者的合法延伸。當(dāng)機(jī)器發(fā)生故障時,我們嘗試將責(zé)任分配給適當(dāng)?shù)闹圃焐、設(shè)計者、維護(hù)者或修改者。這些方法都不容易轉(zhuǎn)移到復(fù)雜的機(jī)器人世界,特別是具有任何自動性的機(jī)器人。當(dāng)遇到能夠采取突現(xiàn)行為的機(jī)器人時,對錯誤和產(chǎn)品責(zé)任界定的傳統(tǒng)法律方法也會搖擺不定。制造商、程序員、所有者、用戶和其他可能有意或以其他方式訓(xùn)練機(jī)器人的人之間復(fù)雜的相互關(guān)系,帶來了錯綜復(fù)雜的證據(jù)和理論問題。理查茲教授和斯馬特教授認(rèn)為,我們?nèi)绾螌C(jī)器人概念化,即我們用來理解并與之關(guān)聯(lián)的隱喻將會塑造出工程師設(shè)計機(jī)器人的方式,以及社會(尤其是律師)將如何管理機(jī)器人。作者認(rèn)為,問題在于想象力特別是設(shè)計師和監(jiān)管者的想象力,以及如何更好地將這兩種截然不同的思維方式融合在一起。無論把機(jī)器人看作工具、寵物、仆人還是家庭成員,都會影響對它們的開發(fā)方式以及法律如何認(rèn)識它們。 第二部分:責(zé)任 第二部分講述的主題是機(jī)器人行為的責(zé)任問題。從兩位律師開始,關(guān)于侵權(quán)體系能夠有效應(yīng)對由機(jī)器人引起的法律和社會干擾問題,他們觀點(diǎn)截然相反。一方面,F(xiàn).帕特里克·哈伯德的《精密機(jī)器人所致人身損害的風(fēng)險分配:效率、公平與創(chuàng)新》對普通法應(yīng)對技術(shù)變革的能力提供了一種樂觀的評估。他首先展示了當(dāng)前的學(xué)說如何應(yīng)用于機(jī)器人汽車等各種機(jī)器人的實(shí)用情形,并且表明根據(jù)當(dāng)前學(xué)說,結(jié)果不會偏離我們想要達(dá)到的目標(biāo)。此外,哈伯德教授提醒我們,今天的侵權(quán)法本身就是不斷演變的產(chǎn)物,他認(rèn)為,xv普通法系統(tǒng)包含了內(nèi)部機(jī)制,能夠?yàn)閼?yīng)對機(jī)器人化的世界作出必要的相對較小的變化。因此,他對大多數(shù)旨在促進(jìn)復(fù)雜機(jī)器人創(chuàng)新的當(dāng)代法律改革建議持懷疑態(tài)度。他總結(jié)說,要對一個在企業(yè)家和新設(shè)備支持者以及有權(quán)從傷害中獲得賠償?shù)钠胀癖娭g的沖突利益中已經(jīng)取得平衡的系統(tǒng)做出重大改變,我們必須非常謹(jǐn)慎。 柯蒂斯·E.A.卡諾法官在《運(yùn)用傳統(tǒng)侵權(quán)法理論迎接機(jī)器人智能》中提出了截然相反的觀點(diǎn),部分原因是他專注于最難的案例真正的自動機(jī)器人。在卡諾法官看來,傳統(tǒng)的過失和嚴(yán)格責(zé)任理論和嚴(yán)格賠償責(zé)任不足以應(yīng)對它們的挑戰(zhàn)?ㄖZ法官首先提出了一個關(guān)于機(jī)器人自動意味著什么的工作定義這正是本章最重要的特征。根據(jù)這一定義以及美國侵權(quán)法對可預(yù)見性的定義,卡諾法官認(rèn)定法律制度在假定線性因果關(guān)系方面存在不足之處,可能會導(dǎo)致線性因果關(guān)系,但會遇到更復(fù)雜的與更大環(huán)境相互作用的機(jī)器。他認(rèn)為,機(jī)器人的行為將是非線性的,實(shí)際上是不可預(yù)測的,侵權(quán)制度被用來將大部分責(zé)任分配給那些被認(rèn)為應(yīng)當(dāng)承擔(dān)責(zé)任的人,這是一個旨在將大部分責(zé)任推給那些由于存在合理機(jī)會來控制或預(yù)見風(fēng)險而被認(rèn)為應(yīng)該承擔(dān)責(zé)任的人的侵權(quán)制度,但卻無法勝任這項(xiàng)任務(wù)。侵權(quán)制度需要改變,我們的期望需要改變,并且根據(jù)該章在第一部分引入的一個主題的結(jié)論,機(jī)器人設(shè)計將需要找到一種方法來構(gòu)建具有常識的機(jī)器人,以使他們的行為不會偏離我們的期望。 布萊恩特·沃克史密斯的《律師與工程師應(yīng)當(dāng)使用相同的機(jī)器人語言》也解決了有關(guān)法律與機(jī)器人相遇的概念性主題,這次伴隨著從為無人駕駛汽車制定規(guī)則和標(biāo)準(zhǔn)的新嘗試中得到的經(jīng)驗(yàn)。概念部分認(rèn)為,對于工程師或律師而言,將機(jī)器人與其所屬的較大系統(tǒng)隔離開來是錯誤的。許多機(jī)器人正在或?qū)⒁辉O(shè)計為與其他機(jī)器、云以及最主要的人類進(jìn)行交互。設(shè)計和規(guī)則必須考慮到這種嵌入性。然而,認(rèn)識到機(jī)器人是系統(tǒng)的一部分,反過來又產(chǎn)生了一個新問題,即定義相關(guān)系統(tǒng)邊界。使問題適當(dāng)復(fù)雜化后,史密斯教授向我們展示了實(shí)際行業(yè)標(biāo)準(zhǔn)以及與自主機(jī)動車有關(guān)的擬議或?qū)嶋H規(guī)范性文件,特別是從系統(tǒng)分析的角度來看,發(fā)現(xiàn)了嚴(yán)重的概念和術(shù)語不一致性。他總結(jié)說,xvi避免這種混淆及對駕駛者和第三方造成的實(shí)際風(fēng)險的最好方法是工程師和律師更多地交流,以便他們能夠建立關(guān)于機(jī)器人的共同語言。 我們對責(zé)任問題的討論以杰森·米勒和伊恩·克爾的《委托、讓渡與法律責(zé)任:專家機(jī)器人的前景》作為結(jié)束。這里的問題是什么時候依賴機(jī)器人專家才是恰當(dāng)合理的。作者首先關(guān)注IBM的沃森[這是深度問題解答機(jī)器人,擊敗了兩位歷史上的《危機(jī)邊緣》(Jeopardy)冠軍],這個系統(tǒng)現(xiàn)在正在作為機(jī)器人診斷專家接受測試。如果研究表明這些機(jī)器人基于大數(shù)據(jù)相關(guān)性診斷的方法比面對同一患者基于邏輯的人類診斷表現(xiàn)更好,那么會發(fā)生什么?機(jī)器人可能會成為首選專家,這迫使我們質(zhì)疑人類是否有責(zé)任將諸如醫(yī)療診斷和駕駛等任務(wù)授權(quán)給專家機(jī)器人。通過探索專業(yè)知識和基于證據(jù)的決策的觀點(diǎn),即認(rèn)為產(chǎn)生最有利結(jié)果的行動是最合理的觀點(diǎn),作者提出了各種法律和道德方法來確定這些先進(jìn)系統(tǒng)出現(xiàn)錯誤時,以及當(dāng)人們不能像他們想象的那樣依賴機(jī)器人時的責(zé)任。 第三部分:社會倫理意義
彭誠信,2002年獲吉林大學(xué)法學(xué)院法律學(xué)博士學(xué)位。1994年7月起在吉林大學(xué)法學(xué)院任教,1998年12月任講師;2001年9月任副教授,2004年12月任教授;2005年9月起任民商法學(xué)博士生導(dǎo)師,F(xiàn)任民法學(xué)教研部主任。2007年起,受聘為寧波大學(xué)"甬江學(xué)者"特聘教授。
主編序/1 前言/1 第一部分起點(diǎn) 第一章法律如何看待機(jī)器人 一、 什么是機(jī)器人/5 二、 機(jī)器人可以做什么?/7 三、 機(jī)器人法和網(wǎng)絡(luò)法/11 四、 隱喻的重要性/15 五、 人形機(jī)器人(android)陷阱/17 六、 并發(fā)癥:解圍之神/20 七、 結(jié)論與最后的思考/20 第二部分責(zé)任 第二章精密機(jī)器人所致人身損害的風(fēng)險分配: 效率、公平與創(chuàng)新 一、 精密機(jī)器人/30 二、 責(zé)任和產(chǎn)品安全/31 三、 產(chǎn)品責(zé)任和精密機(jī)器人汽車/41 四、 關(guān)于基本變化的建議/43 五、 結(jié)論/48 第三章運(yùn)用傳統(tǒng)侵權(quán)法理論迎接機(jī)器人智能 一、 引言/54 二、 機(jī)器人與自動性/55 三、 法律/61 四、 未來人與機(jī)器智能間的互惠適應(yīng)/70 第四章律師與工程師應(yīng)當(dāng)使用 相同的機(jī)器人語言 一、 引言/82 二、 系統(tǒng)/83 三、 語言/86 四、 使用/90 五、 使用者/95 六、 結(jié)論/99 第五章委托、讓渡與法律責(zé)任: 專家機(jī)器人的前景 一、 引言/107 二、 機(jī)器人有哪些類型?/110 三、 設(shè)計的不可預(yù)測性/112 四、 專家機(jī)器人?/113 五、 將機(jī)器人稱為專家能獲得什么?/117 六、 規(guī)范性的證據(jù)推理/119 七、 人類與機(jī)器人的分歧/120 八、 機(jī)器人人類專家分歧的案例/122 九、 法律責(zé)任/126 十、 結(jié)論/128 第三部分社會倫理意義 第六章開放式機(jī)器人倫理倡議與 乘坐電梯的機(jī)器人 一、 背景/137 二、 開放式機(jī)器人倫理倡議/144 三、 坐電梯的機(jī)器人/150 四、 結(jié)語/158 致謝/159 第七章以充分的和具有選擇性的開放式許可限制與 開放式機(jī)器人相關(guān)的責(zé)任和道德問題的應(yīng)用 一、 采用具有充分開放性模型的障礙:架構(gòu), 可預(yù)見性和責(zé)任矩陣/169 二、 克服障礙的潛在解決方案/170 三、 從關(guān)于機(jī)器人的憂慮中得到的道德許可/173 四、 建議的許可框架/178 五、 結(jié)語/183 第八章同意的機(jī)器人化 一、 從神話到Gynoid/190 二、 從gynoid到性機(jī)器人/193 三、 社會危害與淫穢色情/196 四、 對同意的侵蝕/200 五、 未來的考慮/205 六、 結(jié)論/207 第九章擴(kuò)大對社會機(jī)器人的法律保護(hù): 擬人化,移情和暴力行為對機(jī)器人對象的影響 一、 社會機(jī)器人是什么?/218 二、 機(jī)器人VS.烤面包機(jī):投射我們的情緒/219 三、 關(guān)于機(jī)器人情感依戀的問題/222 四、 擴(kuò)大對機(jī)器人對象的法律保護(hù)/226 五、 對財產(chǎn)權(quán)的說明/229 六、 我們應(yīng)該從什么時候開始保護(hù)機(jī)器人?/230 第四部分執(zhí)法 第十章迎接自動化執(zhí)法 一、 自動化執(zhí)法的概念化/241 二、 自動化功能的分類/243 三、 迎接自動化執(zhí)法時的必要問題/252 四、 小結(jié)/265 第十一章機(jī)器人歡迎電子法嗎?一個法律內(nèi)部的算法實(shí)驗(yàn) 一、 背景/278 二、 法律編碼化實(shí)驗(yàn)/280 三、 小結(jié)和未來工作/301 附錄A法律編碼任務(wù)/303 附錄B設(shè)計說明書/304 第十二章機(jī)器人審訊的合憲性審查 一、 何謂機(jī)器人審訊員?/312 二、 潛在的法律影響/317 三、 建議和小結(jié)/323 第五部分戰(zhàn)爭 第十三章玩忽職守?殺手機(jī)器人如何成為軍事力量的倍增器 一、 機(jī)器人戰(zhàn)爭/337 二、 關(guān)于致命性自主機(jī)器人的案例/339 三、 國際人道法的規(guī)范/340 四、 技術(shù)中立/344 五、 自殺式機(jī)器人與《國際人道法》/351 六、 國際人道主義夢游?/358 第十四章生存權(quán)(Jus nascendi)、機(jī)器人武器和馬爾頓斯條款 一、 生存權(quán)在國際人道法中的地位/372 二、 馬爾頓斯條款/373 三、 一個新興原則有意義的人類控制/376 四、 結(jié)論/384 索引/389 譯后記/403
你還可能感興趣
我要評論
|