熱門文章
相關(guān)文章
- 1深圳入選中國(guó)首批13個(gè)交通強(qiáng)國(guó)
- 2智慧城市如何改變生活?
- 3堅(jiān)持法治引領(lǐng)交通強(qiáng)國(guó)建設(shè)
- 4四大領(lǐng)域22項(xiàng)任務(wù)試點(diǎn)交通強(qiáng)國(guó)
- 5日本東京大學(xué)攜手軟銀打造人工智
- 6工信部副部長(zhǎng):開展5G區(qū)塊鏈等
- 7工信部趙志國(guó):今年中國(guó)網(wǎng)絡(luò)安全
- 8交通部開展第二批交通強(qiáng)國(guó)建設(shè)試
- 9治理“城市病”,如何對(duì)癥下藥?
- 10城市精細(xì)化治理不能忽視的關(guān)鍵點(diǎn)
人工智能立法規(guī)范發(fā)展
發(fā)布時(shí)間:2019-07-03 分類:趨勢(shì)研究
孫佑海:天津大學(xué)法學(xué)院院長(zhǎng)
高紹林:北京大學(xué)法律與人工智能研究中心專家顧問(wèn)、天津市人大法制委員會(huì)原主任委員
張宜云:天津市人大立法研究所助理研究員
萬(wàn) 勇:中國(guó)人民大學(xué)法學(xué)院教授、國(guó)家版權(quán)局國(guó)際版權(quán)研究基地研究員
曹建峰:騰訊研究院高級(jí)研究員
鄧煜坤:上海厚勢(shì)汽車CEO
導(dǎo)讀
機(jī)器翻譯、語(yǔ)音識(shí)別、智能家居、無(wú)人駕駛……隨著人工智能技術(shù)的不斷發(fā)展成熟,其正在越來(lái)越深度地介入人們的生活,相關(guān)的風(fēng)險(xiǎn)也開始不斷暴露。人工智能是否亟須立法規(guī)制?如進(jìn)行規(guī)制又該秉承什么原則?不同細(xì)分應(yīng)用領(lǐng)域的規(guī)制重點(diǎn)又該如何把握?本期“聲音版”邀請(qǐng)相關(guān)法律專家、行業(yè)從業(yè)者一道進(jìn)行探討,敬請(qǐng)讀者關(guān)注。
有效應(yīng)對(duì)新型風(fēng)險(xiǎn)必須加快立法進(jìn)程
□ 孫佑海
2018年9月,第十三屆全國(guó)人大常委會(huì)向社會(huì)公布本屆全國(guó)人大立法計(jì)劃,人工智能立法列入其中,這是人工智能領(lǐng)域具有重大歷史意義的標(biāo)志性事件。在當(dāng)代人工智能飛速發(fā)展的新形勢(shì)下,我們既要認(rèn)清新一代人工智能技術(shù)是時(shí)代之需、發(fā)展之要、民生之盼,也要看到因技術(shù)短板、監(jiān)管不力、應(yīng)用失范等因素而引發(fā)的潛在風(fēng)險(xiǎn)及對(duì)社會(huì)帶來(lái)的實(shí)際危害。唯有未雨綢繆地找準(zhǔn)、判明人工智能發(fā)展帶來(lái)的風(fēng)險(xiǎn)點(diǎn),并及時(shí)采取法律應(yīng)對(duì)措施,才能在搶抓戰(zhàn)略機(jī)遇的同時(shí),適時(shí)化危為機(jī),確保社會(huì)規(guī)范有序。
人工智能可能帶來(lái)的法律風(fēng)險(xiǎn),主要有四個(gè)方面:一是利用人工智能危害社會(huì),造成刑事犯罪的風(fēng)險(xiǎn)。以無(wú)人機(jī)為例,隨著科技進(jìn)步,智能無(wú)人機(jī)技術(shù)越來(lái)越先進(jìn),應(yīng)用越來(lái)越普及,也給國(guó)家安全、公共安全和個(gè)人安全帶來(lái)嚴(yán)重威脅。近年來(lái),無(wú)人機(jī)頻繁闖入各地機(jī)場(chǎng)凈空區(qū),多次造成航班晚點(diǎn),甚至對(duì)航空飛行安全構(gòu)成了威脅。2014年,我國(guó)北方某地就發(fā)生了一次無(wú)人機(jī)威脅飛行安全事件;2017年2月2日和3日兩天內(nèi),我國(guó)南方某機(jī)場(chǎng)竟發(fā)生4起無(wú)人機(jī)非法飛行事件。僅隔一天,鄰近城市的機(jī)場(chǎng)又發(fā)生兩起無(wú)人機(jī)闖入機(jī)場(chǎng)凈空保護(hù)區(qū)事件,無(wú)人機(jī)甚至直接飛入機(jī)場(chǎng)的跑道區(qū)域。以上,對(duì)于觸犯刑律的,應(yīng)當(dāng)承擔(dān)刑事責(zé)任,而相應(yīng)的法律應(yīng)當(dāng)抓緊完善。還有一些“擒拿格斗機(jī)器人”產(chǎn)品,因其具有高度自主性,可以自行對(duì)目標(biāo)進(jìn)行攻擊,一旦程序出錯(cuò)失控,則很可能向人群進(jìn)攻,成為人類公共安全的重大隱患。這都需要通過(guò)立法進(jìn)行規(guī)制。
二是因開發(fā)利用人工智能,引發(fā)民事糾紛,客觀上需要人工智能立法確定承擔(dān)民事責(zé)任的邊界。例如,隨著人工智能的普及,人工智能創(chuàng)作物的知識(shí)產(chǎn)權(quán)歸屬問(wèn)題如何確定,目前已有相關(guān)案例。傳統(tǒng)著作權(quán)法理論認(rèn)為,作品是作者人格的體現(xiàn),只有自然人才能創(chuàng)作作品。但動(dòng)物和機(jī)器,無(wú)論何時(shí)都不能成為作者,即使其創(chuàng)作物具備了作品的特征。而現(xiàn)在,人工智能創(chuàng)作物向這一理論發(fā)起了挑戰(zhàn)。此外,自動(dòng)駕駛汽車的安全性問(wèn)題已經(jīng)引起了廣泛關(guān)注,從自動(dòng)駕駛汽車的生產(chǎn)資質(zhì)、上路許可,到發(fā)生事故后的責(zé)任分擔(dān),當(dāng)前法律均處于空白狀態(tài)。因此,因人工智能汽車自動(dòng)駕駛引發(fā)的交通事故,迫切需要通過(guò)立法,為明確責(zé)任、解決糾紛提供有效的法律依據(jù)。
三是因開發(fā)利用人工智能,違反行政管理規(guī)范,需要有關(guān)行政管理機(jī)關(guān)對(duì)違法的管理相對(duì)人進(jìn)行行政處罰。例如,開發(fā)利用人工智能,在一定情形下需要行政許可,否則就要擔(dān)責(zé)。這些具體的情形就需要以法律法規(guī)的形式作出規(guī)范,這是立法任務(wù)。與此相對(duì)應(yīng),對(duì)于有關(guān)行政管理機(jī)關(guān)不作為和濫作為的情形,公民、法人和有關(guān)組織可以依法提起行政訴訟,這些也需要依法作出規(guī)范。
四是因開發(fā)利用人工智能,造成嚴(yán)重?fù)p害消費(fèi)者合法權(quán)益和社會(huì)公共利益的情形,應(yīng)當(dāng)依法提起公益訴訟。但由于人工智能的開發(fā)利用對(duì)于社會(huì)公共利益的損害,有其新穎性和特殊性,人類應(yīng)對(duì)的措施必然有所不同,因而必然也會(huì)對(duì)人工智能的立法提出新要求,這同時(shí)也增加了人工智能立法的難度。
為了解決人工智能發(fā)展帶來(lái)的新矛盾、新問(wèn)題,必須未雨綢繆,加快研究人工智能的有關(guān)法律法規(guī)。一是,適時(shí)安排宏觀立法。人工智能的發(fā)展離不開一部反映時(shí)代需求的人工智能法以及配套法規(guī)組成的法律法規(guī)體系。人工智能法總體上屬于行政法的范疇?,F(xiàn)階段正處在人工智能技術(shù)的高速發(fā)展期,因此立法不能過(guò)細(xì),但應(yīng)當(dāng)制定必要的原則框架,以保障法律的實(shí)施能落地。
二是明確近期立法工作重點(diǎn)。當(dāng)前,針對(duì)人工智能的具體應(yīng)用進(jìn)行專門立法,是較為務(wù)實(shí)的立法思路。建議國(guó)務(wù)院或有關(guān)部門優(yōu)先對(duì)自動(dòng)駕駛、圖像識(shí)別、無(wú)人機(jī)管控等相對(duì)成熟的技術(shù)應(yīng)用行為制定法規(guī)或規(guī)章,規(guī)范社會(huì)管理秩序。
三是做好司法解釋。對(duì)于立法工作一時(shí)跟不上,而實(shí)際案件又不斷涌現(xiàn)的人工智能應(yīng)用領(lǐng)域,建議通過(guò)司法解釋的辦法化解糾紛,并為立法工作贏得時(shí)間和經(jīng)驗(yàn)。如在民事案件處理中,建議著力解決好人工智能生成內(nèi)容的權(quán)利歸屬、人工智能損害后果的責(zé)任分擔(dān)問(wèn)題;在刑事案件中,建議著力解決人工智能相關(guān)犯罪行為的定性和量刑幅度;在知產(chǎn)案件中,建議著力解決對(duì)算法、芯片等核心技術(shù)仿冒、侵權(quán)行為的責(zé)任歸屬和賠償標(biāo)準(zhǔn)等問(wèn)題。
弱人工智能時(shí)代立法尚無(wú)基礎(chǔ)和條件
□ 高紹林 張宜云
隨著互聯(lián)網(wǎng)、大數(shù)據(jù)、云計(jì)算的發(fā)展,特別是隨著5G技術(shù)落地應(yīng)用,人工智能必將以前所未有的速度向前發(fā)展。人工智能的發(fā)展,一方面可以造福人類,單就法律領(lǐng)域來(lái)講,人工智能給法律工作賦予了新的動(dòng)能,立法、執(zhí)法、司法、普法、法律服務(wù)都可以借助人工智能技術(shù)極大提高工作效率與質(zhì)量。另一方面,人工智能也帶來(lái)許多新的挑戰(zhàn),如果長(zhǎng)期缺乏規(guī)制,可能會(huì)產(chǎn)生一定的災(zāi)難性后果。比如,無(wú)人駕駛、無(wú)人機(jī)技術(shù)可能會(huì)給殺人、走私、販毒等犯罪行為提供便利;人工智能程序中的漏洞,可能被惡意利用,產(chǎn)生嚴(yán)重社會(huì)安全風(fēng)險(xiǎn);人工智能的設(shè)計(jì)者、應(yīng)用者可能突破倫理底線設(shè)計(jì)、使用人工智能以及數(shù)據(jù)泄露、算法歧視等。因此,有必要對(duì)人工智能發(fā)展進(jìn)行立法規(guī)制,引導(dǎo)、規(guī)范人工智能健康發(fā)展。
在人工智能的立法規(guī)制上,有觀點(diǎn)認(rèn)為,亟須出臺(tái)專門的人工智能法,筆者認(rèn)為,當(dāng)前人工智能總體上還處于弱人工智能時(shí)代,主要集中于語(yǔ)音識(shí)別、自動(dòng)翻譯、語(yǔ)音合成、圖像識(shí)別、自動(dòng)駕駛、工業(yè)機(jī)器人、聊天機(jī)器人等具體領(lǐng)域,短期內(nèi)不可能出現(xiàn)“通用人工智能”。因此,尚不具備制定完整人工智能法律制度的實(shí)踐基礎(chǔ)和客觀條件。
馬克思在《論離婚法草案》中有一句名言:“立法者應(yīng)該把自己看作一個(gè)自然科學(xué)家,他不是在制造法律,不是在發(fā)明法律,而僅僅是在表述法律,他把精神關(guān)系的內(nèi)在規(guī)律表現(xiàn)在有意識(shí)的現(xiàn)行法律之中。如果,一個(gè)立法者用自己的臆想來(lái)代替事情的本質(zhì),那么我們就應(yīng)該責(zé)備他極端任性?!睂?duì)于一個(gè)新興領(lǐng)域進(jìn)行專門立法規(guī)制,一般需要三個(gè)條件:一是社會(huì)產(chǎn)生了對(duì)這一新興領(lǐng)域進(jìn)行立法規(guī)制的現(xiàn)實(shí)需求;二是在現(xiàn)行法律法規(guī)框架內(nèi)無(wú)法實(shí)現(xiàn)對(duì)其進(jìn)行必要調(diào)整;三是立法者能夠認(rèn)清和把握其內(nèi)在的客觀規(guī)律。
從人工智能現(xiàn)階段發(fā)展水平來(lái)看,無(wú)論是數(shù)據(jù)、算法、算力,還是應(yīng)用場(chǎng)景,基本上還處于探索性、試驗(yàn)性階段,我們還缺乏對(duì)其基本規(guī)律的研究與認(rèn)識(shí)。在這種情況下,制定一部完整的人工智能法是不現(xiàn)實(shí)的。最現(xiàn)實(shí)的選擇是堅(jiān)持趨利避害的底線思維,根據(jù)人工智能發(fā)展的現(xiàn)實(shí)需要,對(duì)現(xiàn)行法律制度進(jìn)行必要的修改、補(bǔ)充。
而為了保障和促進(jìn)人工智能健康發(fā)展,對(duì)人工智能進(jìn)行立法規(guī)制應(yīng)堅(jiān)持以下原則:一是以人為本原則。確保人工智能發(fā)展能夠增加人類福祉,保障人的尊嚴(yán)、自由和人身財(cái)產(chǎn)安全。二是發(fā)展與安全平衡原則。處理好促進(jìn)人工智能發(fā)展與保證社會(huì)安全之間的關(guān)系,二者不可偏廢。三是政府干預(yù)適度原則。人工智能開發(fā)與應(yīng)用只要不與法律法規(guī)相抵觸,不危害公序良俗,政府就不要過(guò)度干預(yù)。四是倫理底線控制原則。明確人工智能在安全、隱私、公平、公正等方面的倫理底線。五是風(fēng)險(xiǎn)容忍度原則。人工智能發(fā)展具有很強(qiáng)的探索性,即使是相對(duì)成熟的應(yīng)用,也還有相當(dāng)?shù)牟淮_定性,要適當(dāng)容忍其試錯(cuò)。六是多層級(jí)立法共進(jìn)互補(bǔ)原則。在中國(guó)特色社會(huì)主義法律體系框架內(nèi),發(fā)揮統(tǒng)一、多層次的立法體制優(yōu)勢(shì),從法律、行政法規(guī)、地方性法規(guī)等多個(gè)層次對(duì)人工智能進(jìn)行立法規(guī)制。
從人工智能發(fā)展態(tài)勢(shì)看,當(dāng)前需要著手進(jìn)行的立法項(xiàng)目,首先是全國(guó)人大及其常委會(huì)立法,包括在編纂民法典中,明確人工智能相關(guān)的民事基礎(chǔ)制度;制定數(shù)據(jù)安全法,對(duì)人工智能時(shí)代的數(shù)據(jù)安全和信息保護(hù)作出規(guī)定;制定電信法,為人工智能發(fā)展提供良好的公共網(wǎng)絡(luò)基礎(chǔ)設(shè)施環(huán)境;修改道路交通安全法,對(duì)無(wú)人駕駛汽車作出規(guī)定;修改著作權(quán)法、專利法,對(duì)人工智能知識(shí)產(chǎn)權(quán)相關(guān)問(wèn)題作出規(guī)定;適時(shí)出臺(tái)刑法修正案,對(duì)人工智能涉及的犯罪作出規(guī)定。
其次是國(guó)務(wù)院制定行政法規(guī),包括制定網(wǎng)絡(luò)安全法實(shí)施條例、機(jī)器人使用安全管理?xiàng)l例、人工智能基礎(chǔ)設(shè)施管理?xiàng)l例、智能網(wǎng)聯(lián)汽車管理?xiàng)l例、人工智能輔助醫(yī)療診斷與治療管理?xiàng)l例、修改計(jì)算機(jī)軟件保護(hù)條例等。
同時(shí),人工智能產(chǎn)業(yè)發(fā)展的優(yōu)勢(shì)地區(qū)也可以加強(qiáng)地方立法,重點(diǎn)是制定促進(jìn)人工智能產(chǎn)業(yè)發(fā)展的地方性法規(guī),包括鼓勵(lì)人工智能產(chǎn)業(yè)發(fā)展,促進(jìn)人工智能在政務(wù)、財(cái)稅、制造等領(lǐng)域應(yīng)用,人工智能涉及的消費(fèi)者權(quán)益保護(hù)、人力資源與社會(huì)保障等。
總之,隨著人工智能快速發(fā)展,需要更多的法學(xué)家關(guān)注其法律問(wèn)題,盡快構(gòu)建人工智能倫理體系以及相關(guān)法學(xué)理論體系,為人工智能法律規(guī)制提供理論基礎(chǔ)。同時(shí),立法機(jī)關(guān)要更多關(guān)注人工智能的立法規(guī)制問(wèn)題,發(fā)揮立法的引領(lǐng)與推動(dòng)作用,盡早將人工智能立法規(guī)制的相關(guān)立法項(xiàng)目提上議事日程,為人工智能的健康發(fā)展創(chuàng)造良好的法治環(huán)境。
人工智能生成物可否構(gòu)成作品
□ 萬(wàn) 勇
2017年5月,微軟“小冰”創(chuàng)作的詩(shī)集《陽(yáng)光失了玻璃窗》正式出版、谷歌開發(fā)的人工智能DeepDream可以生成繪畫,且所生成的畫作已經(jīng)成功拍賣……從外觀形式來(lái)看,由人工智能創(chuàng)作的成果與人類創(chuàng)作的成果沒(méi)有任何區(qū)別,且很難被察覺并非由人類所作??梢哉f(shuō),與以往技術(shù)創(chuàng)新相比,人工智能技術(shù)對(duì)著作權(quán)法提出的挑戰(zhàn)是最根本,也是最全面的。
今年4月,北京互聯(lián)網(wǎng)法院對(duì)國(guó)內(nèi)首例人工智能作品爭(zhēng)議案作出了一審判決,為理論探討提供了新鮮的實(shí)踐素材。對(duì)于主體資格問(wèn)題,法院認(rèn)為,盡管隨著科學(xué)技術(shù)的發(fā)展,人工智能生成物在內(nèi)容、形態(tài),甚至表達(dá)方式上日趨接近自然人,但根據(jù)現(xiàn)實(shí)的科技及產(chǎn)業(yè)發(fā)展水平,尚不宜在法律主體方面予以突破。不過(guò),法院也認(rèn)為,應(yīng)給予人工智能生成物以一定的法律保護(hù),因?yàn)槠渚邆鋫鞑r(jià)值。
筆者認(rèn)為,對(duì)于人工智能生成物的著作權(quán)定性這一極具爭(zhēng)議的問(wèn)題,作為社會(huì)穩(wěn)定器的法院采取相對(duì)保守、平衡的立場(chǎng),是合適的。需要指出的是,如果人工智能生成物不被承認(rèn)是作品,相關(guān)主體出于利益最大化的考量,很有可能會(huì)隱瞞相關(guān)成果是人工智能創(chuàng)作的事實(shí)。這樣導(dǎo)致的后果其實(shí)就是迫使人們“為惡”,即通過(guò)弄虛作假來(lái)規(guī)避法律,因?yàn)閺耐庥^上無(wú)法識(shí)別,人工智能生成物最終仍然會(huì)獲得著作權(quán)法的保護(hù)。與其堵還不如疏,這種理念也應(yīng)適用于人工智能生成物的法律規(guī)制領(lǐng)域。
目前,有的國(guó)家已積累了一些經(jīng)驗(yàn)。如英國(guó)《1988年版權(quán)、外觀設(shè)計(jì)和專利法案》規(guī)定,對(duì)于計(jì)算機(jī)生成的文字、戲劇、音樂(lè)或藝術(shù)作品而言,作者應(yīng)是對(duì)該作品的創(chuàng)作進(jìn)行必要安排的人。由于這一條款具有一定的開放性,也賦予了法院較大的自由裁量權(quán),對(duì)有效保護(hù)人工智能生成物的著作權(quán)發(fā)揮了積極作用,我國(guó)立法也可予以借鑒。
算法治理應(yīng)包容審慎敏捷靈活
□ 曹建峰
隨著人工智能技術(shù)的不斷發(fā)展,數(shù)據(jù)和算法的結(jié)合開始對(duì)我們的生產(chǎn)生活產(chǎn)生廣泛影響,從信息的個(gè)性化傳播到金融、雇傭、司法等領(lǐng)域的自動(dòng)化決策再到自動(dòng)駕駛汽車等等。
但算法的應(yīng)用在給人們生活帶來(lái)便利的同時(shí),也帶來(lái)一系列法律、倫理與社會(huì)問(wèn)題,諸如算法歧視、責(zé)任、安全、濫用、深度偽造等。國(guó)際社會(huì)開始呼吁建立算法治理,實(shí)現(xiàn)算法透明與問(wèn)責(zé)。對(duì)此需要考慮以下幾個(gè)方面的問(wèn)題:
第一,算法實(shí)際上是一個(gè)非常廣義的概念,所謂的算法治理是針對(duì)機(jī)器學(xué)習(xí)等人工智能算法在特定領(lǐng)域的應(yīng)用,所以明確概念是算法治理的起點(diǎn)。
第二,算法治理需要包容審慎、敏捷靈活的思路,技術(shù)和商業(yè)模式快速迭代,草率立法不可能期待會(huì)產(chǎn)生正面效果,而且成文或?qū)iT立法恐難跟上技術(shù)發(fā)展步伐,所以應(yīng)避免嚴(yán)格、細(xì)致的法律要求,而是采取事后監(jiān)管或者通過(guò)出臺(tái)標(biāo)準(zhǔn)、行業(yè)公約、倫理框架、最佳實(shí)踐、技術(shù)指南等方式調(diào)整算法應(yīng)用,支持行業(yè)自律。
第三,算法透明不是對(duì)算法的每一個(gè)步驟、技術(shù)原理和實(shí)現(xiàn)細(xì)節(jié)進(jìn)行解釋,簡(jiǎn)單公開算法系統(tǒng)的源代碼也不能提供有效的透明度,反倒可能威脅數(shù)據(jù)隱私或影響算法安全應(yīng)用。相反,在算法系統(tǒng)的行為和決策上實(shí)現(xiàn)有效透明將更可取,也能提供顯著的效益。如歐盟《一般數(shù)據(jù)保護(hù)條例》(GDPR)并沒(méi)有要求對(duì)特定自動(dòng)化決策進(jìn)行解釋,而僅要求提供關(guān)于內(nèi)在邏輯的有意義的信息,并解釋自動(dòng)化決策的重要性和預(yù)想的后果。
第四,算法治理需要分級(jí)分類的監(jiān)管機(jī)制,例如歐盟、加拿大等呼吁針對(duì)政府和社會(huì)公共部門使用的算法系統(tǒng)進(jìn)行嚴(yán)監(jiān)管,包括建立“算法影響評(píng)估”機(jī)制;對(duì)于商業(yè)領(lǐng)域的算法系統(tǒng)則更多采取事后追究法律責(zé)任的機(jī)制,以免過(guò)度監(jiān)管影響技術(shù)創(chuàng)新。
因此,我們看到社會(huì)各界在以倫理的方式推動(dòng)算法治理。國(guó)際層面,歐盟、OECD、G20等都提出了人工智能原則,力爭(zhēng)在國(guó)際上達(dá)成共識(shí);行業(yè)層面,谷歌、微軟、騰訊等都提出了各自的人工智能倫理原則,積極承擔(dān)倫理責(zé)任,踐行科技向善,避免算法被不當(dāng)利用或?yàn)E用。展望未來(lái),我們還需要通過(guò)廣泛社會(huì)參與和跨學(xué)科研究評(píng)估的方式來(lái)實(shí)現(xiàn)對(duì)算法應(yīng)用的良好治理。
規(guī)制自動(dòng)駕駛的天花板應(yīng)予以抬升
□ 鄧煜坤
對(duì)于自動(dòng)駕駛這一新生事物,立法要密切關(guān)注跟蹤其發(fā)展動(dòng)態(tài),然后再適當(dāng)立法,且早期立法應(yīng)以鼓勵(lì)為主。就目前中國(guó)自動(dòng)駕駛發(fā)展?fàn)顩r而言,一些城市已出臺(tái)相關(guān)法規(guī)政策,允許自動(dòng)駕駛汽車可在城市低速道路上進(jìn)行路測(cè),但仍有很多規(guī)定嚴(yán)重妨礙中國(guó)自動(dòng)駕駛發(fā)展,如自動(dòng)駕駛汽車不能進(jìn)入高速公路測(cè)試,為此很多中國(guó)企業(yè)只能舍近求遠(yuǎn)前往美國(guó)進(jìn)行高速路測(cè),因?yàn)槊绹?guó)有相關(guān)法律支持。而如果不能在多種場(chǎng)景、更為復(fù)雜的路面上進(jìn)行測(cè)試,那么自動(dòng)駕駛技術(shù)和相關(guān)算法模型就難以快速成熟起來(lái)。作為從業(yè)者,希望現(xiàn)在的法律規(guī)制天花板往上抬一抬。當(dāng)然在此過(guò)程中肯定會(huì)出現(xiàn)一些問(wèn)題,但關(guān)鍵在于如何界定各方責(zé)任,促使企業(yè)將出現(xiàn)問(wèn)題的幾率降低,而不是一味限制。如果過(guò)度強(qiáng)調(diào)絕對(duì)不能出問(wèn)題,那也就意味著自動(dòng)駕駛絕對(duì)發(fā)展不起來(lái)。
在通過(guò)法律政策推進(jìn)自動(dòng)駕駛技術(shù)發(fā)展的同時(shí),也要密切關(guān)注行業(yè)的發(fā)展,如果發(fā)現(xiàn)可能會(huì)給人類帶來(lái)極端破壞的情形,也要盡快制定法律法規(guī)進(jìn)行規(guī)制。以其他行業(yè)為例,如2018年被爆出的基因編輯嬰兒事件,就是一起非常可怕的案例,對(duì)于技術(shù)革新帶來(lái)的這種極其負(fù)面的事件,就應(yīng)當(dāng)盡快進(jìn)行立法明確法律紅線。不過(guò)就目前自動(dòng)駕駛領(lǐng)域的人工智能技術(shù)而言,尚沒(méi)有發(fā)現(xiàn)會(huì)給人類帶來(lái)潛在巨大危害的風(fēng)險(xiǎn)。