熱門文章
構(gòu)建新一代人工智能準則
發(fā)布時間:2019-01-24 分類:趨勢研究
作者:曾毅(中國科學(xué)院自動化研究所類腦智能研究中心研究員、副主任)
著名作家阿西莫夫1940年在科幻小說中提出了“機器人三原則”:機器人不得傷害人類,或看到人類受到傷害而袖手旁觀;機器人必須服從人類的命令,除非這條命令與第一條相矛盾;機器人必須保護自己,除非這種保護與以上兩條相矛盾。今天,人工智能逐漸從科幻走向現(xiàn)實,人們對人工智能可能產(chǎn)生的危害也愈加警惕,希望能夠為其制定準則以確保人工智能科技和產(chǎn)業(yè)向?qū)ι鐣幸娴姆较蝽樌l(fā)展。
光明圖片/視覺中國
1.以和諧互補的方式鏈接不同的人工智能準則提案
人工智能既是經(jīng)過數(shù)十年錘煉發(fā)展出來的科學(xué)領(lǐng)域,又是改變未來的重要顛覆性技術(shù)。人工智能的研究與發(fā)展不僅關(guān)系到國家科技、經(jīng)濟發(fā)展、社會穩(wěn)定,更關(guān)系到國家在科技、產(chǎn)業(yè)領(lǐng)域的國際影響與國際局勢。
人工智能在帶來機遇的同時也帶來潛在的風險與隱患。例如應(yīng)用最為廣泛的深度神經(jīng)網(wǎng)絡(luò)模型在對輸入引入極小的噪聲(如改變圖像輸入中某個關(guān)鍵的一個像素值)情況下,就有可能使網(wǎng)絡(luò)的識別和預(yù)測結(jié)果產(chǎn)生顛覆性的錯誤(如將青蛙識別為卡車、烏龜識別為槍支)。若沒有充分的風險評估,新興技術(shù)在對社會發(fā)展帶來機遇的同時,很有可能引入不可預(yù)計的安全隱患與風險。
現(xiàn)在對于人工智能的發(fā)展而言,首要的問題是選擇正確的道路。創(chuàng)新、價值、倫理是一個鐵三角,創(chuàng)新性技術(shù)對社會帶來潛在價值的同時,可能存在難以預(yù)期的風險,并對社會倫理提出重大挑戰(zhàn)。因此,發(fā)展人工智能技術(shù)普惠經(jīng)濟與社會的同時,關(guān)注人工智能的社會屬性,從社會風險、倫理準則與治理角度確保人工智能科學(xué)、技術(shù)、產(chǎn)業(yè)的健康、良性發(fā)展至關(guān)重要。
為了確保發(fā)展有益的人工智能,世界上各國政府、非政府組織、科學(xué)團體、科研機構(gòu)、非營利性組織、企業(yè)都提出了人工智能發(fā)展準則。包括英國政府、國際電子電器工程學(xué)會、國際勞工組織。至今,于公開渠道可見的人工智能準則提案已接近40個,涉及以人為本、合作、共享、公平、透明、隱私、安全、信任、權(quán)利、偏見、教育、通用人工智能等主題。例如,美國生命未來研究所倡導(dǎo)的阿西洛瑪人工智能準則(Asilomar AI Principles)、英國上議院提出的人工智能準則(AI Code)等,都希望通過在人工智能倫理與準則制定方面的領(lǐng)先來引領(lǐng)人工智能的發(fā)展。
事實上目前任何一個國家、機構(gòu)、組織提出的人工智能準則都僅覆蓋了少部分主題(更為具體的層面,人工智能準則提案涉及超過50個主要議題),雖然不少準則提案都有自身的特色,有其他方案未能覆蓋的考量,但想要構(gòu)建統(tǒng)一、全面、完善的人工智能準則既是難以實現(xiàn)的,又是沒有必要的——難以實現(xiàn)的原因是人工智能這門科學(xué)技術(shù)本身、人工智能準則、倫理的內(nèi)涵和外延都是在不斷完善的;沒有必要的原因是每個國家、組織與機構(gòu)的準則提案都結(jié)合自身實際情況,有組織目標、環(huán)境、文化、倫理傳統(tǒng)相關(guān)的特殊考慮。
筆者認為,真正有價值的做法是認可每一個國家、機構(gòu)提案在一定范圍的意義,而為了更好地實現(xiàn)人工智能的全球治理,重點將不是統(tǒng)一人工智能的準則,而是以更和諧互補的方式鏈接不同的人工智能準則提案,使其在局部(如國家、組織機構(gòu)等)有序與一致,世界的全局范圍內(nèi)不同的準則提案仍可交互和協(xié)商,最終實現(xiàn)和諧互補、優(yōu)化共生。
2.調(diào)和政府與企業(yè)在準則制定上的現(xiàn)存差異
在對不同人工智能準則提案的量化分析中可以看到:相對而言,各國政府對人工智能的潛在風險與安全高度重視,但企業(yè)的重視程度相對薄弱。這反映了在企業(yè)從事人工智能創(chuàng)新過程中對于潛在風險與安全隱患可能估計不足。例如,在對人工智能風險的評估中,部分企業(yè)認為如果總體可能的利益遠遠超過可預(yù)見的風險和不利因素,則可以進行相關(guān)探索。但從學(xué)術(shù)的視角看,一方面,依據(jù)潛在利益與風險之間的量化差異決定企業(yè)是否采取相關(guān)行動本身就是一個危險的視角;另一方面,如果沒有站在全社會的全局視角進行綜合研判與分析,僅從企業(yè)自身視角進行預(yù)測與判斷,則很有可能因為局限的思考與行動對社會造成潛在的巨大危害。
因此,應(yīng)當看到政府重視與企業(yè)相對不足的考慮之間的差距,并采取引導(dǎo)、監(jiān)管、建立人工智能產(chǎn)品與服務(wù)的風險與安全評估體系等有效措施彌補政府期望與企業(yè)實踐之間的鴻溝。
同時,一些準則在相關(guān)技術(shù)途徑可能引發(fā)風險的方面可能估計不足。例如某些提案中對通用人工智能(各個認知功能達到人類水平,簡稱AGI)、超級智能(所有認知功能超過人類水平,簡稱ASI)涉及很有限。
這方面學(xué)術(shù)機構(gòu)的討論和相關(guān)研究應(yīng)當為政府決策提供有力支撐,例如阿西洛瑪人工智能準則中提出超級智能以全人類受益為標準來發(fā)展,劍橋大學(xué)近期提出并正在進行一項名為“通用人工智能的實現(xiàn)途徑及潛在風險”的研究。
3.兼顧專用人工智能和通用人工智能的發(fā)展
在人工智能頂層設(shè)計當中,是否發(fā)展通用人工智能,還是僅限于發(fā)展領(lǐng)域特定的專用人工智能?這是諸多人工智能準則提案中主要存在的巨大分歧。
例如,歐盟人工智能研究實驗室聯(lián)合會(CLAIRE)就明確提出應(yīng)限制人類水平智能、通用智能以及超級智能的發(fā)展。德國的人工智能計劃也集中于發(fā)展專用人工智能。而阿西洛瑪人工智能準則、OpenAI等機構(gòu)提出的人工智能準則中則明確提出應(yīng)當對更安全的通用人工智能進行充分考慮與發(fā)展。
事實上發(fā)展專用智能并不一定能夠完全避免風險,因為專用智能系統(tǒng)在應(yīng)用中很可能遇到不可預(yù)期的場景, 具備一定的通用能力反而有可能提升智能系統(tǒng)的魯棒性和自適應(yīng)能力。因此應(yīng)針對智能的通用性這個主題鏈接不同國家、組織、機構(gòu)的考慮,實現(xiàn)頂層設(shè)計的互補。
人類認知功能的多樣性以及人工智能應(yīng)用場景的復(fù)雜性使得很難對人工智能的風險、安全以及倫理體系進行絕對完善的建模,特別是涉及到人工智能產(chǎn)品、服務(wù)與具有不同文化背景的人類群體交互。任何國家都應(yīng)制定適應(yīng)本國的實際社會、科技、經(jīng)濟發(fā)展與文化需求的人工智能準則。但更關(guān)鍵的是需要全世界不同政府、學(xué)術(shù)組織、產(chǎn)業(yè)界深度交互與協(xié)同,對人工智能的發(fā)展進行對全社會有益的戰(zhàn)略性設(shè)計,對其潛在的社會風險與倫理挑戰(zhàn)進行系統(tǒng)性評估與預(yù)測,并構(gòu)建世界范圍內(nèi)總體和諧、互為補充、優(yōu)化共生的發(fā)展準則。
《光明日報》( 2019年01月24日 16版)