熱門文章
我們能否為超級(jí)智能人工智能的風(fēng)險(xiǎn)做好準(zhǔn)備?
發(fā)布時(shí)間:2018-09-21 分類:交通百科
風(fēng)險(xiǎn)原則: 人工智能系統(tǒng)帶來的風(fēng)險(xiǎn),特別是災(zāi)難性或存在風(fēng)險(xiǎn),必須受到與其預(yù)期影響相稱的規(guī)劃和減緩努力。
我們不知道人工智能的未來會(huì)是什么樣子,雖然有些人可能會(huì)做出有根據(jù)的猜測(cè),但未來還不清楚。人工智能可以像所有其他技術(shù)一樣繼續(xù)發(fā)展,幫助我們從一個(gè)時(shí)代過渡到一個(gè)新時(shí)代。大部分人工智能研究人員希望它可以幫助我們轉(zhuǎn)變?yōu)橐粋€(gè)更健康,更智能,更和平的社會(huì)。但重要的是要記住ai人工智能只是一種工具,因此,本質(zhì)上不是好的或壞的,與任何其他技術(shù)或工具一樣,可能會(huì)產(chǎn)生意想不到的后果。
值得關(guān)注的是,隨著技術(shù)的進(jìn)步,它可以影響更多的人。揮動(dòng)不好的錘子很可能只會(huì)傷害持釘子的人,車禍可能會(huì)傷害乘客和駕駛員以及行人,飛機(jī)失事可以殺死數(shù)百人?,F(xiàn)在,自動(dòng)化威脅著數(shù)以百萬(wàn)計(jì)的就業(yè)機(jī)會(huì),雖然大概沒有生命會(huì)因?yàn)橹苯拥慕Y(jié)果而喪失,但大規(guī)模失業(yè)會(huì)帶來毀滅性的后果。
工作自動(dòng)化只是一個(gè)開始,當(dāng)人工智能變得非常普遍且非常強(qiáng)大時(shí),將其與人類利益相結(jié)合將是一項(xiàng)挑戰(zhàn)。如果我們失敗了,人工智能可能會(huì)成為威脅人類存在的風(fēng)險(xiǎn)。鑒于人們期望先進(jìn)的人工智能將遠(yuǎn)遠(yuǎn)超過迄今為止所見的任何技術(shù),甚至可能超越人類的智慧,我們?nèi)绾晤A(yù)測(cè)并為人類面臨的風(fēng)險(xiǎn)做好準(zhǔn)備?
非零概率
考慮高級(jí)人工智能風(fēng)險(xiǎn)的一個(gè)重要方面是認(rèn)識(shí)到風(fēng)險(xiǎn)存在,應(yīng)該加以考慮。即使存在風(fēng)險(xiǎn)的可能性很小,一旦成倍增加就會(huì)產(chǎn)生影響。沒有比避免滅絕人類更重要的了。直接風(fēng)險(xiǎn)是代理商產(chǎn)生不必要的,令人驚訝的行為,即使我們計(jì)劃好好使用人工智能,事情也可能出錯(cuò),正是因?yàn)槲覀儾簧朴跒槿斯ぶ悄艽砩讨付繕?biāo)和約束,他們的解決方案往往不是我們想到的。
考慮其他風(fēng)險(xiǎn)
我們應(yīng)該忽視任何技術(shù)的風(fēng)險(xiǎn)而不采取預(yù)防措施嗎?當(dāng)然不是,解決人工智能的長(zhǎng)期風(fēng)險(xiǎn),應(yīng)采取更為細(xì)致入微的方法。但這確實(shí)讓我感到不安,因?yàn)樵俅坞[含的前提是人工智能系統(tǒng)極有可能造成存在風(fēng)險(xiǎn)。
我們希望更多的討論是可解釋的機(jī)器學(xué)習(xí),由于機(jī)器學(xué)習(xí)幾乎是每個(gè)人工智能成功案例的核心,因此能夠理解機(jī)器學(xué)到的東西對(duì)我們來說非常重要。當(dāng)然,對(duì)于深度神經(jīng)網(wǎng)絡(luò),很難理解他們學(xué)到了什么。我認(rèn)為開發(fā)技術(shù)對(duì)我們來說非常重要,因此機(jī)器可以解釋他們學(xué)到了什么,這樣人類就可以驗(yàn)證這種理解。......當(dāng)然,在我們可以信任AGI之前我們需要解釋,但是在我們實(shí)現(xiàn)一般情報(bào)之前很久就需要解釋,因?yàn)槲覀儾渴鹆烁嘤邢薜闹悄芟到y(tǒng)。例如,如果醫(yī)學(xué)專家系統(tǒng)推薦治療,我們希望能夠問“為什么?”
愚蠢地部署的狹窄人工智能系統(tǒng)可能是災(zāi)難性的,我認(rèn)為直接風(fēng)險(xiǎn)不是系統(tǒng)智能的函數(shù),而是系統(tǒng)自治的功能,特別是其效應(yīng)器的功效和對(duì)其行為的約束類型。
開放給解釋
原則聽起來很棒,但你需要解決它。例如,可能存在這種災(zāi)難性風(fēng)險(xiǎn)會(huì)影響世界上的每個(gè)人,它可能是人工智能或小行星或其他東西,但它會(huì)影響每個(gè)人。但是概率很小,比如說0.000001%?,F(xiàn)在,如果您進(jìn)行預(yù)期的效用計(jì)算,這些大數(shù)字將每次都破壞公式??赡艽嬖谝恍┱嬲秊?zāi)難性的人工智能風(fēng)險(xiǎn),但如果進(jìn)行預(yù)期的效用計(jì)算,則可能會(huì)被數(shù)字誤導(dǎo)。
科學(xué)家認(rèn)為我們?nèi)绾味x相稱的比較重要,我們?cè)诳锤怕蕟?我們?cè)诳磽p害程度嗎?或者我們正在考慮預(yù)期效用?您對(duì)風(fēng)險(xiǎn)的不同看法可能會(huì)為您指出不同的結(jié)論。我們可以想象來自人工智能或機(jī)器人或基因工程的各種災(zāi)難性風(fēng)險(xiǎn),但如果可能性很小,并且您仍然希望堅(jiān)持這個(gè)預(yù)期的實(shí)用程序框架,那么這些大數(shù)字可能會(huì)破壞數(shù)學(xué)。并不總是清楚正確的方法是考慮風(fēng)險(xiǎn)和對(duì)風(fēng)險(xiǎn)做出適當(dāng)?shù)姆磻?yīng)。
但這個(gè)原則似乎太模糊了,也許我最關(guān)心的是它遺漏了易處理性的問題:我們對(duì)風(fēng)險(xiǎn)的關(guān)注實(shí)際上不應(yīng)該與風(fēng)險(xiǎn)的預(yù)期影響成正比;它應(yīng)該與注意力的預(yù)期有用性成比例。在某些情況下,我們應(yīng)該更多地關(guān)注較小的風(fēng)險(xiǎn)而不是較大的風(fēng)險(xiǎn),因?yàn)檩^大的風(fēng)險(xiǎn)并不是我們可以取得很大進(jìn)展的事實(shí)。(還有兩個(gè)單獨(dú)的和額外的主張,即'我們也應(yīng)該盡可能避免采取具有明顯存在風(fēng)險(xiǎn)的行動(dòng)'和'用于設(shè)計(jì)跨域領(lǐng)域超人能力的人工智能系統(tǒng)的許多方法(包括默認(rèn)方法)學(xué)習(xí),推理和規(guī)劃會(huì)帶來明顯的存在風(fēng)險(xiǎn)。
如果處理不當(dāng),開發(fā)具有同等人或更高能力的機(jī)器來學(xué)習(xí)和規(guī)劃許多不同的現(xiàn)實(shí)領(lǐng)域,會(huì)帶來巨大的全球事故風(fēng)險(xiǎn)。因此,開發(fā)這項(xiàng)技術(shù)的任務(wù)需要特別小心,我們應(yīng)該盡我們所能來確保人工智能研究界的各個(gè)部門之間的關(guān)系是穩(wěn)定的,協(xié)作的和高度信任的,這樣研究人員就不會(huì)感到有壓力在安全和保障工作上匆忙或偷工減料。