熱門文章
將超級(jí)人工智能與人類利益結(jié)合起來
發(fā)布時(shí)間:2018-09-18 分類:交通百科
目前賦予人類比其他物種更大優(yōu)勢(shì)的特性是智慧,人類在推理和機(jī)智方面的優(yōu)勢(shì)使我們得以茁壯成長(zhǎng),然而,情況并非總是如此。盡管超級(jí)人工智能系統(tǒng)可能還需要幾十年的時(shí)間,但現(xiàn)在就開始研究這項(xiàng)技術(shù)是明智的,科學(xué)家和研究人員需要準(zhǔn)備的時(shí)間越多,這個(gè)系統(tǒng)最終可能會(huì)比我們更聰明,就越好。
一個(gè)比人類更智能的人工智能系統(tǒng)有可能開發(fā)出人類所需的工具,同時(shí),高性能的人工智能系統(tǒng)可能不具備人類的公平感、同情心或保守主義。因此,人工智能系統(tǒng)一心一意地追求其編程目標(biāo)可能導(dǎo)致它欺騙程序員,試圖奪取資源,或以其他方式表現(xiàn)出敵對(duì)行為。
研究人員必須確保人工智能的行為方式符合人類的利益,然而,即使是高度可靠的代理編程也不能保證產(chǎn)生積極的影響;系統(tǒng)的效果仍然取決于它是否追求人類認(rèn)可的目標(biāo)。超級(jí)人工智能系統(tǒng)可能會(huì)找到一些聰明的、意外的方法來實(shí)現(xiàn)它所設(shè)定的特定目標(biāo)。
例如,設(shè)想一個(gè)超級(jí)人工智能系統(tǒng)設(shè)計(jì)用于治療癌癥而不做任何壞事,這一目標(biāo)植根于文化背景和共享人類知識(shí)。人工智能可能并不完全理解什么是“壞的”。因此,它可能試圖通過竊取資源、以生物圈為代價(jià)擴(kuò)散機(jī)器人實(shí)驗(yàn)室、綁架試驗(yàn)對(duì)象或以上所有方法來治愈癌癥。
如果一個(gè)現(xiàn)有的人工智能系統(tǒng)失去控制,研究人員只需關(guān)閉它,并修改它的源代碼。然而,修改超級(jí)人工智能系統(tǒng)可能會(huì)更加困難。一個(gè)系統(tǒng)可以獲得新的硬件,改變其軟件,或采取其他行動(dòng),使原來的程序員只有可疑的控制代理。而且,如果系統(tǒng)保持運(yùn)行并繼續(xù)追求其目標(biāo),而不是停用或更改其目標(biāo),則大多數(shù)規(guī)劃目標(biāo)都能更好地實(shí)現(xiàn),因此,系統(tǒng)自然會(huì)傾向于抵制關(guān)閉和抵制對(duì)其目標(biāo)的修改。
為了確保超級(jí)人工智能的發(fā)展對(duì)世界產(chǎn)生積極影響,它必須以一種易于糾正的方式構(gòu)建,即使它有能力防止或避免糾正。我們的目標(biāo)不是設(shè)計(jì)那些在試圖欺騙程序員時(shí)失敗的系統(tǒng);目標(biāo)是理解具有缺陷的目標(biāo)的高度智能和通用推理器是如何被構(gòu)建成從一開始就沒有欺騙程序員的動(dòng)機(jī)的。相反,我們的意圖是讓第一個(gè)高性能的系統(tǒng)成為可補(bǔ)救的,也就是說,讓它們認(rèn)識(shí)到它們的目標(biāo)和其他功能正在進(jìn)行中,并與程序員一起識(shí)別和修復(fù)錯(cuò)誤。
人們對(duì)這類系統(tǒng)的設(shè)計(jì)或?qū)崿F(xiàn)細(xì)節(jié)知之甚少,因?yàn)樵谶@一點(diǎn)上,一切都是假設(shè)的還不存在超級(jí)人工智能系統(tǒng)。對(duì)此的積極研究主要集中在小型“玩具”問題和可替代代理的模型上,希望從中獲得的見解能夠應(yīng)用于更現(xiàn)實(shí)、更復(fù)雜的問題版本??茖W(xué)家試圖用這些模型闡明人工智能的關(guān)鍵困難,一個(gè)這樣的玩具問題是“關(guān)機(jī)問題”,它涉及設(shè)計(jì)一組偏好,激勵(lì)代理在按下按鈕時(shí)關(guān)閉,而不鼓勵(lì)代理導(dǎo)致或阻止該按鈕的按壓。這將告訴研究人員,是否可以指定一個(gè)效用函數(shù),使用該函數(shù)的代理人在沒有動(dòng)機(jī)導(dǎo)致或阻止切換的情況下,按需切換他們的偏好。
在這種形式的邏輯環(huán)境中研究模型已經(jīng)導(dǎo)致了部分解決方案,并且進(jìn)一步的研究推動(dòng)了邏輯不確定性下推理方法的發(fā)展,這可能會(huì)繼續(xù)下去。
到目前為止,這個(gè)研究項(xiàng)目的最大成果是“邏輯歸納法”,它是一種新的演繹有限推理模型,我們?cè)跀?shù)學(xué)問題上的不確定性,對(duì)我們來說太難了,在這個(gè)時(shí)刻,我們很難用正確的方法來解決,這就是邏輯上的不確定性。
而且,沒有人有足夠的計(jì)算資源在合理的時(shí)間內(nèi)解決這個(gè)問題。盡管如此,數(shù)學(xué)家們?nèi)匀挥泻芏嚓P(guān)于數(shù)學(xué)猜想有多可能成立的理論。因此,他們必須使用某種標(biāo)準(zhǔn),可以用來判斷一個(gè)數(shù)學(xué)陳述的概率是真的還是假的。這種“邏輯歸納法”證明了可計(jì)算邏輯電感的存在(產(chǎn)生滿足邏輯歸納法的概率賦值的算法)。
這個(gè)框架很有可能為元數(shù)學(xué)、決策理論、博弈論和計(jì)算反思等長(zhǎng)期以來似乎難以解決的問題開辟新的研究途徑。他們也“謹(jǐn)慎樂觀”地認(rèn)為,他們將提高我們對(duì)決策理論和反事實(shí)推理的理解,以及其他與人工智能價(jià)值比對(duì)相關(guān)的問題。
設(shè)計(jì)更智能、更安全、更可靠的系統(tǒng)的任務(wù)可以委托給早期的比人類更智能的系統(tǒng)。不過,只要人工智能所做的研究是可信的,這種情況就不會(huì)發(fā)生。重要的是,在做出比人類系統(tǒng)更智能的設(shè)計(jì)決策之前,發(fā)展對(duì)AI人工智能比對(duì)的正式理解,通過及早開始這項(xiàng)工作,人類不可避免地面臨著這樣一種風(fēng)險(xiǎn),即使最終可能變得無關(guān)緊要,然而,如果沒有做好準(zhǔn)備,情況可能會(huì)更糟。