熱門文章
人工智能背后的倫理問題
發(fā)布時(shí)間:2018-09-28 分類:交通百科
當(dāng)哲學(xué)家和倫理學(xué)家考慮人工智能的長期未來時(shí),他們擔(dān)心的是什么?首先,雖然大多數(shù)從事人工智能領(lǐng)域的人都對人工智能系統(tǒng)的發(fā)展感到興奮,但很多人擔(dān)心,如果沒有適當(dāng)?shù)囊?guī)劃,先進(jìn)的人工智能可能會毀滅整個(gè)人類。
在紐約大學(xué)人工智能倫理學(xué)會議上,來自機(jī)器智能研究所的Eliezer Yudkowsky解釋說,人工智能看起來不太可能像終結(jié)者,而更可能像米老鼠在幻想曲“魔法師學(xué)徒”中給生活帶來的過于急切的掃帚。掃帚只有一個(gè)目標(biāo),它不僅要保持專注,不管米奇做什么,它還會成倍增長,變得更有效率。對于一個(gè)設(shè)計(jì)拙劣的人工智能的擔(dān)憂也是相似的,除了人工智能,最終將沒有魔法師來阻止這場混亂。
為了幫助想象一個(gè)能力過硬的高級人工智能是如何出錯(cuò)的,牛津哲學(xué)家尼克博斯特羅姆(Nick Bostrom)提出了一項(xiàng)關(guān)于一種致命的回形針制造機(jī)器的思維實(shí)驗(yàn)。如果你是賣回形針的,那么制造一個(gè)回形針可能就是人工智能最大化的作用了,這樣的人工智能看起來沒有一點(diǎn)害處。然而,以這作為唯一的目標(biāo),一個(gè)智能的人工智能可能會以犧牲你關(guān)心的其他一切為代價(jià),繼續(xù)制造回形針。當(dāng)它用完材料時(shí),它就會想出如何把周圍的東西分解成分子成分,然后把分子重新組裝成回形針。不久,它將毀滅地球上的生命、地球本身、太陽系,甚至可能毀滅宇宙,這一切都是為了制造越來越多的回形針。
這似乎是一個(gè)愚蠢的擔(dān)心,但誰也沒有應(yīng)對他們的電腦或技術(shù)發(fā)生奇怪的故障的經(jīng)驗(yàn)?想想看,由于自動更正或更嚴(yán)重的2010年閃電崩盤,你發(fā)送了多少次奇怪的消息?,F(xiàn)在想象一下,如果該系統(tǒng)要管理電網(wǎng)或監(jiān)督武器系統(tǒng),那么如此天真設(shè)計(jì),但非常復(fù)雜的程序可能會以指數(shù)級的方式變得更糟。
即便是現(xiàn)在,在只有非常狹窄的人工智能系統(tǒng)的情況下,研究人員仍發(fā)現(xiàn),簡單的偏見會導(dǎo)致科技世界中種族主義和性別歧視的增加;網(wǎng)絡(luò)攻擊的強(qiáng)度和數(shù)量都在增長。
人工智能開發(fā)可能會遇到兩種類型的問題:可以在以后修復(fù)的錯(cuò)誤,以及只會犯一次的錯(cuò)誤。ai人工智能就像太空探測器一樣困難:一旦你發(fā)射了它,它就在那里了。人工智能研究員正在構(gòu)建我們無法有效測試的技術(shù)。
隨著人工智能越來越接近人類水平的智能,人工智能設(shè)計(jì)師如何才能確保他們的創(chuàng)作是合乎道德的,并從一開始就做出適當(dāng)?shù)男袨槟?事實(shí)證明,這個(gè)問題只會引發(fā)更多的問題。
有益的人工智能是什么樣子的?人工智能會讓所有人受益,還是只讓一部分人受益?它會加劇收入不平等嗎?創(chuàng)造一個(gè)能感受痛苦的人工智能背后的道德規(guī)范是什么?在沒有意識的具體定義的情況下,一個(gè)有意識的人工智能被開發(fā)出來嗎?人工智能的最終目標(biāo)是什么?這對企業(yè)有幫助嗎?它能幫助人們嗎?人工智能會讓我們快樂嗎?
如果我們不知道自己想要什么,我們就不太可能得到它。我們不僅要思考人工智能的“最終目標(biāo)”是什么,還想知道如何達(dá)到這個(gè)目標(biāo)。要實(shí)現(xiàn)這種先進(jìn)的人工智能還有很長的路要走,將人工智能的發(fā)展現(xiàn)狀比作巧克力蛋糕,我們已經(jīng)知道怎么做糖衣和櫻桃,但我們不知道怎么做蛋糕。
如果人工智能的發(fā)展就像烤蛋糕一樣,那么人工智能倫理似乎就需要在完善蛋奶酥的過程中保持微妙的平衡和注意力。無論高級人工智能是什么時(shí)候發(fā)展起來的,要確保永遠(yuǎn)不會出現(xiàn)人工智能錯(cuò)誤,唯一的辦法就是現(xiàn)在就開始解決道德和安全問題。
隨著人類和人工智能的共同努力,可以拯救和改善的生命數(shù)量是巨大的。關(guān)鍵是要了解可能會出現(xiàn)什么問題,需要回答哪些問題,才能使人工智能得到有益的發(fā)展。