熱門(mén)文章
相關(guān)文章
有益的人工智能研究
發(fā)布時(shí)間:2018-09-13 分類:交通百科
研究目標(biāo):人工智能研究的目標(biāo)應(yīng)該是創(chuàng)造有益的智能,而不是無(wú)方向的智能。從表面上看,研究目標(biāo)原則可能不像其他一些更直接涉及我們?nèi)绾闻cai人工智能互動(dòng)以及超級(jí)智能的影響的原則那樣,顯得那么迷人或令人興奮,但其他所有的都是從這個(gè)第一原理衍生出來(lái)的。
簡(jiǎn)單地說(shuō),如果沒(méi)有人工智能系統(tǒng)的研究和研究人員的特定目標(biāo),人工智能就無(wú)法發(fā)展。然而,在不考慮研究可能的長(zhǎng)期影響的情況下,參與研究并努力實(shí)現(xiàn)廣泛的人工智能目標(biāo),可能對(duì)社會(huì)有害。
在“侏羅紀(jì)公園”中有這樣一個(gè)場(chǎng)景,杰夫·戈德布拉姆扮演的角色哀嘆說(shuō),“創(chuàng)造恐龍的科學(xué)家們,正全神貫注于他們能否做到這一點(diǎn),以至于他們沒(méi)有停下來(lái)思考是否應(yīng)該這樣做?!敝钡阶罱?,人工智能研究人員還主要集中在找出他們可以完成什么,沒(méi)有更長(zhǎng)遠(yuǎn)的考慮,而且是有充分理由的:科學(xué)家們只是試圖讓他們的人工智能程序發(fā)揮作用,結(jié)果太有限。
但是在過(guò)去的幾年里,科學(xué)家們?cè)谌斯ぶ悄芊矫嫒〉昧撕艽蟮倪M(jìn)展,人工智能對(duì)社會(huì)的影響已經(jīng)被感受到了,正如我們所看到的,偏見(jiàn)和歧視的一些問(wèn)題已經(jīng)出現(xiàn)了,這并不總是好的。
姿態(tài)偏移
不幸的是,在人工智能研究中仍然存在一種文化,這種文化太過(guò)接受這樣一種觀點(diǎn),即開(kāi)發(fā)人員不必對(duì)他們的產(chǎn)品的使用方式負(fù)責(zé)。這種我只是制造工具,讓別人來(lái)決定它們是好的還是壞的態(tài)度是不對(duì)的。如果你參與了制作這些功能強(qiáng)大的工具的過(guò)程,你就有責(zé)任盡你所能確保這些工具朝著一個(gè)總體上有益的方向發(fā)展。有了人工智能,每個(gè)參與其中的人都有責(zé)任把它推向一個(gè)積極的方向,把權(quán)力交給已經(jīng)強(qiáng)大的人,讓他們變得更強(qiáng)大,讓自己受益。
什么是“有益的”?
與我交談過(guò)的其他人工智能專家也同意這一原則的一般想法,但對(duì)該原則的措辭并不完全一致。考慮到人工智能可能被誤用或?yàn)E用,最重要的是要有一個(gè)明確的積極目標(biāo)。它可能會(huì)被掛在什么是這個(gè)詞的“有益”的意思。如果我們把它指向有益的智力,我們必須定義我們的術(shù)語(yǔ);我們必須定義什么是有益的含義,而這對(duì)我來(lái)說(shuō)是不清楚的。這對(duì)不同的人來(lái)說(shuō)意味著不同的事情,你能讓每個(gè)人都受益是罕見(jiàn)的。
長(zhǎng)期研究
路易斯維爾大學(xué)人工智能研究員羅曼·亞波斯基將討論帶回到最關(guān)心的問(wèn)題上:就體系結(jié)構(gòu)和目標(biāo)而言,可能的智能代理的宇宙是無(wú)限的。僅僅試圖設(shè)計(jì)一種有能力的智力是不夠的,重要的是要明確地以一種符合人類目標(biāo)的智力為目標(biāo)。在浩瀚的可能目標(biāo)的海洋中,這是一個(gè)非常狹窄的目標(biāo),因此大多數(shù)智能代理不會(huì)為我們的價(jià)值觀做一個(gè)很好的優(yōu)化器,從而導(dǎo)致惡意的或至少是冷漠的人工智能(這也是非常危險(xiǎn)的)。只有將未來(lái)的超級(jí)智慧與我們的真正目標(biāo)結(jié)合起來(lái),我們才能從我們的智力繼承者那里獲得巨大的利益,并避免存在的災(zāi)難。