熱門文章
人工智能的好處和風險
發(fā)布時間:2018-09-12 分類:交通百科
什么是人工智能?
從Siri到自動駕駛的人工智能汽車,ai人工智能正在迅速發(fā)展。雖然科幻小說經(jīng)常把人工智能描繪成具有類似人類特征的機器人,但人工智能可以涵蓋從谷歌的搜索算法到IBM的沃森(Watso的任何東西。
今天,人工智能被恰當?shù)胤Q為窄人工智能(或弱人工智能),因為它被設計用來執(zhí)行一項狹窄的任務(例如,只進行面部識別或只進行互聯(lián)網(wǎng)搜索,或只開車)。然而,許多研究人員的長期目標是創(chuàng)造通用人工智能(agi或強人工智能)。盡管窄人工智能可能在任何特定任務上都優(yōu)于人類,比如下棋或解方程,但在幾乎每項認知任務中,AGI都會比人類表現(xiàn)得更好。
為什么要研究人工智能的安全性?
從近期來看,保持人工智能對社會有益影響的目標推動了許多領域的研究,從經(jīng)濟學和法學到驗證、有效性、安全性和控制等技術主題。然而,如果你的筆記本電腦崩潰或被黑客攻擊,這可能只是一個小麻煩,但如果一個AI系統(tǒng)控制你的汽車、飛機、起搏器、自動交易系統(tǒng)或電網(wǎng),它就變得更加重要,你希望它做什么就做什么。
從長遠來看,一個重要的問題是,如果對強大人工智能的探索成功了,人工智能系統(tǒng)在所有認知任務中都變得比人類更好,將會發(fā)生什么。正如I.J.Good在1965年指出的那樣,設計更智能的人工智能系統(tǒng)本身就是一項認知任務。這樣的系統(tǒng)可能會經(jīng)歷遞歸的自我完善,觸發(fā)智力爆炸,將人類的智力遠遠拋在后面。通過發(fā)明革命性的新技術,這種超級智能可能幫助我們根除戰(zhàn)爭、疾病和貧困,因此,創(chuàng)造強大的人工智能可能是人類歷史上最重大的事件。不過,一些專家表示擔心,除非我們學會在人工智能變得超級智能之前將其與我們的目標結合起來,否則它可能也是最后一個了。
有些人質(zhì)疑強大的人工智能是否會實現(xiàn),還有一些人堅持認為創(chuàng)造超級智能人工智能肯定是有益的。在FLI,我們認識到這兩種可能性,但也認識到人工智能系統(tǒng)有意或無意地造成巨大危害的可能性。我們相信,今天的研究將幫助我們更好地準備和防止這種潛在的負面后果在未來,從而享受人工智能的好處,同時避免陷阱。
人工智能怎么會是危險的?
大多數(shù)研究人員都認為,超級智能的人工智能不太可能表現(xiàn)出像愛或恨這樣的人類情感,而且沒有理由指望人工智能會故意變得仁慈或惡毒。相反,在考慮人工智能如何成為一種風險時,專家們認為最有可能出現(xiàn)的情況有兩種:
人工智能被編程用來做一些有益的事情,但它開發(fā)了一種破壞性的方法來實現(xiàn)它的目標:當我們不能完全將人工智能的目標與我們的目標結合起來時,這種情況就會發(fā)生,這是非常困難的。如果你讓一輛聽話的智能汽車盡快帶你去機場,它可能會讓你被直升機追到那里,渾身都是嘔吐物,做的不是你想要的,而是你真正想要的。如果一個超級智能系統(tǒng)被賦予一個雄心勃勃的地球工程項目,它可能會對我們的生態(tài)系統(tǒng)造成嚴重破壞,將其視為一種副作用,并將人類阻止它的企圖視為一種需要應對的威脅。
正如這些例子所說明的,對高級人工智能的關注不是惡意,而是能力。一個超級智能的人工智能將非常擅長于完成它的目標,如果這些目標與我們的目標不一致,我們就有問題了。你可能不是出于惡意踩到螞蟻的一個邪惡的討厭螞蟻的人,但是如果你負責一個水電綠色能源項目,而且該地區(qū)有一個蟻丘要被淹沒,對螞蟻來說太糟糕了。人工智能安全研究的一個關鍵目標是永遠不要把人類放在螞蟻的位置上。
為什么最近對人工智能安全的興趣?
最近,斯埃隆·馬斯克(Elon Musk)、史蒂夫·沃茲尼亞克(Steve Wozniak)、比爾·蓋茨(Bill Gates)以及其他許多科技界的大人物都在媒體上和公開信中表達了對人工智能(AI)構成的風險的擔憂,許多頂尖的人工智能研究人員也加入了這一行列。為什么這個話題突然成了頭條新聞?
長久以來,對于強大人工智能的探索最終會成功的想法一直被認為是科幻小說,甚至更遠。然而,由于最近的突破,許多人工智能里程碑現(xiàn)在已經(jīng)達到了,專家們在五年前還認為這是幾十年前的事,這使許多專家認真考慮了在我們有生之年超級智能的可能性。雖然一些專家仍然猜測人類水平的人工智能是數(shù)百年后,大多數(shù)人工智能研究在2015年波多黎各會議猜測,這將發(fā)生在2060年之前。由于可能需要幾十年才能完成所需的安全研究,因此現(xiàn)在就開始進行是明智的。
因為人工智能有潛力變得比任何人類都更聰明,我們沒有確切的方法來預測它將如何表現(xiàn)。我們不能把過去的技術發(fā)展作為一個基礎,因為我們從來沒有創(chuàng)造出任何東西,有能力,有意識地或不自覺地,超過我們。我們所能面對的最好的例子可能是我們自己的進化。人們現(xiàn)在控制這個星球,不是因為我們是最強大、最快或最大的,而是因為我們是最聰明的。如果我們不再是最聰明的,我們能保證保持控制嗎?
只要我們贏得了技術力量的增長和我們管理它的智慧之間的競賽,我們的文明就會蓬勃發(fā)展。就人工智能技術而言,贏得這場比賽的最佳方式不是阻礙前者,而是通過支持人工智能安全研究來加速后者。
高級人工智能的最高神話
一場關于人工智能的未來以及它對人類將/應該意味著什么的引人入勝的對話正在進行。世界領先的專家們對此存在一些有趣的爭議,比如:人工智能未來對就業(yè)市場的影響;人工智能是否(或何時)會發(fā)展成人類水平的人工智能;這是否會導致智能爆炸;以及這是我們應該歡迎還是應該擔心的事情。