熱門文章
我們?nèi)绾螌⑷斯ぶ悄芘c人類價值觀結(jié)合起來?
發(fā)布時間:2018-09-27 分類:交通百科
社會組成的每一部分都會在一個未知的時間發(fā)生重大的改變,這一過渡中發(fā)揮作用的人有責(zé)任和機會來塑造最好的它。什么會引發(fā)這種變化?當(dāng)然只有人工智能。
最近,人工智能和相關(guān)領(lǐng)域的一些頂尖人物聚在一起討論如何確保人工智能在整個過渡過程中仍然是有益的,其結(jié)果是Asilomar AI原則文檔。這23條原則的目的是提供一個框架,幫助人工智能造福盡可能多的人。
這些原則代表著對話的開始,現(xiàn)在對話正在進行中,我們需要對每一個單獨的原則進行廣泛的討論。這些原則對不同的人意味著不同的事情,為了使社會盡可能多地受益,我們需要逐條考慮每一項原則。
價值比對
價值調(diào)整:高度自治的人工智能系統(tǒng)的設(shè)計應(yīng)該確保它們的目標和行為能夠在整個運行過程中與人類的價值保持一致。
在人工智能領(lǐng)域,我們面臨著類似的情況:我們?nèi)绾未_保一個人工智能會做我們真正想做的事,同時又不會在錯誤的嘗試中傷害人類,去做它的設(shè)計者所要求的事情?“機器人不會試圖反抗人類,”加州大學(xué)伯克利分校羅素大學(xué)的助理教授、同事安卡·德拉甘解釋說,“他們只會嘗試優(yōu)化我們讓他們做的任何事情。”因此,我們需要確保告訴他們,為我們真正想要的世界進行優(yōu)化。
我們想要什么?
了解我們想要什么是人工智能研究人員面臨的最大挑戰(zhàn)之一。當(dāng)然,問題是要定義這些價值觀到底是什么,因為人們可能有不同的文化,來自世界不同的地方,有不同的社會經(jīng)濟背景-我認為人們對這些價值觀會有非常不同的看法,所以這才是真正的挑戰(zhàn)。
在編程語言中編碼人類價值觀是非常困難的,但這一問題更難解決,因為我們?nèi)祟愒诠餐瑑r值觀上不一致,甚至我們在某些部分上達成一致意見也會隨著時間的推移而改變。雖然有些價值觀很難達成共識,但也有很多價值觀是我們都默示認同的。任何人類都能理解與他們交往過的情感和情感價值,但很難保證機器人也能以同樣的理解被編程。
我們可以進行科學(xué)研究,以真正了解如何從我們都認同的這些價值觀轉(zhuǎn)變?yōu)閷⑵淝度氲脚c人類共同工作的人工智能系統(tǒng)中。研究人員從另一個角度來研究這個問題的,沒有試著去理解人,而是試圖訓(xùn)練機器人或人工智能在與人互動時,能夠靈活地實現(xiàn)自己的目標。對于代理人來說,重要的是對他們的目標有不確定性,而不是假設(shè)他們是完全指定的,并且把人類的投入當(dāng)作對真正潛在的期望目標的有價值的觀察。
改寫原則?
雖然大多數(shù)研究人員同意價值對齊原則的基本思想,但并不是每個人都同意它的措辭,更不用說如何實現(xiàn)它了。人工智能先驅(qū)、蒙特利爾大學(xué)教授YoshuaBengio認為,這不可能是完全一致的。有很多東西是與生俱來的,我們無法通過機器學(xué)習(xí)來獲得,也可能很難通過哲學(xué)或內(nèi)省來獲得,所以還不完全清楚我們是否能夠完美地對齊。
盡管價值匹配通常被認為是一個未來會出現(xiàn)的問題,但這是需要盡早解決的問題,我們今天必須擔(dān)心如何執(zhí)行這一原則。隨著系統(tǒng)變得更加復(fù)雜,這將有助于解決更具挑戰(zhàn)性的價值調(diào)整問題。這是幫助ai人工智能找出它應(yīng)該做什么的一個步驟,不斷地細化目標應(yīng)該是人類和人工智能之間的一個持續(xù)的過程。
你怎么看?
人工智能與你自己的生活目標和愿望相一致對你來說意味著什么?它怎么能在同一時間與你和世界上的其他人保持一致呢?我們?nèi)绾未_保一個人的理想人工智能版本不會讓你的生活更困難?我們?nèi)绾尉腿祟悆r值觀達成一致?我們?nèi)绾未_保人工智能理解這些價值觀?如果你有一個個人人工智能助手,它應(yīng)該如何被編程來表現(xiàn)?如果我們讓人工智能更多地參與到醫(yī)學(xué)、警務(wù)或教育等領(lǐng)域,那會是什么樣子呢?作為一個社會,我們還應(yīng)該問些什么呢?