熱門文章
讓人工智能在變幻莫測的世界中變得安全
發(fā)布時間:2018-10-11 分類:交通百科
我們的人工智能系統(tǒng)在封閉的世界里工作得非常好,這是因為這些環(huán)境包含了一定數(shù)量的變量,使世界變得完全可知和完全可預(yù)測。在這些微環(huán)境中,機器只會遇到熟悉的物體。因此,他們總是知道自己應(yīng)該如何行動和回應(yīng)。不幸的是,當這些系統(tǒng)被部署到現(xiàn)實世界中時,它們很快就會變得混亂起來,因為它們對許多對象并不熟悉。這不是一個小問題,因為當AI人工智能系統(tǒng)變得混亂時,結(jié)果可能是致命的。
例如,假設(shè)一輛自動駕駛汽車遇到了一個新奇的物體,它是應(yīng)該加速呢,還是應(yīng)該減速呢?或者考慮一個能看到異常的自動武器系統(tǒng),它應(yīng)該攻擊,還是應(yīng)該關(guān)閉電源?每一個例子都涉及生死攸關(guān)的決定,如果我們要在現(xiàn)實環(huán)境中部署先進的人工智能系統(tǒng),我們必須確信,當它們遇到不熟悉的物體時,它們的行為會是正確的。
要解決這個識別問題,首先要確保我們的人工智能系統(tǒng)遇到外來物體時,它們會識別出來,并且不會把它誤認為是它們熟悉的東西。為了實現(xiàn)這一點,我們必須擺脫(或至少大幅度修改)目前主導人工智能研究的歧視性訓練方法。然而,要做到這一點,我們必須首先解決開放類別問題。
理解開放范疇問題
當我們沿著這條路行駛的時候,我們會遇到幾乎無限多的異?,F(xiàn)象。也許一場猛烈的風暴即將來臨,冰雹將開始降下,也許我們的視力會因為煙霧或過多的霧而受阻。雖然這些遭遇可能是意外的,但人類的大腦能夠很容易地分析新的信息,并決定采取適當?shù)男袆樱皇峭蝗慌榈囊宦曂\嚒?
因為它們的編程方式,我們的計算機系統(tǒng)不能做同樣的事情
如今,我們使用機器學習來創(chuàng)建人工智能系統(tǒng)和軟件的方式,通常使用的是一種叫做區(qū)別性訓練的東西,它隱含著假設(shè)世界只由一千種不同的物體組成的假設(shè)。這意味著,如果一臺機器遇到了一個新的物體,它將假定它一定是它訓練過的一千件東西中的一件。結(jié)果,這些系統(tǒng)對所有外來物體進行了錯誤分類。
從實用的角度來看,這意味著創(chuàng)建一個異常檢測算法,為人工智能系統(tǒng)檢測到的每個對象分配一個異常分數(shù)。必須將該分數(shù)與設(shè)定的閾值進行比較,如果異常分數(shù)超過閾值,系統(tǒng)將需要發(fā)出警報。作為對這一警報的反應(yīng),人工智能系統(tǒng)應(yīng)該采取預(yù)先確定的安全措施,例如,一輛自動駕駛汽車檢測到異常情況,可能會減速并停到路邊。
創(chuàng)造安全的理論保障
要使這種方法發(fā)揮作用,有兩個挑戰(zhàn)。首先,我們需要良好的異常檢測算法。在此之前,為了確定哪些算法運行良好,我們比較了八種最先進的異常檢測算法在大量基準問題上的性能。
第二個挑戰(zhàn)是設(shè)置報警閾值,以保證人工智能系統(tǒng)能夠檢測到所需的部分外來物體,為這一界限設(shè)定一個可靠的設(shè)定是最具挑戰(zhàn)性的研究問題之一,因為有可能存在無限種的外星物體。問題是,我們不可能把所有外來物的訓練數(shù)據(jù)都貼上標簽。如果我們有這樣的數(shù)據(jù),我們只需對有標簽的數(shù)據(jù)進行識別分類器的訓練。
為了避開這個標簽問題,可以假設(shè)鑒別分類器可以訪問反映更大統(tǒng)計總體的代表性“查詢對象”樣本。例如,可以通過收集世界各地高速公路上行駛的汽車的數(shù)據(jù)來獲得這樣的樣本。此示例將包含部分未知對象,其余對象屬于已知對象類別。
值得注意的是,樣本中的數(shù)據(jù)沒有標記,相反,人工智能系統(tǒng)給出了樣本中外來物所占比例的估計值。并且通過將樣本中的信息與用于訓練判別分類器的標記訓練數(shù)據(jù)相結(jié)合,新的算法可以選擇一個好的報警閾值。如果已知外來物的估計分數(shù)是真實分數(shù)的過高估計,那么所選擇的閾值就可以保證檢測出目標的外來物百分比。
在下一階段的研究中,開始在更復雜的環(huán)境中測試算法。到目前為止,主要關(guān)注的是分類,即系統(tǒng)觀察圖像并對其進行分類。接下來,計劃轉(zhuǎn)移到控制代理人,像自動駕駛汽車的機器人。在每個時間點上,為了決定選擇什么行動,我們的系統(tǒng)將根據(jù)對Agent行為及其環(huán)境的學習模型進行前瞻性搜索。