熱門文章
如何防范ai人工智能的惡意使用?
發(fā)布時間:2018-09-10 分類:交通百科
我們?nèi)绾晤A測、預防和(必要時)減輕惡意使用ai人工智能的有害影響?
人工智能不僅改變了現(xiàn)有威脅的性質和范圍,而且擴大了我們將面臨的威脅范圍。他們對人工智能的許多有益的應用感到興奮,包括它將協(xié)助防御能力的方式。但是,蓄意惡意使用人工智能造成的安全威脅的情況也是很嚴重的。
我們的側重點在于人們利用人工智能進行蓄意傷害的方式,人工智能可能在網(wǎng)絡、物理和政治安全方面構成新的威脅,或改變現(xiàn)有威脅的性質。我們需要認識到這些風險,并采取措施加以管理,因為技術正在以指數(shù)級的速度發(fā)展。
人工智能系統(tǒng)往往比傳統(tǒng)工具效率更高,可擴展性更好。此外,使用人工智能可以增加一個人對所采取行動的匿名性和心理距離,有可能降低犯罪和暴力行為的障礙。此外,人工智能系統(tǒng)有其自身獨特的漏洞,包括來自數(shù)據(jù)中毒的風險,對抗性的例子,以及利用其設計中的缺陷。啟用人工智能的攻擊將超過傳統(tǒng)的網(wǎng)絡攻擊,因為它們通常會更有效,目標更精確,更難以確定。
我們需要準備的攻擊種類并不限于復雜的計算機黑客,主要存在三個安全領域:
1、數(shù)字安全:主要涉及網(wǎng)絡攻擊;
2、實體安全:指用無人機和其他物理系統(tǒng)進行攻擊;
3、政治安全:包括監(jiān)視、通過有針對性的宣傳進行說服以及通過操縱視頻進行欺騙。這些域有很大的重疊,但該框架對于識別不同類型的攻擊、攻擊背后的原理以及可用于保護我們自己的各種選擇都很有用。
可以做些什么來為惡意使用人工智能跨這些領域做準備?可能是研究人員和決策者探索未來和集思廣益的好方法,以管理最關鍵的威脅。例如,想象一個商業(yè)清潔機器人被改造成一個不可追蹤的爆炸裝置可能會嚇到我們,但它也說明了為什么像機器人注冊要求這樣的政策可能是一個有用的選擇。
每個領域也有自己可能的控制點和對策,例如,為了提高數(shù)字安全,公司可以提高消費者的意識,并鼓勵白帽黑客發(fā)現(xiàn)代碼中的漏洞。我們還可以向網(wǎng)絡安全界學習,并采用一些措施,如人工智能開發(fā)中的紅色團隊、人工智能系統(tǒng)中的正式驗證,以及負責任地披露人工智能漏洞。為了改善實體安全,政策制定者可能希望監(jiān)管硬件開發(fā),并禁止銷售致命的自主武器。同時,媒體平臺可以通過提供圖像和視頻真實性認證、假新聞檢測和加密來最大限度地減少對政治安全的威脅。
這里提出四項建議,目的不是提供具體的技術或政策建議,而是提前注意值得進一步調(diào)查的領域。這些建議如下:
1、決策者應與技術研究人員密切合作,調(diào)查、預防和減少人工智能的潛在惡意用途。
2、人工智能領域的研究人員和工程師應認真對待其工作的雙重用途性質,允許與濫用有關的考慮影響研究優(yōu)先事項和規(guī)范,并在可預見有害應用時主動接觸相關行為者。
3、在研究領域找出最佳做法,采用更成熟的方法解決雙重用途問題,如計算機安全問題,并在適用于人工智能的情況下引入最佳做法。
4、積極尋求擴大參與討論這些挑戰(zhàn)的利益攸關方和領域專家的范圍。
最后是向網(wǎng)絡安全界學習并與之合作,因為隨著基于人工智能的系統(tǒng)變得更加廣泛和有能力,網(wǎng)絡安全事件的影響將不斷擴大。其他研究領域包括探索不同的開放模式,在人工智能研究人員中促進責任文化,以及開發(fā)技術和政策解決方案。
惡意使用人工智能將影響我們?nèi)绾螛嫿ê凸芾砦覀兊臄?shù)字基礎設施,以及我們?nèi)绾卧O計和分發(fā)人工智能系統(tǒng),并可能需要政策和其他機構的回應。雖然這只是對人工智能將如何影響全球安全的必要理解的開始,但將推動討論向前推進。