熱門文章
安全的人工智能可以從協(xié)作開始
發(fā)布時間:2018-09-18 分類:交通百科
研究文化原則:應(yīng)該在人工智能的研究人員和開發(fā)人員之間培養(yǎng)一種合作、信任和透明的文化。
競爭和保密只是做生意的一部分,即使在學(xué)術(shù)界,研究人員也常常將自己的想法和即將出現(xiàn)的發(fā)現(xiàn)保存起來,直到贈款或出版物最后確定為止。但有時,即使是競爭對手和研究實(shí)驗室也在一起工作,對于組織來說,為了解決問題和解決挑戰(zhàn)而進(jìn)行合作,否則會導(dǎo)致重復(fù)成本和浪費(fèi)時間,這種情況并不少見。
這種友好的行為有助于團(tuán)體更有效地解決監(jiān)管問題,制定標(biāo)準(zhǔn),并分享安全方面的最佳實(shí)踐。盡管這些公司或研究實(shí)驗室-無論是在ai人工智能領(lǐng)域還是任何其他領(lǐng)域-在某些問題上進(jìn)行合作,他們的目標(biāo)仍然是第一個開發(fā)新產(chǎn)品或做出新發(fā)現(xiàn)。
像人工智能這樣的新技術(shù),如何在合作確保安全和單獨(dú)保護(hù)新想法之間劃清界限?由于研究文化原則沒有區(qū)分人工智能安全合作和人工智能系統(tǒng)開發(fā),從與我討論這一原則的人工智能研究人員和倫理學(xué)家的反應(yīng)來看,它可以得到廣義的解釋。
必要的第一步
在早期階段,它是關(guān)于創(chuàng)造一個共同的理解,有益的人工智能需要一個積極的承諾,使其結(jié)果為每個人都好,這不是默認(rèn)的道路。為了確保這種權(quán)力在成熟時得到很好的利用,我們需要有一種文化,一套規(guī)范,一套期望,一套有利于好結(jié)果的制度。這就是我們要做的-讓人們聚在一起,并致力于以一種互利的方式指導(dǎo)人工智能,否則任何人都會有強(qiáng)烈的動機(jī)去做其他事情。
這將是一個非常友好的原則,但它可以更好地在大學(xué)里發(fā)揮作用,因為在大學(xué)里,沒有和工業(yè)界一樣的競爭優(yōu)勢概念。大學(xué)也是能很好的培養(yǎng)研究人員之間的合作與信任…如果沒有合作,我們都不會有任何進(jìn)展,因為我們不會孤立地做事情。因此,我相信這種研究文化的想法不僅適用于人工智能-也希望它適用于人們所研究的許多學(xué)科。
但不幸的是,可能有一些組織,包括政府,不遵循透明和合作的原則。重要的是我們制定了指導(dǎo)方針,并以制定其他人認(rèn)為他們需要遵循的規(guī)范為目標(biāo),那就是提醒大家注意人工智能的安全,這一點(diǎn)非常重要。
什么是合作、信任和透明的文化?
合作、信任和透明的文化是什么意思?自然會有兩極分化的可能,在(道德)或風(fēng)險或法律合規(guī)方面,他們認(rèn)為技術(shù)人員可能沒有考慮到某些問題。這是我們推進(jìn)我們的工作所真正需要的信息時,你就會建立起合作、信任和透明的文化。我們怎樣才能知道你需要更多什么,這樣我們才能用這些問題很好地解決這個問題?這個原則是偉大的,但下一句話應(yīng)該是:給我下一個步驟,使之成為現(xiàn)實(shí)。
團(tuán)結(jié)一個支離破碎的社區(qū)
建立一個有凝聚力的合作文化會在很多事情上有所幫助,這將有助于加速研究和避免種族沖突,但我看到的人工智能社區(qū)的大問題是,沒有人工智能社區(qū),它是支離破碎的,它是一個科學(xué)怪人縫合在一起的各種社區(qū)。你有程序員,工程師,機(jī)器人專家;你有數(shù)據(jù)科學(xué)家,甚至不清楚什么是數(shù)據(jù)科學(xué)家。他們是從事統(tǒng)計學(xué)或經(jīng)濟(jì)學(xué)的人,還是工程師,還是程序員?…沒有凝聚力的身份,這將是一個巨大的挑戰(zhàn),創(chuàng)造一個有凝聚力的文化,合作和信任,是透明的,但這是一個有價值的目標(biāo)。
貫徹原則
人工智能研究界在合作、信任和透明度方面已經(jīng)有了相當(dāng)顯著的規(guī)范,從NIP、AAAI和IJCAI的活躍氣氛,到學(xué)術(shù)界、產(chǎn)業(yè)界和非政府組織之間越來越多的研究合作(無論是在項目方面還是在多個職位持有人方面),再到整個人工智能研究領(lǐng)域中不回避指出不良做法或違反規(guī)范的豐富博客社區(qū),都有相當(dāng)多的規(guī)范。
工業(yè)人工智能實(shí)驗室公開出版的承諾是值得贊揚(yáng)的,而且似乎正逐漸成為一種規(guī)范,迫使歷史上不太開放的公司公開他們的研究。坦率地說,對高端人工智能研究技能的需求意味著,無論是個人還是群體,研究人員都可以對自己的工作環(huán)境提出強(qiáng)烈要求,從工資和零食等實(shí)際問題,到開放和項目選擇的規(guī)范性問題。
人工智能研究中強(qiáng)烈的個人主義也表明,促進(jìn)長期有益人工智能合作的方式將是與既有研究人員和培訓(xùn)研究人員討論潛在風(fēng)險,并培養(yǎng)責(zé)任感和對未來的監(jiān)護(hù)。我們已經(jīng)看到,一群見多識廣、有道德觀念和積極主動的研究團(tuán)隊,將能夠?qū)⒆罴褜?shí)踐奉若神明,并讓他們的雇主和同事遵守有益人工智能的準(zhǔn)則。
你怎么看?
隨著諸如人工智能合作伙伴關(guān)系的形成,有可能我們已經(jīng)看到工業(yè)和學(xué)術(shù)界開始朝著合作、信任和透明的方向前進(jìn)的跡象了。但這就足夠了嗎?還是世界各國政府必須加入進(jìn)來?總體而言,人工智能公司和研究實(shí)驗室如何在不犧牲自己的想法和產(chǎn)品的情況下,確保共享必要的安全研究成果?