熱門文章
理想主義與人工智能汽車
發(fā)布時間:2018-08-14 分類:交通百科
你可能已經(jīng)在新聞中看到,F(xiàn)acebook創(chuàng)始人兼首席執(zhí)行官馬克·扎克伯格最近在國會作證,其中包括以下要點:
1、Facebook是一家理想主義和樂觀的公司,在存在的大部分時間里,專注于為人與人之間提供更好的聯(lián)系。
2、我們沒有采取足夠的措施來防止這些工具也被用于傷害他人。
3、對自己的責(zé)任認(rèn)識不夠廣泛,這是一個大錯誤。
有些人對這些觀點的反應(yīng)是同情的,對他們來說,這只是一個例子,工程師們試圖做正確的事情,無意中,一些不太正確的事情發(fā)生了。這是硅谷的總體形象,即數(shù)以萬計的工程師都在做正確的事情,有時他們感到困惑,意識到這可能并不完全正確。他們?nèi)绱藢W⒂谥圃旄玫牟妒笃鳎⒁粤钊伺d奮的新技術(shù)向前推進(jìn),我們很難責(zé)怪他們對手頭事務(wù)的專注程度。
我記得一家大型科技公司的高級軟件工程師告訴我,她離開硅谷后開始意識到,她發(fā)現(xiàn)在她的任何工程團隊中都沒有真正的專業(yè)“倫理學(xué)家”,一直都是編程。她告訴我,除了正在建造的純粹的工程之外,她從來沒有考慮過對她的工作有什么考慮。
如果上面的內(nèi)容對你來說有點在敷衍,那么你并不是孤軍奮戰(zhàn)。憤世嫉俗者說,這種企圖創(chuàng)造一個有益健康的形象,不過是一個保護盾牌,被用來阻止其他人。對這些批評者來說,他們斷言理想主義和樂觀主義的使用是一件天使的斗篷,用在最聰明的馬基雅維利式的方式上。
有一些是介于這些觀點之間的,他們說也許有真正的理想主義,并夾雜著一些狡猾,但這些工程師就像天真的孩子,需要一個成年人在房間里。事實上,你可能還記得,當(dāng)約翰·斯卡利(JohnSculley)進(jìn)入蘋果公司(Apple)時,人們認(rèn)為,最終是一位負(fù)責(zé)任的家長掌舵這家公司。他希望這位慈父般的人物能讓公司重新聚焦,他會從商業(yè)和工業(yè)的角度看待那些孤立的工程師,他們似乎不知道公司的圍墻之外還有什么存在。在這種觀點下,工程師就像他們自己的工程操場上天真的孩子,他們還沒有面對現(xiàn)實世界,他們將繼續(xù)這樣下去,直到一個成年人進(jìn)入這個世界。
以理想主義為主導(dǎo)的人工智能汽車
回到扎克伯格的講話,請允許我做一些調(diào)整,我們可能或看到其他的高管講話:
“我們是一家理想主義和樂觀的公司。在我們存在的大部分時間里,我們專注于人工智能汽車所能帶來的一切好處?!啊?
“現(xiàn)在很明顯,我們沒有采取足夠的措施來防止我們的人工智能汽車受到傷害?!?
“我們對自己的責(zé)任認(rèn)識不夠廣泛,這是一個大錯誤?!?
是的,有一天,這可能是人工智能汽車制造商的一位高管在向國會作證時可能會說的話。
現(xiàn)在,自動駕駛汽車行業(yè)的許多人都充滿了理想主義,他們想制造人工智能汽車,以改善社會,他們相信人工智能汽車的出現(xiàn)將使移動性民主化。他們還相信,人工智能汽車將拯救生命,你會不斷地聽到有多少人因為酒后駕車撞人而喪生,而人工智能永遠(yuǎn)不會喝醉,所以我們不會再以這種方式失去生命了。
與這種理想主義的一個“小”區(qū)別是,它涉及到生與死。如果你因為一個社交媒體系統(tǒng)而失去了一些隱私,這可能會很糟糕,但它很少會讓你付出生命的代價。如果你的人工智能汽車由于人工智能中的某些東西而出現(xiàn)故障,這可能意味著自動駕駛汽車撞到了墻上,或者撞上了行人,或者帶來了其他可怕的結(jié)果。
我們正在開發(fā)人工智能汽車系統(tǒng),必須認(rèn)識到這其中所涉及的巨大責(zé)任,并呼吁我們的同事和合作伙伴同樣意識到并承擔(dān)這一責(zé)任。
它也是人工智能的整體
我們也可以擴大范圍,不僅僅是人工智能汽車,并考慮整個空間的人工智能努力。正在進(jìn)行的一些涉及人工智能開發(fā)人員和建造人工智能系統(tǒng)的激烈辯論是否沒有充分考慮到這類系統(tǒng)可能對人民和社會產(chǎn)生的影響。能像人類一樣走路和說話的機器人,這是一件好事,但是它也有不利的后果。日常人類所做的工作可能會被人工智能所取代,不管是好是壞,這些方面可以徹底改變我們工作、娛樂和生活的結(jié)構(gòu),這難道不值得我們思考嗎?
許多人工智能領(lǐng)域的人會聲稱,他們只是想打破界限,看看人工智能走多遠(yuǎn)。他們把注意力集中在實現(xiàn)真正的人工智能上,就像達(dá)到一座大家都認(rèn)為不可能攀登的高山一樣。他們希望人工智能像人類一樣發(fā)揮作用,因為它是可以做到的(或者證明它是可以做到的),他們認(rèn)為人工智能是一個有價值的挑戰(zhàn),這是一個有待解決的難題。有些人擔(dān)心這會讓我們陷入類似科學(xué)怪人的境地。
貫穿這一理想主義的一個共同主線是,對這些開發(fā)人員的努力的后果缺乏關(guān)注。這是一個合理的借口,事后說,你從來沒有想到有一天,你的創(chuàng)造和發(fā)明可能會產(chǎn)生不利的后果?這是個大問題。
有一些人不相信這種事后復(fù)古的觀點,這種觀點似乎把可能被認(rèn)為是罪犯的東西變成了受害者。有些人創(chuàng)造了一些有不良后果的東西,試圖通過將聚光燈從作惡者轉(zhuǎn)移到受害者的方式來擺脫困境。他們只是想做好事,他們不是想做壞事。在試圖做好事的過程中,不幸和不可預(yù)知的事情有時會變壞,哦,對不起,我們是自己天真的犧牲品。因此,人們的反應(yīng)應(yīng)該是同情,而不是生他們的氣。讓他們感到悲哀的是,他們的正義努力產(chǎn)生了一些不幸的結(jié)果,但在那些“意外”的結(jié)果中,他們和我們其他人一樣是受害者。
這些不良后果真的是不可預(yù)測和無法預(yù)料的嗎?
是不可預(yù)測的嗎?
對許多人來說,這是一種令人憤怒的說法,即不利的結(jié)果是完全不可預(yù)測的,他們說這是不可信的。在一個擔(dān)心氣候變化,人口過剩,核戰(zhàn)爭,以及最近社會影響意識的擴張的世界里,像“自我運動”這樣的運動,真的還有人生活在一個洞穴里,以至于他們沒有考慮可能會發(fā)生什么壞事嗎?在人工智能汽車方面,我一直在告誡人們,在建造和部署人工智能汽車時,需要考慮現(xiàn)實世界的現(xiàn)實生活后果和道德問題,而且不知何故,等到之后再做這些事情既魯莽,又可能失敗,這是一種愚蠢的行為,也是一條可能失敗的道路。
但是,如果有人注意到這些規(guī)勸,就必須問一問。憤世嫉俗者說,這些開發(fā)人員中的一些人在傾聽,但選擇忽略它,他們想要得到那些錢,并不想知道事情的進(jìn)展?;蛘?,他們認(rèn)為,傾聽并根據(jù)這些考慮采取行動,會分散人們對解決深層問題的注意力。他們會說他們沒有時間擔(dān)心,可以說,他們只有足夠的時間來完成這項工作。計算機行業(yè)正在努力培養(yǎng)一套道德準(zhǔn)則,這將有助于激勵開發(fā)人員考慮他們的努力的后果。
那些陷入這種困境的公司經(jīng)常使用的一個反駁是,一旦你用理想主義的純粹主義作為一種框架來對待他們,并指出他們一路上可能也賺了很多錢,那么激勵他們的不僅僅是理想主義的神圣性,他們會回應(yīng)說:他們必須賺錢,但這僅僅是為了提供燃料,讓他們的理想主義繼續(xù)下去。他們把錢和理想主義聯(lián)系在一起,這把金錢方面巧妙地隱藏起來了,也許他們是對的,也許這是另一個詭計。誰會知道呢?
還有另一個角度,有人說,如果我們看到真正的宏觀圖景,我們可能會意識到,發(fā)生的“壞”是更大的旅程的一部分,最終把我們帶到更大的好。也許Facebook的隱私方面是善意的提醒,個人隱私的重要性,因此,它啟發(fā)社會,并喚醒所有其他社會媒體網(wǎng)站。你必須先爬,然后才能走,在旅途中,你需要摔倒一些時間,這沒什么,這是為了更好地行走。從這個意義上說,facebook所做的實際上就是有意義的,不管它是出于偶然還是有意而為,不管怎樣,這都是一個重要的、偶然的警鐘。
在人工智能汽車領(lǐng)域,一些汽車制造商和科技公司擔(dān)心,如果我們今天讓一些涉及自動駕駛汽車的“死亡事件”來阻止我們,我們將無法獲得最終減少未來死亡人數(shù)的更大好處。這是凈現(xiàn)值型的等式。假設(shè)在第一輪人工智能汽車中,每年有1000人死亡,這是連續(xù)5年發(fā)生的(由于人工智能汽車的失敗),但它允許人工智能汽車的整體改進(jìn),從而完善它們。假設(shè)沒有人工智能汽車,我們將有3萬人死亡。在某一時刻,凈效應(yīng)將是在足夠長的一段時間內(nèi)總死亡人數(shù)將減少(在長期內(nèi)傳統(tǒng)汽車死亡人數(shù)的減少將超過短期內(nèi)人工智能汽車“額外”死亡的總數(shù))。因此,他們說,你需要容忍現(xiàn)在發(fā)生的一些近期死亡,作為以后不再發(fā)生長期死亡的一種交換條件。
如果你或你所愛的不小心成為了人工智能汽車導(dǎo)致的死亡人員中,很難想象你為更大的利益而死會感到很大的安慰。你肯定會問,難道一定以現(xiàn)在的犧牲獲取以后更大的利益?難道沒有其他的解決辦法?
在人工智能汽車中的應(yīng)用
讓我們關(guān)注一下這一切對人工智能汽車意味著什么,這里有一些要點需要考慮:
1、人工智能汽車制造商現(xiàn)在需要考慮人工智能汽車的潛在不利后果,他們需要做他們現(xiàn)在能做的來防止或減輕這些未來的可預(yù)測的后果。
2、參與制造人工智能汽車的人工智能開發(fā)人員和工程師也需要考慮這些不利后果,并且要像倫理學(xué)家一樣小心。
3、用理想主義給你力量和精神去堅持一個非常艱巨的追求,但是不要讓理想主義縮小你的思維,以至于你也忽視了事物的壞的一面。
4、樂觀地認(rèn)為,我們可以實現(xiàn)安全的人工智能汽車,這將為社會提供預(yù)期的好處,但溫和的“悲觀”的因素,認(rèn)為人工智能很可能會來一些壞處,所以請您盡全力來遏制它。
5、讓我們以后不要以這樣的姿態(tài)回顧過去,說如果我們向前看,預(yù)測可能發(fā)生的事情,無論是好的還是壞的,并且盡早做一些事情來彌補。
據(jù)我所知,大多數(shù)人工智能汽車開發(fā)商都是非常理想主義的樂觀主義者,對此,我們應(yīng)該心存感激。然而,今天的世界已經(jīng)不像五十年前那樣了,也就是說,對這個世界的天真似乎不再可能了。人工智能汽車制造商和人工智能汽車開發(fā)商需要承認(rèn),他們有沉重的責(zé)任,并承擔(dān)著這一沉重的負(fù)擔(dān),負(fù)責(zé)任地開發(fā)和現(xiàn)場安全可靠的人工智能汽車。