熱門文章
相關(guān)文章
- 1深圳入選中國(guó)首批13個(gè)交通強(qiáng)國(guó)
- 2智慧城市如何改變生活?
- 3堅(jiān)持法治引領(lǐng)交通強(qiáng)國(guó)建設(shè)
- 4四大領(lǐng)域22項(xiàng)任務(wù)試點(diǎn)交通強(qiáng)國(guó)
- 5日本東京大學(xué)攜手軟銀打造人工智
- 6工信部副部長(zhǎng):開(kāi)展5G區(qū)塊鏈等
- 7工信部趙志國(guó):今年中國(guó)網(wǎng)絡(luò)安全
- 8交通部開(kāi)展第二批交通強(qiáng)國(guó)建設(shè)試
- 9治理“城市病”,如何對(duì)癥下藥?
- 10城市精細(xì)化治理不能忽視的關(guān)鍵點(diǎn)
谷歌AI道德委員會(huì)解散,如何讓人工智能明辨是非?
發(fā)布時(shí)間:2019-04-18 分類:趨勢(shì)研究
據(jù)外媒報(bào)道,3月26日,Google全球事務(wù)高級(jí)副總裁Kent Walker在Google博客中發(fā)文宣布,為了貫徹落實(shí)Google AI七原則,完善相關(guān)的內(nèi)部治理結(jié)構(gòu)和流程,成立ATEAC委員會(huì),用來(lái)處理人工智能中的棘手問(wèn)題。
委員會(huì)設(shè)置8名成員,有經(jīng)濟(jì)學(xué)家、有心理學(xué)家、有美國(guó)前副國(guó)務(wù)卿,但成立不到一周,一位專家自愿退出。在本周,谷歌員工發(fā)起了一項(xiàng)請(qǐng)?jiān)?,要求該公司撤換另一名委員會(huì)成員,因?yàn)樗磳?duì)保障同性戀和變性人同等權(quán)利的法律。
為了回應(yīng)抗議,谷歌決定完全解散這個(gè)名為先進(jìn)技術(shù)外部咨詢委員會(huì)(ATEAC)的團(tuán)隊(duì),并在聲明中稱:“很明顯,在當(dāng)前的環(huán)境中,ATEAC不能按我們所希望的方式運(yùn)行,所以我們要解散它,并回到原計(jì)劃上來(lái),我們將繼續(xù)在AI帶來(lái)的重要問(wèn)題上進(jìn)行我們的工作,并將找到不同的方式來(lái)獲取外部對(duì)這些問(wèn)題的意見(jiàn)。”
雖然谷歌的AI道德委員會(huì)成立一周就土崩瓦解,但這并不意味著人工智能道德委員會(huì)的失敗和無(wú)意義。實(shí)際上,人工智能道德委員會(huì)的存在尤為必要。AI倫理問(wèn)題究竟何去何從依然值得深思。
AI與倫理的平衡,如何規(guī)避道德風(fēng)險(xiǎn)?
早到艾薩克·阿西莫夫(Isaac Asimov)提出“機(jī)器人三定律”,再到《西部世界》、《機(jī)械姬》、《黑客帝國(guó)》、《終結(jié)者》等影視劇都對(duì)人工智能倫理問(wèn)題做出了思考,人工智能可以解放人類勞動(dòng)力,但也有可能損害人類的利益,將大眾引向深淵。
人工智能的算法來(lái)自于數(shù)據(jù),當(dāng)數(shù)據(jù)里帶有潛在的價(jià)值觀傾向,隱含著偏見(jiàn)等問(wèn)題,被系統(tǒng)學(xué)習(xí)吸收,誰(shuí)來(lái)維持民眾的共識(shí),保證社會(huì)的公平?當(dāng)機(jī)器自我進(jìn)化擁有了自主意識(shí),脫離人的控制,人類作為其生產(chǎn)創(chuàng)作者,是否依舊能夠穩(wěn)穩(wěn)地掌握全局?當(dāng)不成熟的人工智能技術(shù)陷入異常,造成失誤,甚至非法入侵而傷害人類,誰(shuí)該為此承擔(dān)責(zé)任?
像谷歌自動(dòng)駕駛汽車造成人員傷亡、機(jī)器人傷人事件、保險(xiǎn)公司利用臉書(shū)數(shù)據(jù)預(yù)測(cè)事故發(fā)生率涉嫌存在偏見(jiàn)等都現(xiàn)實(shí)中的失敗案例,也是人工智能存在倫理和道德風(fēng)險(xiǎn)的例證。
面對(duì)人工智能引發(fā)的倫理問(wèn)題,科技巨頭們紛紛成立倫理委員會(huì)應(yīng)對(duì)挑戰(zhàn)。2016年,亞馬遜、微軟、谷歌、IBM和Facebook聯(lián)合成立了一家非營(yíng)利性的人工智能合作組織(Partnership on AI),而蘋果于2017年1月加入該組織。
在科技巨頭們的共識(shí)里,與其靠外界強(qiáng)加約束AI發(fā)展,不如先成立倫理委員會(huì)自主監(jiān)督。AI道德委員會(huì)是一種監(jiān)督保障,更是風(fēng)險(xiǎn)評(píng)估標(biāo)準(zhǔn)。它能夠幫助人工智能公司做出道德決策,使社會(huì)受益。
就像麻省理工學(xué)院情感計(jì)算研究組主任羅薩琳德·皮卡德教授所言,“機(jī)器越自由,就越需要道德準(zhǔn)則?!倍鴮W(xué)者們也給出了讓人工智能規(guī)避風(fēng)險(xiǎn)的新思考。
《道德機(jī)器:如何讓機(jī)器人明辨是非》中美國(guó)認(rèn)知科學(xué)哲學(xué)家科林·艾倫和技術(shù)倫理專家溫德?tīng)枴ね呃諒?qiáng)調(diào)了兩個(gè)維度——針對(duì)道德相關(guān)事實(shí)的自主性維度和敏感性維度,給出了一個(gè)關(guān)于日趨復(fù)雜的AMAs(人工道德智能體)軌跡的理解框架,以“評(píng)估它們面對(duì)的選項(xiàng)的倫理可接受性”。他們認(rèn)為“自上而下”和“自下而上”相混合的模式是機(jī)器道德發(fā)展模式的最佳選擇。即將從數(shù)據(jù)當(dāng)中學(xué)習(xí)經(jīng)驗(yàn)的自下向上和用確定的規(guī)則進(jìn)行預(yù)編程自上向下結(jié)合起來(lái)。
美國(guó)機(jī)器智能研究院奠基人尤德科夫斯基提出了“友好人工智能”的概念,認(rèn)為“友善”從設(shè)計(jì)伊始就應(yīng)當(dāng)被注入機(jī)器的智能系統(tǒng)中。
2017年12月12日,電氣電子工程師學(xué)會(huì)(IEEE)發(fā)布了《人工智能設(shè)計(jì)的倫理準(zhǔn)則》(第2版),提出合乎倫理地設(shè)計(jì)、開(kāi)發(fā)和應(yīng)用人工智能技術(shù)應(yīng)該遵循以下一般原則:人權(quán)——確保它們不侵犯國(guó)際公認(rèn)的人權(quán);福祉——在它們的設(shè)計(jì)和使用中優(yōu)先考慮人類福祉的指標(biāo);問(wèn)責(zé)——確保它們的設(shè)計(jì)者和操作者負(fù)責(zé)任且可問(wèn)責(zé);透明——確保它們以透明的方式運(yùn)行。
各國(guó)的學(xué)者、專家不斷提出關(guān)于人工智能的新倫理原則,但以人為本的理念始不曾改變。歐盟在近日也提交了他們對(duì)于人工智能倫理的答卷。
人工智能時(shí)代的道德重建:可信賴的AI
4月9日,歐盟發(fā)布了AI倫理指導(dǎo)方針,作為公司和政府機(jī)構(gòu)未來(lái)開(kāi)發(fā)AI時(shí)應(yīng)遵循7大原則,呼吁“值得信賴的人工智能”?!翱尚刨?AI”是對(duì)人工智能時(shí)代的道德重建,為AI的發(fā)展指明了一條合乎倫理的方向。
歐盟 AI 道德準(zhǔn)則草案指出,可信賴的 AI 有兩個(gè)組成要素:一、應(yīng)尊重基本權(quán)利,適用法規(guī)、核心原則和價(jià)值觀,以確?!暗赖履康摹保╡thical purpose),二、兼具技術(shù)魯棒性(robust)和可靠性,因?yàn)榧词褂辛己玫囊鈭D,缺乏技術(shù)掌握也會(huì)造成無(wú)意的傷害。
歐盟提出可信賴 AI 的道德準(zhǔn)則草案以及框架
七大關(guān)鍵原則如下:
人類作用和監(jiān)督:人工智能不應(yīng)該踐踏人類的自主性。人們不應(yīng)該被AI系統(tǒng)操縱或脅迫,而且,人類應(yīng)該能夠干預(yù)或監(jiān)督軟件做出的每一個(gè)決定。
技術(shù)的穩(wěn)健性和安全性:人工智能應(yīng)該是安全的、準(zhǔn)確的。它不應(yīng)該易于受到外部攻擊(例如對(duì)抗性實(shí)例)的影響,而且,應(yīng)該是相當(dāng)可靠的。
隱私和數(shù)據(jù)管理:人工智能系統(tǒng)收集的個(gè)人數(shù)據(jù)應(yīng)該是安全的、私有的。它不應(yīng)該讓任何人接觸,也不應(yīng)該輕易被盜。
透明性:用于創(chuàng)建人工智能系統(tǒng)的數(shù)據(jù)和算法應(yīng)該是可訪問(wèn)的,軟件所做的決定應(yīng)“由人類理解和跟蹤”。換句話說(shuō),操作員應(yīng)該能夠解釋AI系統(tǒng)所做的決定。
多樣性、非歧視和公平性:人工智能提供的服務(wù)應(yīng)面向所有人,無(wú)論年齡、性別、種族或其他特征。同樣地,系統(tǒng)不應(yīng)該在這些方面存在偏見(jiàn)。
環(huán)境和社會(huì)福祉:人工智能系統(tǒng)應(yīng)該是可持續(xù)的(即它們應(yīng)該對(duì)生態(tài)負(fù)責(zé))并“促進(jìn)積極的社會(huì)變革”。
問(wèn)責(zé)制:人工智能系統(tǒng)應(yīng)該是可審計(jì)的,并被納入企業(yè)可舉報(bào)范疇,以便受到現(xiàn)有規(guī)則的保護(hù)。應(yīng)事先告知和報(bào)告系統(tǒng)可能產(chǎn)生的負(fù)面影響。
有數(shù)據(jù)顯示,美國(guó)人工智能企業(yè)數(shù)量2039家位列全球第一,中國(guó)(不含港澳臺(tái)地區(qū))有1040家,占全球人工智能企業(yè)數(shù)的一半以上,《2019年全球AI人才報(bào)告》則展示了全球36524位頂尖AI人才,一半以上在中美。中國(guó)與美國(guó)在AI領(lǐng)域的人才和企業(yè)上占盡了優(yōu)勢(shì),可謂你追我趕,難分高低,歐盟從倫理角度切入,率先對(duì)人工智能的發(fā)展倫理做出規(guī)范,或許不失為一大良策。