熱門文章
歐盟發(fā)布人工智能道德準則,欲另辟蹊徑,成為道德AI領導者
發(fā)布時間:2019-04-10 分類:趨勢研究
當地時間4月8日,歐盟委員會發(fā)布一份人工智能道德準則,該準則由2018年12月公布的人工智能道德準則草案演變而來,提出了實現可信賴人工智能的七個要素,要求不得使用公民個人資料做出傷害或歧視他們的行為。
同時,歐盟委員會宣布啟動人工智能道德準則的試行階段,邀請工業(yè)界、研究機構和政府機構對人工智能道德準則進行測試和補充。
這份人工智能道德準則提出了實現可信賴人工智能的七個要素,分別是:
1.人的能動性和監(jiān)督:人工智能系統(tǒng)應通過支持人的能動性和基本權利以實現公平社會,而不是減少、限制或錯誤地指導人類自治。
2.穩(wěn)健性和安全性:值得信賴的人工智能要求算法足夠安全、可靠和穩(wěn)健,以處理人工智能系統(tǒng)所有生命周期階段的錯誤或不一致。
3.隱私和數據管理:公民應該完全控制自己的數據,同時與之相關的數據不會被用來傷害或歧視他們。
4.透明度:應確保人工智能系統(tǒng)的可追溯性。
5.多樣性、非歧視性和公平性:人工智能系統(tǒng)應考慮人類能力、技能和要求的總體范圍,并確保可接近性。
6.社會和環(huán)境福祉:應采用人工智能系統(tǒng)來促進積極的社會變革,增強可持續(xù)性和生態(tài)責任。
7.問責:應建立機制,確保對人工智能系統(tǒng)及其成果負責和問責。
對于這份人工智能道德準則,歐盟委員會負責數字化單一市場的副主席安德魯斯·安西(Andrus Ansip)表示歡迎,他認為:“人工智能的倫理并不是一個奢侈特征或附加功能。只有有了信任,我們的社會才能充分受益于技術。有道德的人工智能是一個雙贏的主張,可以成為歐洲的競爭優(yōu)勢:成為以人為中心的人工智能的領導者,讓人們可以信任?!?
歐盟委員會表示,其目前正在采取三步行動以促進可信賴的人工智能健康發(fā)展:制定值得信賴的人工智能的關鍵要求,啟動利益相關者的大規(guī)模試點階段,為以人為中心的人工智能建立國際共識。
歐盟委員會希望將上述人工智能倫理方法帶到全球舞臺。為此,歐盟委員會表示,將與日本、加拿大和新加坡等開展合作,試行階段也將涉及來自其他國家和國際組織的公司。
在試行階段之后,到2020年初,歐盟人工智能高級別專家組將根據收到的反饋審查評估清單,并根據評估結果并提出下一步行動。
此外,為了確保人工智能的道德發(fā)展,歐盟委員會表示,將在2019年秋季之前啟動一套人工智能研究卓越中心網絡;開始建立數字創(chuàng)新中心網絡;與歐盟成員國和利益相關者一起,開始討論制定數據共享模型。
上述人工智能道德準則由歐盟人工智能高級別專家組(AI HLEG)起草。
2018年,52位代表學術界、工業(yè)界和民間社會的獨立專家受歐盟委員會任命,成立了歐盟人工智能高級別專家組,負責撰寫人工智能道德準則并為歐盟提供政策和投資建議。
2018年12月18日,歐盟人工智能高級別專家組向社會發(fā)布了人工智能道德準則草案(Draft Ethics Guidelines For Trustworthy AI,以下簡稱草案),該草案當時被視為是歐洲“可信賴人工智能”的討論起點。
草案為“可信賴人工智能”提出了一個官方解釋。草案認為,“可信賴人工智能”有兩個必要的組成部分:首先,它應該尊重基本權利、規(guī)章制度、核心原則及價值觀,以確?!暗赖履康摹?,其次,它應該在技術上強健且可靠,因為即使有良好的意圖,缺乏對技術的掌握也會造成無意的傷害。
12月發(fā)布的草案還提出了一份可信賴的人工智能評估表,從責任、數據治理、為所有人設計、管理AI自治、非歧視、尊重隱私、尊重(和加強)人類自主權、穩(wěn)健性、安全性、透明度共10個維度列舉了可信賴人工智能的相關要求。
近年來,歐盟一再表示希望成為道德AI的領導者。對此,美國科技媒體《邊緣》(The Verge)評論稱,這在一定程度上是由目前的環(huán)境造成的,在涉及投資和尖端研究時,歐盟無法與美國和中國競爭,因此選擇道德是塑造技術未來的最佳選擇。