熱門文章
如果人工智能系統(tǒng)可以是“人”,他們應(yīng)該有什么權(quán)利?
發(fā)布時間:2018-09-30 分類:交通百科
公司的成立并被賦予某些權(quán)利,是因為社會認為這樣做在經(jīng)濟和社會上都是有益的。當然,在這方面已經(jīng)有了很大的回擊。法律界內(nèi)外的許多人都在問,我們是否賦予了企業(yè)太多的權(quán)利,并把它們當作人來對待。那么,如果我們決定將人工智能系統(tǒng)作為某種意義上的“法人”對待,我們應(yīng)該賦予它們什么權(quán)利和責任呢?
這在一定程度上是因為企業(yè)人格的概念多年來已被證明是如此可塑性,即使公司是法律世界中最古老的人造“人”的例子,我們?nèi)匀粵]有堅定地決定公司應(yīng)該擁有什么權(quán)利和責任。事實上,我能想到的法律“人格”的基本規(guī)則只有一條:從法律意義上講,“人格”至少要求有起訴的權(quán)利和被起訴的能力。除此之外,“人格”的含義已經(jīng)被證明是相當靈活的。這意味著,在很大程度上,我們應(yīng)該能夠在逐項權(quán)利和逐項責任的基礎(chǔ)上決定ai人工智能人的概念所包含的權(quán)利和責任。
對于企業(yè)來說,產(chǎn)權(quán)和隨之而來的責任是企業(yè)人格的核心,公司可以簽訂合同,但如果他們違反合同,也可以承擔責任。他們可以擁有專利,但也可以因?qū)@謾?quán)而被起訴。是否應(yīng)該將類似的財產(chǎn)權(quán),不動產(chǎn)、知識產(chǎn)權(quán)還是其他資產(chǎn)授予人工智能系統(tǒng)?如果是這樣的話,人工智能系統(tǒng)應(yīng)該能夠買賣這樣的財產(chǎn)而不需要人類的同意嗎?
如果人工智能的目標是鼓勵更多的資金投入人工智能,那么這些問題的答案可能是“是的”。如果人工智能系統(tǒng)有自己的資產(chǎn),就會有一個明顯的資金來源,如果人工智能系統(tǒng)造成損害,受害者可以從中獲得賠償。但許多人可能會對人工智能系統(tǒng)感到不安,這些系統(tǒng)不僅執(zhí)行金融和財產(chǎn)交易(電子系統(tǒng)已經(jīng)在執(zhí)行這些交易),而且自己擁有潛在的財產(chǎn)和金融資產(chǎn)。
從事言論自由,作出政治貢獻的權(quán)利如何?公司顯然沒有能力進行字面意義上的“演講”,但美國最高法院在“著名公民聯(lián)合案”中堅定地認定,公司有權(quán)通過競選捐款進行政治表達。而人工智能系統(tǒng),不像企業(yè),實際上能夠進行文字(如果模擬的話)語言。16年3月,種族主義者Tay的滑稽舉動表明,人工智能生成的演講可能是冒犯性的,甚至是傷害性的。政府是否應(yīng)該限制人工智能系統(tǒng)能夠和不能說出的事情?或者,人工智能系統(tǒng)是否應(yīng)該擁有人類一樣的權(quán)利,在不受政府干預(yù)的情況下表達自己的觀點?
或者這樣說:人工智能系統(tǒng)應(yīng)該得到宗教自由的保護嗎?用宗教信仰來形容機器人聽起來可能有些奇怪,但美國最高法院認為,非上市公司,即擁有少量所有者且不在股票市場上交易的公司,有權(quán)獲得某種程度的宗教保護,至少從某種意義上說,這些公司不能被迫從事會違反其所有者和管理者宗教信仰的活動。
是否應(yīng)該有類似的原則適用于人工智能系統(tǒng)?例如,制藥業(yè)的人工智能系統(tǒng)是否有權(quán)拒絕發(fā)放避孕藥具?誰應(yīng)該有權(quán)設(shè)定人工智能系統(tǒng)的宗教信仰?設(shè)計這個系統(tǒng)的人?還是最終用戶?應(yīng)該允許人工智能設(shè)計者編寫帶有最終用戶無法改變的宗教信仰的人工智能系統(tǒng)嗎?
公司是一種理論結(jié)構(gòu),實際上只存在于紙面上。相比之下,人工智能系統(tǒng)實際上存在于物理世界中。沒有人類代理人的幫助,公司就沒有能力做任何事情。從定義上講,一個自主的人工智能系統(tǒng)不受這些固有的限制。自動車輛、武器或電子交易系統(tǒng)的全部意義在于,它們可以在沒有人類明確指示的情況下完成任務(wù)。
不幸的是,我們都不知道人工智能系統(tǒng)的自主性和實體存在的法律含義應(yīng)該是什么。一方面,人工智能系統(tǒng)的自主性及其直接操縱物理世界的能力,引發(fā)了對人工智能人性化的問責問題,遠遠超過了圍繞公司的已經(jīng)很重要的問責問題。有了公司,我們總是可以讓自己放心,即使公司在法律眼中是自己的“人”,人類也在拉動杠桿。如果我們承認以人工智能為基礎(chǔ)的人,就不會有這樣的保證,這可能意味著,我們希望對人工智能的人格化范圍施加比企業(yè)人格化更大的限制。
另一方面,更大的自主性和物理存在的潛力使得人工智能系統(tǒng)看起來比公司更像人,這可能意味著我們應(yīng)該給予人工智能系統(tǒng)比公司更多的權(quán)利。如果法律體系決定承認人工智能系統(tǒng)的某種形式的人格特征,那么看看這兩種觀點中哪一種觀點占上風(fēng)可能是一件他別瘋狂的事情。