■機器人的反叛
那么,如何避免程序漏洞,使得殺人機器人不會攻擊人類?或許一行不巧被刪掉的代碼就能產(chǎn)生這樣的漏洞,我們是否可以把機器人的這種行徑視為反叛?這個問題和人類的追責機制類似。即使殺了人,精神病患者是不用負刑事責任的。因此,需要定義什么叫“機器人發(fā)瘋”。最為可能的情況是,機器人出現(xiàn)了軟件故障。機器人反叛的真正問題首先在于如何定義反叛,而想要給出這項定義卻困難重重。如何區(qū)分愚蠢的故障和有意為之的反叛呢?
美國康涅狄格大學著名機器人倫理問題專家蘇珊·安德森提出,機器人造反實際上可能是正當?shù)摹T谒磥?,道德學巨匠伊曼努爾·康德就曾間接地討論過智能機器人的問題。她重新審視了阿西莫夫的機器人定律:如果“機器人”有能力理解并實踐機器人定律,那么我們是否有權(quán)將這些定律強加于它們,并要求它們成為人類的奴隸呢?
蘇珊·安德森指出,按照康德的觀點,人類欠動物一份尊重,因為只有我們尊重它們,它們才會尊重我們。她認為依據(jù)同樣的道理,如果康德也曾思考過機器人的問題,他可能會支持這樣一種觀念:如果有一天能夠理解機器人定律的機器人真的出現(xiàn)了,那么我們應當尊重它們,向它們強加機器人定律也就無從談起了。
科幻作品以輕松愉快的方式處理了這些與現(xiàn)實相距甚遠的問題,科學和哲學又迫使我們重新思考。我們亟須對目前已經(jīng)出現(xiàn)的機器人進行公正的評估并采取相應的手段。這些復雜的評估任務包含了許多難解的倫理和哲學謎題,而其中一些迫切需要答案。哲學家、倫理學家、軍方人士和軟件工程師應當展開討論并達成一致的意見。
(作者為法國里爾第一大學計算機基礎科學學院教授)
本文由《環(huán)球科學》雜志社供稿
■無法服從機器人定律
現(xiàn)在的機器人擁有的功能和人們當初設想的不太一樣??萍疾]有讓我們憑空創(chuàng)造出和自己一樣的東西,我們并不能像對待奴隸或傭人那樣指使它們。機器人以及智能系統(tǒng)的產(chǎn)生并非一蹴而就,因為科技總是沿著意想不到的方向前進。這樣一來,如何準確區(qū)分機器人和智能系統(tǒng)就變得十分棘手。
駕駛飛機平安降落的自主系統(tǒng)能否稱為機器人?它是否具有智能?我們很容易得出否定的答案。這個自主系統(tǒng)操作飛機的能力和人類飛行員一樣好,而且對自己的方位了如指掌,所以才能讓飛機準確降落。雖然它的功能很有限,但在降落飛機這項人命關(guān)天的任務上,它和人類相比毫不遜色。
現(xiàn)代社會中機器人的工作非常專業(yè)化,它們不具備與人類用通俗語言交流的能力。我們無法要求它們遵守阿西莫夫的機器人定律,因為它們完全不能理解這些定律的意義。如果想要應用機器人定律,智能系統(tǒng)必須具備邏輯分析和推理能力,并且能夠預測行為所導致的后果,以判斷人類下達的指令是否和任何一條定律相悖。但目前,機器人還不能進行這樣的分析。
美國iRobot公司的創(chuàng)始人羅德尼·布魯克斯曾就上述問題直白地表達了自己的觀點。媒體問他,為何iRobot生產(chǎn)的機器人不能自動遵守阿西莫夫定律,他回答,“理由很簡單,我們根本沒法把阿西莫夫的定律寫入它們的系統(tǒng)中。”雖然未來的智能系統(tǒng)可能會隨著科技的進步而發(fā)展出智力,并且智能系統(tǒng)中負責自主抉擇的組件會獲得性能提升,但這種機器智力和人類智力仍然不可同日而語。也就是說,科幻作家當初讓機器人理解和服從阿西莫夫定律的希望,現(xiàn)在已經(jīng)變成了一件異想天開的事。但是,這并非意味著討論機械倫理問題就是多此一舉。因為在自動駕駛領(lǐng)域,相關(guān)研發(fā)已經(jīng)進行了許多年,多家公司設計的性能穩(wěn)定的產(chǎn)品也將進入市場,因此討論機械倫理問題的時機已經(jīng)成熟。