
道德是人類社會的一種意識形態,是一種非強制性的約束法則。要讓機器人理解人類所謂的道德,這有可能嗎?
在熱播美劇《紙牌屋》第三季中,有一個令人深思的情節:弗蘭西斯(劇中總統)同意了美軍使用無人機轟炸恐怖分子頭目的作戰方案,卻因此傷及無辜,導致許多平民受傷。其中,失去雙腿的阿拉伯裔美國公民默罕默德,一紙訴狀將弗蘭西斯告上法庭……
現實悲劇
作為一部頗有現實意義的電視劇,《紙牌屋》反映了當今社會的某些真實問題。如今,美軍已經大量使用能夠遠程遙控、實施自動攻擊的無人機,但也因此頻發殃及無辜的慘劇。在阿富汗戰爭中,美軍無人機每消滅1名恐怖分子,就會有50名無辜者連帶喪生。同時,許多歐盟國家也在研發可以自主行動的戰場機器人(俗稱“殺人機器人”),這種武器雖然還未問世,但相關技術已經非常成熟。不久前,聯合國安理會根據《特定常規武器公約》,呼吁各國中止這類機器人的研發和應用,并希望大家能夠永久性地禁止開發具備獨立殺人決策權的武器系統。
對這些鋼鐵機器而言,它們根本不知道什么是法律和道德,它們也無法對自己的行為負責——它可以判斷對方是人還是機器,但卻無法識別對方是士兵還是平民。士兵可以用常識判斷眼前的女子,究竟是身藏炸藥還是身懷六甲,但機器人根本就沒有這個能力。它們甚至會誤傷已喪失戰斗意志或能力的傷員和準備投降的士兵。
聯合國人權理事會特別報告員克里斯托弗·海因斯(Chris?topherHines)說道:“這種機器人無法遵守國際人權法和人道法,如果各國軍隊將‘殺人機器人’常規化,或是恐怖分子利用它們取代自殺式襲擊,那就如同打開了現代的‘潘多拉魔盒’,后果不堪設想。而且,把是否殺害人類的判斷權托給機器更是‘道義責任的缺失’。”

道德僵尸
其實,海因斯的擔憂不無道理,“殺人機器人”正從由人類遠程遙控,向由計算機軟件和傳感器裝置控制發展。未來,它們很有可能可以全自動執行識別敵人、判斷敵情和殺死敵人等任務。那么,有沒有辦法通過計算機程序的設計,讓機器人具有道德觀念和法律意識呢?又或是給機器人頒發一個“行動執照”,將它的所作所為限定在一個合法的范疇之內呢?

這些問題激發了一批頂尖科學家的靈感,有人已進行了相關試驗。英國布里斯托爾機器人實驗室的專家艾倫·溫菲爾德(AlanWinfield)及其同事,為機器人設計了這樣一個程序——阻止其他擬人機器人掉進洞里。該程序的設計原理,源于美國著名科幻小說家艾薩克·阿西莫夫(IsaacAsimov)提出的機器人學三定律之一——機器人不得傷害人類,或坐視人類受到傷害。

試驗一開始,機器人還能順利完成任務:當擬人機器人向洞口移動時,機器人會沖上去將其推開,防止其掉進洞里。隨后,研究人員又添加了一個擬人機器人,兩個擬人機器人同時向洞口移動,救人機器人則要被迫做出選擇。有時,其中一個“人”會被成功解救,而另一個“人”則會掉進洞里;有時,機器人甚至會想同時救出兩個“人”。不過機器人在33次的測試中,有14次因為在救哪一個“人”的問題上不知所措而浪費了時間,結果導致兩個“人”都掉進了洞里。2014年9月2日,在英國伯明翰召開的“邁向自主機器人系統”會議上,研究人員將這項實驗的結果公開展示,并引起了世人的高度關注。
溫菲爾德說:“雖然根據程序設定,救人機器人是可以對他人施救的,但它根本不理解這種行為背后的真正原因。實際上,它就是一具‘道德僵尸’——只知道根據程序指令行動,完成任務,僅此而已。我曾經不確定機器人能否做出道德倫理選擇,經過這一系列實驗,我仍然不知道答案。”
人類選擇
溫菲爾德所思考的問題對于所有人來說,都具有非常重要的意義。隨著機器人日益融入人們的生活,這一問題更加需要明確的答案。
以無人駕駛汽車為例,當它有一天要在保全車內人員安全還是行人安全之間做出權衡時,你認為它會怎么選擇呢?或許,連它自己都會不知所措。
雖然目前要解決這個問題還非常困難(這也是無人駕駛汽車至今都無法大規模正式上路的主要原因),但某些為軍事戰爭設計的機器人,或許能夠為我們提供一個初步答案。美國佐治亞理工學院(GeorgiaInstituteofTechnology)的計算機專家羅納德·阿金(RonaldAkin),專門為一個名為“道德監督員”的軍事機器人研制了一套運算法則。在模擬戰斗測試中,它可以幫助機器人在戰場上做出明智的抉擇,例如在學校和醫院等戰爭條例規定的受保護區附近不動用武器,且盡量減少人員傷亡。
不過,這道選擇題還是相對簡單的,如果遇到更加復雜的情況,結果往往會大不一樣。例如,在打擊“伊斯蘭國”極端恐怖組織的戰斗中,美軍的無人機只能對其陣地實施有效轟炸,但當對方士兵融入當地平民中后,無人機就無所施措了。
目前,盡管在國際社會上禁止研發這類“殺人機器人”的呼聲很高,但也有支持者認為,它們能更大程度地減少戰場上信息不對稱的情況,更加精確地打擊目標,使用這種技術可以有效減少傷亡、挽救生命。
任何戰爭武器都是可怕的,如果有什么武器不由人操控那就更恐怖了。而且,要讓機器人做出正確的道德倫理選擇,也不是一朝一夕能夠做到的,這涉及到一系列極其尖端復雜的人工智能技術。可以想象,在未來的某一時刻,戰場上一定會出現為數不少的“殺人機器人”,但面對它們,人類其實還有一個更好的選擇——和平!

注:所有文章均由中國數字科技館合作單位或個人授權發布,轉載請注明出處。
0 篇文章
如果覺得我的文章對您有用,請隨意打賞。你的支持將鼓勵我繼續創作!