業(yè)界普遍認為,截至目前,人類的武器已經(jīng)進行了兩次革命:火藥和核武器?,F(xiàn)在殺手機器人所代表的致命性自主武器系統(tǒng)正在拉開第三次革命的帷幕。
耶魯大學的研究人員把軍用機器人列為人工智能技術最有前途的應用領域之一。軍用機器人的用途太誘人:既可降低己方士兵的風險,又能降低戰(zhàn)爭的代價。它省去了軍人的薪水、住房、養(yǎng)老、醫(yī)療等開銷,又在速度、準確性上高于人類,而且不用休息。它不會出現(xiàn)只有人類戰(zhàn)斗員才會有的戰(zhàn)場應激障礙,情緒穩(wěn)定,無需臨戰(zhàn)動員,一個指令,就能抵達人類不可及之處,完成各種任務。
學界擔心,如果殺手機器人被大規(guī)模列裝,一個潛在的問題令人不安:它們?nèi)绾巫R別平民和戰(zhàn)斗人員?它們會不會濫殺無辜?
“如果機器人犯錯誤,責任應該歸誰呢?”英國的一名機器人技術教授諾埃爾·沙爾吉說道,“顯然這不是機器人的錯。機器人可能會向它的電腦開火,開始發(fā)狂。我們無法決定誰應該對此負責,對戰(zhàn)爭法而言,確定責任人非常重要?!?/p>
在倫理學家眼里,殺手機器人同樣存在致命的缺陷。這意味著將剝奪自然人生命的權利交給非自然人,等于將人的生命和人的尊嚴交給機器來判定,不但沒有平等性,也是對人類生命權以及人格尊嚴的侮辱。
殺手機器人該如何做?
1942年,美國著名科幻小說家阿西莫夫曾創(chuàng)立機器人定律。其中首要定律便是:機器人不得傷害人類整體,或因不作為使人類整體受到傷害。那么,問題又來了,當機器人的主人和其他人類沖突時,機器人又該如何抉擇?
這恐怕正是我們擔心的核心所在。事實上,自1920年戲劇《羅莎的萬能機器人》上演以來,無論是電視劇《神秘博士》,還是電影《終結者》《異形終結》《西部世界》《我,機器人》以及《銀翼殺手》等科幻電影和小說,一直貫穿這一主題:人類設計并主導的“殺手機器人”最終成為反叛者,擁有獨立意識,從戰(zhàn)爭的輔助工具轉變?yōu)榕c人類為敵的殺戮者。
關于機器人題材的電影和故事幾乎沒有好結局。這源自我們?nèi)祟惖纳顚涌謶帧绾巫寶⑹謾C器人有“正義感”?遺憾的是,目前無解。是的,你完全可以把這些東西永遠擱置起來。不過,它們只需充一次電就能再次啟動。對機器人的愛和恐懼還將繼續(xù)。