據(jù)英國《每日電訊》報12月1日報道,美國五角大樓計劃研制“有道德的”新型機器人戰(zhàn)士,它并不像電影《終結者》中的T-800機器殺手那樣不分青紅皂白地亂殺一氣。事實上,美國陸軍和海軍現(xiàn)在都聘請了道德方面的專家來研制機器人,以防制造出可能濫殺無辜的“機械殺人狂”。
機器戰(zhàn)士在道德上不犯錯
《每日電訊》的報道指出,到2010年,美國將投資40億美元進行“自控系統(tǒng)”的研究,“自控系統(tǒng)”是美軍對新型機器人的內(nèi)部稱呼,采用這一設計的產(chǎn)品不會受到恐懼感或復仇欲望的影響,因而也不會犯道德層面上的錯誤。
目前,美國海軍已經(jīng)聘請了一名英國專家做顧問,研制不會違反《日內(nèi)瓦公約》的下一代機器人。印第安那大學的學者柯林·艾倫剛剛出版了一本書《道德機器:教機器人分辨是非》,概述了自己對這類問題的觀點!艾F(xiàn)在需要得到回答的問題是,我們能否制造出順從戰(zhàn)爭法的自動武器,能否利用道德理論幫助設計這些機器人!
有關伊拉克戰(zhàn)爭壓力的研究顯示,占很大比例的前線戰(zhàn)士支持對敵人進行折磨和懲罰——參與作戰(zhàn)的美軍戰(zhàn)士也是人,有時難免會判斷失誤或者受情緒影響而不守道德。針對這種現(xiàn)象,佐治亞理工大學的計算機專家唐納德·阿金寫過一份報告,他在報告中指出,盡管機器人不會“在戰(zhàn)場上表現(xiàn)出完美的道德”,但卻能“比人類士兵表現(xiàn)得更好”。
在阿金看來,機器人“不需要保護自己”,而且“能夠被設計成沒有情緒,從而不會妨礙它們的判斷或者因戰(zhàn)場發(fā)生的事情而感到憤怒或沮喪”。
仍可能變回恐怖殺人狂?
事實上,種類繁多的戰(zhàn)斗機器人早已被用于伊拉克和阿富汗戰(zhàn)爭,它們向敵人的目標發(fā)動空襲,還被用來拆除路邊炸彈和其他臨時爆炸裝置。上個月,美國陸軍剛剛接收了一款由英國奎奈蒂克防務公司制造的新型機器人,它能夠使用多種武器,包括胡椒粉催淚彈、高爆榴彈以及7.62毫米口徑的子彈。
不過,這一代機器人仍然是由人類遙控的。相比之下,研究人員正在開發(fā)的下一代“機器戰(zhàn)士”可以自動識別目標和武器,并區(qū)分敵方部隊種類(比如坦克或武裝人員)以及軟目標(比如救護車或平民)。它們的軟件中包含符合《日內(nèi)瓦公約》的作戰(zhàn)指令,技術人員將軟件置入機器人體內(nèi),告訴它們何時開火。
艾倫博士對軍方的做法表示贊賞:“現(xiàn)在應該開始思考這種問題了,那就是將道德理論置入軟件,保證機器人做出正確的行動,而不是等為時太晚時才做這些。”艾倫認為,美國軍隊想要能完全自控的機器人,因為他們目前還在用經(jīng)過嚴格訓練的人員來操縱它們。那些真正昂貴的機器人之所以處于人類的直接控制下,主要是因為實在損失不起。他說:“一架‘捕食者’無人機需要6個人24小時控制著,我知道美國空軍已經(jīng)研制出軟件,可以訓練這種無人機的操作員。但如果計算機能夠訓練操作員的話,那么最終也將可以用于控制無人機的飛行。”
然而仍有一些人擔心,研制出完全不會出錯誤的機器人是不可能的。一旦發(fā)生故障,它們?nèi)匀豢赡茏兓乜植罋⑷丝瘛Vx菲爾德大學的計算機科學家諾埃爾·夏基因參與電視劇《機器人戰(zhàn)爭》而著名,作為美軍計劃最強烈的批評者,他表示:“該計劃讓我脊梁骨發(fā)寒,我研究人工智能已經(jīng)幾十年了,讓機器人代替人類作出決定,這個想法真的太可怕了!”(張貴余)
圖片報道 | 更多>> |
|
- [個唱]范范個唱 張韶涵助陣破不和傳言
- [情感]男子街頭菜刀劫持女友
- [電影]《非誠勿擾》片花
- [國際]烏克蘭議員在國會比試拳腳
- [娛樂]庾澄慶說沒與伊能靜離婚
- [星光]小S臺北性感代言
- [八卦]江語晨與周杰倫緋聞成焦點
- [科教]南極科考雪龍船遭遇強氣旋