殺手機(jī)器人將是人類噩夢(mèng)
可以說(shuō),美國(guó)的主要進(jìn)攻武器是無(wú)人機(jī),操縱者安坐于千里之外對(duì)目標(biāo)進(jìn)行打擊??紤]到技術(shù)進(jìn)步之快,無(wú)需腦洞大開(kāi),我們就能預(yù)見(jiàn)到機(jī)器將可完全代替人類進(jìn)行殺戮。在迄今仍被視為人類專屬的活動(dòng)領(lǐng)域里,人工大腦已有良好表現(xiàn)。電腦將被交托駕駛汽車或者診斷疾病的任務(wù)。因此,在做出殺戮的決策上,算法智能或許也將超越人類智能。
這種可能性,促使1000多名人工智能專家在一封公開(kāi)信中呼吁立即停止發(fā)展“致命自動(dòng)武器系統(tǒng)”。他們敦促稱,現(xiàn)在就行動(dòng),否則被他們不可避免地稱為“殺手機(jī)器人”的武器將和卡拉什尼科夫步槍(Kalashnikov,即AK-47)一樣廣為流傳并造成同樣致命的危害。
軍方對(duì)機(jī)器人戰(zhàn)爭(zhēng)的熱衷很容易理解。士兵是寶貴的、成本高昂的,也是會(huì)犯錯(cuò)誤的。本可避免的人為失誤在每一場(chǎng)戰(zhàn)斗中都造成了嚴(yán)重傷亡。相較之下,機(jī)器既不知疲倦,也不會(huì)失去耐心。它們可以被送往不安全甚至普通士兵無(wú)法到達(dá)的地方。計(jì)算能力的迅速提升正賦予機(jī)器“更柔軟”的技能,比如識(shí)別一個(gè)有血有肉的單獨(dú)目標(biāo)。最終,事實(shí)可能將證明機(jī)器人會(huì)比最有經(jīng)驗(yàn)的士兵更安全,比如能夠從一群孩子中挑出槍手——然后射殺他。
反對(duì)機(jī)器人戰(zhàn)爭(zhēng)的理由與反對(duì)所有武器進(jìn)步的理由相同——避免大量無(wú)辜受到傷害這種不可預(yù)知的后果。無(wú)論采取了什么預(yù)防措施,都沒(méi)有萬(wàn)無(wú)一失的方法來(lái)阻止武器落入不法之徒的手中。要想一窺那種情況下會(huì)有什么后果,可以回憶一下美國(guó)汽車制造商克萊斯勒(Chrysler)在發(fā)現(xiàn)汽車可以被遠(yuǎn)程入侵后,需要檢測(cè)和排除140萬(wàn)輛汽車隱患的事情?,F(xiàn)在,想象一下這些車裝備了槍支。
技術(shù)未來(lái)主義者也擔(dān)憂人工智能異常快速的發(fā)展??茖W(xué)家斯蒂芬?霍金(Stephen Hawking)最近提醒人們警惕人工智能遠(yuǎn)超人類智能后可能發(fā)生的“科技大災(zāi)難”。這到底是絕對(duì)無(wú)法避免的事情,還是只是幻想,科學(xué)本身無(wú)法確定:但考慮到其中的風(fēng)險(xiǎn),給超級(jí)智能裝備武器能有多明智呢?
道德方面的理由更為直接。在減少殺人方面,對(duì)殺戮的厭惡是個(gè)重要因素,其作用不亞于任何技術(shù)突破。將人工智能插入這條因果鏈,將弄混殺人決定背后的責(zé)任。沒(méi)有明確的責(zé)任,不僅發(fā)動(dòng)戰(zhàn)爭(zhēng)的手段得到加強(qiáng),發(fā)動(dòng)戰(zhàn)爭(zhēng)的意愿也可能上升。
讓武器消失是不可能的:想一想殺傷性地雷——一種自動(dòng)運(yùn)行的武器——現(xiàn)在依然每年造成1.5萬(wàn)到2萬(wàn)人喪生。人工智能的性質(zhì)使人們無(wú)法預(yù)見(jiàn)自動(dòng)武器發(fā)展的終點(diǎn)在哪里。不管進(jìn)行多少精密的編程,也無(wú)法限制其后果。最好不要踏上這樣的旅程。
譯者/許雯佳