資料圖片:韓國的國產戰斗機器人。(圖片源于網絡)
美國《時代》周刊網站7月28日報道稱,物理學家斯蒂芬·霍金和特斯拉汽車公司首席執行官埃隆·馬斯克,與數十名人工智能和機器人專家在27日發表的公開信中,一道呼吁禁止使用“攻擊性自動武器”。
“人工智能技術目前的發展已經使其在幾年內、而不是幾十年內成為可行——即使法律上不可行事實上也是可以實現的,這樣的情況危險極大,”這封公開信說。《衛報》報道說這封信將在布宜諾斯艾利斯舉辦的人工智能國際聯合大會上宣讀。“自動武器被稱為繼火藥、核武器之后的第三次戰爭革命。”
這封公開信把無需人類命令便能夠選擇并攻擊目標的人工智能武器,與無人機和巡航導彈等人類選擇打擊目標的武器有所區別。這封信中還說,雖然對軍隊官兵來說,人工智能技術可以令戰區更加安全,但這種不受人類控制的武器會引發“全球性人工智能軍備競賽”。
“它們流入黑市或落入恐怖分子和獨裁者之手不過是時間問題,”這封信的署名者們警告道。“人工智能可以通過多種方式使戰場對人類、尤其是平民來說更加安全,而不必通過創造殺戮新工具這種方式。”
英國《金融時報》網站7月27日發表題為《科學家提醒,要警惕殺人機器人軍備競賽》的報道稱,科技界的一些大人物呼吁全球禁止“殺人機器人”,他們提醒說,越過這一界限,將開啟新一輪全球軍備競賽。
人工智能領域的1000多位專家在一封公開信中表明了干預態度。在這封信上署名的包括宇宙學家斯蒂芬·霍金教授、特斯拉公司首席執行官埃隆·馬斯克,以及蘋果公司合伙創始人史蒂夫·沃茲尼亞克。
盡管“機器人士兵”仍處于“紙上談兵”階段,可是計算能力和人工智能的迅速進步,增加了軍方在20年內把機器人士兵派上戰場的可能性。
這封請愿書于28日在布宜諾斯艾利斯舉行的國際人工智能聯合大會上遞交。該信警告說,繼火藥與核武器的發明之后,可以獨立確定和襲擊目標且不需人類進行任何干預的武器系統的開發,將會帶來“第三次戰爭革命”。
它描繪了未來沖突的可怕情形,類似于系列電影《終結者》中的場景。
該信說:“對于執行暗殺、破壞國家穩定、征服民眾或選擇性殺死特定民族等任務,自主式武器是理想選擇。”
“因此,我們認為,人工智能軍備競賽對人類而言是無益的。人工智能可以讓戰場變得對人類——尤其平民——而言更安全的方式有許多種,不用創造新的殺人工具。”
聯合國也擔心其所謂的“致命性自主式武器”的開發,以至于它去年召開了有史以來第一次此類會議,討論新科技帶來的風險。
加利福尼亞大學伯克利分校的人工智能領域專家、該信的署名者之一斯圖爾特·拉塞爾之前曾警告說,機器人武器系統可能使得人類“毫無防御能力”。
該信是今年第二封猛烈抨擊將人工智能引入到戰場上的信。不過,在呼吁禁止這些武器系統方面,這封最新的請愿書強硬有力得多。該信是由生命未來研究所協調寫成的。
生命未來研究所是由包括Skype公司合伙創始人揚·塔林在內的眾多志愿者于2014年創建的。馬斯克和霍金均是該研究所科學顧問委員會的成員。
自主式殺人機器人的想法對許多軍方人士而言具有吸引力,因為它們提供了重要的對敵優勢,其部署不會令本國部隊的任何人處于危險中,而且長期來看,比起必須支持和保護人員的先進武器,如戰斗機,它們的成本應該更加低廉。
五角大樓是機器人研究的最大支持者之一。2013年,其智庫之一海軍研究處發給塔夫茨大學、布朗大學、倫斯勒理工學院、喬治敦大學和耶魯大學等多所大學的研究人員一筆研究經費,高達750萬美元,讓其研究如何能教會自主式機器人分辨對錯。
西方軍事規劃者擔心,如果他們沒能致力于研究這一技術,那么他們可能會將新一輪軍備競賽的領導權讓給潛在對手,比如中國。