科技日?qǐng)?bào)北京8月3日電 (記者劉園園)1000多名知名科學(xué)家和人工智能領(lǐng)域?qū)<医蘸炇鸸_信,警告可能出現(xiàn)人工智能軍備競(jìng)賽,并敦促聯(lián)合國(guó)發(fā)布針對(duì)“攻擊性自動(dòng)化武器”的禁令。
據(jù)英國(guó)《衛(wèi)報(bào)》報(bào)道,公開信的簽署者包括 科學(xué)家斯蒂芬•威廉•霍金、特斯拉CEO伊隆•馬斯克、蘋果聯(lián)合創(chuàng)始人史蒂夫•沃茲尼亞克以及谷歌人工智能項(xiàng)目負(fù)責(zé)人米斯•哈撒比斯等。這封信已在網(wǎng)上公開發(fā)表,并于日前提交至在阿根廷布宜諾斯艾利斯召開的國(guó)際人工智能聯(lián)合會(huì)議。
公開信稱:“人工智能技術(shù)已經(jīng)發(fā)展到這樣一種地步:盡管不合法,自動(dòng)化武器的使用將在幾年內(nèi)而不是幾十年內(nèi)會(huì)成為現(xiàn)實(shí)。這將帶來極大的風(fēng)險(xiǎn),自動(dòng)化武器已經(jīng)被稱為繼火藥和核武器之后的武器的第三次革命。”
這封信認(rèn)為,人工智能可以讓戰(zhàn)場(chǎng)對(duì)軍事人員而言更為安全,但是能夠自主操作的攻擊性武器會(huì)降低戰(zhàn)爭(zhēng)發(fā)生的門檻,從而給人類生命帶來更大的損失。
公開信指出,如果某個(gè)軍事力量開始研發(fā)能選擇攻擊目標(biāo)并在沒有人類直接操控情況下自動(dòng)運(yùn)行的武器系統(tǒng),會(huì)像當(dāng)年的原子彈一樣引發(fā)軍備競(jìng)賽。而與核武器不同的是,人工智能武器并不需要具體的、難于制造的材料,因此很難對(duì)其生產(chǎn)進(jìn)行監(jiān)控。這封信稱,“人類今天所面對(duì)的關(guān)鍵問題在于,是在全球范圍內(nèi)啟動(dòng)一場(chǎng)人工智能軍備競(jìng)賽,還是將其扼殺在萌芽狀態(tài)。”
新南威爾士大學(xué)人工智能教授托比•沃爾什對(duì)這一呼吁表示支持:“我們需要在當(dāng)下做出決定,這個(gè)決定將主宰我們的未來,并事關(guān)我們是否走在正確的道路上。”
“殺人機(jī)器人”是當(dāng)今的熱議話題;艚鸷婉R斯克此前都曾警告說,人工智能是人類最大的威脅,而且完全人工智能的發(fā)展將導(dǎo)致人類的終結(jié)。今年4月,聯(lián)合國(guó)曾專門召開會(huì)議討論了包括“殺人機(jī)器人”在內(nèi)的未來武器的發(fā)展,這次會(huì)議曾考慮針對(duì)某些特定類型的自動(dòng)化武器頒布禁令,但遭到一些國(guó)家的反對(duì)。
投稿郵箱:chuanbeiol@163.com 詳情請(qǐng)?jiān)L問川北在線:http://sanmuled.cn/