物理學(xué)家霍金
世界 的物理學(xué)家霍金(Stephen Hawking)近些年來(lái)經(jīng)常發(fā)表驚人言論警告世人。他近日在接受《泰晤士報(bào)》采訪時(shí),再度表達(dá)了對(duì)人工智能技術(shù)的擔(dān)憂。
霍金表示,人工智能進(jìn)一步發(fā)展便可能會(huì)通過(guò)核戰(zhàn)爭(zhēng)或生物戰(zhàn)爭(zhēng)摧毀人類(lèi)。他認(rèn)為,人類(lèi)需要利用邏輯和理性去控制未來(lái)可能出現(xiàn)的威脅。
為此,他建議人類(lèi)可以組成某種形式的“世界政府”來(lái)防范人工智能可能帶來(lái)的威脅;艚饘(duì)《泰晤士報(bào)》表示:“世界政府可能會(huì)成為暴政,所有這一切聽(tīng)上去好像人類(lèi)劫數(shù)難逃,但我是一個(gè)樂(lè)觀主義者。我認(rèn)為,人類(lèi)終將會(huì)崛起,解決這些挑戰(zhàn)!
這并不是霍金第一次提出人類(lèi)必須團(tuán)結(jié)起來(lái)攜手共進(jìn)的倡議。他過(guò)去曾預(yù)言,人類(lèi)在地球上只能再生活1000年,因此必須尋找另一個(gè)宜居的星球。
另外,此前在英國(guó)《衛(wèi)報(bào)》的一篇專(zhuān)欄中,霍金曾表示:“工廠的自動(dòng)化已經(jīng)讓許多傳統(tǒng)制造業(yè)工人失業(yè)了,而人工智能的崛起會(huì)將失業(yè)范圍擴(kuò)大到社會(huì)上的中產(chǎn)階級(jí)。未來(lái),留給人類(lèi)的只有護(hù)理、創(chuàng)新和監(jiān)督等少數(shù)崗位了。”
投稿郵箱:chuanbeiol@163.com 詳情請(qǐng)?jiān)L問(wèn)川北在線:http://sanmuled.cn/