|
科幻小說《2001:太空奧德賽》和根據(jù)它改編而成的經(jīng)典電影《2001 太空漫游》,講述了 AI 由人類幫手變?yōu)槿祟悮缯叩墓适?。我們親手打造的 AI,會在未來葬送人類嗎?霍金表示,這絕非危言聳聽。
f65000bee789a199894.jpg (54.56 KB, 下載次數(shù): 9)
下載附件
保存到相冊
2016-10-21 10:47 上傳
近日,在劍橋大學(xué) Leverhulme 智能未來中心的開幕式上,霍金為火爆的 AI 行業(yè)潑了盆冷水。
“我們花了大量時間學(xué)習(xí)歷史,”霍金在演講中說道,“而我們所面對的歷史,大多是愚蠢的。所以,現(xiàn)在人們在研究智能的未來,這是一個令人欣慰的變化。”
霍金表示 AI 研究的確帶來了許多積極因素,認(rèn)為通過這項(xiàng)新技術(shù),人類或許能夠消除工業(yè)化對自然界造成的一些損害,而最終目標(biāo)肯定是消除疾病和貧困。
“創(chuàng)造出智慧的潛在好處是巨大的,我們無法預(yù)測當(dāng)我們的心智被 AI 增強(qiáng)時,我們將達(dá)到何種成就?!?br />
“我們生活的方方面面都會被改變,總之,成功創(chuàng)造出 AI 可能是我們文明史上最重要的事?!?br />
f6b0003e485aaca41f5.jpg (110.31 KB, 下載次數(shù): 8)
下載附件
保存到相冊
2016-10-21 10:47 上傳
然而,作為享譽(yù)世界的物理學(xué)家,霍金對于 AI 持謹(jǐn)慎態(tài)度,
他認(rèn)為一旦人類創(chuàng)造出具有自我意識的超級智慧,可能會面臨著自我毀滅的風(fēng)險(xiǎn),因?yàn)?AI 的意志可能會與我們產(chǎn)生沖突。
“總之,強(qiáng)大的 AI 的興起,或許將是人類最好或是最糟糕的事,這我們還不清楚?!?br />
霍金之所以會有這種擔(dān)憂,是因?yàn)樵谒磥?,AI 的潛力是無限的,“生物大腦與電腦的能力并沒有太區(qū)別?!?br />
“因此,從理論上講,計(jì)算機(jī)可以模仿人類智慧,并超越它?!?br />
這已經(jīng)不是霍金第一次對 AI 潛在威脅提出警告了。去年年初,霍金就與一些 AI 專家,還有馬斯克、沃茨等名人發(fā)表聯(lián)合聲明,呼吁禁止武器化 AI 和自主作戰(zhàn)系統(tǒng)。
10180004d40f62daa9a3.jpg (58.14 KB, 下載次數(shù): 10)
下載附件
保存到相冊
2016-10-21 10:47 上傳
當(dāng)時霍金解釋說,AI 的真正風(fēng)險(xiǎn)不在于其是否充滿惡意而在于其能力。他舉了個例子:你在負(fù)責(zé)一項(xiàng)水利工程時,不得不淹沒蟻穴,盡管你并不是一個仇恨螞蟻的人,但在完成目標(biāo)時無意間就為螞蟻帶來了滅頂之災(zāi)。
所以,當(dāng)一個能力 MAX 的超級人工智能在執(zhí)行任務(wù)時,如果它的目標(biāo)與人類不一致,那么人類就有可能面臨與螞蟻同樣的厄運(yùn)。
盡管目前人工智能的發(fā)展仍處于起步階段,但霍金對于 AI 威脅的評價,或許值得我們深思:
“人工智能的短期影響取決于誰控制了它,而長期影響則取決于它到底能不能被控制。”
|
上一篇: 要讓電視擁有高清影視,先搞清楚HDMI和VGA的這些誤區(qū)!下一篇: iPhone 7又出現(xiàn)新問題,網(wǎng)上吐槽不斷
|