可以肯定的說,到現(xiàn)在各國政府更多的是鼓勵人工智能的研發(fā),希望可以促進人工智能科技的進展,以及與產(chǎn)業(yè)的結(jié)合。例如2017年7月21日 ,中國國務(wù)院就發(fā)布了《新一代人工智能發(fā)展規(guī)劃》的報告這個規(guī)劃是這樣說的:
到2020年,人工智能總體技術(shù)和應(yīng)用與世界先進水平同步,人工智能產(chǎn)業(yè)成為新的重要經(jīng)濟增長點,人工智能技術(shù)應(yīng)用成為改善民生的新途徑;到2025年,人工智能基礎(chǔ)理論實現(xiàn)重大突破,部分技術(shù)與應(yīng)用達到世界領(lǐng)先水平,人工智能成為我國產(chǎn)業(yè)升級和經(jīng)濟轉(zhuǎn)型的主要動力,智能社會建設(shè)取得積極進展;到2030年未來機器人,人工智能理論、技術(shù)與應(yīng)用總體達到世界領(lǐng)先水平,成為世界主要人工智能創(chuàng)新中心。
在這個規(guī)劃中,看不到任何對“機器人統(tǒng)治”人類的擔(dān)憂,而是希望人工智能研發(fā)取得重大進展。世界各國的報告也都如此,沒有哪國政府報告忽然發(fā)神經(jīng)說要小心人工智能機器人。但是在學(xué)者以及公眾層面,對這個問題還是比較關(guān)心的,特別是這兩年人工智能忽然火爆之后。
《人類簡史》的作者赫拉利在續(xù)作《未來簡史》中,對人工智能在未來將如何改變?nèi)祟惿鐣M行了深入探討。
值得注意的是,赫拉利并沒有去分析,有自我意識的人工智能出來會如何。有自我意識的人工智能就能算是另一種生命物種了,但是這個理論基礎(chǔ)還不完備,再怎么討論也和科幻差不多。而科幻的可能性就太多了,可以寫無數(shù)種人類的結(jié)局,人工智能統(tǒng)治或者監(jiān)管是常見的一種”設(shè)定“。例如科幻巨著《海伯利安》,里面種種奇奇怪怪事,最后就歸結(jié)為超級人工智能搞的事,用這種方式來填坑。
赫拉利分析的是,即使人工智能沒有自我意識,只是一些程序在執(zhí)行人類的指令,人類社會也會大受影響,甚至人本身作為一個物種都會發(fā)生大的改變。例如人類將自己的身體指標交給計算機系統(tǒng)監(jiān)管,按機器的建議生活,而且發(fā)現(xiàn)這樣好處很多。再例如人類放棄自己開車,讓機器自動駕駛。慢慢的人類就放棄了對社會的控制權(quán),而是由機器去控制。也許到某一天,人類就發(fā)現(xiàn),有實質(zhì)控制權(quán)的就是機器了,人類已經(jīng)沒有辦法回頭了。即使機器沒有自我意識,但人類也只能讓它控制了。這算是機器統(tǒng)治人類的一種方式。
當(dāng)然也有其它可能性,特別是當(dāng)計算機與腦科學(xué)專家發(fā)現(xiàn)了機器自我意識的內(nèi)在秘密,生成了”強人工智能“的原型之后,這個問題會忽然一下變得非常現(xiàn)實。可以預(yù)測,到時世界各國政府并不會歡呼人工智能研發(fā)取得巨大突破,而是真的會坐下來討論人工智能的發(fā)展路徑,象控制核武器一樣控制”強人工智能“的研發(fā)。例如要求人工智能研究團隊必須遵守安全規(guī)則,保證計算機中的人工智能按物理安全隔絕方法,絕對不可能跑出來危害社會。
之前也有不少人擔(dān)心人類社會被核戰(zhàn)爭毀滅。但現(xiàn)在人類社會看上去還是控制了核武器的最壞影響,反而極大促進了社會和平。那么人類能不能控制強人工智能,又是將來值得討論的問題。
如果只是說可能性,就象人類社會可能幾個大國互相扔核彈,人類全部滅絕,人類被人工智能統(tǒng)治這種可能性是存在的。但是也應(yīng)該存在好的可能性,人類社會找到了辦法,既發(fā)展人工智能未來機器人,又不被它統(tǒng)治。
可以肯定,人工智能的安全問題會比核武器更復(fù)雜,值得討論的技術(shù)細節(jié)更多。正如科幻小說中,人工智能比核武器是更常見的題材。