|
為什么說(shuō)人工智能將是人類災(zāi)難,?9 _. Z: ^6 h! U' ?
5 w) d6 L# b3 x( U& l2017-01-08 10:06:12欄目:默認(rèn)欄目 1664 2 24
, |' f! [9 g; E伴隨著阿爾法狗徹底完虐人類頂尖圍棋手,,關(guān)于人工智能的討論再入高潮。對(duì)于此次人工智能潮流,,根據(jù)有些網(wǎng)站的調(diào)查,,多數(shù)人是持歡迎的態(tài)度。對(duì)此,,本人認(rèn)為,,應(yīng)該對(duì)人工智能保持高度的警惕,弄不好,,這就是開(kāi)啟了潘多拉魔盒,,將導(dǎo)致人類的最終毀滅。1 o& [9 l7 l* _# a
1 P0 b) ~( k+ l' s# y' Z. A( W
著名的英國(guó)劍橋大學(xué)物理學(xué)家霍金說(shuō):“我認(rèn)為,,對(duì)于一個(gè)生物大腦和和一臺(tái)計(jì)算機(jī)所能取得成就來(lái)說(shuō),,其間不存在深刻的差別。所以從理論上來(lái)說(shuō),,計(jì)算機(jī)可以效仿人類的智能,,并超過(guò)人類的智能�,!�9 [! a1 z3 k# w8 k& |) d3 S
; z; M3 a2 f0 K9 W+ ~) P: H
霍金認(rèn)為,,人工智能的發(fā)展可能幫助人類消除疾病,消除貧困,,阻止氣候變化,,但是也可能產(chǎn)生人們不愿意看到的種種后果,,包括產(chǎn)生自主武器,造成經(jīng)濟(jì)災(zāi)難,,以及發(fā)展出同人類發(fā)生沖突時(shí)擁有自己意愿的機(jī)器,。強(qiáng)大人工智能的崛起可能是人類遇到的最好的事情,也可能是最壞的事情,,“未來(lái)智能中心”的一個(gè)簡(jiǎn)單的使命就是弄清楚人工智能未來(lái)是不是會(huì)毀滅人類,。
8 r6 M, M& ~3 Z/ _, g2 j, s
" A" a; D! t% a8 W+ z1 I- T- @霍金教授的看法應(yīng)該被高度重視,因?yàn)槟壳耙呀?jīng)有人在研究“生物電腦”,,盡管他們只是因?yàn)樯锟山到獾膶傩�,,但是:“人工智�?智能生物自我繁殖”,難道不正是霍金教授所說(shuō)的“一個(gè)生物大腦和和一臺(tái)計(jì)算機(jī)所能取得成就來(lái)說(shuō),,其間不存在深刻的差別”,?何況有人已經(jīng)開(kāi)始打破生物大腦和計(jì)算機(jī)的區(qū)別!
2 c D! l6 R0 R2 p
! j9 w" k6 |- L/ U9 e; d8 k& v3 A: M# a& c* [& Y, h k
首先,,智能上的優(yōu)越是人類成為地球主宰的唯一終極依靠,。人類的體能不如狗熊、犀牛,、大象,,速度不如獵豹或鹿馬狼,嗅覺(jué)不如狗,,聽(tīng)覺(jué)不如蝙蝠……唯一超越地球上這些動(dòng)物的,,就是智力,也正因?yàn)橹橇Φ膬?yōu)勢(shì),,人類做了地球的主人,。按照這一被人類自己已經(jīng)證明了的“智力決定論”,當(dāng)然誰(shuí)的智力最優(yōu)秀,,或說(shuō)誰(shuí)智力能超過(guò)人類,,誰(shuí)就是地球的主人。
8 g5 K9 g6 V; u7 r% M% p" @. A" w# s- N
3 z; |$ G% ^8 P其次,,機(jī)器的智力在圍棋上超過(guò)人類,,無(wú)論怎樣評(píng)估其嚴(yán)重性都不過(guò)分。本人作為業(yè)余圍棋愛(ài)好者,,多年之前就和圍棋軟件下過(guò)棋,,那時(shí)如果我完全按照圍棋里的“定式”下,是比不過(guò)軟件的,,因?yàn)檐浖肋h(yuǎn)沒(méi)有記憶錯(cuò)誤,。但是當(dāng)我脫離“定式”,哪怕下了一著人人皆知的百分之百的“臭招”,,圍棋軟件立即就找不著北了,,于是軟件肯定就開(kāi)始亂下了,,自己就能贏了軟件。但是現(xiàn)在,,這阿爾法狗已經(jīng)戰(zhàn)勝了幾乎全部人類現(xiàn)有高手,,肯定是已經(jīng)克服了一招一式必須暴力計(jì)算的弱點(diǎn)!我深知,,圍棋的特點(diǎn)就是在所謂“大局觀”上的虛擬性,、籠統(tǒng)性、概括性,,也就是不精確性,,這正是需要精確計(jì)算的機(jī)器最不足的地方,但是今天,,被阿爾法狗的設(shè)計(jì)者用策略網(wǎng)絡(luò)和機(jī)器自動(dòng)更新策略(即機(jī)器自我學(xué)習(xí)功能)解決了,,這和當(dāng)年的深藍(lán)用暴力計(jì)算戰(zhàn)勝國(guó)際象棋世界冠軍是完全不可同日而語(yǔ)的!換句話說(shuō),,就是機(jī)器可以自己學(xué)習(xí)了,!這不就是每一代人從小到大干的主要事情嗎?況且機(jī)器如果掌握了學(xué)習(xí)能力,,肯定可以比人類干得好,!因?yàn)闄C(jī)器是沒(méi)有遺忘的,!它學(xué)習(xí)過(guò)的東西都是過(guò)目不忘,!
6 ?$ u: Q, h' Z- q r' }
+ O* }! M3 Y& n/ l, D智力是學(xué)習(xí)的結(jié)果,機(jī)器學(xué)會(huì)了學(xué)習(xí),,其智力的突飛猛進(jìn)就可以期待了,。有了無(wú)與倫比的學(xué)習(xí)能力、無(wú)與倫比的記憶能力,、無(wú)與倫比的計(jì)算能力,,加上無(wú)與倫比的不知疲倦的體力,機(jī)器將超過(guò)人類還是什么不可想象的事嗎,?
' N+ y9 R0 i$ Z/ l% _& T6 u! u, X
* e+ F" G! H) `. r3 e6 Q/ o" W最后結(jié)論自然就出來(lái)了——
" F/ w; W2 u p+ g, r3 F a6 C
# D) K8 j/ w* x8 y" S地球上的既定法則是智力決定控制權(quán),,智力決定地球歸誰(shuí)控制,機(jī)器的智力如果超過(guò)人類,,那地球最終自然要?dú)w屬于機(jī)器,!而一旦放任機(jī)器智能的自由發(fā)展,由于機(jī)器相對(duì)于人類的上述優(yōu)勢(shì)(學(xué)習(xí),、記憶,、計(jì)算、體力等),,人類只能甘拜下風(fēng),!再說(shuō),,一個(gè)各項(xiàng)能力遠(yuǎn)超人類的“機(jī)器學(xué)霸”,還不具有人類的情感(主要指人類中高尚的部分情感)——主要是沒(méi)有憐憫之心,,智能機(jī)器能做出什么來(lái),?(又有人會(huì)說(shuō)可以給機(jī)器加上“高尚情感”!問(wèn)題在于,,你可以去加“高尚情感”,,一定專門有人要加“無(wú)惡不作”!這樣,,邪惡機(jī)器其實(shí)無(wú)窮無(wú)盡的,!那時(shí)的恐怖襲擊完全由機(jī)器人就可以完成!而且會(huì)比人類中的恐怖份子更殘忍�,。�! c6 r3 _5 X+ k7 U2 b' B4 S7 k
# V; O9 \0 g! i7 C) {
這還不是非�,?膳碌那熬皢幔棵绹�(guó)科幻電影里表現(xiàn)過(guò)很多次的機(jī)器與人類的戰(zhàn)爭(zhēng)已經(jīng)近在咫尺,!那些美國(guó)科幻電影簡(jiǎn)直就是提前模擬的人機(jī)戰(zhàn)爭(zhēng)的預(yù)演教育片,!5 N' B w0 ^7 @
9 c* U1 u/ k3 c早晚有一天,人類必須坐到一起,,鄭重討論是否該賦予機(jī)器(本人所說(shuō)的機(jī)器即人工智能,,即智能機(jī)器)選舉權(quán)的問(wèn)題!但機(jī)器的數(shù)量卻是幾乎可以無(wú)限生產(chǎn)的,!這樣一來(lái),,人類連數(shù)量上都輸?shù)袅耍瑱?quán)利還能不拱手讓出嗎,?那樣,,人類只能作為機(jī)器的奴隸了。
: D/ s# R# G6 s
1 q2 `" n' R% f; V" N3 d$ v# s! M有人說(shuō)人類可以提前對(duì)人工智能做一些限制,,可以簽一些全球性的協(xié)議,。那我們看看原子彈技術(shù)的擴(kuò)散歷程吧!至今,,聯(lián)合國(guó)多次制裁協(xié)議都不能阻止狂熱的朝鮮追求核武器的努力,!何況主要個(gè)人技術(shù)為主的人工智能的擴(kuò)散呢?地球上永遠(yuǎn)有一些狂人是不受正常人控制的,,這就象精神病人,,至今人類都不能控制精神病人的發(fā)病、不能根治此病,,更別提個(gè)別狂人對(duì)人工智能的追求,!這些在美國(guó)的科幻電影中也早就警告過(guò)了!何況,,很可能與大家的愿望相反,,人工智能極可能被有些國(guó)家首先用于戰(zhàn)爭(zhēng),!以筆者有限的戰(zhàn)爭(zhēng)知識(shí),排雷機(jī)器人的智能化就將遠(yuǎn)遠(yuǎn)超過(guò)人類,,試想,,一個(gè)配合X光透視的機(jī)器人排雷;是人類可比的嗎,?比人類中的恐怖份子更殘忍的機(jī)器人恐怖襲擊加上超越的智力,,是人類阻止的了的嗎?這些,,難道不應(yīng)該提前預(yù)防嗎,?/ \3 G/ K2 ]4 a
& [' d' M, s o$ a
總之,我們知道人工智能的全面普及已經(jīng)不可避免,,很可能在幾十年內(nèi)實(shí)現(xiàn),。但是對(duì)人工智能的危害很多人還沒(méi)有足夠的警惕,他們并不知道人類正在玩兒火,。就象霍金所說(shuō)的:“強(qiáng)大人工智能的崛起可能是人類遇到的最好的事情,,也可能是最壞的事情”。如果多數(shù)人對(duì)此沒(méi)有足夠的警惕,,人類的毀滅就等不到太陽(yáng)熄火的那一天了,!3 J1 x. V7 X% }% B8 l, B
* D* J0 l( d5 m1 X& W- l- m |
|