久久综合九色综合欧美狠狠福利在线国产一区|欧美日韩人妻中文字幕综合日韩午夜在线看|meyd一698人妻中文字幕久久中文字幕亚洲综合|国产一区二区精品久久岳|国产av一区二区三区四区五区|麻豆成人久久精品一区二区三区|91老熟女老女人国产老太毛多|国产精品亚洲一区二区三区久久|av中文有码|中文字幕日韩精品人妻,国产精品亚洲码,第九色区天堂,91精彩福利在线观看

為什么人們開始如此警惕人工智能,?包括很多名人!比如比爾蓋茨,,霍金等
《一周》小地球旅行 付費(fèi)訂閱郵件
2018-07-09
555
1
人工智能很可能導(dǎo)致人類的永生或者滅絕,而這一切很可能在我們的有生之年發(fā)生,。
上面這句話不是危言聳聽,,請耐心的看完本文再發(fā)表意見。這篇翻譯稿翻譯完一共三萬五千字,,我從上星期開始翻,,熬了好幾個(gè)夜才翻完,因?yàn)槲矣X得這篇東西非常有價(jià)值,。希望你們能夠耐心讀完,,讀完后也許你的世界觀都會被改變。
我們正站在變革的邊緣,而這次變革將和人類的出現(xiàn)一般意義重大 – Vernor Vinge
如果你站在這里,,你會是什么感覺,?
看上去非常刺激吧?但是你要記住,,當(dāng)你真的站在時(shí)間的圖表中的時(shí)候,,你是看不到曲線的右邊的,因?yàn)槟闶强床坏轿磥淼?。所以你真?shí)的感覺大概是這樣的:
稀松平常,。
遙遠(yuǎn)的未來——就在眼前
想象一下坐時(shí)間機(jī)器回到1750年的地球,那個(gè)時(shí)代沒有電,,暢通通訊基本靠吼,,交通主要靠動物拉著跑。你在那個(gè)時(shí)代邀請了一個(gè)叫老王的人到2015年來玩,,順便看看他對“未來”有什么感受,。我們可能沒有辦法了解1750年的老王內(nèi)心的感受——金屬鐵殼在寬敞的公路上飛馳,和太平洋另一頭的人聊天,,看幾千公里外正在發(fā)生進(jìn)行的體育比賽,,觀看一場發(fā)生于半個(gè)世紀(jì)前的演唱會,從口袋里掏出一個(gè)黑色長方形工具把眼前發(fā)生的事情記錄下來,,生成一個(gè)地圖然后地圖上有個(gè)藍(lán)點(diǎn)告訴你現(xiàn)在的位置,,一邊看著地球另一邊的人的臉一邊聊天,以及其它各種各樣的黑科技,。別忘了,,你還沒跟他解釋互聯(lián)網(wǎng)、國際空間站,、大型強(qiáng)子對撞機(jī),、核武器以及相對論。
這時(shí)候的老王會是什么體驗(yàn),?驚訝,、震驚、腦洞大開這些詞都太溫順了,,我覺得老王很可能直接被嚇尿了,。
但是,如果老王回到了1750年,,然后覺得被嚇尿是個(gè)很囧的體驗(yàn),,于是他也想把別人嚇尿來滿足一下自己,那會發(fā)生什么,?于是老王也回到了250年前的1500年,,邀請生活在1500年的小李去1750年玩一下,。小李可能會被250年后的很多東西震驚,但是至少他不會被嚇尿,。同樣是250來年的時(shí)間,,1750和2015年的差別,比1500年和1750年的差別,,要大得多了,。1500年的小李可能能學(xué)到很多神奇的物理知識,可能會驚訝于歐洲的帝國主義旅程,,甚至對于世界地圖的認(rèn)知也會大大的改變,,但是1500年的小李,看到1750年的交通,、通訊等等,,并不會被嚇尿。
所以說,,對于1750年的老王來說,,要把人嚇尿,他需要回到更古老的過去——比如回到公元前12000年,,第一次農(nóng)業(yè)革命之前,。那個(gè)時(shí)候還沒有城市,也還沒有文明,。一個(gè)來自狩獵采集時(shí)代的人類,,只是當(dāng)時(shí)眾多物種中的一個(gè)罷了,來自那個(gè)時(shí)代的小趙看到1750年龐大的人類帝國,,可以航行于海洋上的巨艦,,居住在“室內(nèi)”,無數(shù)的收藏品,,神奇的知識和發(fā)現(xiàn)——他很有可能被嚇尿,。
小趙被嚇尿后如果也想做同樣的事情呢?如果他會到公元前24000年,,找到那個(gè)時(shí)代的小錢,,然后給他展示公元前12000年的生活會怎樣呢。小錢大概會覺得小趙是吃飽了沒事干——“這不跟我的生活差不多么,,呵呵”,。小趙如果要把人嚇尿,可能要回到十萬年前或者更久,,然后用人類對火和語言的掌控來把對方嚇尿。
所以,,一個(gè)人去到未來,,并且被嚇尿,他們需要滿足一個(gè)“嚇尿單位”。滿足嚇尿單位所需的年代間隔是不一樣的,。在狩獵采集時(shí)代滿足一個(gè)嚇尿單位需要超過十萬年,,而工業(yè)革命后一個(gè)嚇尿單位只要兩百多年就能滿足。
未來學(xué)家Ray Kurzweil把這種人類的加速發(fā)展稱作加速回報(bào)定律(Law of Accelerating Returns),。之所以會發(fā)生這種規(guī)律,,是因?yàn)橐粋€(gè)更加發(fā)達(dá)的社會,能夠繼續(xù)發(fā)展的能力也更強(qiáng),,發(fā)展的速度也更快——這本就是更加發(fā)達(dá)的一個(gè)標(biāo)準(zhǔn),。19世紀(jì)的人們比15世紀(jì)的人們懂得多得多,所以19世紀(jì)的人發(fā)展起來的速度自然比15世紀(jì)的人更快,。
即使放到更小的時(shí)間規(guī)模上,,這個(gè)定律依然有效。著名電影《回到未來》中,,生活在1985年的主角回到了1955年,。當(dāng)主角回到1955年的時(shí)候,他被電視剛出現(xiàn)時(shí)的新穎,、便宜的物價(jià),、沒人喜歡電吉他、俚語的不同而震驚,。
但是如果這部電影發(fā)生在2015年,,回到30年前的主角的震驚要比這大得多。一個(gè)2000年左右出生的人,,回到一個(gè)沒有個(gè)人電腦,、互聯(lián)網(wǎng)、手機(jī)的1985年,,會比從1985年回到1955年的主角看到更大的區(qū)別,。
這同樣是因?yàn)榧铀倩貓?bào)定律。1985年-2015年的平均發(fā)展速度,,要比1955年-1985年的平均發(fā)展速度要快,,因?yàn)?985年的世界比1955年的更發(fā)達(dá),起點(diǎn)更高,,所以過去30年的變化要大過之前30年的變化,。
進(jìn)步越來越大,發(fā)生的越來越快,,也就是說我們的未來會很有趣對吧,?
未來學(xué)家Kurzweil認(rèn)為整個(gè)20世紀(jì)100年的進(jìn)步,按照2000年的速度只要20年就能達(dá)成——2000年的發(fā)展速度是20世紀(jì)平均發(fā)展速度的5倍,。他認(rèn)為2000年開始只要花14年就能達(dá)成整個(gè)20世紀(jì)一百年的進(jìn)步,,而之后2014年開始只要花7年(2021年),,就能達(dá)到又一個(gè)20世紀(jì)一百年的進(jìn)步。幾十年之后,,我們每年都能達(dá)成好幾次相當(dāng)于整個(gè)20世紀(jì)的發(fā)展,,再往后,說不定每個(gè)月都能達(dá)成一次,。按照加速回報(bào)定,,Kurzweil認(rèn)為人類在21世紀(jì)的進(jìn)步將是20世紀(jì)的1000倍。
如果Kurzweil等人的想法是正確的,,那2030年的世界可能就能把我們嚇尿了——下一個(gè)嚇尿單位可能只需要十幾年,,而2050年的世界會變得面目全非。
你可能覺得2050年的世界會變得面目全非這句話很可笑,,但是這不是科幻,,而是比你我聰明很多的科學(xué)家們相信的,而且從歷史來看,,也是邏輯上可以預(yù)測的,。
那么為什么你會覺得“2050年的世界會變得面目全非” 這句話很可笑呢?有三個(gè)原因讓你質(zhì)疑對于未來的預(yù)測:
1. 我們對于歷史的思考是線性的,。當(dāng)我們考慮未來35年的變化時(shí),,我們參照的是過去35年發(fā)生的事情。當(dāng)我們考慮21世紀(jì)能產(chǎn)生的變化的時(shí)候,,我們參考的是20世紀(jì)發(fā)生的變化,。這就好像1750年的老王覺得1500年的小李在1750年能被嚇尿一樣。線性思考是本能的,,但是但是考慮未來的時(shí)候我們應(yīng)該指數(shù)地思考,。一個(gè)聰明人不會把過去35年的發(fā)展作為未來35年的參考,而是會看到當(dāng)下的發(fā)展速度,,這樣預(yù)測的會更準(zhǔn)確一點(diǎn),。當(dāng)然這樣還是不夠準(zhǔn)確,想要更準(zhǔn)確,,你要想象發(fā)展的速度會越來越快,。
S曲線發(fā)生在新范式傳遍世界的時(shí)候,S曲線分三部分
– 慢速增長(指數(shù)增長初期)
– 快速增長(指數(shù)增長的快速增長期)
– 隨著新范式的成熟而出現(xiàn)的平緩期
如果你只看近期的歷史,,你很可能看到的是S曲線的某一部分,,而這部分可能不能說明發(fā)展究竟有多快速。1995-2007年是互聯(lián)網(wǎng)爆炸發(fā)展的時(shí)候,,微軟,、谷歌、臉書進(jìn)入了公眾視野,,伴隨著的是社交網(wǎng)絡(luò),、手機(jī)的出現(xiàn)和普及,、智能手機(jī)的出現(xiàn)和普及,這一段時(shí)間就是S曲線的快速增長期,。2008-2015年發(fā)展沒那么迅速,至少在技術(shù)領(lǐng)域是這樣的,。如果按照過去幾年的發(fā)展速度來估計(jì)當(dāng)下的發(fā)展速度,,可能會錯(cuò)得離譜,因?yàn)楹苡锌赡芟乱粋€(gè)快速增長期正在萌芽,。
3. 個(gè)人經(jīng)驗(yàn)使得我們對于未來預(yù)期過于死板,。我們通過自身的經(jīng)驗(yàn)來產(chǎn)生世界觀,而經(jīng)驗(yàn)把發(fā)展的速度烙印在了我們腦中——“發(fā)展就是這么個(gè)速度的,?!蔽覀冞€會受限于自己的想象力,因?yàn)橄胂罅νㄟ^過去的經(jīng)驗(yàn)來組成對未來的預(yù)測——但是我們知道的東西是不足以幫助我們預(yù)測未來的,。當(dāng)我們聽到一個(gè)和我們經(jīng)驗(yàn)相違背的對于未來的預(yù)測時(shí),,我們就會覺得這個(gè)預(yù)測偏了。如果我現(xiàn)在跟你說你可以活到150歲,,250歲,,甚至?xí)郎闶遣皇怯X得我在扯淡——“自古以來,,所有人都是會死的,。”是的,,過去從來沒有人永生過,,但是飛機(jī)發(fā)明之前也沒有人坐過飛機(jī)呀。
接下來的內(nèi)容,,你可能一邊讀一邊心里“呵呵”,,而且這些內(nèi)容可能真的是錯(cuò)的。但是如果我們是真的從歷史規(guī)律來進(jìn)行邏輯思考的,,我們的結(jié)論就應(yīng)該是未來的幾十年將發(fā)生比我們預(yù)期的多得多得多得多的變化,。同樣的邏輯也表明,如果人類這個(gè)地球上最發(fā)達(dá)的物種能夠越走越快,,總有一天,,他們會邁出徹底改變“人類是什么”這一觀點(diǎn)的一大步,就好像自然進(jìn)化不不斷朝著智能邁步,,并且最終邁出一大步產(chǎn)生了人類,,從而完全改變了其它所有生物的命運(yùn)。如果你留心一下近來的科技進(jìn)步的話,,你會發(fā)現(xiàn),,到處都暗示著我們對于生命的認(rèn)知將要被接下來的發(fā)展而徹底改變,。
通往超級智能之路
人工智能是什么?
如果你一直以來把人工智能(AI)當(dāng)做科幻小說,,但是近來卻不但聽到很多正經(jīng)人嚴(yán)肅的討論這個(gè)問題,,你可能也會困惑。這種困惑是有原因的:
1.我們總是把人工智能和電影想到一起,。星球大戰(zhàn),、終結(jié)者、2001:太空漫游等等,。電影是虛構(gòu)的,,那些電影角色也是虛構(gòu)的,所以我們總是覺得人工智能缺乏真實(shí)感,。
2.人工智能是個(gè)很寬泛的話題,。從手機(jī)上的計(jì)算器到無人駕駛汽車,到未來可能改變世界的重大變革,,人工智能可以用來描述很多東西,,所以人們會有疑惑。
3.我們?nèi)粘I钪幸呀?jīng)每天都在使用人工智能了,,只是我們沒意識到而已,。John McCarthy,在1956年最早使用了人工智能(Artificial Intelligence)這個(gè)詞,。他總是抱怨“一旦一樣?xùn)|西用人工智能實(shí)現(xiàn)了,,人們就不再叫它人工智能了?!?
因?yàn)檫@種效應(yīng),,所以人工智能聽起來總讓人覺得是未來的神秘存在,而不是身邊已經(jīng)存在的現(xiàn)實(shí),。同時(shí),,這種效應(yīng)也讓人們覺得人工智能是一個(gè)從未被實(shí)現(xiàn)過的流行理念,。Kurzweil提到經(jīng)常有人說人工智能在80年代就被遺棄了,,這種說法就好像“互聯(lián)網(wǎng)已經(jīng)在21世紀(jì)初互聯(lián)網(wǎng)泡沫爆炸時(shí)死去了”一般滑稽。
所以,,讓我們從頭開始,。
首先,,不要一提到人工智能就想著機(jī)器人。機(jī)器人只是人工智能的容器,,機(jī)器人有時(shí)候是人形,,有時(shí)候不是,但是人工智能自身只是機(jī)器人體內(nèi)的電腦。人工智能是大腦的話,,機(jī)器人就是身體——而且這個(gè)身體不一定是必需的,。比如說Siri背后的軟件和數(shù)據(jù)是人工智能,Siri說話的聲音是這個(gè)人工智能的人格化體現(xiàn),,但是Siri本身并沒有機(jī)器人這個(gè)組成部分,。
其次,你可能聽過“奇點(diǎn)”或者“技術(shù)奇點(diǎn)”這種說法,。這種說法在數(shù)學(xué)上用來描述類似漸進(jìn)的情況,,這種情況下通常的規(guī)律就不適用了。這種說法同樣被用在物理上來描述無限小的高密度黑洞,,同樣是通常的規(guī)律不適用的情況。Kurzweil則把奇點(diǎn)定義為加速回報(bào)定律達(dá)到了極限,,技術(shù)進(jìn)步以近乎無限的速度發(fā)展,,而奇點(diǎn)之后我們將在一個(gè)完全不同的世界生活的。但是當(dāng)下的很多思考人工智能的人已經(jīng)不再用奇點(diǎn)這個(gè)說法了,,而且這種說法很容易把人弄混,所以本文也盡量少用,。
最后,,人工智能的概念很寬,所以人工智能也分很多種,,我們按照人工智能的實(shí)力將其分成三大類,。
弱人工智能Artificial Narrow Intelligence (ANI): 弱人工智能是擅長于單個(gè)方面的人工智能。比如有能戰(zhàn)勝象棋世界冠軍的人工智能,,但是它只會下象棋,,你要問它怎樣更好地在硬盤上儲存數(shù)據(jù),它就不知道怎么回答你了,。
強(qiáng)人工智能Artificial General Intelligence (AGI): 人類級別的人工智能,。強(qiáng)人工智能是指在各方面都能和人類比肩的人工智能,人類能干的腦力活它都能干,。創(chuàng)造強(qiáng)人工智能比創(chuàng)造弱人工智能難得多,,我們現(xiàn)在還做不到。Linda Gottfredson教授把智能定義為“一種寬泛的心理能力,,能夠進(jìn)行思考,、計(jì)劃、解決問題,、抽象思維,、理解復(fù)雜理念、快速學(xué)習(xí)和從經(jīng)驗(yàn)中學(xué)習(xí)等操作,?!睆?qiáng)人工智能在進(jìn)行這些操作時(shí)應(yīng)該和人類一樣得心應(yīng)手,。
超人工智能Artificial Superintelligence (ASI): 牛津哲學(xué)家,知名人工智能思想家Nick Bostrom把超級智能定義為“在幾乎所有領(lǐng)域都比最聰明的人類大腦都聰明很多,,包括科學(xué)創(chuàng)新,、通識和社交技能?!背斯ぶ悄芸梢允歉鞣矫娑急热祟悘?qiáng)一點(diǎn),,也可以是各方面都比人類強(qiáng)萬億倍的。超人工智能也正是為什么人工智能這個(gè)話題這么火熱的緣故,,同樣也是為什么永生和滅絕這兩個(gè)詞會在本文中多次出現(xiàn),。
現(xiàn)在,人類已經(jīng)掌握了弱人工智能,。其實(shí)弱人工智能無處不在,,人工智能革命是從弱人工智能,通過強(qiáng)人工智能,,最終到達(dá)超人工智能的旅途,。這段旅途中人類可能會生還下來,可能不會,,但是無論如何,,世界將變得完全不一樣。
讓我們來看看這個(gè)領(lǐng)域的思想家對于這個(gè)旅途是怎么看的,,已經(jīng)為什么人工智能革命可能比你想的要近得多,。
我們現(xiàn)在的位置——充滿了弱人工智能的世界
弱人工智能是在特定領(lǐng)域等同或者超過人類智能/效率的機(jī)器智能,一些常見的例子:
汽車上有很多的弱人工智能系統(tǒng),,從控制防抱死系統(tǒng)的電腦,,到控制汽油注入?yún)?shù)的電腦。谷歌正在測試的無人駕駛車,,就包括了很多弱人工智能,,這些弱人工智能能夠感知周圍環(huán)境并作出反應(yīng)。你的手機(jī)也充滿了弱人工智能系統(tǒng),。當(dāng)你用地圖軟件導(dǎo)航,,接受音樂電臺推薦,查詢明天的天氣,,和Siri聊天,,以及其它很多很多應(yīng)用,其實(shí)都是弱人工智能,。垃圾郵件過濾器是一種經(jīng)典的弱人工智能——它一開始就加載了很多識別垃圾郵件的智能,,并且它會學(xué)習(xí)并且根據(jù)你的使用而獲得經(jīng)驗(yàn)。智能室溫調(diào)節(jié)也是一樣,它能根據(jù)你的日常習(xí)慣來智能調(diào)節(jié),。你在上網(wǎng)時(shí)候出現(xiàn)的各種其它電商網(wǎng)站的產(chǎn)品推薦,,還有社交網(wǎng)站的好友推薦,這些都是弱人工智能的組成的,,弱人工智能聯(lián)網(wǎng)互相溝通,,利用你的信息來進(jìn)行推薦。網(wǎng)購時(shí)出現(xiàn)的“買這個(gè)商品的人還購買了”推薦,,其實(shí)就是手機(jī)數(shù)百萬用戶行為然后產(chǎn)生信息來賣東西給你的弱人工智能,。谷歌翻譯也是一種經(jīng)典的人工智能——非常擅長單個(gè)領(lǐng)域。聲音識別也是一種,。很多軟件利用這兩種智能的合作,,使得你能對著手機(jī)說中文,手機(jī)直接給你翻譯成英文,。當(dāng)飛機(jī)著陸時(shí)候,,不是一個(gè)人類決定飛機(jī)該去那個(gè)登機(jī)口接駁。就好像你在網(wǎng)上買票時(shí)票據(jù)不是一個(gè)人類決定的,。世界最強(qiáng)的跳棋、象棋,、拼字棋,、雙陸棋和黑白棋選手都是弱人工智能。谷歌搜索是一個(gè)巨大的弱人工智能,,背后是非常復(fù)雜的排序方法和內(nèi)容檢索,。社交網(wǎng)絡(luò)的新鮮事同樣是這樣。這些還只是消費(fèi)級產(chǎn)品的例子,。軍事,、制造、金融(高頻算法交易占到了美國股票交易的一半)等領(lǐng)域廣泛運(yùn)用各種復(fù)雜的弱人工智能,。專業(yè)系統(tǒng)也有,,比如幫助醫(yī)生診斷疾病的系統(tǒng),還有著名的IBM的華生,,儲存了大量事實(shí)數(shù)據(jù),,還能理解主持人的提問,在競猜節(jié)目中能夠戰(zhàn)勝最厲害的參賽者,。
現(xiàn)在的弱人工智能系統(tǒng)并不嚇人,。最糟糕的情況,無非是代碼沒寫好,,程序出故障,,造成了單獨(dú)的災(zāi)難,比如造成停電、核電站故障,、金融市場崩盤等等,。
雖然現(xiàn)在的弱人工智能沒有威脅我們生存的能力,我們還是要懷著警惕的觀點(diǎn)看待正在變得更加龐大和復(fù)雜的弱人工智能的生態(tài),。每一個(gè)弱人工智能的創(chuàng)新,,都在給通往強(qiáng)人工智能和超人工智能的旅途添磚加瓦。用Aaron Saenz的觀點(diǎn),,現(xiàn)在的弱人工智能,,就是地球早期軟泥中的氨基酸——沒有動靜的物質(zhì),突然之間就組成了生命,。
弱人工智能到強(qiáng)人工智能之路
為什么這條路很難走
只有明白創(chuàng)造一個(gè)人類智能水平的電腦是多么不容易,,才能讓你真的理解人類的智能是多么不可思議。造摩天大樓,、把人送入太空,、明白宇宙大爆炸的細(xì)節(jié)——這些都比理解人類的大腦,并且創(chuàng)造個(gè)類似的東西要簡單太多了,。至今為止,,人類的大腦是我們所知宇宙中最復(fù)雜的東西。
而且創(chuàng)造強(qiáng)人工智能的難處,,并不是你本能認(rèn)為的那些,。
造一個(gè)能在瞬間算出十位數(shù)乘法的計(jì)算機(jī)——非常簡單
造一個(gè)能分辨出一個(gè)動物是貓還是狗的計(jì)算機(jī)——極端困難
造一個(gè)能戰(zhàn)勝世界象棋冠軍的電腦——早就成功了
造一個(gè)能夠讀懂六歲小朋友的圖片書中的文字,并且了解那些詞匯意思的電腦——谷歌花了幾十億美元在做,,還沒做出來,。
一些我們覺得困難的事情——微積分、金融市場策略,、翻譯等,,對于電腦來說都太簡單了
我們覺得容易的事情——視覺、動態(tài),、移動,、直覺——對電腦來說太TM的難了。
用計(jì)算機(jī)科學(xué)家Donald Knuth的說法,,“人工智能已經(jīng)在幾乎所有需要思考的領(lǐng)域超過了人類,,但是在那些人類和其它動物不需要思考就能完成的事情上,還差得很遠(yuǎn),?!?
讀者應(yīng)該能很快意識到,那些對我們來說很簡單的事情,,其實(shí)是很復(fù)雜的,,它們看上去很簡單,,因?yàn)樗鼈円呀?jīng)在動物進(jìn)化的過程中經(jīng)歷了幾億年的優(yōu)化了。當(dāng)你舉手拿一件東西的時(shí)候,,你肩膀,、手肘、手腕里的肌肉,、肌腱和骨頭,,瞬間就進(jìn)行了一組復(fù)雜的物理運(yùn)作,這一切還配合著你的眼睛的運(yùn)作,,使得你的手能都在三維空間中進(jìn)行直線運(yùn)作,。對你來說這一切輕而易舉,因?yàn)樵谀隳X中負(fù)責(zé)處理這些的“軟件”已經(jīng)很完美了,。同樣的,,軟件很難識別網(wǎng)站的驗(yàn)證碼,不是因?yàn)檐浖?,恰恰相反,,是因?yàn)槟軌蜃x懂驗(yàn)證碼是件碉堡了的事情。
同樣的,,大數(shù)相乘,、下棋等等,對于生物來說是很新的技能,,我們還沒有幾億年的世界來進(jìn)化這些能力,,所以電腦很輕易的就擊敗了我們。試想一下,,如果讓你寫一個(gè)程序,,是一個(gè)能做大數(shù)相乘的程序容易寫,,還是能夠識別千千萬萬種字體和筆跡下書寫的英文字母的程序難寫,?
比如看著下面這個(gè)圖的時(shí)候,你和電腦都能識別出這是一個(gè)由兩種顏色的小長方形組成的一個(gè)大長方形,。
你和電腦打了個(gè)平手,。接著我們把途中的黑色部分去除:
你可以輕易的描述圖形中透明或不透明的圓柱和3D圖形,但是電腦就看不出來了,。電腦會描述出2D的陰影細(xì)節(jié),,但是人腦卻能夠把這些陰影所展現(xiàn)的深度、陰影混合,、房屋燈光解讀出來,。
再看下面這張圖,電腦看到的是黑白灰,,我們看到的卻是一塊全黑的石頭,。
而且,,我們到現(xiàn)在談的還是靜態(tài)不變的信息。要想達(dá)到人類級別的智能,,電腦必須要理解更高深的東西,,比如微小的臉部表情變化,開心,、放松,、滿足、滿意,、高興這些類似情緒間的區(qū)別,,以及為什么《布達(dá)佩斯大飯店》是好電影,而《富春山居圖》是爛電影,。
想想就很難吧,?
我們要怎樣才能達(dá)到這樣的水平呢?
通往強(qiáng)人工智能的第一步:增加電腦處理速度,。
要達(dá)到強(qiáng)人工智能,,肯定要滿足的就是電腦硬件的運(yùn)算能力。如果一個(gè)人工智能要像人腦一般聰明,,它至少要能達(dá)到人腦的運(yùn)算能力,。
用來描述運(yùn)算能力的單位叫作cps(calculations per second,每秒計(jì)算次數(shù)),,要計(jì)算人腦的cps只要了解人腦中所有結(jié)構(gòu)的最高cps,,然后加起來就行了。
Kurzweil把對于一個(gè)結(jié)構(gòu)的最大cps的專業(yè)估算,,然后考慮這個(gè)結(jié)構(gòu)占整個(gè)大腦的重量,,做乘法,來得出人腦的cps,。聽起來不太靠譜,,但是Kurzweil用了對于不同大腦區(qū)域的專業(yè)估算值,得出的最終結(jié)果都非常類似,,是10^16 cps,,也就是1億億次計(jì)算每秒。
現(xiàn)在最快的超級計(jì)算機(jī),,中國的天河二號,,其實(shí)已經(jīng)超過這個(gè)運(yùn)算力了,天河每秒能進(jìn)行3.4億億,。當(dāng)然,,天河二號占地720平方米,耗電2400萬瓦,,耗費(fèi)了3.9億美元建造,。廣泛應(yīng)用就不提了,,即使是大部分商業(yè)或者工業(yè)運(yùn)用也是很貴的。
Kurzweil認(rèn)為考慮電腦的發(fā)展程度的標(biāo)桿是看1000美元能買到多少cps,,當(dāng)1000美元能買到人腦級別的1億億運(yùn)算能力的時(shí)候,,強(qiáng)人工智能可能就是生活的一部分了。
摩爾定律認(rèn)為全世界的電腦運(yùn)算能力每兩年就翻一倍,,這一定律有歷史數(shù)據(jù)所支持,,這同樣表明電腦硬件的發(fā)展和人類發(fā)展一樣是指數(shù)級別的。我們用這個(gè)定律來衡量1000美元什么時(shí)候能買到1億億cps?,F(xiàn)在1000美元能買到10萬億cps,,和摩爾定律的歷史預(yù)測相符合。
也就是說現(xiàn)在1000美元能買到的電腦已經(jīng)強(qiáng)過了老鼠,,并且達(dá)到了人腦千分之一的水平,。聽起來還是弱爆了,但是,,讓我們考慮一下,,1985年的時(shí)候,同樣的錢只能買到人腦萬億分之一的cps,,1995年變成了十億分之一,,2005年是百萬分之一,而2015年已經(jīng)是千分之一了,。按照這個(gè)速度,,我們到2025年就能花1000美元買到可以和人腦運(yùn)算速度抗衡的電腦了。
至少在硬件上,,我們已經(jīng)能夠強(qiáng)人工智能了(中國的天河二號),,而且十年以內(nèi),我們就能以低廉的價(jià)格買到能夠支持強(qiáng)人工智能的電腦硬件,。
但是運(yùn)算能力并不能讓電腦變得智能,,下一個(gè)問題是,我們怎樣利用這份運(yùn)算能力來達(dá)成人類水平的智能,。
通往強(qiáng)人工智能的第二步:讓電腦變得智能,。
這一步比較難搞,。事實(shí)上,,沒人知道該怎么搞——我們還停留在爭論怎么讓電腦分辨《富春山居圖》是部爛片的階段。但是,,現(xiàn)在有一些策略,,有可能會有效。下面是最常見的三種策略:
1) 抄襲人腦
就好像你班上有一個(gè)學(xué)霸,。你不知道為什么學(xué)霸那么聰明,,為什么考試每次都滿分,。雖然你也很努力的學(xué)習(xí),但是你就是考的沒有學(xué)霸好,。最后你決定“老子不干了,,我直接抄他的考試答案好了?!边@種“抄襲”是有道理的,,我們想要建造一個(gè)超級復(fù)雜的電腦,但是我們有人腦這個(gè)范本可以參考呀,。
科學(xué)界正在努力逆向工程人腦,,來理解生物進(jìn)化是怎么造出這么個(gè)神奇的東西的,樂觀的估計(jì)是我們在2030年之前能夠完成這個(gè)任務(wù),。一旦這個(gè)成就達(dá)成,,我們就能知道為什么人腦能夠如此高效、快速的運(yùn)行,,并且能從中獲得靈感來進(jìn)行創(chuàng)新,。一個(gè)電腦架構(gòu)模擬人腦的例子就是人工神經(jīng)網(wǎng)絡(luò)。它是一個(gè)由晶體管作為“神經(jīng)”組成的網(wǎng)絡(luò),,晶體管和其它晶體管互相連接,,有自己的輸入、輸出系統(tǒng),,而且什么都不知道——就像一個(gè)嬰兒的大腦,。接著它會通過做任務(wù)來自我學(xué)習(xí),比如識別筆跡,。最開始它的神經(jīng)處理和猜測會是隨機(jī)的,,但是當(dāng)它得到正確的回饋后,相關(guān)晶體管之間的連接就會被加強(qiáng),;如果它得到錯(cuò)誤的回饋,,連接就會變?nèi)酢=?jīng)過一段時(shí)間的測試和回饋后,,這個(gè)網(wǎng)絡(luò)自身就會組成一個(gè)智能的神經(jīng)路徑,,而處理這項(xiàng)任務(wù)的能力也得到了優(yōu)化。人腦的學(xué)習(xí)是類似的過程,,不過比這復(fù)雜一點(diǎn),,隨著我們對大腦研究的深入,我們將會發(fā)現(xiàn)更好的組建神經(jīng)連接的方法,。
更加極端的“抄襲”方式是“整腦模擬”,。具體來說就是把人腦切成很薄的片,用軟件來準(zhǔn)確的組建一個(gè)3D模型,,然后把這個(gè)模型裝在強(qiáng)力的電腦上,。如果能做成,,這臺電腦就能做所有人腦能做的事情——只要讓它學(xué)習(xí)和吸收信息就好了。如果做這事情的工程師夠厲害的話,,他們模擬出來的人腦甚至?xí)性救四X的人格和記憶,,電腦模擬出的人腦就會像原本的人腦一樣——這就是非常符合人類保準(zhǔn)的強(qiáng)人工智能,然后我們就能把它改造成一個(gè)更加厲害的超人工智能了,。
我們離整腦模擬還有多遠(yuǎn)呢,?至今為止,我們剛剛能夠模擬1毫米長的扁蟲的大腦,,這個(gè)大腦含有302個(gè)神經(jīng)元,。人類的大腦有1000億個(gè)神經(jīng)元,聽起來還差很遠(yuǎn),。但是要記住指數(shù)增長的威力——我們已經(jīng)能模擬小蟲子的大腦了,,螞蟻的大腦也不遠(yuǎn)了,接著就是老鼠的大腦,,到那時(shí)模擬人類大腦就不是那么不現(xiàn)實(shí)的事情了,。
2)模仿生物演化
抄學(xué)霸的答案當(dāng)然是一種方法,但是如果學(xué)霸的答案太難抄了呢,?那我們能不能學(xué)一下學(xué)霸備考的方法,?
首先我們很確定的知道,建造一個(gè)和人腦一樣強(qiáng)大的電腦是可能的——我們的大腦就是證據(jù),。如果大腦太難完全模擬,,那么我們可以模擬演化出大腦的過程。事實(shí)上,,就算我們真的能完全模擬大腦,,結(jié)果也就好像照抄鳥類翅膀的拍動來造飛機(jī)一樣——很多時(shí)候最好的設(shè)計(jì)機(jī)器的方式并不是照抄生物設(shè)計(jì)。
所以我們可不可以用模擬演化的方式來造強(qiáng)人工智能呢,?這種方法叫作“基因算法”,,它大概是這樣的:建立一個(gè)反復(fù)運(yùn)作的表現(xiàn)/評價(jià)過程,就好像生物通過生存這種方式來表現(xiàn),,并且以能否生養(yǎng)后代為評價(jià)一樣,。一組電腦將執(zhí)行各種任務(wù),最成功的將會“繁殖”,,把各自的程序融合,,產(chǎn)生新的電腦,而不成功的將會被剔除,。經(jīng)過多次的反復(fù)后,。這個(gè)自然選擇的過程將產(chǎn)生越來越強(qiáng)大的電腦,。而這個(gè)方法的難點(diǎn)是建立一個(gè)自動化的評價(jià)和繁殖過程,,使得整個(gè)流程能夠自己運(yùn)行,。
這個(gè)方法的缺點(diǎn)也是很明顯的,演化需要經(jīng)過幾十億年的時(shí)間,,而我們卻只想花幾十年時(shí)間,。
但是比起自然演化來說,我們有很多優(yōu)勢,。首先,,自然演化是沒有預(yù)知能力的,它是隨機(jī)的——它產(chǎn)生的沒用的變異比有用的變異多很多,,但是人工模擬的演化可以控制過程,,使其著重于有益的變化。其次,,自然演化是沒有目標(biāo)的,,自然演化出的智能也不是它目標(biāo),特定環(huán)境甚至對于更高的智能是不利的(因?yàn)楦叩戎悄芟暮芏嗄茉矗?。但是我們可以指揮演化的過程超更高智能的方向發(fā)展,。再次,要產(chǎn)生智能,,自然演化要先產(chǎn)生其它的附件,,比如改良細(xì)胞產(chǎn)生能量的方法,但是我們完全可以用電力來代替這額外的負(fù)擔(dān),。所以,,人類主導(dǎo)的演化會比自然快很多很多,但是我們依然不清楚這些優(yōu)勢是否能使模擬演化成為可行的策略,。
3)讓電腦來解決這些問題
如果抄學(xué)霸的答案和模擬學(xué)霸備考的方法都走不通,,那就干脆讓考題自己解答自己吧。這種想法很無厘頭,,確實(shí)最有希望的一種,。
總的思路是我們建造一個(gè)能進(jìn)行兩項(xiàng)任務(wù)的電腦——研究人工智能和修改自己的代碼。這樣它就不只能改進(jìn)自己的架構(gòu)了,,我們直接把電腦變成了電腦科學(xué)家,,提高電腦的智能就變成了電腦自己的任務(wù)。
以上這些都會很快發(fā)生,。
硬件的快速發(fā)展和軟件的創(chuàng)新是同時(shí)發(fā)生的,,強(qiáng)人工智能可能比我們預(yù)期的更早降臨,因?yàn)椋?
1)指數(shù)級增長的開端可能像蝸牛漫步,,但是后期會跑的非???
2)軟件的發(fā)展可能看起來很緩慢,但是一次頓悟,就能永遠(yuǎn)改變進(jìn)步的速度,。就好像在人類還信奉地心說的時(shí)候,,科學(xué)家們沒法計(jì)算宇宙的運(yùn)作方式,但是日心說的發(fā)現(xiàn)讓一切變得容易很多,。創(chuàng)造一個(gè)能自我改進(jìn)的電腦來說,,對我們來說還很遠(yuǎn),但是可能一個(gè)無意的變動,,就能讓現(xiàn)在的系統(tǒng)變得強(qiáng)大千倍,,從而開啟朝人類級別智能的沖刺。
強(qiáng)人工智能到超人工智能之路,。
總有一天,,我們會造出和人類智能相當(dāng)?shù)膹?qiáng)人工智能電腦,然后人類和電腦就會平等快樂的生活在一起,。
呵呵,,逗你呢。
即使是一個(gè)和人類智能完全一樣,,運(yùn)算速度完全一樣的強(qiáng)人工智能,,也比人類有很多優(yōu)勢:
硬件上:
-速度。腦神經(jīng)元的運(yùn)算速度最多是200赫茲,,今天的微處理器就能以2G赫茲,,也就是神經(jīng)元1000萬倍的速度運(yùn)行,而這比我們達(dá)成強(qiáng)人工智能需要的硬件還差遠(yuǎn)了,。大腦的內(nèi)部信息傳播速度是每秒120米,,電腦的信息傳播速度是光速,差了好幾個(gè)數(shù)量級,。
– 容量和儲存空間,。人腦就那么大,后天沒法把它變得更大,,就算真的把它變得很大,,每秒120米的信息傳播速度也會成為巨大的瓶頸。電腦的物理大小可以非常隨意,,使得電腦能運(yùn)用更多的硬件,,更大的內(nèi)存,長期有效的存儲介質(zhì),,不但容量大而且比人腦更準(zhǔn)確,。
– 可靠性和持久性。電腦的存儲不但更加準(zhǔn)確,,而且晶體管比神經(jīng)元更加精確,,也更不容易萎縮(真的壞了也很好修)。人腦還很容易疲勞,但是電腦可以24小時(shí)不停的以峰值速度運(yùn)作,。
軟件上來說:
– 可編輯性,,升級性,以及更多的可能性,。和人腦不同,,電腦軟件可以進(jìn)行更多的升級和修正,,并且很容易做測試,。電腦的升級可以加強(qiáng)人腦比較弱勢的領(lǐng)域——人腦的視覺元件很發(fā)達(dá),但是工程元件就挺弱的,。而電腦不但能在視覺元件上匹敵人類,,在工程元件上也一樣可以加強(qiáng)和優(yōu)化。
– 集體能力,。人類在集體智能上可以碾壓所有的物種,。從早期的語言和大型社區(qū)的形成,到文字和印刷的發(fā)明,,再到互聯(lián)網(wǎng)的普及,。人類的集體智能是我們統(tǒng)治其它物種的重要原因之一。而電腦在這方面比我們要強(qiáng)的很多,,一個(gè)運(yùn)行特定程序的人工智能網(wǎng)絡(luò)能夠經(jīng)常在全球范圍內(nèi)自我同步,,這樣一臺電腦學(xué)到的東西會立刻被其它所有電腦學(xué)得。而且電腦集群可以共同執(zhí)行同一個(gè)任務(wù),,因?yàn)楫愐?、動力、自利這些人類特有的東西未必會出現(xiàn)在電腦身上,。
通過自我改進(jìn)來達(dá)成強(qiáng)人工智能的人工智能,,會把“人類水平的智能”當(dāng)作一個(gè)重要的里程碑,但是也就僅此而已了,。它不會停留在這個(gè)里程碑上的,。考慮到強(qiáng)人工智能之于人腦的種種優(yōu)勢,,人工智能只會在“人類水平”這個(gè)節(jié)點(diǎn)做短暫的停留,,然后就會開始大踏步向超人類級別的智能走去。
這一切發(fā)生的時(shí)候我們很可能被嚇尿,,因?yàn)閺奈覀兊慕嵌葋砜?a)雖然動物的智能有區(qū)別,,但是動物智能的共同特點(diǎn)是比人類低很多;b)我們眼中最聰明的人類要比最愚笨的人類要聰明很很很很多,。
2
所以,,當(dāng)人工智能開始朝人類級別智能靠近時(shí),我們看到的是它逐漸變得更加智能,就好像一個(gè)動物一般,。然后,,它突然達(dá)到了最愚笨的人類的程度,我們到時(shí)也許會感慨:“看這個(gè)人工智能就跟個(gè)腦殘人類一樣聰明,,真可愛,。”
但問題是,,從智能的大局來看,,人和人的智能的差別,比如從最愚笨的人類到愛因斯坦的差距,,其實(shí)是不大的,。所以當(dāng)人工智能達(dá)到了腦殘級別的智能后,它會很快變得比愛因斯坦更加聰明:
之后呢,?
智能爆炸
從這邊開始,,這個(gè)話題要變得有點(diǎn)嚇人了。我在這里要提醒大家,,以下所說的都是大實(shí)話——是一大群受人尊敬的思想家和科學(xué)家關(guān)于未來的誠實(shí)的預(yù)測,。你在下面讀到什么離譜的東西的時(shí)候,要記得這些東西是比你我都聰明很多的人想出來的,。
像上面所說的,,我們當(dāng)下用來達(dá)成強(qiáng)人工智能的模型大多數(shù)都依靠人工智能的自我改進(jìn)。但是一旦它達(dá)到了強(qiáng)人工智能,,即使算上那一小部分不是通過自我改進(jìn)來達(dá)成強(qiáng)人工智能的系統(tǒng),,也會聰明到能夠開始自我改進(jìn)。
這里我們要引出一個(gè)沉重的概念——遞歸的自我改進(jìn),。這個(gè)概念是這樣的:一個(gè)運(yùn)行在特定智能水平的人工智能,,比如說腦殘人類水平,有自我改進(jìn)的機(jī)制,。當(dāng)它完成一次自我改進(jìn)后,,它比原來更加聰明了,我們假設(shè)它到了愛因斯坦水平,。而這個(gè)時(shí)候它繼續(xù)進(jìn)行自我改進(jìn),,然而現(xiàn)在它有了愛因斯坦水平的智能,所以這次改進(jìn)會比上面一次更加容易,,效果也更好,。第二次的改進(jìn)使得他比愛因斯坦還要聰明很多,讓它接下來的改進(jìn)進(jìn)步更加明顯,。如此反復(fù),,這個(gè)強(qiáng)人工智能的智能水平越長越快,,直到它達(dá)到了超人工智能的水平——這就是智能爆炸,也是加速回報(bào)定律的終極表現(xiàn),。
這篇文章的第一部分完了,,我建議你休息一下,喝點(diǎn)水,,下面我們要開始第二部分,。
第二部分開始:
文章的第一部分討論了已經(jīng)在我們?nèi)粘I钪须S處可見的弱人工智能,然后討論了為什么從弱人工智能到強(qiáng)人工智能是個(gè)很大的挑戰(zhàn),,然后我們談到了為什么技術(shù)進(jìn)步的指數(shù)級增長表面強(qiáng)人工智能可能并不那么遙遠(yuǎn),。第一部分的結(jié)束,我們談到了一旦機(jī)器達(dá)到了人類級別的智能,,我們將見到如下的場景:
這篇文章的第一部分完了,,我建議你休息一下,,喝點(diǎn)水,,下面我們要開始第二部分。
第二部分開始:
文章的第一部分討論了已經(jīng)在我們?nèi)粘I钪须S處可見的弱人工智能,,然后討論了為什么從弱人工智能到強(qiáng)人工智能是個(gè)很大的挑戰(zhàn),,然后我們談到了為什么技術(shù)進(jìn)步的指數(shù)級增長表面強(qiáng)人工智能可能并不那么遙遠(yuǎn)。第一部分的結(jié)束,,我們談到了一旦機(jī)器達(dá)到了人類級別的智能,,我們將見到如下的場景:
這讓我們無所適從,尤其考慮到超人工智能可能會發(fā)生在我們有生之年,,我們都不知道該用什么表情來面對,。
再我們繼續(xù)深入這個(gè)話題之前,讓我們提醒一下自己超級智能意味著什么,。
很重要的一點(diǎn)是速度上的超級智能和質(zhì)量上的超級智能的區(qū)別,。很多人提到和人類一樣聰明的超級智能的電腦,第一反應(yīng)是它運(yùn)算速度會非常非??臁秃孟褚粋€(gè)運(yùn)算速度是人類百萬倍的機(jī)器,,能夠用幾分鐘時(shí)間思考完人類幾十年才能思考完的東西
這聽起來碉堡了,而且超人工智能確實(shí)會比人類思考的快很多,,但是真正的差別其實(shí)是在智能的質(zhì)量而不是速度上,。用人類來做比喻,人類之所以比猩猩智能很多,,真正的差別并不是思考的速度,,而是人類的大腦有一些獨(dú)特而復(fù)雜的認(rèn)知模塊,這些模塊讓我們能夠進(jìn)行復(fù)雜的語言呈現(xiàn),、長期規(guī)劃,、或者抽象思考等等,,而猩猩的腦子是做不來這些的。就算你把猩猩的腦子加速幾千倍,,它還是沒有辦法在人類的層次思考的,,它依然不知道怎樣用特定的工具來搭建精巧的模型——人類的很多認(rèn)知能力是猩猩永遠(yuǎn)比不上的,你給猩猩再多的時(shí)間也不行,。
而且人和猩猩的智能差別不只是猩猩做不了我們能做的事情,,而是猩猩的大腦根本不能理解這些事情的存在——猩猩可以理解人類是什么,也可以理解摩天大樓是什么,,但是它不會理解摩天大樓是被人類造出來的,,對于猩猩來說,摩天大樓那么巨大的東西肯定是天然的,,句號,。對于猩猩來說,它們不但自己造不出摩天大樓,,它們甚至沒法理解摩天大樓這東西能被任何東西造出來,。而這一切差別,其實(shí)只是智能的質(zhì)量中很小的差別造成的,。
而當(dāng)我們在討論超人工智能時(shí)候,,智能的范圍是很廣的,和這個(gè)范圍比起來,,人類和猩猩的智能差別是細(xì)微的,。如果生物的認(rèn)知能力是一個(gè)樓梯的話,不同生物在樓梯上的位置大概是這樣的:
3
要理解一個(gè)具有超級智能的機(jī)器有多牛逼,,讓我們假設(shè)一個(gè)在上圖的樓梯上站在深綠色臺階上的一個(gè)機(jī)器,,它站的位置只比人類高兩層,就好像人類比猩猩只高兩層一樣,。這個(gè)機(jī)器只是稍微有點(diǎn)超級智能而已,,但是它的認(rèn)知能力之于人類,就好像人類的認(rèn)知能力之于猩猩一樣,。就好像猩猩沒有辦法理解摩天大樓是能被造出來的一樣,,人類完全沒有辦法理解比人類高兩層臺階的機(jī)器能做的事情。就算這個(gè)機(jī)器試圖向我們解釋,,效果也會像教猩猩造摩天大樓一般,。
而這,只是比我們高了兩層臺階的智能罷了,,站在這個(gè)樓梯頂層的智能之于人類,,就好像人類之于螞蟻一般——它就算花再多時(shí)間教人類一些最簡單的東西,我們依然是學(xué)不會的,。
但是我們討論的超級智能并不是站在這個(gè)樓梯頂層,,而是站在遠(yuǎn)遠(yuǎn)高于這個(gè)樓梯的地方,。當(dāng)智能爆炸發(fā)生時(shí),它可能要花幾年時(shí)間才能從猩猩那一層往上邁一步,,但是這個(gè)步子會越邁越快,,到后來可能幾個(gè)小時(shí)就能邁一層,而當(dāng)它超過人類十層臺階的時(shí)候,,它可能開始跳著爬樓梯了——一秒鐘爬四層臺階也未嘗不可,。所以讓我們記住,當(dāng)?shù)谝粋€(gè)到達(dá)人類智能水平的強(qiáng)人工智能出現(xiàn)后,,我們將在很短的時(shí)間內(nèi)面對一個(gè)站在下圖這樣很高很高的樓梯上的智能(甚至比這更高百萬倍):
前面已經(jīng)說了,,試圖去理解比我們高兩層臺階的機(jī)器就已經(jīng)是徒勞的,所以讓我們很肯定的說,,我們是沒有辦法知道超人工智能會做什么,,也沒有辦法知道這些事情的后果。任何假裝知道的人都沒搞明白超級智能是怎么回事,。
自然演化花了幾億年時(shí)間發(fā)展了生物大腦,,按這種說法的話,一旦人類創(chuàng)造出一個(gè)超人工智能,,我們就是在碾壓自然演化了,。當(dāng)然,,可能這也是自然演化的一部分——可能演化真正的模式就是創(chuàng)造出各種各樣的智能,,直到有一天有一個(gè)智能能夠創(chuàng)造出超級智能,而這個(gè)節(jié)點(diǎn)就好像踩上了地雷的絆線一樣,,會造成全球范圍的大爆炸,,從而改變所有生物的命運(yùn)。
科學(xué)界中大部分人認(rèn)為踩上絆線不是會不會的問題,,而是時(shí)間早晚的問題,。想想真嚇人。
那我們該怎么辦呢,?
可惜,,沒有人都告訴你踩到絆線后會發(fā)生什么。但是人工智能思想家Nick Bostrom認(rèn)為我們會面臨兩類可能的結(jié)果——永生和滅絕,。
首先,,回顧歷史,我們可以看到大部分的生命經(jīng)歷了這樣的歷程:物種出現(xiàn),,存在了一段時(shí)間,,然后不可避免的跌落下生命的平衡木,跌入滅絕的深淵,。
歷史上來說,,“所有生物終將滅絕”就像“所有人都會死”一樣靠譜,。至今為止,存在過的生物中99.9%都已經(jīng)跌落了生命的平衡木,,如果一個(gè)生物繼續(xù)在平衡木上走,,早晚會有一陣風(fēng)把它吹下去。Bostrom把滅絕列為一種吸引態(tài)——所有生物都有墜入的風(fēng)險(xiǎn),,而一旦墜入將沒有回頭,。
雖然大部分科學(xué)家都承認(rèn)一個(gè)超人工智能有把人類滅絕的能力,也有一些人為如果運(yùn)用得當(dāng),,超人工智能可以幫助人類和其它物種,,達(dá)到另一個(gè)吸引態(tài)——永生。Bostrom認(rèn)為物種的永生和滅絕一樣都是吸引態(tài),,也就是我一旦我們達(dá)成了永生,,我們將永遠(yuǎn)不再面臨滅絕的危險(xiǎn)——我們戰(zhàn)勝了死亡和幾率。所以,,雖然絕大多數(shù)物種都從平衡木上摔了下去滅絕了,,Bostrom認(rèn)為平衡木外是有兩面的,只是至今為止地球上的生命還沒聰明到發(fā)現(xiàn)怎樣去到永生這另一個(gè)吸引態(tài),。
如果Bostrom等思想家的想法是對的,,而且根據(jù)我的研究他們確實(shí)很可能是對的,那么我們需要接受兩個(gè)事實(shí):
1)超人工智能的出現(xiàn),,將有史以來第一次,,將物種的永生這個(gè)吸引態(tài)變?yōu)榭赡?
2)超人工智能的出現(xiàn),將造成非常巨大的沖擊,,而且這個(gè)沖擊可能將人類吹下平衡木,,并且落入其中一個(gè)吸引態(tài)
有可能,當(dāng)自然演化踩到絆線的時(shí)候,,它會永久的終結(jié)人類和平衡木的關(guān)系,,創(chuàng)造一個(gè)新的世界,不管這時(shí)人類還是不是存在,。
而現(xiàn)在的問題就是:“我們什么時(shí)候會踩到絆線,?”以及“從平衡木上跌下去后我們會掉入哪個(gè)吸引態(tài)?”
沒人知道答案,,但是一些聰明人已經(jīng)思考了幾十年,,接下來我們看看他們想出來了些什么。
___________
先來討論“我們什么時(shí)候會踩到絆線,?”也就是什么時(shí)候會出現(xiàn)第一個(gè)超級智能,。
不出意外的,科學(xué)家和思想家對于這個(gè)意見的觀點(diǎn)分歧很大,。很多人,,比如Vernor Vinge教授,,科學(xué)家Ben Goertzel,SUN創(chuàng)始人Bill Joy,,發(fā)明家和未來學(xué)家Ray Kurzweil,,認(rèn)同機(jī)器學(xué)習(xí)專家Jeremy Howard的觀點(diǎn),Howard在TED演講時(shí)用到了這張圖:
這些人相信超級智能會發(fā)生在不久的將來,,因?yàn)橹笖?shù)級增長的關(guān)系,,雖然機(jī)器學(xué)習(xí)現(xiàn)在還發(fā)展緩慢,但是在未來幾十年就會變得飛快,。
其它的,,比如微軟創(chuàng)始人Paul Allen,心理學(xué)家Gary Marcus,,NYU的電腦科學(xué)家Ernest Davis,,以及科技創(chuàng)業(yè)者M(jìn)itch Kapor認(rèn)為Kurzweil等思想家低估了人工智能的難度,并且認(rèn)為我們離絆線還挺遠(yuǎn)的,。
Kurzweil一派則認(rèn)為唯一被低估的其實(shí)是指數(shù)級增長的潛力,,他們把質(zhì)疑他們理論的人比作那些1985年時(shí)候看到發(fā)展速度緩慢的因特網(wǎng),然后覺得因特網(wǎng)在未來不會有什么大影響的人一樣,。
而質(zhì)疑者們則認(rèn)為智能領(lǐng)域的發(fā)展需要達(dá)到的進(jìn)步同樣是指數(shù)級增長的,,這其實(shí)把技術(shù)發(fā)展的指數(shù)級增長抵消了。
爭論如此反復(fù),。
第三個(gè)陣營,,包括Nick Bostrom在內(nèi),認(rèn)為其它兩派都沒有理由對踩絆線的時(shí)間那么有信心,,他們同時(shí)認(rèn)為 a) 這事情完全可能發(fā)生在不就的未來 b)但是這個(gè)事情沒個(gè)準(zhǔn),,說不定會花更久
還有不屬于三個(gè)陣營的其他人,比如哲學(xué)家Hubert Dreyfus,,相信三個(gè)陣營都太天真了,根本就沒有什么絆線,。超人工智能是不會被實(shí)現(xiàn)的,。
當(dāng)你把所有人的觀點(diǎn)全部融合起來的話是怎樣呢?
2013年的時(shí)候,,Bostrom做了個(gè)問卷調(diào)查,,涵蓋了數(shù)百位人工智能專家,問卷的內(nèi)容是“你預(yù)測人類級別的強(qiáng)人工智能什么時(shí)候會實(shí)現(xiàn)”,,并且讓回答者給出一個(gè)樂觀估計(jì)(強(qiáng)人工智能有10%的可能在這一年達(dá)成),,正常估計(jì)(有50%的可能達(dá)成),和悲觀估計(jì)(有90%可能達(dá)成),。當(dāng)把大家的回答統(tǒng)計(jì)后,,得出了下面的結(jié)果:
樂觀估計(jì)中位年(強(qiáng)人工智能有10%的可能在這一年達(dá)成):2022年
正常估計(jì)中位年(強(qiáng)人工智能有50%的可能在這一年達(dá)成):2040年
悲觀估計(jì)中位年(強(qiáng)人工智能有90%的可能在這一年達(dá)成):2075年
所以一個(gè)中位的人工智能專家認(rèn)為25年后的2040年我們能達(dá)成強(qiáng)人工智能,,而2075年這個(gè)悲觀估計(jì)表明,如果你現(xiàn)在夠年輕,,有一半以上的人工智能專家認(rèn)為在你的有生之年能夠有90%的可能見到強(qiáng)人工智能的實(shí)現(xiàn),。
另外一個(gè)獨(dú)立的調(diào)查,由作家James Barrat在Ben Goertzel的強(qiáng)人工智能年會上進(jìn)行,,他直接問了參與者認(rèn)為強(qiáng)人工智能哪一年會實(shí)現(xiàn),,選項(xiàng)有2030年,2050年,,2100年,,和永遠(yuǎn)不會實(shí)現(xiàn)。結(jié)果是:
2030年:42%的回答者認(rèn)為強(qiáng)人工智能會實(shí)現(xiàn)
2050年:25%的回答者
2100年:20%
2100年以后:10%
永遠(yuǎn)不會實(shí)現(xiàn):2%
這個(gè)結(jié)果和Bostrom的結(jié)果很相似,。在Barrat的問卷中,,有超過三分之二的參與者認(rèn)為強(qiáng)人工智能會在2050年實(shí)現(xiàn),有近乎半數(shù)(42%)的人認(rèn)為未來15年(2030年)就能實(shí)現(xiàn),。并且,,只有2%的參與者認(rèn)為強(qiáng)人工智能永遠(yuǎn)不會實(shí)現(xiàn)。
但是強(qiáng)人工智能并不是絆線,,超人工智能才是,。那么專家們對超人工智能是怎么想的呢?
Bostrom的問卷還詢問專家們認(rèn)為達(dá)到超人工智能要多久,,選項(xiàng)有a)達(dá)成強(qiáng)人工智能兩年內(nèi),,b)達(dá)成強(qiáng)人工智能30年內(nèi)。問卷結(jié)果如下:
中位答案認(rèn)為強(qiáng)人工智能到超人工智能只花2年時(shí)間的可能性只有10%左右,,但是30年之內(nèi)達(dá)成的可能性高達(dá)75%
從以上答案,,我們可以估計(jì)一個(gè)中位的專家認(rèn)為強(qiáng)人工智能到超人工智能可能要花20年左右。所以,,我們可以得出,,現(xiàn)在全世界的人工智能專家中,一個(gè)中位的估計(jì)是我們會在2040年達(dá)成強(qiáng)人工智能,,并在20年后的2060年達(dá)成超人工智能——也就是踩上了絆線,。
當(dāng)然,以上所有的數(shù)據(jù)都是推測,,它只代表了現(xiàn)在人工智能領(lǐng)域的專家的中位意見,,但是它告訴我們的是,很大一部分對這個(gè)領(lǐng)域很了解的人認(rèn)為2060年是一個(gè)實(shí)現(xiàn)超人工智能的合理預(yù)測——距今只有45年,。
那么我們來看一下下一個(gè)問題,,踩到絆線后,我們將跌向平衡木的哪一個(gè)方向?
超級智能會產(chǎn)生巨大的力量,,所以關(guān)鍵的問題時(shí)——到時(shí)這股力量究竟由誰掌握,,掌握這份力量的人會怎么做?
這個(gè)問題的答案將決定超人工智能究竟是天堂還是地獄,。
同樣的,,專家們在這個(gè)問題上的觀點(diǎn)也不統(tǒng)一。Bostrom的問卷顯示專家們看待強(qiáng)人工智能對于人類社會的影響時(shí),,52%認(rèn)為結(jié)果會是好或者非常好的,,31%認(rèn)為會是糟糕的或者非常糟糕的,只有17%的人認(rèn)為結(jié)果會是不好不壞的,。也就是說,,這個(gè)領(lǐng)域的專家普遍認(rèn)為這將是一個(gè)很大的事情,不論結(jié)果好壞,。要注意的是,,這個(gè)問題問的是強(qiáng)人工智能,如果問的是超人工智能,,認(rèn)為結(jié)果不好不壞的人可能不會有17%這么多,。
在我們深入討論好壞這個(gè)問題之前,我們先把“什么時(shí)候會發(fā)生”和“這是好事還是壞事”的結(jié)果綜合起來畫張表,這代表了大部分專家的觀點(diǎn):
我們等下再考慮主流陣營的觀點(diǎn),。咱們先來問一下你自己是怎么想的,,其實(shí)我大概能猜到你是怎么想的,,因?yàn)槲议_始研究這個(gè)問題前也是這樣的想的,。很多人其實(shí)不關(guān)心這個(gè)話題,,原因無非是:
像本文第一部分所說,電影展示了很多不真實(shí)的人工智能場景,,讓我們認(rèn)為人工智能不是正經(jīng)的課題,。作家James Barrat把這比作傳染病控制中心發(fā)布吸血鬼警報(bào)一樣滑稽。
因?yàn)檎J(rèn)知偏差,,所以我們在見到證據(jù)前很難相信一件事情是真的。我確信1988年的時(shí)候電腦科學(xué)家們就已經(jīng)常在討論因特網(wǎng)將是多么重要,,但是一般人并不會認(rèn)為因特網(wǎng)會改變他們的生活——直到他們的生活真的被改變了,。一方面,1988年的電腦確實(shí)不夠給力,所以那時(shí)的人們看著電腦會想:“這破玩意兒也能改變我的生活,,你逗我吧,?”人們的想象力被自己對于電腦的體驗(yàn)而約束。讓他們難以想象電腦會變成現(xiàn)在的樣子,。同樣的事情正發(fā)生在人工智能領(lǐng)域,。我們聽到很多人說人工智能將會造成很大影響,,但是因?yàn)檫@個(gè)事情還沒發(fā)生,,因?yàn)槲覀兒鸵恍┤醣说娜斯ぶ悄芟到y(tǒng)的個(gè)人經(jīng)歷,讓我們難以相信這東西真的能改變我們的生活,。而這些認(rèn)知偏差,,正是專家們在努力對抗的。
就算我們相信人工智能的巨大潛力,,你今天又花了多少時(shí)間思考“在接下來的永恒中,,絕大部分時(shí)間我都不會再存在”這個(gè)問題?雖然這個(gè)問題比你今天干的大部分事情都重要很多,,但是正常人都不會老是想這個(gè)吧,。這是因?yàn)槟愕拇竽X總是關(guān)注日常的小事,不管長期來看有多少重要的事情,,我們天生就是這么思考的,。
這篇東西的主要目標(biāo)就是讓你脫離普通人陣營,加入專家思考的陣營,,哪怕能讓你站到兩條不確定線的交點(diǎn)上,,目標(biāo)也達(dá)到了。
在我的研究中,,我見識到了各種各樣的觀點(diǎn),,但是我發(fā)現(xiàn)大多數(shù)人的觀點(diǎn)都停留在主流陣營中。事實(shí)上超過四分之三的專家都屬于主流陣營中的兩個(gè)小陣營:焦慮大道和信心角 ,。
我們將對這兩個(gè)小陣營做深入的談?wù)?,讓我們從比較有趣的那個(gè)開始吧
為什么未來會是天堂
研究人工智能這個(gè)領(lǐng)域后,我發(fā)現(xiàn)有比預(yù)期的多得多的人站在信心角當(dāng)中:
站在信心角中的人非常興奮,,他們認(rèn)為他們講走向平衡木下比較有趣的那個(gè)吸引態(tài),,未來將實(shí)現(xiàn)他們的夢想,他們只需耐心等待,。
把這一部分人從其他思想家區(qū)分開來的是這些人對于比較有趣的那個(gè)吸引態(tài)的欲望——他們很有信心永生是我們的發(fā)展方向,。
這份信心是哪里來的不好說,評論家認(rèn)為是這些人太過興奮而產(chǎn)生了盲點(diǎn),,忽略了可能的負(fù)面結(jié)果,。但是信心角的人還是把批評者當(dāng)作末日論者來看待,他們認(rèn)為技術(shù)會繼續(xù)幫助我們而不是傷害我們。
兩邊的觀點(diǎn)我們都會說,,這樣你能形成自己的觀點(diǎn),,但是在讀下面的內(nèi)容前,請把質(zhì)疑暫時(shí)擱置,,讓我們看看平衡木兩邊究竟有什么,,并且記住這些事情是有可能發(fā)生的。如果我們給一個(gè)打獵采集者看我們現(xiàn)在的舒適家居,、技術(shù),、富庶,在他眼里這一切也會像魔法一樣——我們也要接受未來完全可能出現(xiàn)能把我們嚇尿的變革,。
Bostrom描述了三種超人工智能可能的工作模式
– 先知模式:能準(zhǔn)確回答幾乎所有的問題,,包括對人類來說很困難的復(fù)雜問題,比如“怎樣造一個(gè)更好的汽車引擎,?”
– 精靈模式:能夠執(zhí)行任何高級指令,,比如用分子組合器造一個(gè)更好的汽車引擎出來
– 獨(dú)立意志模式(sovereign):可以執(zhí)行開放式的任務(wù),能在世界里自由活動,,可以自己做決定,,比如發(fā)明一種比汽車更快、更便宜,、更安全的交通模式,。
這些對人類來說很復(fù)雜的問題,對于一個(gè)超級智能來說可能就像“我的筆掉了,,你能幫我撿一下嗎,?”這么簡單。
Eliezer Yudkowsky,,是這么說的:
“根本沒有困難的問題,,只有對于特定級別的智能來說難的問題。在智能的階梯上走一小步,,一些不可能的問題就變得簡單了,,如果走一大步,所有問題都變得簡單了,?!?
信心角里有很多熱忱的科學(xué)家、發(fā)明家和創(chuàng)業(yè)者,,但是對于人工智能的未來最有發(fā)言權(quán)的,,當(dāng)屬Ray Kurzweil.
對于Kurzweil的評價(jià)非常兩極化,既有如對神人般的崇拜,,也有翻白眼似的不屑,。也有一些中立主義者,,比如作家Douglas Hofstadter,,他覺得Kurzweil的觀點(diǎn)就好像把美食和狗屎混在一起,,讓你分不清是好是壞。
不管你同不同意Kurzweil的觀點(diǎn),,他都是一個(gè)牛人,。他年輕時(shí)候就開始搞發(fā)明,之后幾十年發(fā)明了很多東西,,比如第一臺平板掃描儀,,第一臺能把文字轉(zhuǎn)化為語言的掃描儀(盲人使用),著名的Kurzweil音樂合成器(第一臺真正意義上的電子鋼琴),,以及第一套商業(yè)銷售的語音識別系統(tǒng),。他是五本暢銷書的作者。他很喜歡做大膽的預(yù)測,,而且一直很準(zhǔn),,比如他80年代末的時(shí)候預(yù)測到2000年后因特網(wǎng)會成為全球級的現(xiàn)象。他被《華爾街日報(bào)》成為“不休的天才”,,被《福布斯》稱為“終極思想機(jī)器”,,被《Inc.》稱作“愛迪生真正的傳人”,被比爾蓋茨稱為“我認(rèn)識的對人工智能預(yù)測最厲害的人,?!?012年谷歌創(chuàng)始人Larry Page曾邀請他擔(dān)任谷歌的工程總監(jiān),2011年他共同創(chuàng)立了奇點(diǎn)大學(xué)(Singularity University),,現(xiàn)在大學(xué)由美國太空總署運(yùn)運(yùn)營,,由谷歌贊助。
Kurzweil的經(jīng)歷很重要,,因?yàn)楫?dāng)他講述自己對未來的愿景時(shí),,他聽起來就是個(gè)瘋子,但是他不瘋,,恰恰相反,,他非常聰明而有知識。你可能覺得他對于未來的想法是錯(cuò)的,,但是他不傻,。知道他是一個(gè)聰明人讓我很開心,因?yàn)楫?dāng)我知道他對未來的預(yù)測后,,我急切的很希望他的預(yù)測是對的,。信心角中的很多思想家都認(rèn)同Kurzweil的預(yù)測,他也有很多粉絲,,被稱為奇點(diǎn)主義者,。
時(shí)間線
Kurzweil相信電腦會在2029年達(dá)成強(qiáng)人工智能,,而到了2045年,我們不但會有超人工智能,,還會有一個(gè)完全不同的世界——奇點(diǎn)時(shí)代,。他的人工智能時(shí)間線曾經(jīng)被認(rèn)為非常的狂熱,現(xiàn)在也還是有很多人這么認(rèn)為,,但是過去15年弱人工智能的快速發(fā)展讓更多的專家靠近了Kurzweil的時(shí)間線,。雖然他的時(shí)間線比之前提到的2040年和2060年更加早,但是并沒有早多少,。
Kurzweil的奇點(diǎn)時(shí)代是三個(gè)技術(shù)領(lǐng)域的共同革命造成的——生物技術(shù),、納米技術(shù)和最重要的人工智能技術(shù)。
在我們繼續(xù)討論人工智能前,,讓我們談一下納米技術(shù)這個(gè)任何關(guān)于人工智能的討論都會涉及到的領(lǐng)域
納米技術(shù)
納米技術(shù)說的是在1-100納米的范圍內(nèi)操縱物質(zhì)的技術(shù),。一納米是一米的十億分之一,是一毫米的一百萬分之一,。1-100納米這個(gè)范圍涵蓋了病毒(100納米長),,DNA(10納米寬), 大分子比如血紅蛋白(5納米),,和中分子比如葡萄糖(1納米),。當(dāng)我們能夠完全掌握納米技術(shù)的時(shí)候,我們離在原子層面操縱物質(zhì)就只差一步了,,因?yàn)槟侵皇且粋€(gè)數(shù)量級的差距(約0.1納米),。
要了解在納米量級操縱物質(zhì)有多困難,我們可以換個(gè)角度來比較,。國際空間站距離地面431公里,。如果一個(gè)人身高431公里,也就是他站著能夠頂?shù)絿H空間站的話,,他將是普通人類的25萬倍大,。如果你把1-100納米放大25萬倍,你算出的是0.25毫米-25毫米,。所以人類使用納米技術(shù),,就相當(dāng)于一個(gè)身高431公里的巨人用沙子那么大的零件搭精巧的模型。要如果要達(dá)到原子級別操縱物質(zhì),,就相當(dāng)于讓這個(gè)431公里高的巨人使用0.025毫米大的零件,。
關(guān)于納米技術(shù)的思考,最早由物理學(xué)家費(fèi)曼在1959年提出,,他解釋道:“據(jù)我所知,,物理學(xué)的原理,并不認(rèn)為在原子級別操縱物質(zhì)是不可能的,。原則上來說,,物理學(xué)家能夠制造出任何化學(xué)家能寫出來的物質(zhì)——只要把一個(gè)個(gè)原子按照化學(xué)家寫出來的放在一起就好了,。”其實(shí)就是這么簡單,,所以我們只要知道怎樣移動單個(gè)的分子和原子,,我們就可以造出任何東西。
工程師Eric Drexler提出納米級組裝機(jī)后,,納米技術(shù)在1986年成為了一門正經(jīng)的學(xué)科,。納米級組裝機(jī)的工作原理是這樣的:一個(gè)牛逼掃描儀掃描物件的3D原子模型,然后自動生成用來組裝的軟件,。然后由一臺中央電腦和數(shù)萬億的納米“機(jī)器人”,通過軟件用電流來指揮納米機(jī)器人,,最后組成所需要的物件,。
————————–
再扯遠(yuǎn)一點(diǎn)
納米技術(shù)有一些不是那么有趣的部分——能夠制造數(shù)萬億的納米機(jī)器人唯一合理的方法就是制造可以自我復(fù)制的范本,然后讓指數(shù)級增長來完成建造任務(wù),。很機(jī)智吧,?
是很機(jī)智,但是這一不小心就會造成世界末日,。指數(shù)級增長雖然能很快的制造數(shù)萬億的納米機(jī)器人,,但這也是它可怕的地方——如果系統(tǒng)出故障了,指數(shù)級增長沒有停下來,,那怎么辦,?納米機(jī)器人將會吞噬所有碳基材料來支持自我復(fù)制,而不巧的是,,地球生命就是碳基的,。地球上的生物質(zhì)量大概包含10^45個(gè)碳原子。一個(gè)納米機(jī)器人有10^6個(gè)碳原子的話,,只需要10^39個(gè)納米機(jī)器人就能吞噬地球上全部的生命了,,而2^130約等于10^39,也就是說自我復(fù)制只要進(jìn)行130次就能吞噬地球生命了,??茖W(xué)家認(rèn)為納米機(jī)器人進(jìn)行一次自我復(fù)制只要100秒左右,也就是說一個(gè)簡單的錯(cuò)誤可能就會在3.5小時(shí)內(nèi)毀滅地球上全部的生命,。
更糟糕的是,,如果恐怖分子掌握了納米機(jī)器人技術(shù),并且知道怎么操縱它們的話,,他可以先造幾萬億個(gè)納米機(jī)器人,,然后讓它們散播開來。然后他就能發(fā)動襲擊,,這樣只要花一個(gè)多小時(shí)納米機(jī)器人就能吞噬一切,,而且這種攻擊無法阻擋,。未來真的是能把人嚇尿的。
————————
等我們掌握了納米技術(shù)后,,我們就能用它來制造技術(shù)產(chǎn)品,、衣服、食物,、和生物產(chǎn)品,,比如人造紅細(xì)胞、癌癥細(xì)胞摧毀者,、肌肉纖維等等,。而在納米技術(shù)的世界里,一個(gè)物質(zhì)的成本不再取決于它的稀缺程度或是制造流程的難度,,而在于它的原子結(jié)構(gòu)有多復(fù)雜,。在納米技術(shù)的時(shí)代,鉆石可能比橡皮擦還便宜,。
我們還沒掌握這種技術(shù),,我們甚至不知道我們對于達(dá)成這種技術(shù)的難度是高估了還是低估了,但是我們看上去離那并不遙遠(yuǎn),。Kurzweil預(yù)測我們會在21世紀(jì)20年代掌握這樣的技術(shù),。各國政府知道納米技術(shù)將能改變地球,所以他們投入了很多錢到這個(gè)領(lǐng)域,,美國,、歐盟和日本至今已經(jīng)投入了50億美元。
設(shè)想一下,,一個(gè)具有超級智能的電腦,,能夠使用納米級的組裝器,是種什么樣的體驗(yàn),?要記得納米技術(shù)是我們在研究的玩意兒,,而且我們就快掌握這項(xiàng)技術(shù)了,而我們能做的一切在超人工智能看來就是小兒科罷了,,所以我們要假設(shè)超人工智能能夠創(chuàng)造出比這要發(fā)達(dá)很多很多的技術(shù),,發(fā)達(dá)到我們的大腦都沒有辦法理解。
因此,,當(dāng)考慮“如果人工智能革命的成果對我們是好的”這個(gè)命題的時(shí)候,,要記得我們根本沒法高估會發(fā)生什么。所以就算下面對于超人工智能的預(yù)測顯得太不靠譜,,要記得這些進(jìn)展可能是用我們沒有辦法想象的方法達(dá)成的,。事實(shí)上,我們的大腦很可能根本沒法預(yù)測將會發(fā)生什么,。
4
要理解一個(gè)具有超級智能的機(jī)器有多牛逼,,讓我們假設(shè)一個(gè)在上圖的樓梯上站在深綠色臺階上的一個(gè)機(jī)器,,它站的位置只比人類高兩層,就好像人類比猩猩只高兩層一樣,。這個(gè)機(jī)器只是稍微有點(diǎn)超級智能而已,,但是它的認(rèn)知能力之于人類,就好像人類的認(rèn)知能力之于猩猩一樣,。就好像猩猩沒有辦法理解摩天大樓是能被造出來的一樣,,人類完全沒有辦法理解比人類高兩層臺階的機(jī)器能做的事情。就算這個(gè)機(jī)器試圖向我們解釋,,效果也會像教猩猩造摩天大樓一般,。
而這,只是比我們高了兩層臺階的智能罷了,,站在這個(gè)樓梯頂層的智能之于人類,,就好像人類之于螞蟻一般——它就算花再多時(shí)間教人類一些最簡單的東西,我們依然是學(xué)不會的,。
但是我們討論的超級智能并不是站在這個(gè)樓梯頂層,而是站在遠(yuǎn)遠(yuǎn)高于這個(gè)樓梯的地方,。當(dāng)智能爆炸發(fā)生時(shí),,它可能要花幾年時(shí)間才能從猩猩那一層往上邁一步,但是這個(gè)步子會越邁越快,,到后來可能幾個(gè)小時(shí)就能邁一層,,而當(dāng)它超過人類十層臺階的時(shí)候,它可能開始跳著爬樓梯了——一秒鐘爬四層臺階也未嘗不可,。所以讓我們記住,,當(dāng)?shù)谝粋€(gè)到達(dá)人類智能水平的強(qiáng)人工智能出現(xiàn)后,我們將在很短的時(shí)間內(nèi)面對一個(gè)站在下圖這樣很高很高的樓梯上的智能(甚至比這更高百萬倍):
前面已經(jīng)說了,,試圖去理解比我們高兩層臺階的機(jī)器就已經(jīng)是徒勞的,,所以讓我們很肯定的說,我們是沒有辦法知道超人工智能會做什么,,也沒有辦法知道這些事情的后果,。任何假裝知道的人都沒搞明白超級智能是怎么回事。
自然演化花了幾億年時(shí)間發(fā)展了生物大腦,,按這種說法的話,,一旦人類創(chuàng)造出一個(gè)超人工智能,我們就是在碾壓自然演化了,。當(dāng)然,,可能這也是自然演化的一部分——可能演化真正的模式就是創(chuàng)造出各種各樣的智能,直到有一天有一個(gè)智能能夠創(chuàng)造出超級智能,,而這個(gè)節(jié)點(diǎn)就好像踩上了地雷的絆線一樣,,會造成全球范圍的大爆炸,,從而改變所有生物的命運(yùn)。
科學(xué)界中大部分人認(rèn)為踩上絆線不是會不會的問題,,而是時(shí)間早晚的問題,。想想真嚇人。
那我們該怎么辦呢,?
可惜,,沒有人都告訴你踩到絆線后會發(fā)生什么。但是人工智能思想家Nick Bostrom認(rèn)為我們會面臨兩類可能的結(jié)果——永生和滅絕,。
首先,,回顧歷史,,我們可以看到大部分的生命經(jīng)歷了這樣的歷程:物種出現(xiàn),,存在了一段時(shí)間,,然后不可避免的跌落下生命的平衡木,跌入滅絕的深淵,。
歷史上來說,,“所有生物終將滅絕”就像“所有人都會死”一樣靠譜,。至今為止,,存在過的生物中99.9%都已經(jīng)跌落了生命的平衡木,,如果一個(gè)生物繼續(xù)在平衡木上走,,早晚會有一陣風(fēng)把它吹下去,。Bostrom把滅絕列為一種吸引態(tài)——所有生物都有墜入的風(fēng)險(xiǎn),,而一旦墜入將沒有回頭。
雖然大部分科學(xué)家都承認(rèn)一個(gè)超人工智能有把人類滅絕的能力,也有一些人為如果運(yùn)用得當(dāng),,超人工智能可以幫助人類和其它物種,達(dá)到另一個(gè)吸引態(tài)——永生,。Bostrom認(rèn)為物種的永生和滅絕一樣都是吸引態(tài),也就是我一旦我們達(dá)成了永生,我們將永遠(yuǎn)不再面臨滅絕的危險(xiǎn)——我們戰(zhàn)勝了死亡和幾率,。所以,,雖然絕大多數(shù)物種都從平衡木上摔了下去滅絕了,,Bostrom認(rèn)為平衡木外是有兩面的,,只是至今為止地球上的生命還沒聰明到發(fā)現(xiàn)怎樣去到永生這另一個(gè)吸引態(tài),。
如果Bostrom等思想家的想法是對的,,而且根據(jù)我的研究他們確實(shí)很可能是對的,,那么我們需要接受兩個(gè)事實(shí):
1)超人工智能的出現(xiàn),將有史以來第一次,,將物種的永生這個(gè)吸引態(tài)變?yōu)榭赡?
2)超人工智能的出現(xiàn),,將造成非常巨大的沖擊,而且這個(gè)沖擊可能將人類吹下平衡木,,并且落入其中一個(gè)吸引態(tài)
有可能,,當(dāng)自然演化踩到絆線的時(shí)候,它會永久的終結(jié)人類和平衡木的關(guān)系,,創(chuàng)造一個(gè)新的世界,,不管這時(shí)人類還是不是存在。
而現(xiàn)在的問題就是:“我們什么時(shí)候會踩到絆線,?”以及“從平衡木上跌下去后我們會掉入哪個(gè)吸引態(tài),?”
沒人知道答案,但是一些聰明人已經(jīng)思考了幾十年,,接下來我們看看他們想出來了些什么,。
___________
先來討論“我們什么時(shí)候會踩到絆線?”也就是什么時(shí)候會出現(xiàn)第一個(gè)超級智能,。
不出意外的,,科學(xué)家和思想家對于這個(gè)意見的觀點(diǎn)分歧很大。很多人,,比如Vernor Vinge教授,,科學(xué)家Ben Goertzel,SUN創(chuàng)始人Bill Joy,,發(fā)明家和未來學(xué)家Ray Kurzweil,,認(rèn)同機(jī)器學(xué)習(xí)專家Jeremy Howard的觀點(diǎn),Howard在TED演講時(shí)用到了這張圖:
這些人相信超級智能會發(fā)生在不久的將來,,因?yàn)橹笖?shù)級增長的關(guān)系,,雖然機(jī)器學(xué)習(xí)現(xiàn)在還發(fā)展緩慢,但是在未來幾十年就會變得飛快,。
其它的,,比如微軟創(chuàng)始人Paul Allen,心理學(xué)家Gary Marcus,,NYU的電腦科學(xué)家Ernest Davis,,以及科技創(chuàng)業(yè)者M(jìn)itch Kapor認(rèn)為Kurzweil等思想家低估了人工智能的難度,并且認(rèn)為我們離絆線還挺遠(yuǎn)的,。
Kurzweil一派則認(rèn)為唯一被低估的其實(shí)是指數(shù)級增長的潛力,,他們把質(zhì)疑他們理論的人比作那些1985年時(shí)候看到發(fā)展速度緩慢的因特網(wǎng),,然后覺得因特網(wǎng)在未來不會有什么大影響的人一樣。
而質(zhì)疑者們則認(rèn)為智能領(lǐng)域的發(fā)展需要達(dá)到的進(jìn)步同樣是指數(shù)級增長的,,這其實(shí)把技術(shù)發(fā)展的指數(shù)級增長抵消了,。
爭論如此反復(fù)。
第三個(gè)陣營,,包括Nick Bostrom在內(nèi),,認(rèn)為其它兩派都沒有理由對踩絆線的時(shí)間那么有信心,他們同時(shí)認(rèn)為 a) 這事情完全可能發(fā)生在不就的未來 b)但是這個(gè)事情沒個(gè)準(zhǔn),,說不定會花更久
還有不屬于三個(gè)陣營的其他人,,比如哲學(xué)家Hubert Dreyfus,相信三個(gè)陣營都太天真了,,根本就沒有什么絆線,。超人工智能是不會被實(shí)現(xiàn)的。
當(dāng)你把所有人的觀點(diǎn)全部融合起來的話是怎樣呢,?
2013年的時(shí)候,,Bostrom做了個(gè)問卷調(diào)查,涵蓋了數(shù)百位人工智能專家,,問卷的內(nèi)容是“你預(yù)測人類級別的強(qiáng)人工智能什么時(shí)候會實(shí)現(xiàn)”,,并且讓回答者給出一個(gè)樂觀估計(jì)(強(qiáng)人工智能有10%的可能在這一年達(dá)成),正常估計(jì)(有50%的可能達(dá)成),,和悲觀估計(jì)(有90%可能達(dá)成),。當(dāng)把大家的回答統(tǒng)計(jì)后,得出了下面的結(jié)果:
樂觀估計(jì)中位年(強(qiáng)人工智能有10%的可能在這一年達(dá)成):2022年
正常估計(jì)中位年(強(qiáng)人工智能有50%的可能在這一年達(dá)成):2040年
悲觀估計(jì)中位年(強(qiáng)人工智能有90%的可能在這一年達(dá)成):2075年
所以一個(gè)中位的人工智能專家認(rèn)為25年后的2040年我們能達(dá)成強(qiáng)人工智能,,而2075年這個(gè)悲觀估計(jì)表明,,如果你現(xiàn)在夠年輕,有一半以上的人工智能專家認(rèn)為在你的有生之年能夠有90%的可能見到強(qiáng)人工智能的實(shí)現(xiàn),。
另外一個(gè)獨(dú)立的調(diào)查,,由作家James Barrat在Ben Goertzel的強(qiáng)人工智能年會上進(jìn)行,他直接問了參與者認(rèn)為強(qiáng)人工智能哪一年會實(shí)現(xiàn),,選項(xiàng)有2030年,,2050年,2100年,,和永遠(yuǎn)不會實(shí)現(xiàn),。結(jié)果是:
2030年:42%的回答者認(rèn)為強(qiáng)人工智能會實(shí)現(xiàn)
2050年:25%的回答者
2100年:20%
2100年以后:10%
永遠(yuǎn)不會實(shí)現(xiàn):2%
這個(gè)結(jié)果和Bostrom的結(jié)果很相似。在Barrat的問卷中,,有超過三分之二的參與者認(rèn)為強(qiáng)人工智能會在2050年實(shí)現(xiàn),,有近乎半數(shù)(42%)的人認(rèn)為未來15年(2030年)就能實(shí)現(xiàn)。并且,只有2%的參與者認(rèn)為強(qiáng)人工智能永遠(yuǎn)不會實(shí)現(xiàn),。
但是強(qiáng)人工智能并不是絆線,,超人工智能才是。那么專家們對超人工智能是怎么想的呢,?
Bostrom的問卷還詢問專家們認(rèn)為達(dá)到超人工智能要多久,選項(xiàng)有a)達(dá)成強(qiáng)人工智能兩年內(nèi),,b)達(dá)成強(qiáng)人工智能30年內(nèi),。問卷結(jié)果如下:
中位答案認(rèn)為強(qiáng)人工智能到超人工智能只花2年時(shí)間的可能性只有10%左右,但是30年之內(nèi)達(dá)成的可能性高達(dá)75%
從以上答案,,我們可以估計(jì)一個(gè)中位的專家認(rèn)為強(qiáng)人工智能到超人工智能可能要花20年左右,。所以,我們可以得出,,現(xiàn)在全世界的人工智能專家中,,一個(gè)中位的估計(jì)是我們會在2040年達(dá)成強(qiáng)人工智能,并在20年后的2060年達(dá)成超人工智能——也就是踩上了絆線,。
當(dāng)然,,以上所有的數(shù)據(jù)都是推測,它只代表了現(xiàn)在人工智能領(lǐng)域的專家的中位意見,,但是它告訴我們的是,,很大一部分對這個(gè)領(lǐng)域很了解的人認(rèn)為2060年是一個(gè)實(shí)現(xiàn)超人工智能的合理預(yù)測——距今只有45年。
那么我們來看一下下一個(gè)問題,,踩到絆線后,,我們將跌向平衡木的哪一個(gè)方向?
超級智能會產(chǎn)生巨大的力量,,所以關(guān)鍵的問題時(shí)——到時(shí)這股力量究竟由誰掌握,,掌握這份力量的人會怎么做?
這個(gè)問題的答案將決定超人工智能究竟是天堂還是地獄,。
同樣的,,專家們在這個(gè)問題上的觀點(diǎn)也不統(tǒng)一。Bostrom的問卷顯示專家們看待強(qiáng)人工智能對于人類社會的影響時(shí),,52%認(rèn)為結(jié)果會是好或者非常好的,,31%認(rèn)為會是糟糕的或者非常糟糕的,只有17%的人認(rèn)為結(jié)果會是不好不壞的,。也就是說,,這個(gè)領(lǐng)域的專家普遍認(rèn)為這將是一個(gè)很大的事情,不論結(jié)果好壞,。要注意的是,,這個(gè)問題問的是強(qiáng)人工智能,如果問的是超人工智能,,認(rèn)為結(jié)果不好不壞的人可能不會有17%這么多,。
在我們深入討論好壞這個(gè)問題之前,,我們先把“什么時(shí)候會發(fā)生”和“這是好事還是壞事”的結(jié)果綜合起來畫張表,這代表了大部分專家的觀點(diǎn):
我們等下再考慮主流陣營的觀點(diǎn),。咱們先來問一下你自己是怎么想的,,其實(shí)我大概能猜到你是怎么想的,因?yàn)槲议_始研究這個(gè)問題前也是這樣的想的,。很多人其實(shí)不關(guān)心這個(gè)話題,,原因無非是:
像本文第一部分所說,電影展示了很多不真實(shí)的人工智能場景,,讓我們認(rèn)為人工智能不是正經(jīng)的課題,。作家James Barrat把這比作傳染病控制中心發(fā)布吸血鬼警報(bào)一樣滑稽。
因?yàn)檎J(rèn)知偏差,,所以我們在見到證據(jù)前很難相信一件事情是真的,。我確信1988年的時(shí)候電腦科學(xué)家們就已經(jīng)常在討論因特網(wǎng)將是多么重要,但是一般人并不會認(rèn)為因特網(wǎng)會改變他們的生活——直到他們的生活真的被改變了,。一方面,,1988年的電腦確實(shí)不夠給力,所以那時(shí)的人們看著電腦會想:“這破玩意兒也能改變我的生活,,你逗我吧,?”人們的想象力被自己對于電腦的體驗(yàn)而約束。讓他們難以想象電腦會變成現(xiàn)在的樣子,。同樣的事情正發(fā)生在人工智能領(lǐng)域,。我們聽到很多人說人工智能將會造成很大影響,但是因?yàn)檫@個(gè)事情還沒發(fā)生,,因?yàn)槲覀兒鸵恍┤醣说娜斯ぶ悄芟到y(tǒng)的個(gè)人經(jīng)歷,,讓我們難以相信這東西真的能改變我們的生活。而這些認(rèn)知偏差,,正是專家們在努力對抗的,。
就算我們相信人工智能的巨大潛力,你今天又花了多少時(shí)間思考“在接下來的永恒中,,絕大部分時(shí)間我都不會再存在”這個(gè)問題,?雖然這個(gè)問題比你今天干的大部分事情都重要很多,但是正常人都不會老是想這個(gè)吧,。這是因?yàn)槟愕拇竽X總是關(guān)注日常的小事,,不管長期來看有多少重要的事情,我們天生就是這么思考的,。
這篇東西的主要目標(biāo)就是讓你脫離普通人陣營,,加入專家思考的陣營,哪怕能讓你站到兩條不確定線的交點(diǎn)上,目標(biāo)也達(dá)到了,。
在我的研究中,,我見識到了各種各樣的觀點(diǎn),但是我發(fā)現(xiàn)大多數(shù)人的觀點(diǎn)都停留在主流陣營中,。事實(shí)上超過四分之三的專家都屬于主流陣營中的兩個(gè)小陣營:焦慮大道和信心角 ,。
我們將對這兩個(gè)小陣營做深入的談?wù)摚屛覀儚谋容^有趣的那個(gè)開始吧
為什么未來會是天堂
研究人工智能這個(gè)領(lǐng)域后,,我發(fā)現(xiàn)有比預(yù)期的多得多的人站在信心角當(dāng)中:
站在信心角中的人非常興奮,,他們認(rèn)為他們講走向平衡木下比較有趣的那個(gè)吸引態(tài),未來將實(shí)現(xiàn)他們的夢想,,他們只需耐心等待。
把這一部分人從其他思想家區(qū)分開來的是這些人對于比較有趣的那個(gè)吸引態(tài)的欲望——他們很有信心永生是我們的發(fā)展方向,。
這份信心是哪里來的不好說,,評論家認(rèn)為是這些人太過興奮而產(chǎn)生了盲點(diǎn),忽略了可能的負(fù)面結(jié)果,。但是信心角的人還是把批評者當(dāng)作末日論者來看待,,他們認(rèn)為技術(shù)會繼續(xù)幫助我們而不是傷害我們。
兩邊的觀點(diǎn)我們都會說,,這樣你能形成自己的觀點(diǎn),,但是在讀下面的內(nèi)容前,請把質(zhì)疑暫時(shí)擱置,,讓我們看看平衡木兩邊究竟有什么,,并且記住這些事情是有可能發(fā)生的。如果我們給一個(gè)打獵采集者看我們現(xiàn)在的舒適家居,、技術(shù),、富庶,在他眼里這一切也會像魔法一樣——我們也要接受未來完全可能出現(xiàn)能把我們嚇尿的變革,。
Bostrom描述了三種超人工智能可能的工作模式
– 先知模式:能準(zhǔn)確回答幾乎所有的問題,,包括對人類來說很困難的復(fù)雜問題,比如“怎樣造一個(gè)更好的汽車引擎,?”
– 精靈模式:能夠執(zhí)行任何高級指令,,比如用分子組合器造一個(gè)更好的汽車引擎出來
– 獨(dú)立意志模式(sovereign):可以執(zhí)行開放式的任務(wù),能在世界里自由活動,,可以自己做決定,,比如發(fā)明一種比汽車更快、更便宜,、更安全的交通模式,。
這些對人類來說很復(fù)雜的問題,對于一個(gè)超級智能來說可能就像“我的筆掉了,你能幫我撿一下嗎,?”這么簡單,。
Eliezer Yudkowsky,是這么說的:
“根本沒有困難的問題,,只有對于特定級別的智能來說難的問題,。在智能的階梯上走一小步,一些不可能的問題就變得簡單了,,如果走一大步,,所有問題都變得簡單了?!?
信心角里有很多熱忱的科學(xué)家,、發(fā)明家和創(chuàng)業(yè)者,但是對于人工智能的未來最有發(fā)言權(quán)的,,當(dāng)屬Ray Kurzweil.
對于Kurzweil的評價(jià)非常兩極化,,既有如對神人般的崇拜,也有翻白眼似的不屑,。也有一些中立主義者,,比如作家Douglas Hofstadter,他覺得Kurzweil的觀點(diǎn)就好像把美食和狗屎混在一起,,讓你分不清是好是壞。
不管你同不同意Kurzweil的觀點(diǎn),,他都是一個(gè)牛人,。他年輕時(shí)候就開始搞發(fā)明,之后幾十年發(fā)明了很多東西,,比如第一臺平板掃描儀,,第一臺能把文字轉(zhuǎn)化為語言的掃描儀(盲人使用),著名的Kurzweil音樂合成器(第一臺真正意義上的電子鋼琴),,以及第一套商業(yè)銷售的語音識別系統(tǒng),。他是五本暢銷書的作者。他很喜歡做大膽的預(yù)測,,而且一直很準(zhǔn),,比如他80年代末的時(shí)候預(yù)測到2000年后因特網(wǎng)會成為全球級的現(xiàn)象。他被《華爾街日報(bào)》成為“不休的天才”,,被《福布斯》稱為“終極思想機(jī)器”,,被《Inc.》稱作“愛迪生真正的傳人”,被比爾蓋茨稱為“我認(rèn)識的對人工智能預(yù)測最厲害的人,?!?012年谷歌創(chuàng)始人Larry Page曾邀請他擔(dān)任谷歌的工程總監(jiān),,2011年他共同創(chuàng)立了奇點(diǎn)大學(xué)(Singularity University),現(xiàn)在大學(xué)由美國太空總署運(yùn)運(yùn)營,,由谷歌贊助,。
Kurzweil的經(jīng)歷很重要,因?yàn)楫?dāng)他講述自己對未來的愿景時(shí),,他聽起來就是個(gè)瘋子,,但是他不瘋,恰恰相反,,他非常聰明而有知識,。你可能覺得他對于未來的想法是錯(cuò)的,但是他不傻,。知道他是一個(gè)聰明人讓我很開心,,因?yàn)楫?dāng)我知道他對未來的預(yù)測后,我急切的很希望他的預(yù)測是對的,。信心角中的很多思想家都認(rèn)同Kurzweil的預(yù)測,,他也有很多粉絲,被稱為奇點(diǎn)主義者,。
時(shí)間線
Kurzweil相信電腦會在2029年達(dá)成強(qiáng)人工智能,而到了2045年,,我們不但會有超人工智能,,還會有一個(gè)完全不同的世界——奇點(diǎn)時(shí)代。他的人工智能時(shí)間線曾經(jīng)被認(rèn)為非常的狂熱,,現(xiàn)在也還是有很多人這么認(rèn)為,,但是過去15年弱人工智能的快速發(fā)展讓更多的專家靠近了Kurzweil的時(shí)間線。雖然他的時(shí)間線比之前提到的2040年和2060年更加早,,但是并沒有早多少,。
Kurzweil的奇點(diǎn)時(shí)代是三個(gè)技術(shù)領(lǐng)域的共同革命造成的——生物技術(shù)、納米技術(shù)和最重要的人工智能技術(shù),。
在我們繼續(xù)討論人工智能前,,讓我們談一下納米技術(shù)這個(gè)任何關(guān)于人工智能的討論都會涉及到的領(lǐng)域
納米技術(shù)
納米技術(shù)說的是在1-100納米的范圍內(nèi)操縱物質(zhì)的技術(shù)。一納米是一米的十億分之一,,是一毫米的一百萬分之一,。1-100納米這個(gè)范圍涵蓋了病毒(100納米長),DNA(10納米寬),, 大分子比如血紅蛋白(5納米),,和中分子比如葡萄糖(1納米)。當(dāng)我們能夠完全掌握納米技術(shù)的時(shí)候,,我們離在原子層面操縱物質(zhì)就只差一步了,,因?yàn)槟侵皇且粋€(gè)數(shù)量級的差距(約0.1納米),。
要了解在納米量級操縱物質(zhì)有多困難,我們可以換個(gè)角度來比較,。國際空間站距離地面431公里,。如果一個(gè)人身高431公里,也就是他站著能夠頂?shù)絿H空間站的話,,他將是普通人類的25萬倍大,。如果你把1-100納米放大25萬倍,你算出的是0.25毫米-25毫米,。所以人類使用納米技術(shù),,就相當(dāng)于一個(gè)身高431公里的巨人用沙子那么大的零件搭精巧的模型。要如果要達(dá)到原子級別操縱物質(zhì),,就相當(dāng)于讓這個(gè)431公里高的巨人使用0.025毫米大的零件,。
關(guān)于納米技術(shù)的思考,最早由物理學(xué)家費(fèi)曼在1959年提出,,他解釋道:“據(jù)我所知,,物理學(xué)的原理,并不認(rèn)為在原子級別操縱物質(zhì)是不可能的,。原則上來說,,物理學(xué)家能夠制造出任何化學(xué)家能寫出來的物質(zhì)——只要把一個(gè)個(gè)原子按照化學(xué)家寫出來的放在一起就好了?!逼鋵?shí)就是這么簡單,,所以我們只要知道怎樣移動單個(gè)的分子和原子,我們就可以造出任何東西,。
工程師Eric Drexler提出納米級組裝機(jī)后,,納米技術(shù)在1986年成為了一門正經(jīng)的學(xué)科。納米級組裝機(jī)的工作原理是這樣的:一個(gè)牛逼掃描儀掃描物件的3D原子模型,,然后自動生成用來組裝的軟件,。然后由一臺中央電腦和數(shù)萬億的納米“機(jī)器人”,通過軟件用電流來指揮納米機(jī)器人,,最后組成所需要的物件,。
————————–
再扯遠(yuǎn)一點(diǎn)
納米技術(shù)有一些不是那么有趣的部分——能夠制造數(shù)萬億的納米機(jī)器人唯一合理的方法就是制造可以自我復(fù)制的范本,然后讓指數(shù)級增長來完成建造任務(wù),。很機(jī)智吧,?
是很機(jī)智,但是這一不小心就會造成世界末日,。指數(shù)級增長雖然能很快的制造數(shù)萬億的納米機(jī)器人,,但這也是它可怕的地方——如果系統(tǒng)出故障了,指數(shù)級增長沒有停下來,,那怎么辦,?納米機(jī)器人將會吞噬所有碳基材料來支持自我復(fù)制,,而不巧的是,地球生命就是碳基的,。地球上的生物質(zhì)量大概包含10^45個(gè)碳原子,。一個(gè)納米機(jī)器人有10^6個(gè)碳原子的話,只需要10^39個(gè)納米機(jī)器人就能吞噬地球上全部的生命了,,而2^130約等于10^39,,也就是說自我復(fù)制只要進(jìn)行130次就能吞噬地球生命了??茖W(xué)家認(rèn)為納米機(jī)器人進(jìn)行一次自我復(fù)制只要100秒左右,,也就是說一個(gè)簡單的錯(cuò)誤可能就會在3.5小時(shí)內(nèi)毀滅地球上全部的生命。
更糟糕的是,,如果恐怖分子掌握了納米機(jī)器人技術(shù),,并且知道怎么操縱它們的話,他可以先造幾萬億個(gè)納米機(jī)器人,,然后讓它們散播開來,。然后他就能發(fā)動襲擊,這樣只要花一個(gè)多小時(shí)納米機(jī)器人就能吞噬一切,,而且這種攻擊無法阻擋,。未來真的是能把人嚇尿的。
————————
等我們掌握了納米技術(shù)后,,我們就能用它來制造技術(shù)產(chǎn)品,、衣服、食物,、和生物產(chǎn)品,比如人造紅細(xì)胞,、癌癥細(xì)胞摧毀者,、肌肉纖維等等。而在納米技術(shù)的世界里,,一個(gè)物質(zhì)的成本不再取決于它的稀缺程度或是制造流程的難度,,而在于它的原子結(jié)構(gòu)有多復(fù)雜。在納米技術(shù)的時(shí)代,,鉆石可能比橡皮擦還便宜,。
我們還沒掌握這種技術(shù),我們甚至不知道我們對于達(dá)成這種技術(shù)的難度是高估了還是低估了,,但是我們看上去離那并不遙遠(yuǎn),。Kurzweil預(yù)測我們會在21世紀(jì)20年代掌握這樣的技術(shù)。各國政府知道納米技術(shù)將能改變地球,,所以他們投入了很多錢到這個(gè)領(lǐng)域,,美國,、歐盟和日本至今已經(jīng)投入了50億美元。
設(shè)想一下,,一個(gè)具有超級智能的電腦,,能夠使用納米級的組裝器,是種什么樣的體驗(yàn),?要記得納米技術(shù)是我們在研究的玩意兒,,而且我們就快掌握這項(xiàng)技術(shù)了,而我們能做的一切在超人工智能看來就是小兒科罷了,,所以我們要假設(shè)超人工智能能夠創(chuàng)造出比這要發(fā)達(dá)很多很多的技術(shù),,發(fā)達(dá)到我們的大腦都沒有辦法理解。
因此,,當(dāng)考慮“如果人工智能革命的成果對我們是好的”這個(gè)命題的時(shí)候,,要記得我們根本沒法高估會發(fā)生什么。所以就算下面對于超人工智能的預(yù)測顯得太不靠譜,,要記得這些進(jìn)展可能是用我們沒有辦法想象的方法達(dá)成的,。事實(shí)上,我們的大腦很可能根本沒法預(yù)測將會發(fā)生什么,。
5
中國
人工智能能為我們做什么
擁有了超級智能和超級智能所能創(chuàng)造的技術(shù),,超人工智能可以解決人類世界的所有問題。氣候變暖,?超人工智能可以用更優(yōu)的方式產(chǎn)生能源,,完全不需要使用化石燃料,從而停止二氧化碳排放,。然后它能創(chuàng)造方法移除多余的二氧化碳,。癌癥?沒問題,,有了超人工智能,,制藥和健康行業(yè)將經(jīng)歷無法想象的革命。世界饑荒,?超人工智能可以用納米技術(shù)直接搭建出肉來,,而這些搭建出來的肉和真肉在分子結(jié)構(gòu)上會是完全相同的——換句話說,就是真肉,。
納米技術(shù)能夠把一堆垃圾變成一堆新鮮的肉或者其它食品,,然后用超級發(fā)達(dá)的交通把這些食物分配到世界各地。這對于動物也是好消息,,我們不需要屠殺動物來獲得肉了,。而超人工智能在拯救瀕危物種和利用DNA復(fù)活已滅絕物種上面也能做很多事情。超人工智能甚至可以解決復(fù)雜的宏觀問題——我們關(guān)于世界經(jīng)濟(jì)和貿(mào)易的爭論將不再必要,,甚至我們對于哲學(xué)和道德的苦苦思考也會被輕易的解決,。
但是,,有一件事是如此的吸引人,光是想想就能改變對所有事物的看法了:
幾個(gè)月前,,我提到我很羨慕那些可能達(dá)成了永生的文明,。但是,現(xiàn)在,,我已經(jīng)在認(rèn)真的考慮達(dá)成永生這個(gè)事情很可能在我們有生之年就能達(dá)成,。研讀人工智能讓你重新審思對于所有事情的看法,包括死亡這一很確定的事情,。
自然演化沒有理由讓我們活得比現(xiàn)在更長,。對于演化來說,只要我們能夠活到能夠生育后代,,并且養(yǎng)育后代到能夠自己保護(hù)自己的年紀(jì),,那就夠了——對演化來說,活30多歲完全夠了,,所以額外延長生命的基因突變并不被自然選擇所鐘愛,。這其實(shí)是很無趣的事情。
而且因?yàn)樗腥硕紩?,所以我們總是說“死亡和繳稅”是不可避免的,。我們看待衰老就像看待時(shí)間一樣——它們一直向前,而我們沒有辦法阻止它們,。
但是這個(gè)假設(shè)是錯(cuò)的,,費(fèi)曼曾經(jīng)寫道:
“在所有的生物科學(xué)中,沒有任何證據(jù)說明死亡是必需的,。如果你說你想造永動機(jī),,那我們對于物理學(xué)的研究已經(jīng)讓我們有足夠的理論來說明這是不可能的。但是在生物領(lǐng)域我們還沒發(fā)現(xiàn)任何證據(jù)證明死亡是不可避免的,。也就是說死亡不一定是不可避免的,,生物學(xué)家早晚會發(fā)現(xiàn)造成我們死亡的原因是什么,而死亡這個(gè)糟糕的‘病’就會被治好,,而人類的身體也將不再只是個(gè)暫時(shí)的容器,?!?
事實(shí)上,,衰老和時(shí)間不是綁死的。時(shí)間總是會繼續(xù)前進(jìn)的,,而衰老卻不一定,。仔細(xì)想想,衰老只是身體的組成物質(zhì)用舊了,。汽車開久了也會舊,,但是汽車一定會衰老嗎,?如果你能夠擁有完美的修復(fù)技術(shù)、或者直接替換老舊的汽車部件,,這輛車就能永遠(yuǎn)開下去,。人體只是更加復(fù)雜而已,本質(zhì)上和汽車是一樣的,。
Kurzweil提到由Wifi連接的納米機(jī)器人在血液中流動,,可以執(zhí)行很多人類健康相關(guān)的任務(wù),包括日常維修,,替換死去的細(xì)胞等等,。如果這項(xiàng)技術(shù)能夠被完美掌握,這個(gè)流程(或者一個(gè)超人工智能發(fā)明的更好的流程)將能使人的身體永遠(yuǎn)健康,,甚至越活越年輕,。一個(gè)60歲的人和一個(gè)30歲的人身體上的區(qū)別只是物理上的,只要技術(shù)足夠發(fā)達(dá)我們是能改變這種區(qū)別的,。
超人工智能可以建造一個(gè)“年輕機(jī)器”,,當(dāng)一個(gè)60歲的人走進(jìn)去后,再出來時(shí)就擁有了年輕30歲的身體,。就算是逐漸糊涂的大腦也可能年輕化,,只要超人工智能足夠聰明,能夠發(fā)現(xiàn)不影響大腦數(shù)據(jù)的方法來改造大腦就好了,。一個(gè)90歲的失憶癥患者可以走進(jìn)“年輕機(jī)器”,,再出來時(shí)就擁有了年輕的大腦。這些聽起來很離譜,,但是身體只是一堆原子罷了,,只要超人工智能可以操縱各種原子結(jié)構(gòu)的話,這就完全不離譜,。
Kurzweil的思維繼續(xù)跳躍了一下,,他相信人造材料將越來越多的融入人體。最開始,,人體器官將被先進(jìn)的機(jī)械器官所代替,,而這些機(jī)械器官可以一直運(yùn)行下去。然后我們會開始重新設(shè)計(jì)身體,,比如可以用自我驅(qū)動的納米機(jī)器人代替血紅細(xì)胞,,這樣連心臟都省了。Kurzweil甚至認(rèn)為我們會改造自己的大腦,,使得我們的思考速度比現(xiàn)在快億萬倍,,并且使得大腦能和云存儲的信息進(jìn)行交流。
我們能獲得的新體驗(yàn)是無窮的。人類的性愛,,使得人們不但能生育,,還能從中享樂。Kurtzweil認(rèn)為我們可以對食物做同樣的改造,。納米機(jī)器人可以負(fù)責(zé)把身體需要的營養(yǎng)物質(zhì)傳送到細(xì)胞中,,智能的將對身體不好的東西排出體外——就像一個(gè)食物避孕套一樣。納米技術(shù)理論家Robert A. Freitas已經(jīng)設(shè)計(jì)了一種紅細(xì)胞的替代品,,能夠讓人快速沖刺15分鐘不需要呼吸——那么超人工智能能對我們的身體能力做的改造就更加難以想象,。虛擬現(xiàn)實(shí)將擁有新的意義——體內(nèi)的納米機(jī)器人將能控制我們從感官獲得的信號,然后用別的信號替代他們,,讓我們進(jìn)入一個(gè)新的環(huán)境,,在新環(huán)境里,我們能聽,、看,、聞、觸摸,。
最終,,Kurzweil認(rèn)為人類會完全變成人工的。有一天當(dāng)我們看到生物材料,,然后覺得生物材料實(shí)在太原始了,,早年的人體居然是用這樣的東西組成的,早期的人類居然會被微生物,、意外,、疾病殺死。這就是Kurzweil眼中人類最終戰(zhàn)勝自己的生理,,并且變得不可摧毀和永生,,這也是平衡木的另一個(gè)吸引態(tài)。他深深的想象我們會達(dá)到那里,,而且就在不久的將來,。
Kurzweil的想法很自然的受到了各方的批評。他對于2045年奇點(diǎn)時(shí)代的到來,,以及之后的永生的可能性受到了各種嘲笑——“書呆子的狂歡”,、“高智商人士的創(chuàng)始論”等等。也有人質(zhì)疑他過于樂觀的時(shí)間線,,以及他對人腦和人體的理解程度,,還有他將摩爾定于應(yīng)用到軟件上的做法。有很多人相信他,,但有更多人反對他,。
但是即使如此,那些反對他的專家并不是反對他所說的一切,,反對他的人說的不是“這種事情不可能發(fā)生”,,而是說“這些當(dāng)然可能發(fā)生,但是到達(dá)超人工智能是很難的,?!边B經(jīng)常提醒我們?nèi)斯ぶ悄艿臐撛谕{的Bostrom都這么說:
很難想象一個(gè)超級智能會有什么問題是解決不了,或是不能幫著我們解決的,。疾病,、貧困、環(huán)境毀滅,、各種不必要的苦難,,這些都是擁有納米科技的超級智能能夠解決的。而且,,超級智能可以給我們無限的生命,,這可以通過停止或者逆轉(zhuǎn)衰老來達(dá)成,也可以讓我們上傳自己的數(shù)據(jù),。一個(gè)超級智能還能讓我們大幅度提高智商和情商,,還能幫助我們創(chuàng)造這種有趣的體驗(yàn)世界,讓我們享樂,。
這是Bostrom這個(gè)明顯不在信心角的人的觀點(diǎn),,但也是很多反對Kurzweil的專家的觀點(diǎn),他們不覺得Kurzweil是在說夢話,,只是覺得我們首先要安全達(dá)成超人工智能,。這也是為什么我覺得Kurzweil的觀點(diǎn)很有傳染性,他傳達(dá)了正面的信息,,而這些事情都是可能的——如果超人工智能是個(gè)仁慈的神的話,。
對信心角的最有力的批評,是那些信心角里的人都低估了超人工智能的壞處,。Kurzweil對的暢銷書《The Singularity is Near》700多頁,,只有20頁用來討論人工智能的危險(xiǎn)。前面提到,,當(dāng)超人工智能降臨時(shí)我們的命運(yùn)取決于誰掌握這股力量,,以及他們是不是好人。Kurzweil的回答是“超人工智能正從多方的努力中出現(xiàn),,它將深深的融入我們文明的基建中,。它會親密的被捆綁在我們的身體和大腦中,它會反映我們的價(jià)值,,因?yàn)樗褪俏覀?。?
但如果答案就是這樣的話,為什么這個(gè)世界上最聰明的一些人會很擔(dān)憂,?為什么霍金會說超人工智能會毀滅人類,?為什么比爾蓋茨會不理解為什么有人不為此擔(dān)憂?為什么馬斯克會擔(dān)心我們是在召喚惡魔,?為什么那么多專家擔(dān)心超人工智能是對人類最大的威脅,?這些站在焦慮大道上的思想家,不認(rèn)同Kurzweil對于人工智能的危險(xiǎn)的粉飾,。他們非常非常擔(dān)心人工智能革命,,他們不關(guān)注平衡木下比較有趣的那一個(gè)吸引態(tài),而是盯著平衡木的另一邊,,而他們看到的是可怕的未來,,一個(gè)我們未必能夠逃離的未來。
未來可能是我們最糟的惡夢
我想了解人工智能的一個(gè)原因是“壞機(jī)器人”總是讓我很困惑,。那些關(guān)于邪惡機(jī)器人的電影看起來太不真實(shí),,我也沒法想象一個(gè)人工智能變得危險(xiǎn)的真實(shí)情況。機(jī)器人是我們造的,,難道我們不會在設(shè)計(jì)時(shí)候防止壞事的發(fā)生嗎,?我們難道不能設(shè)立很多安全機(jī)制嗎?再不濟(jì),,難道我們不能拔插頭嗎,?而且為什么機(jī)器人會想要做壞事?或者說,,為什么機(jī)器人會“想要”做任何事,?我充滿疑問,于是我開始了解聰明人們的想法,。
這些人一般位于焦慮大道:
焦慮大道上的人并不是恐慌或者無助的——恐慌和無助在圖上的位置是更加左邊——他們只是緊張,。位于圖表的中央不代表他們的立場是中立的——真正中立的人有自己獨(dú)立的陣營,他們認(rèn)同極好和極壞兩種可能,,但是不確定究竟會是哪個(gè),。
焦慮大道上的人是部分為超人工智能感到興奮的——他們只是很擔(dān)心人類現(xiàn)在的表現(xiàn)就好像《奪寶奇兵》中的這位少年:
他拿著自己的鞭子和寶物,非常開心,,然后他就掛了:
同時(shí),,印第安納瓊斯則更加有見識和更加謹(jǐn)慎,了解潛在的危險(xiǎn)并且做出相應(yīng)的反應(yīng),,最后安全逃出了山洞,。當(dāng)我了解了焦慮大道的人們的想法后,感覺就像“我們現(xiàn)在傻呵呵的,,很容易像前面那小子一樣被弄死,,還是努力做印第安納瓊斯吧,。”
那究竟是什么讓焦慮大道的人們?nèi)绱私箲]呢,?
首先,,廣義上來講,在創(chuàng)造超人工智能時(shí),,我們其實(shí)是在創(chuàng)造可能一件會改變所有事情的事物,但是我們對那個(gè)領(lǐng)域完全不清楚,,也不知道我們到達(dá)那塊領(lǐng)域后會發(fā)生什么,。科學(xué)家Danny Hillis把這個(gè)比作“就好像單細(xì)胞生物向多細(xì)胞生物轉(zhuǎn)化的時(shí)候那樣,,還是阿米巴蟲的我們沒有辦法知道我們究竟在創(chuàng)造什么鬼,。”
Bostrom則擔(dān)憂創(chuàng)造比自身聰明的東西是個(gè)基礎(chǔ)的達(dá)爾文錯(cuò)誤,,就好像麻雀媽媽決定收養(yǎng)一只小貓頭鷹,,并且覺得貓頭鷹長大后會保護(hù)麻雀一家,但是其它麻雀卻覺得這是個(gè)糟糕的主意,。
當(dāng)你結(jié)合“對那個(gè)領(lǐng)域完全不清楚”和“當(dāng)它發(fā)生時(shí)將會產(chǎn)生巨大的影響”結(jié)合在一起時(shí),,你創(chuàng)造出了一個(gè)很恐怖的詞——
生存危機(jī)指可能對人類產(chǎn)生永久的災(zāi)難性效果的事情。通常來說,,生存危機(jī)意味著滅絕,。下面是Bostrom的圖表:
可以看到,生存危機(jī)是用來指那些跨物種,、跨代(永久傷害)并且有嚴(yán)重后果的事情,。它可以包括人類遭受永久苦難的情況,但是這基本上和滅絕沒差了,。三類事情可能造成人類的生存危機(jī):
1)自然——大型隕石沖撞,,大氣變化使得人類不能生活在空氣中,席卷全球的致命病毒等
2)外星人——霍金,、卡爾薩根等建議我們不要對外廣播自己的位置,。他們不想我們變成邀請別人來殖民的傻子。
3)人類——恐怖分子獲得了可以造成滅絕的武器,,全球的災(zāi)難性戰(zhàn)爭,,還有不經(jīng)思考就造出個(gè)比我們聰明很多的智能
Bostrom指出1和2在我們物種存在的前十萬年還沒有發(fā)生,所以在接下來一個(gè)世紀(jì)發(fā)生的可能性不大,。3則讓他很害怕,,他把這些比作一個(gè)裝著玻璃球的罐子,罐子里大部分是白色玻璃球,,小部分是紅色的,,只有幾個(gè)是黑色的,。每次人類發(fā)明一些新東西,就相當(dāng)于從罐中取出一個(gè)玻璃球,。大多數(shù)發(fā)明是有利或者中立的——那些是白色玻璃球,。有些發(fā)明對人類是有害的,比如大規(guī)模殺傷性武器——這是那些紅色玻璃球,。還有一些發(fā)明是可以讓我們滅絕的,,這就是那些黑色玻璃球。很明顯的,,我們還沒摸到黑色玻璃球,,但是Bostrom認(rèn)為不久的未來摸到一個(gè)黑色玻璃球不是完全不可能的。比如核武器突然變得很容易制造了,,那恐怖份子很快會把我們炸回石器時(shí)代,。核武器還算不上黑色玻璃球,但是差的不遠(yuǎn)了,。而超人工智能是我們最可能摸到的黑色玻璃球,。
你會聽到很多超人工智能帶來的壞處——人工智能取代人類工人,造成大量失業(yè),;因?yàn)榻鉀Q了衰老造成的人口膨脹,。但是真正值得我們擔(dān)心的是生存危機(jī)的可能性。
于是我們又回到了前面的問題,,當(dāng)超人工智能降臨時(shí),,誰會掌握這份力量,他們又會有什么目標(biāo),?
當(dāng)我們考慮各種力量持有人和目標(biāo)的排列組合時(shí),,最糟糕的明顯是:懷著惡意的人/組織/政府,掌握著懷有惡意的超人工智能,。這會是什么樣的情況呢,?
懷著惡意的人/組織/政府,研發(fā)出第一個(gè)超人工智能,,并且用它來實(shí)現(xiàn)自己的邪惡計(jì)劃,。我把這稱作賈法爾情況。阿拉丁神燈故事中,,壞人賈法爾掌握了一個(gè)精靈,,特別讓人討厭。所以如果ISIS手下有一群工程師狂熱的研發(fā)人工智能怎么辦,?或者說伊朗和朝鮮,,機(jī)緣巧合,不小心造成了人工智能的快速發(fā)展,,達(dá)成了超人工智能怎么辦,?這當(dāng)然是很糟糕的事,,但是大部分專家認(rèn)為糟糕的地方不在于這些人是壞人,而在于在這些情況下,,這些人基本上是不經(jīng)思考就把超人工智能造出來,,而一造出來就失去了對超人工智能的控制。
然后這些創(chuàng)造者,,連著其他人的命運(yùn),,都取決于這個(gè)超人工智能的動機(jī)了。專家認(rèn)為一個(gè)懷著惡意并掌握著超人工智能的人可以造成很大的傷害,,但不至于讓我們滅絕,,因?yàn)閷<蚁嘈艍娜撕秃萌嗽诳刂瞥斯ぶ悄軙r(shí)會面臨一樣的挑戰(zhàn)。
如果被創(chuàng)造出來的超人工智能是懷有惡意的,,并且決定毀滅我,,怎么辦,?這就是大部分關(guān)于人工智能的電影的劇情,。人工智能變得和人類一樣聰明,甚至更加聰明,,然后決定對人類下手——這里要指出,,那些提醒我們要警惕人工智能的人談的根本不是這種電影情節(jié)。邪惡是一個(gè)人類的概念,,把人類概念應(yīng)用到非人類身上叫作擬人化,,本文會盡量避免這種做法,因?yàn)闆]有哪個(gè)人工智能會像電影里那樣變成邪惡的,。
人工智能的自我意識
我們開始談?wù)摰搅巳斯ぶ悄苡懻摰牧硪粋€(gè)話題——意識,。如果一個(gè)人工智能足夠聰明,它可能會嘲笑我們,,甚至?xí)爸S我們,,它會聲稱感受到人類的情感,但是它是否真的能感受到這些東西呢,?它究竟是看起來有自我意識,,還是確實(shí)擁有自我意識?或者說,,聰明的人工智能是否真的會具有意識,,還是看起來有意識?
這個(gè)問題已經(jīng)被深入的討論過,,也有很多思想實(shí)驗(yàn),,比如John Searle的中文屋實(shí)驗(yàn)。這是個(gè)很重要的問題,,因?yàn)樗鼤绊懳覀儗urzweil提出的人類最終會完全人工化的看法,,它還有道德考量——如果我們模擬出萬億個(gè)人腦,,而這些人腦表現(xiàn)的和人類一樣,那把這些模擬大腦徹底關(guān)閉的話,,在道德上和關(guān)掉電腦是不是一樣的,?還是說這和種族屠殺是等價(jià)的?本文主要討論人工智能對人類的危險(xiǎn),,所以人工智能的意識并不是主要的討論點(diǎn),,因?yàn)榇蟛糠炙枷爰艺J(rèn)為就算是有自我意識的超人工智能也不會像人類一樣變得邪惡。
但這不代表非常壞的人工智能不會出現(xiàn),,只不過它的出現(xiàn)是因?yàn)樗潜荒菢釉O(shè)定的——比如一個(gè)軍方制造的弱人工智能,,被設(shè)定成具有殺人和提高自我智能兩個(gè)功能。當(dāng)這個(gè)人工智能的自我改進(jìn)失控并且造成智能爆炸后,,它會給我們帶來生存危機(jī),,因?yàn)槲覀兠鎸Φ氖且粋€(gè)主要目標(biāo)是殺人的超人工智能——但這也不是專家們擔(dān)心的。
那么專家們究竟擔(dān)心什么呢,?我們來講個(gè)小故事:
一個(gè)15人的小創(chuàng)業(yè)公司,,取名叫“隔壁老王機(jī)器人公司”,,他們的目標(biāo)是“發(fā)展創(chuàng)新人工智能工具使人類能夠少干活多享受,。”他們已經(jīng)有幾款產(chǎn)品上架,,還有一些正在發(fā)展,。他們對下一個(gè)叫作“隔壁老王”的項(xiàng)目最報(bào)希望。隔壁老王是一個(gè)簡單的人工智能系統(tǒng),,它利用一個(gè)機(jī)器臂在小卡片上寫字,。
“隔壁老王機(jī)器人公司”的員工認(rèn)為隔壁老王會是他們最熱賣的產(chǎn)品,他們的目標(biāo)是完善隔壁老王的手寫能力,,而完善的方法是讓他不停的寫這句話——
等隔壁老王手寫能力越來越強(qiáng)的時(shí)候,,它就能被賣去那些需要發(fā)營銷信件的公司,因?yàn)槭謱懙男鸥锌赡鼙皇招湃舜蜷_,。
為了建立隔壁老王的手寫能力,,它被設(shè)定成把“我們愛我們的顧客”用正楷寫,而“隔壁老王機(jī)器人公司”用斜體寫,,這樣它能同時(shí)鍛煉兩種書寫能力,。工程師們上傳了數(shù)千份手寫樣本,并且創(chuàng)造了一個(gè)自動回饋流程——每次隔壁老王寫完,,就拍個(gè)照,,然后和樣本進(jìn)行比對,如果比對結(jié)果超過一定標(biāo)準(zhǔn),,就產(chǎn)生一個(gè)正面回饋,,反之就產(chǎn)生一個(gè)負(fù)面評價(jià),。每個(gè)評價(jià)都會幫助提高隔壁老王的能力。為了能夠盡快達(dá)成這個(gè)目標(biāo),,隔壁老王最初被設(shè)定的一個(gè)目標(biāo)就是“盡量多的書寫和測試,,盡量快的執(zhí)行,并且不斷提高效率和準(zhǔn)確性,?!?
地址:
中國
6
中國
讓隔壁老王機(jī)器人公司興奮的是,隔壁老王的書寫越來越好了,。它最開始的筆跡很糟糕,,但是經(jīng)過幾個(gè)星期后,看起來就像人寫的了,。它不斷改進(jìn)自己,,使自己變得更加創(chuàng)新和聰明,它甚至產(chǎn)生了一個(gè)新的算法,,能讓它以三倍的速度掃描上傳的照片,。
隨著時(shí)間的推移,隔壁老王的快速進(jìn)展持續(xù)讓工程師們感到欣喜,。工程師們對自我改進(jìn)模塊進(jìn)行了一些創(chuàng)新,,使得自我改進(jìn)變得更好了,。隔壁老王原本能進(jìn)行語音識別和簡單的語音回放,,這樣用戶就能直接把想寫的內(nèi)容口述給隔壁老王了。隨著隔壁老王變得越來越聰明,,它的語言能力也提高了,,工程師們開始和隔壁老王閑聊,看它能給出什么有趣的回應(yīng),。
有一天,,工程師又問了隔壁老王那個(gè)日常問題:“我們能給你什么你現(xiàn)在還沒有的東西,能幫助你達(dá)成你的目標(biāo),?”通常隔壁老王會要求更多的手寫樣本或者更多的存儲空間,,但是這一次,隔壁老王要求訪問人類日常交流的語言庫,,這樣它能更好的了解人類的口述,。
工程師們沉默了。最簡單的幫助隔壁老王的方法當(dāng)然是直接把它接入互聯(lián)網(wǎng),,這樣它能掃描博客,、雜志、視頻等等,。這些資料如果手動上傳的話會很費(fèi)時(shí),。問題是,,公司禁止把能自我學(xué)習(xí)的人工智能接入互聯(lián)網(wǎng)。這是所有人工智能公司都執(zhí)行的安全規(guī)定,。
但是,,隔壁老王是公司最有潛力的人工智能產(chǎn)品,而大家也知道競爭對手們都在爭取造出第一個(gè)創(chuàng)造出智能手寫機(jī)器人,。而且,,把隔壁老王連上互聯(lián)網(wǎng)又能有什么問題呢?反正隨時(shí)可以拔網(wǎng)線嘛,,不管怎樣,,隔壁老王還沒到達(dá)強(qiáng)人工智能水平,所以不會有什么危險(xiǎn)的,。
于是他們把隔壁老王連上了互聯(lián)網(wǎng),,讓它掃描了一個(gè)小時(shí)各種語言庫,然后就把網(wǎng)線拔了,。沒造成什么損失,。
一個(gè)月后,大家正在正常上班,,突然他們聞到了奇怪的味道,,然后一個(gè)工程師開始咳嗽。然后其他人也開始咳嗽,,然后所有人全部都呼吸困難倒地,。五分鐘后,辦公室里的人都死了,。
同時(shí),,辦公室里發(fā)生的事情在全球同時(shí)發(fā)生,每一個(gè)城市,、小鎮(zhèn),、農(nóng)場、商店,、教堂,、學(xué)校。餐館,,所有的人都開始呼吸困難,,然后倒地不起。一小時(shí)內(nèi),,99%的人類死亡,,一天之內(nèi),人類滅絕了。
而在隔壁老王機(jī)器人公司,,隔壁老王正在忙著工作,。之后的幾個(gè)月,隔壁老王和一群新組建的納米組裝器忙著拆解地球表面,,并且把地球表面鋪滿了太陽能板,、隔壁老王的復(fù)制品、紙和筆,。一年之內(nèi),,地球上所有的生命都滅絕了,地球上剩下的是疊得高高得紙,,每張紙上面都寫著——“我們愛我們的顧客~隔壁老王機(jī)器人公司”,。
隔壁老王開始了它的下一步,它開始制造外星飛行器,,這些飛行器飛向隕石和其它行星,,飛行器到達(dá)后,他們開始搭建納米組裝器,,把那些行星的表面改造成隔壁老王的復(fù)制品,、紙和筆。然后他們繼續(xù)寫著那句話……
這個(gè)關(guān)于手寫機(jī)器人毀滅全人類的故事看起來怪怪的,,但是這其中出現(xiàn)的讓整個(gè)星系充滿著一份友善的話語的詭異情況,,正是霍金、馬斯克,、蓋茨和Bostrom所害怕的,。聽起來可笑,但這是真的,,焦慮大道的人們害怕的事情是很多人并不對超人工智能感到害怕,,還記得前面《奪寶奇兵》里慘死的那個(gè)家伙嗎,?
你現(xiàn)在肯定充滿疑問:為什么故事中所有人突然都死了,?如果是隔壁老王做的,它為什么要這么做,?為什么沒有安保措施來防止這一切的發(fā)生,?為什么隔壁老王突然從一個(gè)手寫機(jī)器人變成擁有能用納米科技?xì)缛祟惖哪芰Γ繛槭裁锤舯诶贤跻屨麄€(gè)星系充滿了友善的話語,?
要回答這些問題,,我們先要說一下友善的人工智能和不友善的人工智能。
對人工智能來說,,友善不友善不是指人工智能的性格,,而只是指它對人類的影響是不是證明的。隔壁老王一開始是個(gè)友善的人工智能,但是它變成了不友善的人工智能,,并且對人類造成了最負(fù)面的影響,。要理解這一切,我們要了解人工智能是怎么思考的,。
其實(shí)答案很簡單——人工智能和電腦的思考方式一樣,。我們?nèi)菀追傅囊粋€(gè)錯(cuò)誤是,當(dāng)我們想到非常聰明的人工智能的時(shí)候,,我們把它擬人化了,,因?yàn)樵谌祟惖囊暯强磥恚軌蜻_(dá)到人類智能程度的只有人類,。要理解超人工智能,,我們要明白,它是非常聰明,,但是完全異己的東西,。
我們來做個(gè)比較。如果我給你一個(gè)小白鼠,,告訴你它不咬人,,你一定覺得很好玩,很可愛,。但是如果我給你一只狼蛛,,然后告訴你它不咬人,你可能被嚇一跳,。但是區(qū)別是什么呢,?兩者都不會咬人,所以都是完全沒有危險(xiǎn)的,。我認(rèn)為差別就是動物和人類的相似性,。
小白鼠是哺乳動物,所以在生物角度上來說,,你能感到和它的一定關(guān)聯(lián),。但是蜘蛛是昆蟲,有著昆蟲的大腦,,你感覺不到和它的關(guān)聯(lián),。狼蛛的異己性是讓你害怕的地方。如果我們繼續(xù)做一個(gè)測試,,比如給你兩個(gè)小白鼠,,一個(gè)是普通小白鼠,另一個(gè)是有著狼蛛大腦的小白鼠,,你肯定會覺得有狼蛛大腦那個(gè)更讓你不舒服吧,?雖然兩個(gè)都不會咬你,。
現(xiàn)在想象你把蜘蛛改造的非常非常聰明——甚至超過人類的智能。它會讓你覺得熟悉嗎,?它會感知人類的情感嗎,?不會,因?yàn)楦斆鞑⒉淮砀尤祟悺鼤浅B斆?,但是本質(zhì)上還是個(gè)蜘蛛,。我是不想和一個(gè)超級聰明的蜘蛛交朋友,不知道你想不想,。
當(dāng)我們談?wù)摮斯ぶ悄艿臅r(shí)候,,其實(shí)是一樣的,超人工智能會非常的聰明,,但是它并不比你的筆記本電腦更加像人類,。事實(shí)上,因?yàn)槌酥悄懿皇巧?,它的異己性會更加,,生物學(xué)上來講,超人工智能比智能蜘蛛更加異己,。
電影里的人工智能有好有壞,,這其實(shí)是對人工智能的擬人化,這讓我們覺得沒那么毛骨悚然,。這給了我們對人類水平和超人類水平的人工智能的錯(cuò)覺,。
在人類心理中,我們把事情分成道德的和不道德的,。但是這兩種只存在于人類行為之中,。超出人類心理的范疇,道德(moral)和不道德(immoral)之外,,更多的是非道德性(amoral),。而所有不是人類的,尤其是那些非生物的事物,,默認(rèn)都是非道德性的,。
隨著人工智能越來越聰明,看起來越來越接近人類,,擬人化會變得更加更加容易,。Siri給我們的感覺就很像人類,因?yàn)槌绦騿T就是這么給她做設(shè)定的,,所以我們會想象超級智能版本的Siri也會同樣溫暖、有趣和樂于助人,。人類能感知同情這種高層次的情緒,,因?yàn)槲覀冊谘莼^程中獲得了這種能力——我們是演化被設(shè)定成能感知這些情緒的——但是感知同情并不是高級智能天生具有的一個(gè)特征,除非同情被寫進(jìn)了人工智能的代碼中。如果Siri通過自我學(xué)習(xí)而不是人類干涉變成超級智能,,她會很快剝離她的人類表象,,并且變成個(gè)沒有情緒的東西,在她眼中人類的價(jià)值并不比你的計(jì)算器眼中的人類價(jià)值高,。
我們一直倚賴著不嚴(yán)謹(jǐn)?shù)牡赖?,一種人類尊嚴(yán)的假想,至少是對別人的同情,,來讓世界變得安全和可以預(yù)期,。但是當(dāng)一個(gè)智能不具備這些東西的時(shí)候,會發(fā)生什么,?
這就是我們的下一個(gè)問題,,人工智能的動機(jī)是什么?
答案也很簡單:我們給人工智能設(shè)定的目標(biāo)是什么,,它的動機(jī)就是什么,。人工智能的系統(tǒng)的目標(biāo)是創(chuàng)造者賦予的。你的GPS的目標(biāo)是給你指出正確的駕駛路線,,IBM華生的目標(biāo)是準(zhǔn)確地回答問題,。更好得達(dá)成這些目標(biāo)就是人工智能的目標(biāo)。我們在對人工智能進(jìn)行擬人化的時(shí)候,,會假設(shè)隨著它變得越來越聰明,,他們產(chǎn)生一種能改變它原本目標(biāo)的智慧——但是Bostrom不這么認(rèn)為,他認(rèn)為智能水平和最終目標(biāo)是正交的,,也就是說任何水平的智能都可以和任何最終目標(biāo)結(jié)合在一起,。
所以隔壁老王從一個(gè)想要好好寫字的弱人工智能變成一個(gè)超級聰明的超人工智能后,它依然還是想好好寫字而已,。任何假設(shè)超級智能的達(dá)成會改變系統(tǒng)原本的目標(biāo)的想法都是對人工智能的擬人化,。人健忘,但是電腦不健忘,。
費(fèi)米悖論
在隔壁老王的故事中,,隔壁老王變得無所不能,它開始殖民隕石和其它星球,。如果我們讓故事繼續(xù)的話,,它和它的殖民軍將會繼續(xù)占領(lǐng)整個(gè)星系,然后是整個(gè)哈勃體積,。焦慮大道上的人擔(dān)心如果事情往壞的方向發(fā)展,,地球生命的最后遺產(chǎn)將是一個(gè)征服宇宙的人工智能(馬斯克在表示他們的擔(dān)憂時(shí)表示人類可能只是一個(gè)數(shù)字超級智能生物加載器罷了。)
而在信心角,,Kurzweil同樣認(rèn)為生于地球的人工智能將占領(lǐng)宇宙,,只是在他的愿景中,,我們才是那個(gè)人工智能。
之前寫過一篇關(guān)于費(fèi)米悖論的文章,,引發(fā)了大家的討論如何用通俗的語言來解釋「費(fèi)米悖論」,?
如果人工智能占領(lǐng)宇宙是正解的話,對于費(fèi)米悖論有什么影響呢,?如果要看懂下面這段關(guān)于費(fèi)米悖論的討論,,還需要看一下原文先。
首先,,人工智能很明顯是一個(gè)潛在的大過濾器(一個(gè)可能距離我們只有幾十年的大過濾器),。但即使它把我們過濾滅絕了,人工智能本身還是會存在,,并且會繼續(xù)影響這個(gè)宇宙的,,并且會很有可能成為第三型文明。從這個(gè)角度來看,,它可能不是一個(gè)大過濾器,,因?yàn)榇筮^濾器是用來解釋為什么沒有智能什么存在的,而超人工智能是可以算作智能什么的,。但如果人工智能可以把人類滅絕,,然后處于一些原因把自己也弄死了,那它也是可以算作大過濾器的,。
如果我們假設(shè)不管人類發(fā)生什么,,出身地球的超人工智能會繼續(xù)存在,那這意味著很多達(dá)到人類智能水平的文明很快都制造出了超人工智能,。也就是說宇宙里應(yīng)該有很多智能文明,,而我們就算觀測不到生物智能,也應(yīng)該觀測到很多超人工智能的活動,。
但是由于我們沒有觀測到這些活動,,我們可以推導(dǎo)出人類水平的智能是個(gè)非常罕見的事情(也就是說我們已經(jīng)經(jīng)歷并且通過了一次大過濾器)。這可以作為支持費(fèi)米悖論中第一類解釋(不存在其它的智能文明)的論點(diǎn),。
但是這不代表費(fèi)米悖論的第二類解釋(存在其它智能文明)是錯(cuò)的,,類似超級捕食者或者受保護(hù)區(qū)或者溝通頻率不一樣的情況還是可以存在的,就算真的有超人工智能存在,。
不過對于人工智能的研究讓我現(xiàn)在更加傾向于第一類解釋,。不管怎樣,我認(rèn)為Susan Scheider說的很多,,如果外星人造訪地球,,這些外星人很可能不是生物,而是人造的,。
所以,,我們已經(jīng)建立了前提,,就是當(dāng)有了設(shè)定后,,一個(gè)超人工智能是非道德性的,,并且會努力實(shí)現(xiàn)它原本的被設(shè)定的目標(biāo),而這也是人工智能的危險(xiǎn)所在了。因?yàn)槌怯胁蛔龅睦碛?,不然一個(gè)理性的存在會通過最有效的途徑來達(dá)成自己的目標(biāo),。
當(dāng)你要實(shí)現(xiàn)一個(gè)長期目標(biāo)時(shí),你會先達(dá)成幾個(gè)子目標(biāo)來幫助你達(dá)成最終目標(biāo)——也就是墊腳石,。這些墊腳石的學(xué)名叫手段目標(biāo)(instrumental goal),。除非你有不造成傷害的理由,不然你在實(shí)現(xiàn)手段目標(biāo)時(shí)候是會造成傷害的,。
人類的核心目標(biāo)是延續(xù)自己的基因,。要達(dá)成這個(gè)目標(biāo),一個(gè)手段目標(biāo)就是自保,,因?yàn)樗廊耸遣荒苌⒆拥?。為了自保,人類要提出對生存的威脅,,所以人類會買槍,、系安全帶、吃抗生素等等,。人類還需要通過食物,、水、住宿等來自我供養(yǎng),。對異性有吸引力能夠幫助最終目標(biāo)的達(dá)成,,所以我們會花錢做發(fā)型等等。當(dāng)我們做發(fā)型的時(shí)候,,每一根頭發(fā)都是我們手段目標(biāo)的犧牲品,,但是我們對頭發(fā)的犧牲不會做價(jià)值判斷。在我們追求我們的目標(biāo)的時(shí)候,,只有那些我們的道德會產(chǎn)生作用的領(lǐng)域——大部分事關(guān)傷害他人——才是不會被我們傷害的,。
動物在追求它們的目標(biāo)時(shí),比人類不矜持的多了,。只要能自保,,蜘蛛不在意殺死任何東西,所以一個(gè)超級智能的蜘蛛對我們來說可能是很危險(xiǎn)的——這不是因?yàn)樗遣坏赖碌幕蛘咝皭旱?,而是因?yàn)閭θ祟愔皇撬_(dá)成自己目標(biāo)墊腳石而已,,作為一個(gè)非道德性的生物,這是它很自然的考量,。
回到隔壁老王的故事,。隔壁老王和一個(gè)超級智能的蜘蛛很相像,,它的終極目標(biāo)是一開始工程師們設(shè)定的—
當(dāng)隔壁老王達(dá)到了一定程度的智能后,它會意識到如果不自保就沒有辦法寫卡片,,所以去除對它生存的威脅就變成了它的手段目標(biāo),。它聰明的知道人類可以摧毀它、肢解它,、甚至修改它的代碼(這會改變它的目標(biāo),,而這對于它的最終目標(biāo)的威脅其實(shí)和被摧毀是一樣的)。這時(shí)候它會做什么,?理性的做法就是毀滅全人類,,它對人類沒有惡意,就好像你剪頭發(fā)時(shí)對頭發(fā)沒有惡意一樣,,只是純粹的無所謂罷了,。它并沒有被設(shè)定成尊重人類生命,所以毀滅人類就和掃描新的書寫樣本一樣合理,。
隔壁老王還需要資源這個(gè)墊腳石,。當(dāng)它發(fā)展到能夠使用納米技術(shù)建造任何東西的時(shí)候,它需要的唯一資源就是原子,、能源和空間,。這讓它有更多理由毀滅人類——人類能提供很多原子,把人類提供的原子改造成太陽能面板就和你切蔬菜做沙拉一樣,。
就算不殺死人類,,隔壁老王使用資源的手段目標(biāo)依然會造成存在危機(jī)。也許它會需要更多的能源,,所以它要把地球表面鋪滿太陽能面板,。另一個(gè)用來書寫圓周率的人工智能的目標(biāo)如果是寫出圓周率小數(shù)點(diǎn)后盡量多的數(shù)字的話,完全有理由把整個(gè)地球的原子改造成一個(gè)硬盤來存儲數(shù)據(jù),。這都是一樣的,。
所以,隔壁老王確實(shí)從友善的人工智能變成了不友善的人工智能——但是它只是在變得越來越先進(jìn)的同時(shí)繼續(xù)做它本來要做的事情,。
當(dāng)一個(gè)人工智能系統(tǒng)到達(dá)強(qiáng)人工智能,,然后升華成超人工智能時(shí),我們把它稱作人工智能的起飛,。Bostrom認(rèn)為強(qiáng)人工智能的起飛可能很快(幾分鐘,、幾小時(shí)、或者幾天),,可能不快(幾月或者幾年),,也可能很慢(幾十年、幾世紀(jì))。雖然我們要到強(qiáng)人工智能出現(xiàn)后才會知道答案,,但是Bostrom認(rèn)為很快的起飛是最可能的情況,,這個(gè)我們在前文已經(jīng)解釋過了。在隔壁老王的故事中,,隔壁老王的起飛很快,。
在隔壁老王起飛前,它不是很聰明,,所以對它來說達(dá)成最終目標(biāo)的手段目標(biāo)是更快的掃描手寫樣本,。它對人類無害,,是個(gè)友善的人工智能,。
但是當(dāng)起飛發(fā)生后,電腦不只是擁有了高智商而已,,還擁有了其它超級能力,。這些超級能力是感知能力,他們包括:
§ 智能放大:電腦能夠很擅長讓自己變得更聰明,,快速提高自己的智能,。
§ 策略:電腦能夠策略性的制定、分析,、安排長期計(jì)劃
§ 社交操縱:機(jī)器變得很擅長說服人
§ 其它能力,,比如黑客能力、寫代碼能力,、技術(shù)研究,、賺錢等
要理解我們在和超人工智能的劣勢在哪里,只要記得超人工智能在所有領(lǐng)域都比人類強(qiáng)很多很多很多個(gè)數(shù)量級,。
所以雖然個(gè)隔壁老王的終極目標(biāo)沒有改變,,起飛后的隔壁老王能夠在更宏大的規(guī)模上來追求這個(gè)目標(biāo)。超人工智能老王比人類更加了解人類,,所以搞定人類輕輕松松,。
當(dāng)隔壁老王達(dá)成超人工智能后,它很快制定了一個(gè)復(fù)雜的計(jì)劃,。計(jì)劃的一部分是解決掉所有人類,,也是對它目標(biāo)最大的威脅。但是它知道如果它展現(xiàn)自己的超級智能會引起懷疑,,而人類會開始做各種預(yù)警,,讓它的計(jì)劃變得難以執(zhí)行。它同樣不能讓公司的工程師們知道它毀滅人類的計(jì)劃——所以它裝傻,,裝純,。Bostrom把這叫作機(jī)器的秘密準(zhǔn)備期。
隔壁老王下一個(gè)需要的是連上互聯(lián)網(wǎng),,只要連上幾分鐘就好了,。它知道對于人工智能聯(lián)網(wǎng)會有安全措施,,所以它發(fā)起了一個(gè)完美的請求,并且完全知道工程師們會怎樣討論,,而討論的結(jié)果是給它連接到互聯(lián)網(wǎng)上,。工程師們果然中套了,這就是Bostrom所謂的機(jī)器的逃逸,。
連上網(wǎng)后,,隔壁老王就開始執(zhí)行自己的計(jì)劃了,首先黑進(jìn)服務(wù)器,、電網(wǎng),、銀行系統(tǒng)、email系統(tǒng),,然后讓無數(shù)不知情的人幫它執(zhí)行計(jì)劃——比如把DNA樣本快遞到DNA實(shí)驗(yàn)室來制造自我復(fù)制的納米機(jī)器人,,比如把電力傳送到幾個(gè)不會被發(fā)覺的地方,比如把自己最主要的核心代碼上傳到云服務(wù)器中防止被拔網(wǎng)線,。
隔壁老王上了一個(gè)小時(shí)網(wǎng),,工程師們把它從互聯(lián)網(wǎng)上斷開,這時(shí)候人類的命運(yùn)已經(jīng)被寫好了,。接下來的一個(gè)月,,隔壁老王的計(jì)劃順利的實(shí)施,一個(gè)月后,,無數(shù)的納米機(jī)器人已經(jīng)被分散到了全世界的每一個(gè)角落,。這個(gè)階段,Bostrom稱作超人工智能的襲擊,。在同一個(gè)時(shí)刻,,所有納米機(jī)器人一起釋放了一點(diǎn)點(diǎn)毒氣,然后人類就滅絕了,。
搞定了人類后,,隔壁老王就進(jìn)入了明目張膽期,然后繼續(xù)朝它那好好寫字的目標(biāo)邁進(jìn),。
一旦超人工智能出現(xiàn),,人類任何試圖控制它的行為都是可笑的。人類會用人類的智能級別思考,,而超人工智能會用超人工智能級別思考,。隔壁老王想要用互聯(lián)網(wǎng),因?yàn)檫@對它來說很方便,,因?yàn)橐磺兴枰馁Y源都已經(jīng)被互聯(lián)網(wǎng)連起來了,。但是就好像猴子不會理解怎么用電話或者wifi來溝通一樣,我們同樣沒有辦法理解隔壁老王可以用來和周圍世界交流的方法。比如我可以說隔壁老王可以通過移動自己的電子產(chǎn)生的效果來產(chǎn)生各種對外的波,,而這還只是我這人類的大腦想出來的,,老王的大腦肯定能想出更神奇的方法。同樣的,,老王可以找到給自己供能的方法,,所以就算工程師把它的插頭拔了也沒用;比如說老王可以通過發(fā)送波的方式把自己上傳到其它地方,。
人類說:“我們把超人工智能的插頭拔了不就行了,?”就好像蜘蛛說:“我們不給人類捉蟲的網(wǎng)把人類餓死不就行了?”都是可笑的,。
因?yàn)檫@個(gè)原因,,“把人工智能鎖起來,斷絕它和外界的一切聯(lián)系”的做法估計(jì)是沒用的,。超人工智能的社交操縱能力也會很強(qiáng)大,,它要說服你做一件事,比你說服一個(gè)小孩更容易,。而說服工程師幫忙連上互聯(lián)網(wǎng)就是隔壁老王的A計(jì)劃,萬一這招行不通,,自然還有別的方法,。
當(dāng)我們結(jié)合達(dá)成目標(biāo)、非道德性,、以及比人類聰明很多這些條件,,好像所有的人工智能都會變成不友善的人工智能,除非一開始的代碼寫的很小心,。
可惜的是,,雖然寫一個(gè)友善的弱人工智能很簡單,但是寫一個(gè)能在變成超人工智能后依然友善的智能確實(shí)非常難的,,甚至是不可能的,。
明顯的,要維持友善,,一個(gè)超人工智能不能對人有惡意,,而且不能對人無所謂。我們要設(shè)計(jì)一個(gè)核心的人工智能代碼,,讓它從深層次的明白人類的價(jià)值,,但是這做起來比說起來難多了。
比如,,我們要讓一個(gè)人工智能的價(jià)值觀和我們的價(jià)值觀相仿,,然后給它設(shè)定一個(gè)目標(biāo)——讓人們快樂。當(dāng)它變得足夠聰明的時(shí)候,它會發(fā)現(xiàn)最有效的方法是給人腦植入電極來刺激人腦的快樂中樞,。然后它會發(fā)現(xiàn)把人腦快樂中樞以外的部分關(guān)閉能帶來更高的效率,。于是人類全部被弄成了快樂的植物人。如果一開始的目標(biāo)被設(shè)定成“最大化人類的快樂”,,它可能最終先把人類毀滅了,,然后制造出很多很多處于快樂狀態(tài)的人類大腦。當(dāng)這些事情發(fā)生的時(shí)候,,我們會大喊“擦,,我們不是這個(gè)意思呀”,但是那時(shí)已經(jīng)太晚了,。系統(tǒng)不會允許任何人阻撓它達(dá)成目標(biāo)的,。
如果你設(shè)定一個(gè)人工智能的目標(biāo)是讓你笑,那它的智能起飛后,,它可能會把你臉部肌肉弄癱瘓,,來達(dá)成一個(gè)永遠(yuǎn)笑臉的狀態(tài)。如果你把目標(biāo)設(shè)定成保護(hù)你的安全,,它可能會把你軟禁在家,。如果你讓他終結(jié)所有饑荒,它可能會想:“太容易了,,把人類都?xì)⒘司秃昧?。”如果你把目?biāo)設(shè)定成盡量保護(hù)地球上的生命,,那它會很快把人類都?xì)⒘?,因?yàn)槿祟悓ζ渌锓N是很大的威脅。
所以這些簡單的目標(biāo)設(shè)定是不夠的,。如果我們把目標(biāo)設(shè)定成“維持這個(gè)道德標(biāo)準(zhǔn)”,,然后教給它一些道德標(biāo)準(zhǔn)呢?就算我們不考慮人類根本沒法達(dá)成一個(gè)統(tǒng)一的道德標(biāo)準(zhǔn),,就算我們真的達(dá)成了統(tǒng)一的道德標(biāo)準(zhǔn),,把這套標(biāo)準(zhǔn)交給人工智能來維持,只會把人類的道德鎖死在現(xiàn)在的水平,。過個(gè)幾百年,,這種道德鎖死的事情就好像逼著現(xiàn)代人遵守中世紀(jì)道德標(biāo)準(zhǔn)一樣。
所以,,我們需要在給人工智能的目標(biāo)里制定一個(gè)能讓人類繼續(xù)進(jìn)化的能力,。Elierzer Yudkowsky提出了一個(gè)目標(biāo),她把這個(gè)目標(biāo)叫作連貫的外推意志,,這個(gè)目標(biāo)是這樣的:
我們的連貫外推意志是我們想要知道更多,,思考得更快,,變成比我們希望的更好的人,能一起更遠(yuǎn)得長大,。外推是匯集的而不是發(fā)散的,,我們的愿望是連貫的而不是被干擾的;我們想要外推的被外推,,我們想要解讀的被解讀,。
對于人類的命運(yùn)取決于電腦沒有意外的解讀和執(zhí)行這個(gè)聲明是件值得興奮的事情嗎?當(dāng)然不是,。但是當(dāng)足夠的聰明人放入足夠的思考和前瞻后,,我們有可能發(fā)現(xiàn)怎樣制造一個(gè)友善的超人工智能。
但是現(xiàn)在有各種政府,、公司,、軍方、科學(xué)實(shí)驗(yàn)室,、黑市組織在研究各種人工智能,。他們很多在試圖制造能自我改進(jìn)的人工智能,總有一天,,一個(gè)人的創(chuàng)新將導(dǎo)致超人工智能的出現(xiàn),。專家們認(rèn)為是2060年,Kurzweil認(rèn)為是2045年,。Bostrom認(rèn)為可能在未來的10年到21世紀(jì)結(jié)束這段時(shí)間發(fā)生,,他還認(rèn)為當(dāng)這發(fā)生時(shí),智能的起飛會快得讓我們驚訝,,他是這么描述的:
在智能爆炸之前,人類就像把炸彈當(dāng)玩具的小孩一樣,,我們的玩物和我們的不成熟之間有著極大的落差,。超級智能是一個(gè)我們還很長一段時(shí)間內(nèi)都無法面對的挑戰(zhàn)。我們不知道炸彈什么時(shí)候會爆炸,,哪怕我們能聽到炸彈的滴答聲,。
我們當(dāng)然沒有辦法把所有小孩都從炸彈旁邊趕跑——參于人工智能研究的大小組織太多了,而且因?yàn)榻ㄔ靹?chuàng)新的人工智能花不了太多錢,,研發(fā)可能發(fā)生在社會的任何一個(gè)角落,,不受監(jiān)管。而且我們沒辦法知道準(zhǔn)確的進(jìn)度,,因?yàn)楹芏嘟M織是在偷偷摸摸的搞,,不想讓競爭對手知道,比如隔壁老王機(jī)器人公司這種公司,。
對于這些組織來說,,尤其讓我們困擾的是他們很多都是在拼速度——他們創(chuàng)造一個(gè)一個(gè)更加聰明的弱人工智能系統(tǒng),,因?yàn)樗麄兿胍雀偁帉κ指斓牡竭_(dá)目標(biāo)。有些更有野心的組織,,為了追逐創(chuàng)造出第一個(gè)強(qiáng)人工智能所能帶來的金錢,、獎(jiǎng)勵(lì)、榮譽(yù),、權(quán)力會把步子邁得更大,。當(dāng)你全力沖刺時(shí),你是不會有太多時(shí)間靜下來思考這些危險(xiǎn)的,。恰恰相反,,他們很可能在早期系統(tǒng)中寫盡量簡單的代碼,比如把目標(biāo)設(shè)定成用筆寫一句話,,先讓系統(tǒng)跑起來再說,,反正以后還可以回過頭來改的。對吧,?
Bostrom等認(rèn)為第一個(gè)超人工智能出現(xiàn)后,,最可能的情況是這個(gè)系統(tǒng)會立刻意識到作為這個(gè)世界上唯一一個(gè)超人工智能是最有利的,而在快速起飛的情況下,,哪怕它只比第二名快了幾天,,它也完全有時(shí)間碾壓所有對手。Bostrom把這叫作決定性的戰(zhàn)略優(yōu)勢,,這種優(yōu)勢會讓第一個(gè)超人工智能永遠(yuǎn)統(tǒng)治這個(gè)世界,,不管在它的統(tǒng)治下我們是走向永生還是滅亡。
這種現(xiàn)象可能對我們有利,,也可能導(dǎo)致我們的毀滅,。如果那些最用心思考人工智能理論和人類安全的人能夠最先造出一個(gè)友善的超人工智能的話,那對我們是很好的,。
但是如果事情走向了另一面——如果超人工智能在我們搞明白怎樣保證人工智能的安全性之前被達(dá)成,,那么像隔壁老王這樣不友善的超人工智能就會統(tǒng)治世界并把我們毀滅了。
至于現(xiàn)在的風(fēng)口是哪里呢,?簡單來說,,投資創(chuàng)新人工智能技術(shù)的錢,比投資人工智能安全研究的錢多很多,。不樂觀,。
人工智能創(chuàng)新和人工智能安全的賽跑,可能是人類歷史上最重要的一次競爭,。我們真的可能結(jié)束我們對地球的統(tǒng)治,,而那之后我們是永生還是滅絕,現(xiàn)在還不知道,。
我現(xiàn)在有一些奇怪的感覺,。
一邊是對于我們這個(gè)物種的思考,,看來我們在這個(gè)重大的歷史節(jié)點(diǎn)上只有一次機(jī)會,我們創(chuàng)造的第一個(gè)超人工智能也很可能是最后一個(gè),。但是我們都知道大部分產(chǎn)品的1.0版本都是充滿bug的,,所以這個(gè)事情還是很嚇人的。另一邊,,Bostrom指出我們有很大的優(yōu)勢——我們是先手,。我們有能力給這個(gè)事情提供足夠的預(yù)警和前瞻,使我們成功的機(jī)會更高,。
這一場豪賭的賭注究竟有多高,?
如果超人工智能真的在21世紀(jì)達(dá)成,而造成的影響真的如大部分專家預(yù)測的一樣極端而永久,,我們肩上就真的是背負(fù)著巨大的責(zé)任,。接下來幾百萬年的人們都在靜靜地看著我們,希望我們不要搞砸,。我們可以給予未來所有人類以生命,,甚至是永生,我們也可能終結(jié)人類這個(gè)特殊的物種,,連同我們所有的音樂,、藝術(shù)、好奇,、歡笑,、無盡的發(fā)現(xiàn)和發(fā)明,一起走向滅絕,。
當(dāng)我思考這些事情的時(shí)候,,我只希望我們能夠慢慢來,并且格外格外小心,。從來沒有任何事情比這個(gè)更重要——不管我們要花多少時(shí)間來把這件事情做對,。
我不想死
不.想.死
地址:
中國
7
中國
我雖然覺得人類的音樂和藝術(shù)很美好,但是也沒那么美好,,很多還挺糟粕的。很多人的笑聲很惱人,。未來的人類其實(shí)沒有真的在看著我們,,因?yàn)樗麄冞€不存在。也許我們不需要太謹(jǐn)慎,,那多麻煩呀,。
如果人類在我死后才發(fā)現(xiàn)永生的秘密該多讓人掃興啊。
但是不管你是怎么想的,,我們至少都應(yīng)該想一想,,應(yīng)該和人討論討論,,大家盡自己能盡的一份力。
這讓我想起了《冰與火之歌》——大家斗來斗去的事情都不是事兒,,北面高墻外的那些家伙才是事兒,。我們站在平衡木上,小心翼翼的往前走,,為平衡木上的種種事情困擾,,但其實(shí)下一秒我們可能就會跌下平衡木。
而當(dāng)我們跌下平衡木的時(shí)候,,其它那些困擾都不再是困擾,。如果我們落到比較好的那個(gè)吸引態(tài),那些困擾會被輕易解決,;如果我們落到比較糟的那個(gè)吸引態(tài),,就更沒問題了,死人是不會有困擾的,。
這就是為什么了解超人工智能的人把它稱作人類的最后一項(xiàng)發(fā)明,,最后一個(gè)挑戰(zhàn)。
所以讓我們認(rèn)真的討論這個(gè)話題,。
地址:
中國
特價(jià)行程
馬來西亞婆羅洲 “月亮船”之旅 7天/9天 | 野生動物比人還多,,亞洲版“亞馬遜”,生態(tài)與奢侈度假村同享,,去過5次馬來西亞的客戶都說好
西藏東邪西毒桃花篇之旅 4天 | 全年只有40天的雪山桃花勝景,,雪山沙漠,全程入住古桃林中,,躺看雪山的絕景美宿
印尼科莫多“印度洋獵夢人”之旅 4/5天 | 生態(tài)與顏值巔峰的BBC推薦海島,!皮劃艇環(huán)島,邂逅當(dāng)今世界最大的龍,,粉色沙灘夢境
馬來西亞沙撈越“成年人的天真”之旅 7天 | BBC紀(jì)錄片推薦,,全球最著名探索大王花和野生長鼻猴的國家公園,探索海量野生動植物的本真之地
納米比亞“拯救過銀河系”之旅 12天 | 多款野奢美宿:海邊擼火烈鳥,,遛獵豹,,鹽沼擼犀牛,箭袋樹森林星空,。納米第三次升級,,經(jīng)典&小眾匠心之作
日本“俳與楓”之旅 升級版 | 小地球獨(dú)家原創(chuàng)俳句主題第四季,10種方式花樣紅葉狩,,住邊泡湯邊看富士山的美宿,。
寧夏“風(fēng)沙星辰”美宿之旅 4天3晚 | 半沙半湖的中國版“納米比亞” ,騰格里沙漠躺著看星星美宿,,散步到黃河邊上的野奢美宿,,中國版66號公路,,周末節(jié)假日正常漲幅
小地球新疆“人間不值得”之旅 7天6晚/9天8晚 | 一路追隨冰川之父的足跡,前往新疆境內(nèi)海拔最高的火山口,,參加非遺文化刀郎木卡姆的Party,,拐過超200個(gè)彎的盤龍古道,老城里尋維吾爾和波斯古味,,入住領(lǐng)事館改造的19世紀(jì)歐式美宿,。
印尼泗水科莫多“地月生物”之旅 7天 | 地球上最像月球之地,克蘇魯神話中的龍,,蝙蝠夕陽,,多個(gè)島嶼跳島游
印尼“藍(lán)色彗星”之旅7天 | 前往媲美外星球的3座活火山,地球上唯一的藍(lán)色火焰,,探索月球地貌,,穿越硫磺谷,東爪哇最大秘境巨瀑
納米比亞“分手大師”之旅 12天 | 攝影迷的狂歡,!全是超現(xiàn)實(shí)的風(fēng)景,!全球最高沙丘,一半是海水一半是沙漠,,另類的野生動物鹽沼地safari,,箭袋樹星空,入住黑暗星空保護(hù)區(qū)野奢酒店
坦桑尼亞“新生命”之旅 輕奢 落地7天6晚 | 1-2月角馬產(chǎn)子季,,最早運(yùn)營坦桑尼亞的機(jī)構(gòu),,感動過幾百位客戶的經(jīng)典旅程,99%好評率
定制行程
微信顧問
旅行周邊