AI將如何發(fā)展:“神”、“神經(jīng)”和“神經(jīng)病”
第一種觀點以《未來簡史》的作者尤瓦爾·赫拉利、谷歌工程總監(jiān)未來學(xué)家雷·庫茲維爾和軟銀的創(chuàng)始人孫正義等人為代表,他們認(rèn)為未來的人工智能是神,是上帝。
比如孫正義認(rèn)為30年后,人工智能的智商是一萬,而愛因斯坦的智商不過兩百,人工智能看人類如同現(xiàn)在人類看螞蟻。
第二種觀點認(rèn)為,本輪人工智能的主要推動力是神經(jīng)網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)以大數(shù)據(jù)作為燃料,以強大的計算力作為引擎,但是當(dāng)下大數(shù)據(jù)的紅利正逐漸消失,主宰了芯片處理能力的摩爾定律經(jīng)過60年的指數(shù)增長,也已逼近了理論極限得天花板。這一派認(rèn)為未來人工智能會緩慢向前發(fā)展,但是速度不會像前兩年這么快,我以“神經(jīng)”來作為這派的核心詞。
第三種觀點認(rèn)為歷史還將重演,人工智能的冬天還會再來,他們認(rèn)為“人工智能統(tǒng)治人類”如同神經(jīng)病一樣荒唐可笑。
這三派的核心觀點,簡而言之,可以用“神”、“神經(jīng)”和“神經(jīng)病”三個詞來歸納。
這一輪的人工智能熱潮是怎么開始的?
本輪AI發(fā)端于2006年,多倫多大學(xué)教授杰弗里·辛頓(Geoffrey Hinton)等人彼時連發(fā)了三篇關(guān)于深度學(xué)習(xí)的重量級論文,提出了深度信念網(wǎng)絡(luò)。
雖然該網(wǎng)絡(luò)目前應(yīng)用已不是很多,但在當(dāng)時卻是如冬日驚雷打破了神經(jīng)網(wǎng)絡(luò)聯(lián)結(jié)主義長達(dá)十年的沉寂,開啟了神經(jīng)網(wǎng)絡(luò)的新紀(jì)元——深度學(xué)習(xí),該網(wǎng)絡(luò)采用了逐層貪心訓(xùn)練的方法,對算力的要求較低。
深度信念網(wǎng)絡(luò)是將受限的玻爾茲曼機一層層堆疊而成,而玻爾茲曼機是在上世紀(jì)80年代由辛頓與特倫斯(Terrence Sejnowski)一起發(fā)明的。
AlphaGo是從哪里來的?
2016年,AlphaGo以4:1戰(zhàn)勝了韓國著名棋手擁有16個世界冠軍頭銜的韓國超一流棋手李世乭九段,引起了媒體和大眾對人工智能的極大關(guān)注。
這幾乎是人工智能最火爆的一次亮相,但少有人知道,AlphaGo是從哪里來的?
AlphaGo的起步于Atari--一個古老的80年代的電視機游戲,2012年,Deepmind用攝像頭對準(zhǔn)電視機,讓人工智能玩Atari,通過計算機視覺和強化學(xué)習(xí)讓機器學(xué)習(xí)控制這個游戲,盡量得到更多的分?jǐn)?shù),只要將球反彈到上面消除彩色磚塊就能得分獲得“獎勵”(Reward)。
這個訓(xùn)練過程和心理學(xué)的行為主義的思想是一致的,訓(xùn)練AI就像訓(xùn)練一只小狗,做對了就給它吃顆糖。
在訓(xùn)練了四個小時之后,AI已經(jīng)發(fā)現(xiàn)了一個打贏游戲的秘訣——將左邊磚塊打穿,然后球在上面空間反復(fù)來回彈射,可以自動消除大量磚塊,快速得分。
這個“秘訣”是設(shè)計這個AI程序的的工程師也不曾知道的,這也就可以解釋為什么AlphaGo在打敗柯潔和李世乭的時候,使用了很多人類從未見過的招數(shù)。
行為主義作為心理學(xué)的一個學(xué)派,他們認(rèn)為思維不可被觀察,不適合作為科學(xué)的研究對象,行為才是合適的研究目標(biāo)。
在人工智能中,行為主義對應(yīng)為強化學(xué)習(xí)。
大家都知道“巴甫洛夫的狗”這個實驗,有沒有聽說過知道“桑代克的貓”呢?在“巴普洛夫的狗”這個實驗當(dāng)中,狗是完全被動的受測對象,只是聽到鈴聲流口水,沒有任何選擇的機會。而桑代克給了貓一個選擇:貓被關(guān)在一個籠子里,籠子里有個開關(guān),一旦被貓按下后,門就會打開。第一次貓被關(guān)進(jìn)籠子,要花很久才能夠按動開關(guān),逃出籠子,第二次被放進(jìn)去之后,貓會直接按動開關(guān),逃出生天。
第三位行為主義的大師是斯金納,斯金納給測試對象2個選擇,他把一只老鼠放在籠子里,籠子里有兩個按鈕,按下其中一個按鈕,食物會掉落下來,按下另一個按鈕,則會警報聲大作,把老鼠嚇壞了。被警報聲驚嚇過的老鼠被再次放進(jìn)籠子后,它會遠(yuǎn)遠(yuǎn)的躲開電鈴的開關(guān)。
行為主義認(rèn)為:我們無法通過語言來了解一個人真正在想什么,只有行為才可以被客觀的觀察和研究。相對應(yīng)的,人工智能領(lǐng)域持相似觀點的學(xué)者,并不關(guān)心AI是怎么想的,只關(guān)心AI是怎么做的。
人工智能已開始理解我們的語言,甚至擁有了“想象力”?
在地球上,有很多動物的視覺超越人類,但是,能使用語言進(jìn)行溝通卻只有人類,人類的自然語言被稱為人工智能王冠上明珠,至今尚未被完全攻克。
短時記憶位于大腦前額葉的部分,也稱工作記憶,而長期記憶則存儲在腦后的位置,當(dāng)我們理解了一個概念后,就會從工作記憶轉(zhuǎn)存到長期記憶。
深度學(xué)習(xí)在處理自然語言和其他時序相關(guān)的數(shù)據(jù)時,經(jīng)常使用一種名為長短時記憶(LSTM)的算法。
這兩年我們看到各種機器翻譯、個人助手和智能音箱等各種AI商業(yè)化應(yīng)用層出不窮,其主要原因是因為深度學(xué)習(xí)在語音識別領(lǐng)域取得了突破,使得AI開始可以理解我們在說什么,從而打開了自然語言處理的大門,LSTM被廣泛應(yīng)用于自然語言處理和其他時序相關(guān)的場景。
和辛頓一起獲得圖靈獎的卷積神經(jīng)網(wǎng)絡(luò)(CNN)之父楊力昆(Yann LeCun)曾說過,在過去的十年中,人工智能領(lǐng)域最有趣的想法要數(shù)生成對抗網(wǎng)絡(luò)(GANs)了。
GANs使AI具有“想象力”,上圖中GANs把川普與尼古拉斯·凱奇的照片進(jìn)行合成,類似用GANs來生成圖片的應(yīng)用層出不窮,甚至,LinkedIn上已經(jīng)出現(xiàn)了虛擬的間諜,通過GANs“想象”出來的可以亂真的但實際并不存在的臉,真人間諜操控這個虛擬的美女,在社交媒體上與美國的一些高官攀關(guān)系并竊取有價值的情報。
最近也有一些關(guān)于GANs負(fù)面消息,比如Deepnude等。 GANs的核心思想是引入了博弈論,讓用兩個神經(jīng)網(wǎng)絡(luò)互相博弈,一個網(wǎng)絡(luò)負(fù)責(zé)造假,另一個負(fù)責(zé)鑒定真假,兩個網(wǎng)絡(luò)互相對抗博弈,造假和鑒定真假的水平都不斷上升,最終達(dá)到納什均衡,然后就可以把判定真假的網(wǎng)絡(luò)扔掉,因為造假的網(wǎng)絡(luò)已經(jīng)完全可以以假亂真了。
GANs的成功表明:“對抗”是實現(xiàn)智能的一個途徑,AlphaGo也利用是對抗博弈使其達(dá)到很高的水準(zhǔn)。
人工智能一直在吃20年前的老本么?
不論是卷積神經(jīng)網(wǎng)絡(luò),還是LSTM等循環(huán)神經(jīng)網(wǎng)絡(luò),都是在上世紀(jì)90年代就已經(jīng)提出。由于受當(dāng)時的算力和數(shù)據(jù)量的限制,在當(dāng)時都沒有走紅,而是在20年之后才爆發(fā)。
現(xiàn)在的人工智能產(chǎn)業(yè)看上去非常的繁榮,但理論層面缺乏創(chuàng)新的思想突破,還在吃20年前的老本。
未來五年到十年,深度學(xué)習(xí)、人工智能領(lǐng)域出現(xiàn)重大的突破的概率并不太高,但這并不妨礙工業(yè)界大量AI應(yīng)用落地。
算力是本輪AI繁榮的三個要素之一,具有多核并行處理能力的GPU已成為深度。隨著量子計算的發(fā)展,量子計算機未來也可能對AI產(chǎn)生深遠(yuǎn)的影響。
我們目前使用的計算機被稱為經(jīng)典計算機,也稱馮諾依曼機,內(nèi)部以0和1來表達(dá)世界。
對于量子計算機而言,一個Qubit(量子位)可以用a和b兩個(復(fù))數(shù)表達(dá)0和1兩個數(shù)字的疊加態(tài),也就是擁有了2個信息位(2的1次方);兩個Qubit,可以表達(dá)2的2次方個信息位的信息。
一個50 Qubit量子計算機的強大并行處理能力所產(chǎn)生的算力將超過目前世界上任何一臺超級計算機。
經(jīng)典計算機可以被視為量子計算機的特殊情況(類似于三角函數(shù)取0度或90度的特殊情況),恰似邏輯推理是概率的特殊情況(概率為0或1)。
展望未來10-20年,一旦量子計算機實現(xiàn)了穩(wěn)定計算能力,必將對人工智能產(chǎn)生一個顛覆性的影響,對電子商務(wù)和加密貨幣的影響也將是翻天覆地的。
但目前,人工智能并沒有我們?nèi)祟愐饬x上的“智能”,只是在做數(shù)學(xué)上最小化。
絕大部分擔(dān)心AI威脅人類的人,包括剛?cè)ナ啦痪玫暮诙次锢韺W(xué)家霍金和特斯拉汽車的CEO伊隆·馬斯克,都提出人工智能對人類的“威脅論”,他們幾乎都沒有人工智能的落地經(jīng)驗,因為不了解導(dǎo)致了恐懼和擔(dān)憂。
人工智能的一線研究人員幾乎沒有人持類似觀點,正如前百度首席科學(xué)家吳恩達(dá)所言,現(xiàn)在擔(dān)心人工智能統(tǒng)治人類,無異于擔(dān)心火星上人口過剩。
深度學(xué)習(xí)建立了從輸入到輸出的一個自動映射的過程,在部分應(yīng)用中表現(xiàn)得非常完美,然而,這并不代表AI具有人類的智能,甚至還想差很遠(yuǎn)。
AlphaGo雖然能打敗柯潔、李世乭,但是它并沒有意識,它并不知道自己在下圍棋;同樣的,人工智能翻譯翻得再好,它也不能完全替代專業(yè)的人類翻譯。因為它也并不理解它翻譯的內(nèi)容,雖然它讓你感覺到它翻譯的很完美,屬于典型的“以其昏昏,使人昭昭”。
上面提到的講對抗生成網(wǎng)絡(luò),也會犯一些人類絕對不可能犯得錯誤。
上圖左側(cè)人工智能正確地識別出一只大熊貓,我們一個長臂猿的梯度數(shù)據(jù)作為一個隨機噪音,混入熊貓的照片數(shù)據(jù)中,AI就把大熊貓誤認(rèn)為了長臂猿,這對人來說是絕對不可能發(fā)生的錯誤。
目前,深度學(xué)習(xí)最大的問題之一就是它是個“黑盒子”,我們并不理解里邊的每個神經(jīng)元所代表的含義。
已經(jīng)有科學(xué)家,在這方面進(jìn)行了一些探索性研究,并在計算機視覺領(lǐng)域,部分的解決了神經(jīng)元問題。
比如,對于腦科學(xué)家長久以來爭論不休的“祖母細(xì)胞”的問題,麻省理工大學(xué)的研究人員發(fā)現(xiàn),用人工神經(jīng)網(wǎng)絡(luò)驗證了真的可能是對于一個重要概念,大腦會分配一個或相關(guān)一組細(xì)胞來表示這個概念,每當(dāng)這個概念被提起時,相關(guān)的細(xì)胞就會被激發(fā)。
以后最浪漫的情話可能是:“我為你單獨分配了一個神經(jīng)細(xì)胞”。
我們看到,不僅腦科學(xué)可以促進(jìn)人工智能的發(fā)展,反過來人工智能也能夠促進(jìn)腦科學(xué)的研究,昔日兩個大相徑庭的領(lǐng)域正越走越近,相互融合。
深度學(xué)習(xí)另外一個局限性就是需要大量的人工的標(biāo)簽,無人駕駛公司雇傭的打標(biāo)簽的人工成本,甚至超過了數(shù)據(jù)科學(xué)家的成本。從這個角度,目前監(jiān)督式機器學(xué)習(xí)的情況可以說是:“有多少人工,就有多少智能”。
如果我們把機器學(xué)習(xí)中主要的方法和大腦做一個對比的話,監(jiān)督式學(xué)習(xí),依靠人類打標(biāo)簽的,也就是說有標(biāo)準(zhǔn)答案的,對應(yīng)為人類小腦的機制。對這種機器學(xué)習(xí),我們已經(jīng)研究的比較成熟了。 但問題在于,互聯(lián)網(wǎng)上大量的數(shù)據(jù)是沒有標(biāo)簽的,依靠人去打標(biāo)簽的成本太高而不現(xiàn)實。
這類非監(jiān)督的機器學(xué)習(xí)方法可以很好的去發(fā)現(xiàn)數(shù)據(jù)本身的特征與結(jié)構(gòu),與監(jiān)督式學(xué)習(xí)一起工作,可以得到更好的效果。大腦皮層的功能對應(yīng)的就是非監(jiān)督機器學(xué)習(xí)。
AlphaGo對應(yīng)的強化學(xué)習(xí)介于上述兩者之間,強化學(xué)習(xí)是沒有一個明確的,打標(biāo)簽的這樣一個動作,但是它會得到一個環(huán)境的反饋。
這種學(xué)習(xí)方式比監(jiān)督式學(xué)習(xí)通用性強很多,它不需要標(biāo)簽數(shù)據(jù),只通過一個回報的數(shù)值來改進(jìn)模型,通用性強,也是未來實現(xiàn)通用人工智能(AGI)的重要路徑。
未來的機器的發(fā)展可能是以強化學(xué)習(xí)和非監(jiān)督學(xué)習(xí)為主,而一些深度學(xué)習(xí)模型中已經(jīng)融入了非監(jiān)督機器學(xué)習(xí),而AlphaGo則是強化學(xué)習(xí)和深度學(xué)習(xí)相結(jié)合的產(chǎn)物。
強化學(xué)習(xí)對應(yīng)的大腦結(jié)構(gòu)是基底神經(jīng)節(jié)。
做烏鴉,不要做鸚鵡
人工智能在過去兩次熱潮當(dāng)中,都是以邏輯推理為核心的符號主義所主導(dǎo)的,這一脈可以上溯到亞里士多德和蘇格拉底。某些做知識圖譜的人工智能的公司,會去招哲學(xué)博士,為什么?
因為,兩千年前的亞里士多德的本體論在今天構(gòu)建知識圖譜的過程中,其思想仍然是核心。
知識圖譜被認(rèn)為是下一代的搜索引擎,你可以在百度上輸入一個問題:姚明的妻子是誰?百度會直接告訴你答案:葉莉,這是因為知識圖譜是基于邏輯推理的。
在金融行業(yè),知識圖譜有非常廣泛的應(yīng)用于風(fēng)控,它有助于明顯提高風(fēng)控的表現(xiàn),如果逾期率的風(fēng)險能降低0.1%,對于很多企業(yè)來說,每年都能減少了上億的損失。
和機器學(xué)習(xí)所代表的概率性思維不同,知識圖譜所代表的,是另一種思維——確定性的邏輯推理。這兩種思維的結(jié)合會產(chǎn)生很好的效果。 現(xiàn)在的人工智能被稱為窄人工智能(ANI)。就像一只鸚鵡,學(xué)人說話學(xué)得很像,但它的智力其實很低。我們將來要實現(xiàn)的人工智能可能是烏鴉,在日本有人拍到的一段畫面:
烏鴉撿到了一個堅果,但這個堅果很硬,它吃不到里邊的肉,烏鴉就把堅果拋向高空掉在地上,還是砸不碎堅果。于是這只烏鴉把堅果放在馬路當(dāng)中,希望來往的車輛把堅果軋碎。但路上車水馬龍,烏鴉去吃的時候不小心被車軋死怎么辦?烏鴉又發(fā)現(xiàn)了紅綠燈,當(dāng)紅燈亮的時候,車會停下來,這時候下去吃堅果是最安全的。
未來,我們要做的人工智能應(yīng)該是烏鴉,而不是鸚鵡。
深度學(xué)習(xí)基本解決了感知的問題,但是要解決問題,必須要理解問題,從把問題抽象出來并形成概念,然后加上邏輯推理,現(xiàn)在,在抽象、形成概念和理解問題的這些環(huán)節(jié)還比較薄弱的,也是未來潛力巨大的領(lǐng)域。
群體智能
有很多實現(xiàn)未來人工智能的路徑,其中有一種是我個人特別感興趣的——群體智能。
我們看到不管是鳥群還是螞蟻,蜜蜂還是螢火蟲,它們單體的智商,都非常低。但是,當(dāng)它們聚集在一起的時候,沒有一個個體控制群體,群體作為一個整體,卻涌現(xiàn)出一種非常高超的,一個具有生命的智能。
我們大腦當(dāng)中的神經(jīng)網(wǎng)絡(luò)也是類似的,每個神經(jīng)元的功能都非常簡單,但是,大腦860億個神經(jīng)元,它們在一起由量變到質(zhì)變,產(chǎn)生非常高級的智能。
最后我想用費米的一句話,來結(jié)束本文, “宇宙看上去包羅萬物,但其實并不那么復(fù)雜,它只是由數(shù)量眾多的,非常簡單的結(jié)構(gòu)組成。”
這輪人工智能從腦科學(xué)、心理學(xué)、 經(jīng)濟(jì)學(xué),甚至量子力學(xué)中都獲取了靈感。未來的人工智能,將從哪里獲取靈感呢?
網(wǎng)友評論
消費評論排行
延伸閱讀
- AIoT縱深發(fā)展,誰才是智能家居領(lǐng)跑者?
- AI要和白領(lǐng)搶飯碗了嗎?RPA自動辦公機器人風(fēng)潮興起
- 分析師:蘋果AirPods已成長為年銷售額200億美元業(yè)務(wù)
- 馬斯克談OpenAI:它變了,變得面目全非
- OpenAI首席技術(shù)官:下一版ChatGPT沒有傳言這么牛 請別炒作
- 馬斯克等千人聯(lián)名呼吁暫停研發(fā)更強大的AI 人工智能專家:一
- 版權(quán)問題如何解決?OpenAI被控非法使用圖書數(shù)據(jù)訓(xùn)練AI系統(tǒng)
- “AI換臉”簡單好玩但有可能涉及侵權(quán)
- 微軟谷歌財報的啟示:要通過AI賺錢,還得繼續(xù)砸錢
- 行分析師:AI或?qū)㈩嵏裁拦墒兄蛋?蘋果恐失頭把交椅