讓電腦像大腦一樣工作?在過去的一年裡,這依舊是研究人員們努力的方向…

數碼情報站 於 04/02/2014 發表 收藏文章

IBM在2013年繼續在人工神經網絡領域進行探索。從2011年開發出了“神經突出計算機超級芯片(neurosynaptic芯片)”之後,又展開了有關於神經性自適應塑料可微縮電子系統的研究(SyNAPSE)。

而學術界、科技界對於人工神經網絡的探索可以追溯到1950年。上世紀50年代到60年代的近二十年間,研究人員都在嘗試用單片感知器來實現人工神經網絡。不過由於技術的限制,很快這股熱潮就消失殆盡了。一直到了1983年,Hopfield網絡、Boltzmann機以及BP算法的出現再一次讓人工神經網絡成為了研究熱點,並且延續到了90年代初。而最近一次有關人工神經網絡的研究井噴式的出現是由深度學習網絡,也就是我們常說的deep learning引爆的。

以上所說的這一些更多是算法層面上對於人工神經網絡的研究,是計算機科學中狹義的人工智能,並沒有人工建造人腦那樣的野心。這種人工智能,是基於數學(統計)進行問題求解的機器學習算法(machine learning algorism),即我們常常提到的大數據時代的算法核心。

我們今天要聊的,也就是IBM所研究的,更多關於硬件上對於神經系統的模擬,或者換句話說就是真正試圖來人工建造人腦。我們的大腦有10的11次方個神經元,而每一個神經元都要和10的4次方個神經元相連,可以說如果單從技術角度想去解決它實在是無法想像的。

我曾經有幸和國內在該領域非常領先的中科院半導體所的魯華祥教授探討過,國內目前可以實現的是在100這一數量級的類神經元處理器的製造,繼續的下一步發展還存在非常大的困難。或許在這一個方面我們和國際一流最領先的技術還存在一定的差距,但我們都存在一個相當共同的問題,那就是目前的人工神經網絡的構建還都是採用了一種神經元模型,即Golgi I型神經元,而對於數量更多的Golgi II型神經元細胞和膠質細胞幾乎無人考慮。更不用說在微觀層面上對於神經活動表徵得非常好的離子通道模型,儘管目前已經有相當多的研究關注與通過阻變式存儲器(RRAM)的特性模擬突觸可塑性,可依舊還存在很大的困難。

說了這麼多負面的情況,難道在人工神經網絡的研究就毫無意義?又或者說完全是徒勞的麼?

當然不是這樣,從研究算法的角度來看,對於人腦行為的一些抽像模擬很好的解決了機器學習領域中的一些問題。繼續拿deep learning來舉例,這一概念的提出是源於1981的諾貝爾生理學或醫學獎,神經生物學家David Hubel和Torsten Wiesel發現了視覺系統的信息處理機制是分層進行的。 deep learning就是在機器視覺處理上取得了突出的成功。從生物學中提取知識,再將其抽象轉化為算法模型應用到計算機的人工智能領域,這樣的深入研究會讓計算機在處理更多非邏輯非數值,或者說是“更感性更直覺”的問題上不斷進步。


而對於試圖製造人工大腦的人來說,目前的研究或許真的力不從心。在不能全面了解腦機制的情況下就試圖去製造人工腦其實是一件很危險的事情。不過這樣的研究也同樣有利於神經科學領域的繼續探索,儘管人工製造的大腦和實際的腦組織的差別還較大,但是在神經信息學和計算神經科學領域,抽象的模型還是有助於進一步的研究分析。

最後的最後,在我們試圖把電腦變得同時,電腦也在不知不覺地改變著人腦的構造。近日《科學》雜質官方網站報導了北京大學魏坤琳教授團隊的研究成果(沒錯,就是《最強大腦》裡的那個帥哥Dr. 魏),通過一系列心理物理學實驗,發現對於有或者無電腦使用經驗的人,他們對感知運動映射的學習速率是一樣的,但是他們的運動學習的方向性泛化(從一個方向上學習到的運動技能泛化到其它方向上)有很大的差別。 這項研究成果也為神經科學的研究提出了警醒,因為目前的大多數實驗使用的被試都是通過電腦完成的。我們得到的結果很有可能就是被電腦“篡改”過的。

雖然行為實驗和神經網絡關係並不大,但是當電腦日益佔據著我們生活的每個角落,我們的大腦或許真的在發生某些不為人知的變化。

大家應該都聽過這樣一個笑話:老婆給當程序員的老公打電話:下班順路買一斤包子帶回來,如果看到賣西瓜的,買一個。當晚,程序員老公手捧一個包子進了家門…老婆怒道:你怎麼就買了一個包子? !老公答曰:因為看到了賣西瓜的。

在惹人發笑的同時,這樣的故事說不定真的就發生在世界的某個角落呢~當然啦,以上這部分內容只是我自己的主觀臆想,不代表36氪官方的觀點。

不管是IBM,還是其他的研究機構,對於人造大腦的製造可能會一直進行下去。而我們人類對於大腦的探索,可能永遠都不會結束。

[36氪原創文章,作者: krokodil]


資料來源:36Kr

留言


請按此登錄後留言。未成為會員? 立即註冊
    快捷鍵:←
    快捷鍵:→