版本:0.1
人類智慧型在巨集觀上有心理學,微觀上有分子生物學等學科研究。但每個方向研究到一定階段就停滯了,沒有哪個學科能告訴我們:為什麼能有智慧型,如何才能產生智慧型。即使已經了解了大腦的很多知識,人類智慧型仍然是個黑盒子。
對黑盒的研究,要麼從外部觀察其行為,然後來模擬其結構,可稱為自上而下的研究;要麼猜測其結構,然後從外部的輸入輸出來驗證其行為,可稱為自下而上的研究。題目所說的自上而下還是自下而上即是從哪個方向來研究強人工智慧問題。
巨集觀上研究的成果中,最顯而易見的就是類人機械人。這類機械人從行為、語言、表情等方面來模擬人。如果最終能讓人覺得這些機械人是真人,那麼這個方向就算是成功了。當然,從現在的成果來看還不成功。另一方面是深藍、沃森這樣的依靠在下棋、回答問題等方面來戰勝人類智慧型,從而證明自己能力。從這些特定的領域上來看,它們是比較成功的。但就算是把上面提到的所有方面都合到一起,也很難認為他們達到了人類的能力。
微觀上的研究,是從感知器的結構被提出來後開始的。從此產生了現在的人工神經網路、機器學習等大量的演算法和研究成果,解決了很多實際問題。從微觀上出發,證明了它們從微觀結構上模擬的優勢,但需要花費大量時間建立問題模型。
由此看來,當前自上而下和自下而上的方法都有了一定的成果。但通過現有方法來構建強人工智慧,成本是非常巨大的,幾乎不可實現。
每一層級的規律其實是其低一層規律的規模化結果,其又是上一層規律的基礎。如果要對整個系統有全面的了解,就要從某一層級出發,往上或往下研究,得出規律。如果說乙個神經元細胞是乙個的層級,而整個人腦也是乙個層級。在這兩層之間還有多少層呢?自上而下的研究方法給出了人腦的功能區的劃分,這個作為乙個層次。而自下而上的方法給出了人工神經網路的層次,這個層次能夠處理單個問題或叫做模式。這兩方面的研究到這基本都停滯了。這中間一定還有乙個或若干個層次能夠幫助我們理解智慧型的規律。
再來看看題設的問題,如果一定要給出乙個答案的話,我會傾向於自下而上的研究。先說說自下而上研究的優勢。自下而上的研究看起來更像是白盒研究,通過模擬來了解智慧型真正的機制。而自上而下的研究像是黑盒研究,更多的需要去猜測或者嘗試來達到同樣的功能。如果能夠猜出結構當然最好,但如果黑盒非常複雜,猜出結構是很難的。模仿其複雜行為也是很困難的。但同時,自上而下的研究也非常具有指導意義,其了解了人腦不同區域是有分工的,輸入輸出的處理使用了大部分大腦。自上而下的研究也積累了很多經驗,可以用來驗證強人工智慧的能力。
強人工智慧的物質基礎和神經元細胞是不一樣的,我們不是通過製造真正的神經元細胞來製造強人工智慧。所以研究的最底層級不是直接對映到神經元細胞,要把神經元細胞中與智慧型相關的一些特性抽取出來,以便在其它物質基礎上構造智慧型。需要區分細胞的哪些行為是和智慧型相關的,哪些行為是和其物質基礎相關的。有些因素也許看上去和物質基礎相關,但其可能也影響了智慧型的產生。以下是一些神經元細胞特性的猜測和討論,可以有助於把和智慧型產生相關的部分抽取出來。
神經元細胞的大部分活動是依靠化學反應,有些是不可逆反應。這個過程需要不斷的反應物質和能量的供給,一旦能量跟不上,其反應可能變得遲鈍。在計算機中,能量的供給是依靠電子的流動,不需要物質的化學變化,所以能量供給是高效的。但神經細胞對大量刺激會變得遲鈍這樣的特性也許是產生記憶效果的乙個因素。同時,由於細胞內物質濃度的變化,可能會引發下一級反應,從而產生神經元細胞的變化,這也可能是產生記憶效果的因素。總之,從這一點來看,神經元的記憶是可以通過其輸入輸出的變化來調整的,不一定需要通過全域性的目標函式來調整。
上一點中提到的物質、能量短缺的影響,不僅會影響神經元細胞本身,也會對周圍細胞活動產生抑制。這也是一些選舉小範圍中最活躍神經元演算法的物質基礎。這個特性有利於減小區域性過於活躍,從而產生振盪或弱化全域性的特徵。
神經元的樹突生長是比較慢的,可能要經過大量的刺激,才能產生有效的突觸。強人工智慧也許可以通過外部開關來判斷是否處於訓練時間,來調整連線的建立速度,從而提高學習效率。
神經元細胞的空間結構。大腦皮層的皺褶展開後是乙個平面,這個平面上的灰質細胞也有一定的層數。對於灰質細胞的層次的作用,也產生了有意思的演算法,比如hierarchal temporal memory(htm,這是我看到的最有趣的乙個演算法)。由於人類的空間是三維的,所以物理結構最複雜也就是三維結構。但考慮到能量供給和資訊傳輸,神經元細胞只能達到類似於二維的結構。這時候就產生了神經元細胞相鄰的很多特點。假設神經元細胞樹突的長度平均是有限的,而且每個神經元的大部分樹突是比較短的,這樣相鄰的神經元之間的交流就更多,長距離的就比較少。所以相鄰細胞之間處理的資訊更類似。
細胞個體的可靠性是沒有計算機高的,所以神經元細胞需要更強的冗餘性。相鄰細胞之間需要通過相互備份來產生冗餘。所謂備份、即它們的輸入輸出狀態、以及反應的閾值都比較相似。相似值高,則變化所需要的刺激和能量都高,一方面代表了學習難度的增大,另一方面也代表記憶的強度很高。反之,則學習難度低,但容易因為覆蓋或神經細胞死亡產生遺忘。強人工智慧也許可以通過減少相鄰細胞的相似性來縮小網路的規模,並用別的方式來控制記憶強度。
神經元細胞的生長分化。神經元細胞是在胚胎發育的過程中產生的,所以有從無到有的過程。在當前神經網路的研究中,網路的初始化和如何決定規模都是需要考慮的問題。而在大腦的初始化依賴於細胞的**。在神經細胞的**過程中,新的細胞會繼承原先細胞的突觸。這個過程不僅保留了記憶,同時保持了各種輸入輸出的連通性。
總而言之,從神經細胞級的研究,能夠找到很多有效的線索和特點,這些是上乙個層級規律的基礎。但這些特性既有和智慧型產生相關的部分,又有和生物體運轉相關的部分。如何對這些特性進行篩選,從而得出細胞層級的智慧型基礎,對於研究上一層級是非常重要的。由於智慧型的複雜性,單純自下而上的研究容易發散到不正確的道路。在各種演算法試驗的過程中,需要自上而下所得到的一些經驗來驗證是否走到了正確的路線上。
強人工智慧基本問題
人類智慧型在巨集觀上有心理學,微觀上有分子生物學等學科研究。但每個方向研究到一定階段就停滯了,沒有哪個學科能告訴我們 為什麼能有智慧型,如何才能產生智慧型。即使已經了解了大腦的很多知識,人類智慧型仍然是個黑盒子。對黑盒的研究,要麼從外部觀察其行為,然後來模擬其結構,可稱為自上而下的研究 要麼猜測其結...
強人工智慧基本問題 神經網路分層還是不分層
版本 0.1 現代的大部分機器學習的演算法將神經元分出了清晰的層次。所謂分層,即將神經元分為幾層 也可認為是幾組 每層內的神經元沒有聯絡,相鄰的層與層之間的神經元會有兩兩的聯絡,從而形成乙個關係矩陣。非相鄰層的神經元之間沒有聯絡。這裡的相鄰指的是神經元層次之間的關係,每層神經元有一層或者前後兩層相鄰...
強人工智慧基本問題 全域性控制與自組織
版本 0.1 前文介紹過,大腦是非常複雜的,研究強人工智慧需要參考大腦的結構和演算法,來理解並創造智慧型。人腦演算法 結構的秘密都隱藏在dna和人存在的世界中。從現在的哲學和科學的認知來看,可認為人腦是自組織的,沒有明確的全域性目標函式。而自組織是大腦非常重要的乙個特點。自組織最大的好處是人工介入少...