為什麼真正的神經元學的更快

導讀:本文的目的是說明自然神經網絡與人工神經網絡的區別,並且解釋為什麼自然神經網絡更先進。

問題:

人腦只需要很少的樣本來學習和識別物體;動物只需要一個經驗來記錄危險並避免下次發生;與此同時,一個機器學習系統可能需要一個百萬個樣本來保存貓的圖像,這是為什麼呢,我們做錯了什麼嗎?

首先,讓我們看看如何設計一個手寫識別系統。我們需要輸入一個深度學習算法幾百個樣本(數字或字母)來獲得字符識別。

AI|為什麼真正的神經元學的更快

AI|為什麼真正的神經元學的更快

人工神經網絡的作用

基於大量的輸入樣本,深度學習網絡調整其內部參數(感知器的權重,它基本上創建了類似大腦的內部模式),因此對於類似的輸入,輸出是相同的。在某種程度上,它就像一個具有相同形狀的輸入中值。即使我們向網絡提供了一個不在輸入集中的數字,如果它與輸入數據中的數字相似,系統仍然能夠識別它。對於每個字母,系統(通過數學調整其內部參數)在形狀周圍建立一個公差區域,在該區域內相同的輸出仍會出發。

基本上,我們提供了足夠的樣本,直到我們通過創建人工的內部模式將區域內的所有輸入神經元映射到相同的輸出。

AI|為什麼真正的神經元學的更快

自然神經網絡的作用

對於單個輸入,由於自然神經元的設計(見下文),在第一遍中形成了相似的公差區域。做同樣任務的類似神經元在大腦皮層的同一區域被分組,就像把眼前的圖像映射成監視器的像素一樣。

當一幅圖像被記錄下來時,不僅會觸發精確的神經元映射,還會向附近處於興奮狀態的神經元發送信號,但不會進一步發送信號(沒有足夠的突觸來克服動作電位的閾值)。這就像化學連接是對附近的神經元進行的,但這一個並沒有被觸發,因為它沒有映射到一個輸入神經元(現有圖像中的一個像素),也沒有足夠的興奮來產生它自己的化學物質。但是,如果信號將來來自類似的圖像,這個信號可能會觸發並在生成自己的神經元的同時從附近的舊神經元中找到化學連接,並且會觸發已經存在的輸出(舊圖像模式的一部分)。

由於突觸的數量,最初生成的模式是巨大的,並且由於其大小而不太容易發生變化。

當然,這種解釋是純直覺的,但很明顯,這一因素對更快的學習起到了決定性的作用。

神經元的接近程度

當然,他們的3D設計使這成為可能。

在當前的ANN設計中,單個樣本創建直接鏈接到精確輸入神經元的單個模式。 發送到訓練網絡的第二個樣本無法識別,即使它與第一個非常相似。 很少有常見的輸入神經元不會觸發相同的輸出。

解決方案

我們真正需要的是重新設計神經網絡,因此單個樣本不會創建單個內部模式,而是圍繞輸入創建容差的模糊區域以及映射到它們的一組模式,這些模式將觸發相似樣本的相同輸出。

也許不是反向傳播,我們需要考慮圖論,或者我們需要更多地關注3D設計和神經形態計算。

當前設計缺陷

如果我們看一下上面的深度學習圖,我們可以看到一個明顯的缺陷(不是真正的缺陷,而更像是我們進化設計的一部分)。我們可以看到同一級別的神經元沒有連接。這不會發生在任何真實的網絡中。

此外,真實網絡沒有在這個級別分層。確實存在神經元層,但不是基本任務。即使有一些先進的設計,如遞歸神經網絡(RNN),有點不同地連接感知器,我們仍然不存在。 當前架構僅限於窄處理並且需要太多輸入樣本。它需要針對真實設計進行更多調整並考慮到接近度。深度學習表現很好,但它只是設計演變的一部分。

我相信這一突破將在10年內發生,雪球已經在滾動。

錯誤的焦點

雖然我們還沒有理解或模仿由302個神經元組成的C-Elegans的神經系統,但我們做了以下事情:

• 我們為AGI設計自系統-意識或道德模塊,個性、規則等。

• 我們創建組織來監管機器人。

• 我們擔心機器人取代我們人類的工作。

• 我們只是把數十億個像人腦一樣的晶體管組裝在一起,我們期望它們能像人一樣工作(拜託,不)。

• 我們也在數十億個書寫頁面上訓練深度學習,並期望系統像人一樣思考。

• 我們創建了越來越多的芯片,將當前的臨時模型移植到硬件上。

• 我們害怕機器學習有偏見,而不是被提供的統計結果以及我們如何使用它們所意識到。偏倚是一個使用問題,而不是統計數字。

相反,我們沒有做的:

• C-Elegans神經系統衰竭的研究。

• 模擬這300個神經元,直到我們得到類似的結果(軟件和硬件)。

• 瞭解神經遞質及其影響整個網絡的原因 - 它們就像加速器一樣,或者使整個網絡變慢和不同。

• 建立數以百萬計的神經數學和拓撲模型,直到我們修復有缺陷的設計。

• 基於模式創建數學模型,也可能將數學從和和函數轉移到圖論。

• 關注如何在同一網絡上訓練不同的模型。

• 專注於如何製造思維機器,重用輸出和獎勵輸入。

• 使神經網絡能夠吸收真是的概念。

• 製作一種語言來提取或修改神經網絡中的數據。

• 學習盲人、聾人如何仍然能夠理解世界和學習語言。

• 還有更多。

我們正處於自行車的時代,我們夢想登上月球,但我們還沒有設計火箭發動機。相反我們正在努力建造一個更大的自行車或為此目的投入更多的號角。

我們現在von Newman架構上做的只是研究。從實踐的角度來看,使用是浪費資源。複雜性是遊戲的一部分,我們添加的神經元越多,這些系統的性能就越好。我們真的需要很多高智能系統。

它將需要數千次嘗試和多年的失敗,因為一個單一的細節缺失或在錯誤的地方可能會導致完全不同的行為(模型與大腦)。但最終,我們將獲得相同的功能。

自然語言處理(NLP)

聾子出生的人仍然可以學會說話。他們仍然能理解這個世界。他們的大腦仍然能夠構建真實世界物體的內部概念和表示。

如果我們給一臺機器提供數十億頁的信息,它會不會思考?想象一個聾子看到一個人,視覺表象將手臂、身體、頭部和所有其他身體部位組合在一起,輸入數據中是否有描述此內容的頁面,因此這些概念不會保持獨立?是否有足夠的頁面將通過其他感官和方法鏈接的所有概念放在一起?

這裡有許多問題,但很明顯,單詞和單詞的關聯應該通過概念、聯繫、記憶、歷史等來加倍,以獲得更多的自動答案。但為此,我們需要一臺思考機器,我們還沒有基礎。

通用人工智能(AGI)和意識

就像羅伯特·福特博士在《威斯特世界》裡說的那樣:機器不會有意識的拐點。慢慢地,與機器的交流將達到足夠高的標準,我們會同情它們,並接受它們作為不同的存在。想想今天的助手。他們一開始看起來很蠢,但會及時改進。奇點將與NLP標準和DARPA設想的新巡迴測試有關:

在舞臺上,一個女人坐在鋼琴前。她:

1. 坐在長椅上,他姐姐在玩洋娃娃。

2. 當音樂響起時對某人微笑

3. 在人群中,看著舞者。

4. 緊張的把手指放在鑰匙上。

可能不會有AGI,只有ASI,我們設計的每個子系統都比類似的實際系統性能更好。當這些系統結合在一起時,在許多領域都將優於人類。

結論

沒有人知道另一個人工智能的冬天會不會到來,但事情肯定不像30年前。在此之前,我們需要關注基礎知識:讓人工神經元像真正的神經元一樣工作。


如果大家希望瞭解更多關於人工智能領域的知識,可以關注我們的頭條號,如果大家有關於AI人工智能領域的相關問題或開發接入需求的,也可以直接私信我們。

AI技術聯盟,致力於為用戶提供最新、最好的AI學習知識,併為用戶提供私有化AI領域相關專業化開發外包服務。


分享到:


相關文章: