BP神經網路

BP神經網路

BP(Back Propagation)神經網路是1986年由Rumelhart和McCelland為首的科學家小組提出,是一種按誤差逆傳播算法訓練的多層前饋網路,是目前套用最廣泛的神經網路模型之一。BP網路能學習和存貯大量的輸入-輸出模式映射關係,而無需事前揭示描述這種映射關係的數學方程。它的學習規則是使用最速下降法,通過反向傳播來不斷調整網路的權值和閾值,使網路的誤差平方和最小。BP神經網路模型拓撲結構包括輸入層(input)、隱層(hidden layer)和輸出層(output layer)。

​神經網路

“人腦是如何工作的?”

“人類能否製作模擬人腦的人工神經元?”

BP神經網路BP神經網路

多少年以來,人們從醫學、生物學、生理學、哲學、信息學、計算機科學、認知學、組織協同學等各個角度企圖認識並解答上述問題。在尋找上述問題答案的研究過程中,逐漸形成了一個新興的多學科交叉技術領域,稱之為“神經網路”。神經網路的研究涉及眾多學科領域,這些領域互相結合、相互滲透並相互推動。不同領域的科學家又從各自學科的興趣與特色出發,提出不同的問題,從不同的角度進行研究。

心理學家和認知科學家研究神經網路的目的在於探索人腦加工、儲存和搜尋信息的機制,弄清人腦功能的機理,建立人類認知過程的微結構理論。

生物學、醫學、腦科學專家試圖通過神經網路的研究推動腦科學向定量、精確和理論化體系發展,同時也寄希望於臨床醫學的新突破;信息處理和計算機科學家研究這一問題的目的在於尋求新的途徑以解決不能解決或解決起來有極大困難的大量問題,構造更加逼近人腦功能的新一代計算機。

起源學說

人工神經元的研究起源於腦神經元學說。19世紀末,在生物、生理學領域,Waldeger等人創建了神經元學說。人們認識到複雜的神經系統是由數目繁多的神經元組合而成。大腦皮層包括有100億個以上的神經元,每立方毫米約有數萬個,它們互相聯結形成神經網路,通過感覺器官和神經接受來自身體內外的各種信息,傳遞至中樞神經系統內,經過對信息的分析和綜合,再通過運動神經發出控制信息,以此來實現機體與內外環境的聯繫,協調全身的各種機能活動。

神經元

BP神經網路BP神經網路

人工神經網路是由大量的簡單基本元件——

神經元相互聯接而成的自適應非線性動態系統。每個神經元的結構和功能比較簡單,但大量神經元組合產生的系統行為卻非常複雜。

人工神經網路反映了人腦功能的若干基本特性,但並非生物系統的逼真描述,只是某種模仿、簡化和抽象。與數字計算機比較,人工神經網路在構成原理和功能特點等方面更加接近人腦,它不是按給定的程式一步一步地執行運算,而是能夠自身適應環境、總結規律、完成某種運算、識別或過程控制。神經元也和其他類型的細胞一樣,包括有細胞膜、細胞質和細胞核。但是神經細胞的形態比較特殊,具有許多突起,因此又分為細胞體、軸突和樹突三部分。細胞體內有細胞核,突起的作用是傳遞信息。樹突是作為引入輸入信號的突起,而軸突是作為輸出端的突起,它只有一個。

樹突

樹突是細胞體的延伸部分,它由細胞體發出後逐漸變細,全長各部位都可與其他神經元的軸突末梢相互聯繫,形成所謂“突觸”。在突觸處兩神經元並未連通,它只是發生信息傳遞功能的結合部,聯繫界面之間間隙約為(15~50)×10米。突觸可分為興奮性與抑制性兩種類型,它相應於神經元之間耦合的極性。每個神經元的突觸數目正常,最高可達10個。各神經元之間的連線強度和極性有所不同,並且都可調整、基於這一特性,人腦具有存儲信息的功能。利用大量神經元相互聯接組成人工神經網路可顯示出人的大腦的某些特徵。下面通過人工神經網路與通用的計算機工作特點來對比一下:

速度比較

若從速度的角度出發,人腦神經元之間傳遞信息的速度要遠低於計算機,前者為毫秒量級,而後者的頻率往往可達幾百兆赫。但是,由於人腦是一個大規模並行與串列組合處理系統,因而,在許多問題上可以作出快速判斷、決策和處理,其速度則遠高於串列結構的普通計算機。人工神經網路的基本結構模仿人腦,具有並行處理特徵,可以大大提高工作速度。

利用突觸效能的變化來調整存貯內容

人腦存貯信息的特點為利用突觸效能的變化來調整存貯內容,也即信息存貯在神經元之間連線強度的分布上,存貯區與計算機區合為一體。雖然人腦每日有大量神經細胞死亡 (平均每小時約一千個),但不影響大腦的正常思維活動。

普通計算機是具有相互獨立的存貯器和運算器,知識存貯與數據運算互不相關,只有通過人編出的程式使之溝通,這種溝通不能超越程式編制者的預想。元器件的局部損壞及程式中的微小錯誤都可能引起嚴重的失常。

人類大腦有很強的自適應與自組織特性,後天的學習與訓練可以開發許多各具特色的活動功能。如盲人的聽覺和觸覺非常靈敏;聾啞人善於運用手勢;訓練有素的運動員可以表現出非凡的運動技巧等等。

普通計算機的功能取決於程式中給出的知識和能力。顯然,對於智慧型活動要通過總結編製程序將十分困難。

發展歷史

人工神經網路早期的研究工作應追溯至上世紀40年代。下面以時間順序,以著名的人物或某一方面突出的研究成果為線索,簡要介紹人工神經網路的發展歷史。

1943年,心理學家W·Mcculloch和數理邏輯學家W·Pitts在分析、總結神經元基本特性的基礎上首先提出神經元的數學模型。此模型沿用至今,並且直接影響著這一領域研究的進展。因而,他們兩人可稱為人工神經網路研究的先驅。

1945年 馮·諾依曼領導的設計小組試製成功存儲程式式電子計算機,標誌著電子計算機時代的開始。1948年,他在研究工作中比較了人腦結構與存儲程式式計算機的根本區別,提出了以簡單神經元構成的再生自動機網路結構。但是,由於指令存儲式計算機技術的發展非常迅速,迫使他放棄了神經網路研究的新途徑,繼續投身於指令存儲式計算機技術的研究,並在此領域作出了巨大貢獻。雖然,馮·諾依曼的名字是與普通計算機聯繫在一起的,但他也是人工神經網路研究的先驅之一。

50年代末,F·Rosenblatt設計製作了“感知機”,它是一種多層的神經網路。這項工作首次把人工神經網路的研究從理論探討付諸工程實踐。當時,世界上許多實驗室仿效製作感知機,分別套用於文字識別、聲音識別、聲納信號識別以及學習記憶問題的研究。然而,這次人工神經網路的研究高潮未能持續很久,許多人陸續放棄了這方面的研究工作,這是因為當時數字計算機的發展處於全盛時期,許多人誤以為數字計算機可以解決人工智慧、模式識別、專家系統等方面的一切問題,使感知機的工作得不到重視;其次,當時的電子技術工藝水平比較落後,主要的元件是電子管或電晶體,利用它們製作的神經網路體積龐大,價格昂貴,要製作在規模上與真實的神經網路相似是完全不可能的;另外,在1968年一本名為《感知機》的著作中指出線性感知機功能是有限的,它不能解決如 異或這樣的基本問題,而且多層網路還不能找到有效的計算方法,這些論點促使大批研究人員對於人工神經網路的前景失去信心。60年代末期,人工神經網路的研究進入了低潮。

另外,在60年代初期,Widrow提出了自適應 線性元件網路,這是一種連續取值的線性加權求和閾值網路。後來,在此基礎上發展了非線性多層自適應網路。當時,這些工作雖未標出神經網路的名稱,而實際上就是一種人工神經網路模型。

隨著人們對感知機興趣的衰退,神經網路的研究沉寂了相當長的時間。80年代初期,模擬與數字混合的 超大規模積體電路製作技術提高到新的水平,完全付諸實用化,此外,數字計算機的發展在若干套用領域遇到困難。這一背景預示,向人工神經網路尋求出路的時機已經成熟。 美國的物理學家Hopfield於1982年和1984年在美國科學院院刊上發表了兩篇關於人工神經網路研究的論文,引起了巨大的反響。人們重新認識到神經網路的威力以及付諸套用的現實性。隨即,一大批學者和研究人員圍繞著 Hopfield提出的方法展開了進一步的工作,形成了80年代中期以來人工神經網路的研究熱潮。

工作原理

人工神經網路就是模擬人思維的第二種方式。這是一個 非線性動力學系統,其特色在於信息的分散式存儲和並行協同處理。雖然單個神經元的結構極其簡單,功能有限,但大量神經元構成的網路系統所能實現的行為卻是極其豐富多彩的。

人工神經網路首先要以一定的學習準則進行學習,然後才能工作。現以人工神經網路對手寫“A”、“B”兩個字母的識別為例進行說明,規定當“A”輸入網路時,應該輸出“1”,而當輸入為“B”時,輸出為“0”。

所以網路學習的準則應該是:如果網路作出錯誤的的判決,則通過網路的學習,應使得網路減少下次犯同樣錯誤的可能性。首先,給網路的各連線權值賦予(0,1)區間內的隨機值,將“A”所對應的圖象模式輸入給網路,網路將輸入模式加權求和、與門限比較、再進行非線性運算,得到網路的輸出。在此情況下,網路輸出為“1”和“0”的 機率各為50%,也就是說是完全隨機的。這時如果輸出為“1”(結果正確),則使連線權值增大,以便使網路再次遇到“A”模式輸入時,仍然能作出正確的判斷。

如果輸出為“0”(即結果錯誤),則把網路連線權值朝著減小綜合輸入加權值的方向調整,其目的在於使網路下次再遇到“A”模式輸入時,減小犯同樣錯誤的可能性。如此操作調整,當給網路輪番輸入若干個手寫字母“A”、“B”後,經過網路按以上學習方法進行若干次學習後,網路判斷的正確率將大大提高。這說明網路對這兩個模式的學習已經獲得了成功,它已將這兩個模式分布地記憶在網路的各個連線權值上。當網路再次遇到其中任何一個模式時,能夠作出迅速、準確的判斷和識別。一般說來,網路中所含的神經元個數越多,則它能記憶、識別的模式也就越多。

如圖所示拓撲結構的單隱層前饋網路,一般稱為三層前饋網或三層感知器,即:輸入層、 中間層(也稱隱層)和輸出層。它的特點是:各層神經元僅與相鄰層神經元之間相互全連線,同層內神經元之間無連線,各層神經元之間無反饋連線,構成具有層次結構的前饋型神經網路系統。單計算層前饋神經網路只能求解線性可分問題,能夠求解非線性問題的網路必須是具有隱層的多層神經網路。

特性

思維學普遍認為,人類大腦的思維分為抽象(邏輯)思維、形象(直觀)思維和靈感(頓悟)思維三種基本方式。

邏輯性的思維是指根據邏輯規則進行 推理的過程;它先將信息化成概念,並用符號表示,然後,根據符號運算按串列模式進行邏輯推理;這一過程可以寫成串列的指令,讓計算機執行。然而,直觀性的思維是將分散式存儲的信息綜合起來,結果是忽然間產生想法或解決問題的辦法。這種思維方式的根本之點在於以下兩點:1.信息是通過神經元上的興奮模式分布儲在網路上;2.信息處理是通過神經元之間同時相互作用的動態過程來完成的。

人工神經網路具有初步的自適應與自組織能力。在學習或訓練過程中改變突觸權重值,以適應周圍環境的要求。同一網路因學習方式及內容不同可具有不同的功能。人工神經網路是一個具有學習能力的系統,可以發展知識,以致超過設計者原有的知識水平。通常,它的學習訓練方式可分為兩種,一種是有監督或稱有導師的學習,這時利用給定的樣本標準進行分類或模仿;另一種是 無監督學習或稱無導師學習,這時,只規定學習方式或某些規則,則具體的學習內容隨系統所處環境 (即輸入信號情況)而異,系統可以自動發現環境特徵和規律性,具有更近似人腦的功能。

研究方向

神經網路的研究內容相當廣泛,反映了多學科交叉技術領域的特點。主要的研究工作集中在以下幾個方面:

(1)生物原型研究。從生理學、心理學、解剖學、 腦科學、病理學等生物科學方面研究神經細胞、神經網路、神經系統的生物原型結構及其功能機理。

(2)建立 理論模型。根據生物原型的研究,建立神經元、神經網路的 理論模型。其中包括 概念模型、知識模型、物理化學模型、數學模型等。

(3) 網路模型與 算法研究。在 理論模型研究的基礎上構作具體的 神經網路模型,以實現計算機模擬或準備製作硬體,包括 網路學習 算法的研究。這方面的工作也稱為技術模型研究。

(4)人工神經網路套用系統。在網路模型與算法研究的基礎上,利用人工神經網路組成實際的套用系統,例如,完成某種信號處理或 模式識別的功能、構作 專家系統、製成機器人等等。

縱觀當代新興科學技術的發展歷史,人類在征服宇宙空間、 基本粒子,生命起源等科學技術領域的進程中歷經了崎嶇不平的道路。我們也會看到,探索人腦功能和神經網路的研究將伴隨著重重困難的克服而日新月異。

神經網路

在人工神經網路發展歷史中,很長一段時間裡沒有找到隱層的連線權值調整問題的有效算法。直到誤差反向傳播算法(BP算法)的提出,成功地解決了求解非線性連續函式的多層前饋神經網路權重調整問題。

BP (Back Propagation)神經網路,即誤差反傳誤差反向傳播算法的學習過程,由信息的正向傳播和誤差的反向傳播兩個過程組成。輸入層各神經元負責接收來自外界的輸入信息,並傳遞給中間層各神經元;中間層是內部信息處理層,負責信息變換,根據信息變化能力的需求,中間層可以設計為單隱層或者多隱層結構;最後一個隱層傳遞到輸出層各神經元的信息,經進一步處理後,完成一次學習的正向傳播處理過程,由輸出層向外界輸出信息處理結果。當實際輸出與期望輸出不符時,進入誤差的反向傳播階段。誤差通過輸出層,按誤差梯度下降的方式修正各層權值,向隱層、輸入層逐層反傳。周而復始的信息正向傳播和誤差反向傳播過程,是各層權值不斷調整的過程,也是神經網路學習訓練的過程,此過程一直進行到網路輸出的誤差減少到可以接受的程度,或者預先設定的學習次數為止。

BP神經網路模型BP網路模型包括其輸入輸出模型、作用函式模型、誤差計算模型和自學習模型。

(1)節點輸出模型

隱節點輸出模型:Oj=f(∑Wij×Xi-qj) (1)

輸出節點輸出模型:Yk=f(∑Tjk×Oj-qk) (2)

f-非線形作用函式;q -神經單元閾值。

(2)作用函式模型

作用函式是反映下層輸入對上層節點刺激脈衝強度的函式又稱刺激函式,一般取為(0,1)內連續取值Sigmoid函式: f(x)=1/(1+e乘方(-x)) (3)

(3)誤差計算模型

誤差計算模型是反映神經網路期望輸出與計算輸出之間誤差大小的函式:

BP神經網路BP神經網路

(4)

tpi- i節點的期望輸出值;Opi-i節點計算輸出值。

(4)自學習模型

神經網路的學習過程,即連線下層節點和上層節點之間的權重矩陣Wij的設定和誤差修正過程。BP網路有師學習方式-需要設定期望值和無師學習方式-只需輸入模式之分。自學習模型為

△Wij(n+1)= h ×Фi×Oj+a×△Wij(n) (5)

h -學習因子;Фi-輸出節點i的計算誤差;Oj-輸出節點j的計算輸出;a-動量因子。

套用不足

神經網路可以用作分類、 聚類、預測等。神經網路需要有一定量的歷史數據,通過歷史數據的訓練,網路可以學習到數據中隱含的知識。在你的問題中,首先要找到某些問題的一些特徵,以及對應的評價數據,用這些數據來訓練神經網路。

雖然BP網路得到了廣泛的套用,但自身也存在一些缺陷和不足,主要包括以下幾個方面的問題。

首先,由於學習速率是固定的,因此網路的收斂速度慢,需要較長的訓練時間。對於一些複雜問題,BP算法需要的訓練時間可能非常長,這主要是由於學習速率太小造成的,可採用變化的學習速率或自適應的學習速率加以改進。

其次,BP算法可以使權值收斂到某個值,但並不保證其為 誤差平面的全局最小值,這是因為採用梯度下降法可能產生一個局部最小值。對於這個問題,可以採用附加動量法來解決。

再次,網路隱含層的層數和單元數的選擇尚無理論上的指導,一般是根據經驗或者通過反覆實驗確定。因此,網路往往存在很大的冗餘性,在一定程度上也增加了網路學習的負擔。

最後,網路的學習和記憶具有不穩定性。也就是說,如果增加了學習樣本,訓練好的網路就需要從頭開始訓練,對於以前的權值和閾值是沒有記憶的。但是可以將預測、分類或聚類做的比較好的 權值保存。

相關詞條

相關搜尋

熱門詞條

聯絡我們