BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用ppt課件
《BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用ppt課件》由會(huì)員分享,可在線閱讀,更多相關(guān)《BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用ppt課件(86頁(yè)珍藏版)》請(qǐng)?jiān)谘b配圖網(wǎng)上搜索。
1,一、 BP神經(jīng)網(wǎng)絡(luò) 二、 徽章的分類 三、光催化臭氧氧化處理自來(lái)水,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,2,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,一、 BP神經(jīng)網(wǎng)絡(luò),1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN),1.1.1 研究ANN目的,利用機(jī)器模仿人類的智能是長(zhǎng)期以來(lái)人們認(rèn)識(shí)自然、改造自然和認(rèn)識(shí)自身的理想。,(1) 探索和模擬人的感覺(jué)、思維和行為的規(guī)律,設(shè)計(jì)具有人類智能的計(jì)算機(jī)系統(tǒng)。(2) 探討人腦的智能活動(dòng),用物化了的智能來(lái)考察和研究人腦智能的物質(zhì)過(guò)程及其規(guī)律。,3,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,一、 BP神經(jīng)網(wǎng)絡(luò),1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN),1.1.1 研究ANN目的,1.1.2 研究ANN方法,(1) 生理結(jié)構(gòu)的模擬,用仿生學(xué)觀點(diǎn),探索人腦的生理結(jié)構(gòu),把對(duì)人腦的微觀結(jié)構(gòu)及其智能行為的研究結(jié)合起來(lái)即人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN)方法。,4,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,一、 BP神經(jīng)網(wǎng)絡(luò),1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN),1.1.1 研究ANN目的,1.1.2 研究ANN方法,(1) 生理結(jié)構(gòu)的模擬,(2) 宏觀功能的模擬,從人的思維活動(dòng)和智能行為的心理學(xué)特性出發(fā),利用計(jì)算機(jī)系統(tǒng)來(lái)對(duì)人腦智能進(jìn)行宏觀功能的模擬,即符號(hào)處理方法。,5,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,一、 BP神經(jīng)網(wǎng)絡(luò),1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN),1.1.1 研究ANN目的,1.1.2 研究ANN方法,1.1.3 ANN的研究?jī)?nèi)容,(1) 理論研究,ANN模型及其學(xué)習(xí)算法,試圖從數(shù)學(xué)上描述ANN的動(dòng)力學(xué)過(guò)程,建立相應(yīng)的ANN模型,在該模型的基礎(chǔ)上,對(duì)于給定的學(xué)習(xí)樣本,找出一種能以較快的速度和較高的精度調(diào)整神經(jīng)元間互連權(quán)值,使系統(tǒng)達(dá)到穩(wěn)定狀態(tài),滿足學(xué)習(xí)要求的算法。,6,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,一、 BP神經(jīng)網(wǎng)絡(luò),1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN),1.1.1 研究ANN目的,1.1.2 研究ANN方法,1.1.3 ANN的研究?jī)?nèi)容,(1) 理論研究,(2) 實(shí)現(xiàn)技術(shù)的研究,探討利用電子、光學(xué)、生物等技術(shù)實(shí)現(xiàn)神經(jīng)計(jì)算機(jī)的途徑。,7,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,一、 BP神經(jīng)網(wǎng)絡(luò),1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN),1.1.1 研究ANN目的,1.1.2 研究ANN方法,1.1.3 ANN的研究?jī)?nèi)容,(1) 理論研究,(2) 實(shí)現(xiàn)技術(shù)的研究,(3) 應(yīng)用的研究,探討如何應(yīng)用ANN解決實(shí)際問(wèn)題,如模式識(shí)別、故障檢測(cè)、智能機(jī)器人等。,8,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,一、 BP神經(jīng)網(wǎng)絡(luò),1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN),1.1.1 研究ANN目的,1.1.2 研究ANN方法,1.1.3 ANN的研究?jī)?nèi)容,1.1.4 人工神經(jīng)網(wǎng)絡(luò)概述,人工神經(jīng)網(wǎng)絡(luò)是由具有適應(yīng)性簡(jiǎn)單的單元組成的廣泛并行互連的網(wǎng)絡(luò),它的組織能夠模擬生物神經(jīng)系統(tǒng)對(duì)真實(shí)物體所作出的交互作用。,9,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,一、 BP神經(jīng)網(wǎng)絡(luò),1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN),1.1.1 研究ANN目的,1.1.2 研究ANN方法,1.1.3 ANN的研究?jī)?nèi)容,1.1.4 人工神經(jīng)網(wǎng)絡(luò)概述,1.1.5 腦神經(jīng)信息活動(dòng)的特征,(1) 巨量并行性 (2) 信息處理和存儲(chǔ)單元的有機(jī)結(jié)合 (3) 自組織自學(xué)習(xí)功能,10,1.1.6 ANN研究的目的和意義,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,一、 BP神經(jīng)網(wǎng)絡(luò),1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN),1.1.1 研究ANN目的,1.1.2 研究ANN方法,1.1.3 ANN的研究?jī)?nèi)容,1.1.4 人工神經(jīng)網(wǎng)絡(luò)概述,1.1.5 腦神經(jīng)信息活動(dòng)的特征,(1) 通過(guò)揭示物理平面與認(rèn)知平面之間的映射,了解它們相互聯(lián)系和相互作用的機(jī)理,揭示思維的本質(zhì),探索智能的本源。,11,1.1.6 ANN研究的目的和意義,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,一、 BP神經(jīng)網(wǎng)絡(luò),1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN),1.1.1 研究ANN目的,1.1.2 研究ANN方法,1.1.3 ANN的研究?jī)?nèi)容,1.1.4 人工神經(jīng)網(wǎng)絡(luò)概述,1.1.5 腦神經(jīng)信息活動(dòng)的特征,(2) 爭(zhēng)取構(gòu)造出盡可能與人腦具有相似功能的計(jì)算機(jī),即ANN計(jì)算機(jī)。,12,1.1.6 ANN研究的目的和意義,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,一、 BP神經(jīng)網(wǎng)絡(luò),1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN),1.1.1 研究ANN目的,1.1.2 研究ANN方法,1.1.3 ANN的研究?jī)?nèi)容,1.1.4 人工神經(jīng)網(wǎng)絡(luò)概述,1.1.5 腦神經(jīng)信息活動(dòng)的特征,(3) 研究仿照腦神經(jīng)系統(tǒng)的人工神經(jīng)網(wǎng)絡(luò),將在模式識(shí)別、組合優(yōu)化和決策判斷等方面取得傳統(tǒng)計(jì)算機(jī)所難以達(dá)到的效果。,13,1.1.6 ANN研究的目的和意義,1.1.7 神經(jīng)網(wǎng)絡(luò)研究的發(fā)展,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,一、 BP神經(jīng)網(wǎng)絡(luò),1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN),1.1.1 研究ANN目的,1.1.2 研究ANN方法,1.1.3 ANN的研究?jī)?nèi)容,1.1.4 人工神經(jīng)網(wǎng)絡(luò)概述,1.1.5 腦神經(jīng)信息活動(dòng)的特征,(1) 第一次熱潮(40-60年代未) 1943年,美國(guó)心理學(xué)家W.McCulloch和數(shù)學(xué)家W. Pitts在提出了一個(gè)簡(jiǎn)單的神經(jīng)元模型,即MP模型.1958年,F(xiàn).Rosenblatt等研制出了感知機(jī)(Perceptron)。,14,1.1.6 ANN研究的目的和意義,1.1.7 神經(jīng)網(wǎng)絡(luò)研究的發(fā)展,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,一、 BP神經(jīng)網(wǎng)絡(luò),1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN),1.1.1 研究ANN目的,1.1.2 研究ANN方法,1.1.3 ANN的研究?jī)?nèi)容,1.1.4 人工神經(jīng)網(wǎng)絡(luò)概述,1.1.5 腦神經(jīng)信息活動(dòng)的特征,(2) 低潮(70-80年代初)(3) 第二次熱潮1982年,美國(guó)物理學(xué)家J.J.Hopfield提出Hopfield模型,它是一個(gè)互聯(lián)的非線性動(dòng)力學(xué)網(wǎng)絡(luò), 他解決問(wèn)題的方法是一種反復(fù)運(yùn)算的動(dòng)態(tài)過(guò)程,這是符號(hào)邏輯處理方法所不具備的性質(zhì)。1987年首屆國(guó)際ANN大會(huì)在圣地亞哥召開(kāi),國(guó)際ANN聯(lián)合會(huì)成立,創(chuàng)辦了多種ANN國(guó)際刊物。,15,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,一、 BP神經(jīng)網(wǎng)絡(luò),1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN),1.1.8 神經(jīng)網(wǎng)絡(luò)基本模型,,16,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,一、 BP神經(jīng)網(wǎng)絡(luò),1.1.9 人工神經(jīng)網(wǎng)絡(luò)研究的局限性,1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN),1.1.8 神經(jīng)網(wǎng)絡(luò)基本模型,(1)ANN研究受到腦科學(xué)研究成果的限制 (2)ANN缺少一個(gè)完整、成熟的理論體系 (3)ANN研究帶有濃厚的策略和經(jīng)驗(yàn)色彩 (4)ANN與傳統(tǒng)技術(shù)的接口不成熟,17,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,一、 BP神經(jīng)網(wǎng)絡(luò),1.1.9 人工神經(jīng)網(wǎng)絡(luò)研究的局限性,1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN),1.1.8 神經(jīng)網(wǎng)絡(luò)基本模型,18,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,一、 BP神經(jīng)網(wǎng)絡(luò),1.1.9 人工神經(jīng)網(wǎng)絡(luò)研究的局限性,1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN),1.1.8 神經(jīng)網(wǎng)絡(luò)基本模型,一般而言, ANN與經(jīng)典計(jì)算方法相比并非優(yōu)越, 只有當(dāng)常規(guī)方法解決不了或效果不佳時(shí)ANN方法才能顯示出其優(yōu)越性 . 尤其對(duì)問(wèn)題的機(jī)理不甚了解或不能用數(shù)學(xué)模型表示的系統(tǒng),如故障診斷,特征提取和預(yù)測(cè)等問(wèn)題,ANN往往是最有利的工具.另一方面, ANN對(duì)處理大量原始數(shù)據(jù)而不能用規(guī)則或公式描述的問(wèn)題, 表現(xiàn)出極大的靈活性和自適應(yīng)性。,19,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,一、 BP神經(jīng)網(wǎng)絡(luò),1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN),1.2 BP神經(jīng)網(wǎng)絡(luò),人工神經(jīng)網(wǎng)絡(luò)以其具有自學(xué)習(xí)、自組織、較好的容錯(cuò)性和優(yōu)良的非線性逼近能力,受到眾多領(lǐng)域?qū)W者的關(guān)注。在實(shí)際應(yīng)用中,80%~90%的人工神經(jīng)網(wǎng)絡(luò)模型是采用誤差反傳算法或其變化形式的網(wǎng)絡(luò)模型(簡(jiǎn)稱BP網(wǎng)絡(luò)),目前主要應(yīng)用于函數(shù)逼近、模式識(shí)別、分類和數(shù)據(jù)壓縮或數(shù)據(jù)挖掘。,20,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,一、 BP神經(jīng)網(wǎng)絡(luò),1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN),1.2 BP神經(jīng)網(wǎng)絡(luò),Rumelhart,Mc Clelland于1985年提出了BP網(wǎng)絡(luò)的誤差反向后傳BP(Back Propagation)學(xué)習(xí)算法,1.2.1 BP神經(jīng)網(wǎng)絡(luò)概述,21,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,一、 BP神經(jīng)網(wǎng)絡(luò),1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN),1.2 BP神經(jīng)網(wǎng)絡(luò),BP算法基本原理 利用輸出后的誤差來(lái)估計(jì)輸出層的直接前導(dǎo)層的誤差,再用這個(gè)誤差估計(jì)更前一層的誤差,如此一層一層的反傳下去,就獲得了所有其他各層的誤差估計(jì)。,1.2.1 BP神經(jīng)網(wǎng)絡(luò)概述,22,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,一、 BP神經(jīng)網(wǎng)絡(luò),1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN),1.2 BP神經(jīng)網(wǎng)絡(luò),1.2.1 BP神經(jīng)網(wǎng)絡(luò)概述,1.2.2 BP神經(jīng)網(wǎng)絡(luò)特點(diǎn),神經(jīng)網(wǎng)絡(luò)能以任意精度逼近任何非線性連續(xù)函數(shù)。在建模過(guò)程中的許多問(wèn)題正是具有高度的非線性。,(1)非線性映射能力,23,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,一、 BP神經(jīng)網(wǎng)絡(luò),1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN),1.2 BP神經(jīng)網(wǎng)絡(luò),1.2.1 BP神經(jīng)網(wǎng)絡(luò)概述,1.2.2 BP神經(jīng)網(wǎng)絡(luò)特點(diǎn),在神經(jīng)網(wǎng)絡(luò)中信息是分布儲(chǔ)存和并行處理的,這使它具有很強(qiáng)的容錯(cuò)性和很快的處理速度。,(2)并行分布處理方式,(1)非線性映射能力,24,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,一、 BP神經(jīng)網(wǎng)絡(luò),1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN),1.2 BP神經(jīng)網(wǎng)絡(luò),1.2.1 BP神經(jīng)網(wǎng)絡(luò)概述,1.2.2 BP神經(jīng)網(wǎng)絡(luò)特點(diǎn),神經(jīng)網(wǎng)絡(luò)在訓(xùn)練時(shí),能從輸入、輸出的數(shù)據(jù)中提取出規(guī)律性的知識(shí),記憶于網(wǎng)絡(luò)的權(quán)值中,并具有泛化能力,即將這組權(quán)值應(yīng)用于一般情形的能力。神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)也可以在線進(jìn)行。,(2)并行分布處理方式,(3)自學(xué)習(xí)和自適應(yīng)能力,(1)非線性映射能力,25,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,一、 BP神經(jīng)網(wǎng)絡(luò),1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN),1.2 BP神經(jīng)網(wǎng)絡(luò),1.2.1 BP神經(jīng)網(wǎng)絡(luò)概述,1.2.2 BP神經(jīng)網(wǎng)絡(luò)特點(diǎn),神經(jīng)網(wǎng)絡(luò)可以同時(shí)處理定量信息和定性信息,因此它可以利用傳統(tǒng)的工程技術(shù)(數(shù)值運(yùn)算)和人工智能技術(shù)(符號(hào)處理),(2)并行分布處理方式,(3)自學(xué)習(xí)和自適應(yīng)能力,(4)數(shù)據(jù)融合的能力,(1)非線性映射能力,26,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,一、 BP神經(jīng)網(wǎng)絡(luò),1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN),1.2 BP神經(jīng)網(wǎng)絡(luò),1.2.1 BP神經(jīng)網(wǎng)絡(luò)概述,1.2.2 BP神經(jīng)網(wǎng)絡(luò)特點(diǎn),(2)并行分布處理方式,(3)自學(xué)習(xí)和自適應(yīng)能力,神經(jīng)網(wǎng)絡(luò)的輸入和輸出變量的數(shù)目是任意的,對(duì)單變量系統(tǒng)與多變量系統(tǒng)提供了一種通用的描述方式,不必考慮各子系統(tǒng)間的解耦問(wèn)題。,(4)數(shù)據(jù)融合的能力,(5)多變量系統(tǒng),(1)非線性映射能力,27,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,一、 BP神經(jīng)網(wǎng)絡(luò),1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡(jiǎn)稱ANN),1.2 BP神經(jīng)網(wǎng)絡(luò),1.2.1 BP神經(jīng)網(wǎng)絡(luò)概述,1.2.2 BP神經(jīng)網(wǎng)絡(luò)特點(diǎn),1.2.3 BP神經(jīng)網(wǎng)絡(luò)模型,28,1.2.3 BP神經(jīng)網(wǎng)絡(luò)模型,29,(1) 激活函數(shù)(傳輸函數(shù))必須處處可導(dǎo) 一般都使用S型函數(shù),,,Sigmoid函數(shù),對(duì)數(shù)Sigmoid函數(shù),1.2.3 BP神經(jīng)網(wǎng)絡(luò)模型,30,(2)使用S型激活函數(shù)時(shí)BP網(wǎng)絡(luò)輸入與輸出關(guān)系,,,1.2.3 BP神經(jīng)網(wǎng)絡(luò)模型,輸入,輸出,31,,,(2)使用S型激活函數(shù)時(shí)BP網(wǎng)絡(luò)輸入與輸出關(guān)系,,,1.2.3 BP神經(jīng)網(wǎng)絡(luò)模型,輸出的導(dǎo)數(shù),根據(jù)S型激活函數(shù)的圖形可知,對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,應(yīng)該將net的值盡量控制在收斂比較快的范圍內(nèi).,輸入,輸出,32,1.2.4 BP神經(jīng)網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法,33,1.2.4 BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法,(1) 學(xué)習(xí)的過(guò)程 在外界輸入樣本的刺激下,不斷改變網(wǎng)絡(luò)連接的權(quán)值,以使網(wǎng)絡(luò)的輸出不斷地接近期望的輸出。 (2) 學(xué)習(xí)的本質(zhì)對(duì)各連接權(quán)值的動(dòng)態(tài)調(diào)整 (3) 學(xué)習(xí)規(guī)則 權(quán)值調(diào)整規(guī)則,即在學(xué)習(xí)過(guò)程中網(wǎng)絡(luò)各神經(jīng)元的連接權(quán)值變化所依據(jù)的一定調(diào)整規(guī)則。,34,1.2.4 BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法,將誤差分?jǐn)偨o各層的所有單元-----各層單元的誤差信號(hào),修正各單元權(quán)值,,,(4) 算法思想A. 學(xué)習(xí)的類型 有導(dǎo)師學(xué)習(xí)B. 核心思想 將輸出誤差以某種形式通過(guò)隱層向輸入層逐層反傳,35,A. 正向傳播輸入樣本---輸入層---各隱層---輸出層B. 判斷是否轉(zhuǎn)入反向傳播階段若輸出層的實(shí)際輸出與期望的輸出(教師信號(hào))不符.C. 誤差反傳誤差以某種形式在各層表示----修正各層單元的權(quán)值.D. 網(wǎng)絡(luò)輸出的誤差減少到可接受的程度進(jìn)行到預(yù)先設(shè)定的學(xué)習(xí)次數(shù)為止,,,,1.2.4 BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法,(5) 算法核心,36,(6) 網(wǎng)絡(luò)結(jié)構(gòu)輸入層有n個(gè)神經(jīng)元,隱含層有p個(gè)神經(jīng)元, 輸出層有q個(gè)神經(jīng)元 (7) 變量定義,1.2.4 BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法,輸入向量,隱含層輸入向量,隱含層輸出向量,輸出層輸入向量,輸出層輸出向量,37,,,,,,,,1.2.4 BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法,38,(8) 算法步驟,1.2.4 BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法,第一步,網(wǎng)絡(luò)初始化 給各連接權(quán)值分別賦一個(gè)區(qū)間(-1,1)內(nèi)的隨機(jī)數(shù),設(shè)定誤差函數(shù)e,給定計(jì)算精度值?和最大學(xué)習(xí)次數(shù)M。,第二步,隨機(jī)選取第k個(gè)輸入樣本及對(duì)應(yīng)期望輸出,39,(8) 算法步驟,1.2.4 BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法,第三步,計(jì)算隱含層各神經(jīng)元的輸入和輸出,40,(8) 算法步驟,1.2.4 BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法,第四步,利用網(wǎng)絡(luò)期望輸出和實(shí)際輸出,計(jì)算誤差函數(shù)對(duì)輸出層的各神經(jīng)元的偏導(dǎo)數(shù) 。,41,第五步, 利用隱含層到輸出層的連接權(quán)值、 輸出層的 和隱含層的輸出計(jì)算誤差函數(shù)對(duì)隱含層各神經(jīng)元的偏導(dǎo)數(shù) 。,(8) 算法步驟,1.2.4 BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法,42,(8) 算法步驟,1.2.4 BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法,43,第六步,利用輸出層各神經(jīng)元的 和隱含層各神經(jīng)元的輸出來(lái)修正連接權(quán)值 。,(8) 算法步驟,1.2.4 BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法,44,第七步,利用隱含層各神經(jīng)元的 和輸入層各神經(jīng)元的輸入修正連接權(quán)。,(8) 算法步驟,1.2.4 BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法,45,第八步,計(jì)算全局誤差第九步,判斷網(wǎng)絡(luò)誤差是否滿足要求。當(dāng)誤差達(dá)到預(yù)設(shè)精度或?qū)W習(xí)次數(shù)大于設(shè)定的最大次數(shù),則結(jié)束算法。否則,選取下一個(gè)學(xué)習(xí)樣本及對(duì)應(yīng)的期望輸出,返回到第三步,進(jìn)入下一輪學(xué)習(xí)。,(8) 算法步驟,1.2.4 BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法,46,1.2.4 BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法,情況一直觀表達(dá)當(dāng)誤差對(duì)權(quán)值的偏導(dǎo)數(shù)大于零時(shí),權(quán)值調(diào)整量為負(fù),實(shí)際輸出大于期望輸出,權(quán)值向減少方向調(diào)整,使得實(shí)際輸出與期望輸出的差減少。,(9) BP算法直觀解釋,47,(9) BP算法直觀解釋,1.2.4 BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法,情況二直觀表達(dá)誤差對(duì)權(quán)值的偏導(dǎo)數(shù)小于零時(shí),權(quán)值調(diào)整量為正,實(shí)際輸出少于期望輸出,權(quán)值向增大方向調(diào)整,使得實(shí)際輸出與期望輸出的差減少,48,1.2.5 BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)算法的MATLAB實(shí)現(xiàn),49,1.2.4 BP網(wǎng)絡(luò)學(xué)習(xí)算法的MATLAB實(shí)現(xiàn),(1) MATLAB中BP神經(jīng)網(wǎng)絡(luò)的重要函數(shù)和基本功能,50,1.2.4 BP網(wǎng)絡(luò)學(xué)習(xí)算法的MATLAB實(shí)現(xiàn),newff( ) 功能 建立一個(gè)前向BP網(wǎng)絡(luò) 格式 net = newff(PR,[S1 S2.SN1],{TF1 TF2.TFN1},BTF,BLF,PF) 說(shuō)明 net為創(chuàng)建的新BP神經(jīng)網(wǎng)絡(luò);PR為網(wǎng)絡(luò)輸入向量的取值范圍的矩陣;[S1 S2…SNl]表示網(wǎng)絡(luò)隱含層和輸出層神經(jīng)元的個(gè)數(shù); {TFl TF2…TFN1} 表示網(wǎng)絡(luò)隱含層和輸出層的傳輸函數(shù), 默認(rèn)為‘tansig’;BTF表示網(wǎng)絡(luò)的訓(xùn)練函數(shù),默認(rèn)為‘trainlm’;BLF表示網(wǎng)絡(luò)的權(quán)值學(xué)習(xí)函數(shù), 默認(rèn)為‘learngdm’;PF表示性能數(shù),默認(rèn)為‘mse’。,(1) MATLAB中BP神經(jīng)網(wǎng)絡(luò)的重要函數(shù)和基本功能,51,tansig( ) 功能 正切sigmoid激活函數(shù) 格式 a = tansig(n) 說(shuō)明 雙曲正切Sigmoid函數(shù)把神經(jīng)元的輸入范圍從(-∞,+∞)映射到(-1,1)。它是可導(dǎo)函數(shù),適用于BP訓(xùn)練的神經(jīng)元。 logsig( ) 功能 對(duì)數(shù)Sigmoid激活函數(shù) 格式 a = logsig(n) 說(shuō)明 對(duì)數(shù)Sigmoid函數(shù)把神經(jīng)元的輸入范圍從(-∞,+∞)映射到(0,1)。它是可導(dǎo)函數(shù),適用于BP訓(xùn)練的神經(jīng)元。,1.2.4 BP網(wǎng)絡(luò)學(xué)習(xí)算法的MATLAB實(shí)現(xiàn),(1) MATLAB中BP神經(jīng)網(wǎng)絡(luò)的重要函數(shù)和基本功能,52,net.trainParam.epochs:最大訓(xùn)練步數(shù)。不過(guò)當(dāng)誤差準(zhǔn)則滿足時(shí),即使沒(méi)達(dá)到此步數(shù)也停止訓(xùn)練。缺省為100。 net.trainParam.goad:網(wǎng)絡(luò)誤差準(zhǔn)則,當(dāng)誤差小于此準(zhǔn)則時(shí)停止訓(xùn)練,缺省為0。 net.trainFcn:訓(xùn)練算法。缺省為 ’trainlm’,即Levenberg-Marquardt算法。還可使用‘traingdx’,即帶動(dòng)量的梯度下降算法;’traincgf’,即共軛梯度法。 其它可看matlab幫助:help-contents- Neural Network Toobox- Network Object Reference; help(net.trainFcn),1.2.4 BP網(wǎng)絡(luò)學(xué)習(xí)算法的MATLAB實(shí)現(xiàn),(1) MATLAB中BP神經(jīng)網(wǎng)絡(luò)的重要函數(shù)和基本功能,53,1.2.4 BP網(wǎng)絡(luò)學(xué)習(xí)算法的MATLAB實(shí)現(xiàn),(1) MATLAB中BP神經(jīng)網(wǎng)絡(luò)的重要函數(shù)和基本功能,54,例 下表為某藥品的銷售情況,,1.2.4 BP網(wǎng)絡(luò)學(xué)習(xí)算法的MATLAB實(shí)現(xiàn),(2) 實(shí)例,現(xiàn)構(gòu)建一個(gè)如下的三層BP神經(jīng)網(wǎng)絡(luò)對(duì)藥品的銷售進(jìn)行預(yù)測(cè):輸入層有三個(gè)結(jié)點(diǎn),隱含層結(jié)點(diǎn)數(shù)為5,隱含層的激活函數(shù)為tansig;輸出層結(jié)點(diǎn)數(shù)為1個(gè),輸出層的激活函數(shù)為logsig,并利用此網(wǎng)絡(luò)對(duì)藥品的銷售量進(jìn)行預(yù)測(cè),預(yù)測(cè)方法采用滾動(dòng)預(yù)測(cè)方式,即用前三個(gè)月的銷售量來(lái)預(yù)測(cè)第四個(gè)月的銷售量,如用1、2、3月的銷售量為輸入預(yù)測(cè)第4個(gè)月的銷售量,用2、3、4月的銷售量為輸入預(yù)測(cè)第5個(gè)月的銷售量.如此反復(fù)直至滿足預(yù)測(cè)精度要求為止。,55,%以每三個(gè)月的銷售量經(jīng)歸一化處理后作為輸入 P=[0.5152 0.8173 1.0000 ; 0.8173 1.0000 0.7308;1.0000 0.7308 0.1390; 0.7308 0.1390 0.1087;0.1390 0.1087 0.3520; 0.1087 0.3520 0.1065; ?]'; %以第四個(gè)月的銷售量歸一化處理后作為目標(biāo)向量 T=[0.7308 0.1390 0.1087 0.3520 0.1065 0.3761]; %創(chuàng)建一個(gè)BP神經(jīng)網(wǎng)絡(luò),每一個(gè)輸入向量的取值范圍為[0 ,1],隱含層有5個(gè)神經(jīng)%元,輸出層有一個(gè)神經(jīng)元,隱含層的激活函數(shù)為tansig,輸出層的激活函數(shù)為%logsig,訓(xùn)練函數(shù)為梯度下降函數(shù). net=newff([0 1;0 1;0 1],[5,1],{'tansig','logsig'},'traingd'); net.trainParam.epochs=15000; net.trainParam.goal=0.01; %設(shè)置學(xué)習(xí)速率為0.1 LP.lr=0.1; net=train(net,P,T);,1.2.4 BP網(wǎng)絡(luò)學(xué)習(xí)算法的MATLAB實(shí)現(xiàn),(2) 實(shí)例,56,1.2.4 BP網(wǎng)絡(luò)學(xué)習(xí)算法的MATLAB實(shí)現(xiàn),BP網(wǎng)絡(luò)應(yīng)用于藥品預(yù)測(cè)對(duì)比圖,(2) 實(shí)例,由對(duì)比圖可以看出預(yù)測(cè)效果與實(shí)際存在一定誤差,此誤差可以通過(guò)增加運(yùn)行步數(shù)和提高預(yù)設(shè)誤差精度使其進(jìn)一步縮小,57,徽章問(wèn)題是一個(gè)典型的分類問(wèn)題。我們可以用一個(gè)具體的例子描述:在某個(gè)國(guó)際會(huì)議上,參加會(huì)議的280名代表每人收到會(huì)議組織者發(fā)給一枚徽章,徽章的標(biāo)記為“+”或“-”。會(huì)議的組織者聲明:每位代表得到徽章“+”或“-”的標(biāo)記只與他們的姓名有關(guān),并希望代表們能夠找出徽章“+”與“-”的分類方法。由于客觀原因,有14名代表沒(méi)能參加此次會(huì)議。按照代表們找出的方法判斷,如果他們參加會(huì)議將得到的徽章類型。,徽章問(wèn)題的背景,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,二、徽章的分類,58,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,徽章問(wèn)題的背景,二、徽章的分類,59,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,徽章問(wèn)題的背景,二、徽章的分類,60,14名未參加會(huì)議的代表,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,徽章問(wèn)題的背景,二、徽章的分類,61,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,徽章問(wèn)題的背景,二、徽章的分類,14名未參加會(huì)議的代表,62,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,63,模型一,我們先做第一種嘗試,將人名的前五個(gè)字母進(jìn)行編號(hào),a ~ z 分別對(duì)應(yīng) 0 ~ 25,即每個(gè)人名的特征值是一個(gè)長(zhǎng)度為5的一維列向量,總共280個(gè)人名就是個(gè)5*280的矩陣p,作為網(wǎng)絡(luò)輸入。將題目中的徽章問(wèn)題量化,假設(shè)徽章為+則為1, 徽章為-則為0, 就形成一個(gè)1*280的矩陣t,作為目標(biāo)輸出。,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,將這些特征值作為訓(xùn)練樣本, 通過(guò)Matlab的工具箱對(duì)BP分類算法進(jìn)行訓(xùn)練,并確定權(quán)值,具體程序,注釋及結(jié)果如下:,64,模型一,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用, net=newff([0 25;0 25;0 25;0 25;0 25],[100,1],{'logsig','purelin'},'trainlm'); //創(chuàng)建一個(gè)神經(jīng)網(wǎng)絡(luò),每個(gè)字母所對(duì)應(yīng)的量化值的輸入范圍0~25,神經(jīng)網(wǎng)絡(luò)有2層,第一層有100個(gè)神經(jīng)元,第二層1個(gè),傳遞函數(shù)分別是S型和線性,訓(xùn)練方式trainlm。 net=init(net); //初始化神經(jīng)網(wǎng)絡(luò) net.trainParam.min_grad= 1e-020; //設(shè)定最小梯度值,提高訓(xùn)練效果 net=train(net,p,t); TRAINLM, Epoch 0/100, MSE 4.78695/0, Gradient 4628.35/1e-020 TRAINLM, Epoch 25/100, MSE 0.000969475/0, Gradient 4.93588/1e-020 TRAINLM, Epoch 50/100, MSE 6.16266e-005/0, Gradient 4.48141/1e-020 TRAINLM, Epoch 72/100, MSE 4.00219e-031/0, Gradient 1.53435e-013/1e-020 TRAINLM, Maximum MU reached, performance goal was not met.,65,模型一,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,訓(xùn)練次數(shù)與訓(xùn)練精度的關(guān)系圖,66,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,將用于訓(xùn)練的輸入數(shù)據(jù)p代入訓(xùn)練后的神經(jīng)網(wǎng)絡(luò),輸出結(jié)果為a矩陣,模型一,a=sim(net,p) a =Columns 1 through 9 1.0000 0.0000 1.0000 1.0000 0.0000 1.0000 -0.0000 1.0000 1.0000Columns 10 through 18 1.0000 1.0000 1.0000 1.0000 1.0000 -0.0000 1.0000 -0.0000 1.0000(后面數(shù)據(jù)略),將它和用于訓(xùn)練的目標(biāo)輸出矩陣t對(duì)比可以看出,吻合得很好,67,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,模型一,a=sim(net,n) a =Columns 1 through 8 1.3889 0.8504 1.0000 0.9551 -0.0006 -0.0515 1.0000 -0.7714Columns 9 through 14 1.0776 0.9977 2.0655 0.4673 0.4794 1.0000,將14個(gè)待分類的人名的前五個(gè)字母編碼輸入神經(jīng)網(wǎng)絡(luò),得到的結(jié)果如下:,可以看到,這個(gè)結(jié)果不是很好, 由很多介于0和1之間的數(shù)字,從這里的分析可以看出,選取字母的編碼作為特征值是合理的,但需要對(duì)特征值的選取方案進(jìn)行細(xì)化。,68,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,模型二,對(duì)所給出的280個(gè)人名取特征值,我們將人名的第一個(gè)字母的進(jìn)行編號(hào),a ~ z分別對(duì)應(yīng) 0 ~ 25,并將這些特征值帶入到BP網(wǎng)絡(luò)中去進(jìn)行訓(xùn)練,具體程序如下:,69, net=newff([0 25],[100,1],{'logsig','purelin'},'trainlm'); net=train(net,p,t); TRAINLM, Epoch 0/100, MSE 36.4541/0, Gradient 10111.3/1e-010 TRAINLM, Epoch 6/100, MSE 0.115783/0, Gradient 7.80296e-013/1e-010 TRAINLM, Minimum gradient reached, performance goal was not met. net.trainParam.min_grad= 1e-020; net=train(net,p,t); TRAINLM, Epoch 0/100, MSE 0.115783/0, Gradient 7.80296e-013/1e-020 TRAINLM, Epoch 3/100, MSE 0.115783/0, Gradient 1.18794e-012/1e-020 TRAINLM, Maximum MU reached, performance goal was not met.,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,模型二,從訓(xùn)練情況可以看出,在誤差值比較大的時(shí)候訓(xùn)練就停止了,將輸入p帶入訓(xùn)練后的矩陣,發(fā)現(xiàn)輸出結(jié)果與t很不一致,說(shuō)明這里找不到分類的規(guī)律。,70,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,模型三,對(duì)所給出的280個(gè)人名取特征值,我們將人名的第二個(gè)字母的進(jìn)行編號(hào),a ~ z分別對(duì)應(yīng) 0 ~ 25,并將這些特征值帶入到BP網(wǎng)絡(luò)中去進(jìn)行訓(xùn)練,具體程序如下:,71,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,模型三, net=newff([0 25],[100,1],{'logsig','purelin'},'trainlm'); net=init(net); net.trainParam.epochs = 100; net.trainParam.min_grad= 1e-020; net=train(net,p,t); TRAINLM, Epoch 0/100, MSE 1.33712/0, Gradient 889.071/1e-020 TRAINLM, Epoch 7/100, MSE 0.00352734/0, Gradient 2.11219e-012/1e-020 TRAINLM, Maximum MU reached, performance goal was not met. a=sim(net,p),訓(xùn)練后的BP神經(jīng)網(wǎng)絡(luò),輸入?yún)⒓佑?xùn)練的數(shù)據(jù)p,驗(yàn)證數(shù)據(jù),可以看出,和所給人名所對(duì)應(yīng)的徽章滿足的很好,所得到的數(shù)據(jù)如下:,72,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,模型三,a =Columns 1 through 8 0.9877 0.0000 0.9877 0.9877 -0.0000 0.9877 0.0000 1.0000Columns 9 through 16 0.9877 0.9877 0.9877 1.0000 1.0000 1.0000 -0.0000 1.0000,訓(xùn)練次數(shù)和訓(xùn)練精度的關(guān)系,收斂的速度相當(dāng)之快,73,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,模型三,對(duì)于待分類的人名,先將其做同樣的量化,如下: n=[4 4 8 8 4 14 0 19 0 0 0 8 4 14 ]; a=sim(net,n) 用已訓(xùn)練完的BP神經(jīng)網(wǎng)絡(luò)對(duì)其進(jìn)行分類,得到的結(jié)果如下: a =Columns 1 through 8 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 0.9877 0.0000Columns 9 through 14 0.9877 0.9877 0.9877 1.0000 1.0000 1.0000 可以看出,也是呈0-1的分布,和分類的要求比較接近。,74,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,分類方法的確定,通過(guò)模型一,模型二和模型三的比較,我們可以看出模型三的特征值的取法所得的BP算法對(duì)于所給的 280 個(gè)數(shù)據(jù)的正確率為100%, 并且對(duì)于14 個(gè)待分類的人名計(jì)算得到的特征值從數(shù)據(jù)本身看來(lái)非0即1,可見(jiàn)模型三所對(duì)應(yīng)的分類方法有可能是可行的,即我們可以通過(guò)對(duì)名字的第二個(gè)字母的某種標(biāo)準(zhǔn)進(jìn)行分類。我們通過(guò)對(duì)第二個(gè)字母的多種分類方法進(jìn)行嘗試,得到通過(guò)第二個(gè)字母的元輔音進(jìn)行分類,即第二個(gè)字母是元音為+,為輔音為-,并對(duì)280個(gè)所給人名進(jìn)行分類,結(jié)果與所給分類方式一致,可見(jiàn)這就是我們要找的分類方法。,75,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,分類方法的確定,用這種分類方法對(duì)14個(gè)待分類人名進(jìn)行分類得到的結(jié)果如下: 1 1 1 1 1 1 1 0 1 1 1 1 1 1 將這個(gè)分類結(jié)果與上面我們通過(guò)Matlab用BP算法得出的分類結(jié)果一致, 這再一次證明我們所找到的分類方法就是最好的分類方法。,76,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,三、光催化臭氧氧化處理自來(lái)水,77,三、光催化臭氧氧化處理自來(lái)水,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,78,三、光催化臭氧氧化處理自來(lái)水,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,檢驗(yàn)樣本,79,三、光催化臭氧氧化處理自來(lái)水,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,網(wǎng)絡(luò)結(jié)構(gòu) 網(wǎng)絡(luò)分為4層。各層節(jié)點(diǎn)數(shù)分別為:輸入層2個(gè);第一隱層12個(gè);第二隱層6個(gè);輸出層1個(gè)。,,80,三、光催化臭氧氧化處理自來(lái)水,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,數(shù)據(jù)預(yù)處理,輸入數(shù)據(jù)和輸出數(shù)據(jù)都規(guī)格化為0到1:最大訓(xùn)練步數(shù) net.trainParam.epochs=100000 收斂誤差界值 net.trainParam.goad=0.0001,模型的參數(shù),81,BP網(wǎng)絡(luò)訓(xùn)練誤差曲線和網(wǎng)絡(luò)模型,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,82,模型預(yù)測(cè)結(jié)果與實(shí)測(cè)值比較,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,83,三、光催化臭氧氧化處理自來(lái)水,利用BP網(wǎng)絡(luò)對(duì)O3濃度的優(yōu)化,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,84,三、光催化臭氧氧化處理自來(lái)水,利用BP網(wǎng)絡(luò)對(duì)O3濃度的優(yōu)化,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,85,三、光催化臭氧氧化處理自來(lái)水,利用BP網(wǎng)絡(luò)對(duì)O3濃度的優(yōu)化,BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測(cè)中的應(yīng)用,86,THANK YOU,- 1.請(qǐng)仔細(xì)閱讀文檔,確保文檔完整性,對(duì)于不預(yù)覽、不比對(duì)內(nèi)容而直接下載帶來(lái)的問(wèn)題本站不予受理。
- 2.下載的文檔,不會(huì)出現(xiàn)我們的網(wǎng)址水印。
- 3、該文檔所得收入(下載+內(nèi)容+預(yù)覽)歸上傳者、原創(chuàng)作者;如果您是本文檔原作者,請(qǐng)點(diǎn)此認(rèn)領(lǐng)!既往收益都?xì)w您。
下載文檔到電腦,查找使用更方便
30 積分
下載 |
- 配套講稿:
如PPT文件的首頁(yè)顯示word圖標(biāo),表示該P(yáng)PT已包含配套word講稿。雙擊word圖標(biāo)可打開(kāi)word文檔。
- 特殊限制:
部分文檔作品中含有的國(guó)旗、國(guó)徽等圖片,僅作為作品整體效果示例展示,禁止商用。設(shè)計(jì)者僅對(duì)作品中獨(dú)創(chuàng)性部分享有著作權(quán)。
- 關(guān) 鍵 詞:
- BP 神經(jīng)網(wǎng)絡(luò) 分類 預(yù)測(cè) 中的 應(yīng)用 ppt 課件
鏈接地址:http://kudomayuko.com/p-510190.html