HOME 首頁
SERVICE 服務產(chǎn)品
XINMEITI 新媒體代運營
CASE 服務案例
NEWS 熱點資訊
ABOUT 關于我們
CONTACT 聯(lián)系我們
創(chuàng)意嶺
讓品牌有溫度、有情感
專注品牌策劃15年

    ai神經(jīng)網(wǎng)絡算法(ai神經(jīng)網(wǎng)絡算法智能車)

    發(fā)布時間:2023-03-14 04:22:32     稿源: 創(chuàng)意嶺    閱讀: 131        問大家

    大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關于ai神經(jīng)網(wǎng)絡算法的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。

    ChatGPT國內(nèi)免費在線使用,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等

    只需要輸入關鍵詞,就能返回你想要的內(nèi)容,越精準,寫出的就越詳細,有微信小程序端、在線網(wǎng)頁版、PC客戶端

    官網(wǎng):https://ai.de1919.com

    本文目錄:

    ai神經(jīng)網(wǎng)絡算法(ai神經(jīng)網(wǎng)絡算法智能車)

    一、制作ai神經(jīng)網(wǎng)絡能買錢嗎

    能。神經(jīng)網(wǎng)絡是一種模仿動物神經(jīng)網(wǎng)絡行為特征,進行分布式并行信息處理的算法數(shù)學模型。神經(jīng)網(wǎng)絡被用于從物流、客戶支持到電子商務零售的各個領域,所以是能的。這種網(wǎng)絡依靠系統(tǒng)的復雜程度,通過調整內(nèi)部大量節(jié)點之間相互連接的關系,從而達到處理信息的目的。

    二、薩摩耶云:模型數(shù)據(jù)升維,AI決策“破圈”

    本刊訊 人類對人工智能的想象和 探索 ,從未止步。

    隨著數(shù)據(jù)、算法、算力能力提升,人工智能的應用場景深入到生活的方方面面。我們在搜索引擎上輸入關鍵詞后,網(wǎng)頁會自動匹配相關搜索內(nèi)容;短視頻App能根據(jù)我們的瀏覽習慣,推送相似的博主和場景;對著智能手機等移動終端喊話,便能調用相關功能,實現(xiàn)人機交互。

    以人工智能為代表的數(shù)字化產(chǎn)業(yè)快速向前推進,產(chǎn)業(yè)數(shù)字化轉型也成為不可逆的趨勢,各行各業(yè)都在尋求與自身商業(yè)模式相匹配的AI大腦。AI決策能力,正是AI大腦的內(nèi)核,它決定了AI解決方案的效率和可執(zhí)行性。

    AI決策由模型性能決定,而模型性能的好壞,離不開人工智能三駕馬車的拉動——數(shù)據(jù)、算法、算力。其中,數(shù)據(jù)在模型搭建過程中起基礎性作用,一個模型的優(yōu)劣,百分之八十取決于數(shù)據(jù)和樣本的維度,正如巧婦難為無米之炊。

    因此,數(shù)據(jù)提升對于模型優(yōu)化有著基礎性、全局性的作用,而數(shù)據(jù)與模型也是AI系統(tǒng)的重要組成部分。目前,AI模型開發(fā)及應用難點,主要在于數(shù)據(jù)應用和算法創(chuàng)新上,其中,后者更多體現(xiàn)的是建模方法的適當性。

    數(shù)據(jù)應用維度不足。從AI決策的模型發(fā)展現(xiàn)狀來看,當前很多模型僅僅是基于二維的數(shù)據(jù)組織形式來構建,沒有考慮到數(shù)據(jù)在完整周期中的時間節(jié)點變化。最終容易導致模型的辨識度、準確度、穩(wěn)定性失衡,AI決策效果大打折扣。

    例如,在視頻推薦和電商推薦場景中,如果模型僅是在用戶賬戶、行為屬性、社交記錄、交易結果等標準數(shù)據(jù)集上構建和優(yōu)化,沒有納入用戶在決策過程中的重要時間節(jié)點下的行為表現(xiàn),可能就會使模型效果過于擬合,不能夠精準地預判用戶喜好以及交易風險控制。

    一般來講,二維數(shù)據(jù)的維度主要表現(xiàn)為樣本維度和特征維度。樣本維度常常為用戶ID信息或者是訂單編號,特征維度則為用戶人口屬性、行為屬性、外部資信等信息。二維數(shù)據(jù)模式下,用戶在每個時間點只對應一條變量。

    回到實際業(yè)務場景,用戶在不同的時間節(jié)點會呈現(xiàn)不同的行為表現(xiàn),盡管這些表現(xiàn)強度存在差異化,但最終會反饋到行為特征上。如果把不同時間節(jié)點的用戶特征行為差異,盡可能納入建模過程,那么原有的一對一二維數(shù)據(jù)就延展至一對多的時間序列形式,也就是說把數(shù)據(jù)應用升維到樣本維度、時間維度、特征維度的三維數(shù)據(jù)組織形式。

    三維數(shù)據(jù)不僅能降低數(shù)據(jù)集特征不足的影響,而且能最大程度挖掘數(shù)據(jù)價值,增加特征數(shù)量,提升模型準確性。尤其是在業(yè)務數(shù)據(jù)獲取時,外部資信等數(shù)據(jù)往往會遇到接入不確定因素,而內(nèi)部數(shù)據(jù)數(shù)量和類型有限,并且利用程度趨于飽和。

    但對于模型開發(fā)而言,更高的精準度和辨識度,要求引入更多維度的數(shù)據(jù),挖掘數(shù)據(jù)規(guī)律,生成更多衍生變量。一旦無法從數(shù)量維度獲取更多變量,那么只能從質量角度下功夫,向深度挖掘變量內(nèi)部信息,其中一對多的時間序列角度的升維就是深挖數(shù)據(jù)信息的方法之一。

    其實,數(shù)據(jù)升維可用于AI模型優(yōu)化的場景非常多,例如在股票、基金的智能投顧業(yè)務中,AI模型的數(shù)據(jù)應用加入時間維度,與樣本維度和個股、個基一起構成三維樣本,便能把節(jié)點變量考慮在內(nèi),更加精準預判未來走勢。

    要想通過高維時序數(shù)據(jù)實現(xiàn)模型優(yōu)化,僅停留在數(shù)據(jù)層面遠遠不夠,還需對算法提升。決定模型好壞的剩下20%,正是建模方法的選擇,而與高維時序數(shù)據(jù)處理相匹配的算法通常為基于神經(jīng)網(wǎng)絡算法的深度學習。

    以薩摩耶云為例,薩摩耶云基于深度學習框架, 探索 數(shù)據(jù)升維用于模型性能的提升,研發(fā)出適用于多行業(yè)和場景的AI解決方案,滿足企業(yè)高效智能決策的需求。同時,這些端到端的云原生 科技 解決方案,以SaaS+aPaaS形式提供交付,通過雙方系統(tǒng)對接實現(xiàn)信息實時交互,能為合作伙伴輸出基于云的智能決策服務。

    在薩摩耶云首席科學家王明明看來,更高維度的時序數(shù)據(jù)建模意味著對現(xiàn)有的業(yè)務數(shù)據(jù)的重新理解、更多的數(shù)據(jù)信息、更復雜的數(shù)據(jù)組織方式、更高的機器性能要求、存儲要求以及模型上線要求。以高維時序數(shù)據(jù)為基礎,施以神經(jīng)網(wǎng)絡來訓練,加工多維變量特征,最終建立并優(yōu)化模型的AI決策能力。

    具體來看,作為機器學習的重要分支,神經(jīng)網(wǎng)絡是從數(shù)據(jù)中學習表示的一種新的方法,強調從連續(xù)地層中進行學習。在神經(jīng)網(wǎng)絡算法驅動下,模型可在同一時間共同學習所有表示層,可能包含數(shù)十個甚至上百個連續(xù)層,而其他機器學習方法往往僅僅學習一兩層的數(shù)據(jù)表示。

    神經(jīng)網(wǎng)絡在高維時序數(shù)據(jù)學習中,一方面通過漸進的、逐層式的方式形成越來越復雜的表示;另一方面,對漸進的表示共同進行學習,每一層的變化都需要同時考慮上下兩層的需要。這意味著,循環(huán)神經(jīng)網(wǎng)絡引入狀態(tài)變量時,能保存每個時刻的信息,并且與當前的輸入共同決定此刻的輸出。

    從薩摩耶云的AI決策實踐來看,薩摩耶云在模型搭建過程中,不僅考慮了以往的樣本維度和特征維度,還把各時間節(jié)點的用戶特征差異納入考量,通過三維數(shù)據(jù)加工完善數(shù)據(jù)特征。在此基礎上,薩摩耶云利用神經(jīng)網(wǎng)絡、深度學習,建立和訓練模型,實現(xiàn)比常規(guī)模型更為高效的模型效果。

    這對于提升模型的預判能力和精準度至關重要。就像閱讀一段新聞,如果僅僅從每一個字、每一個詞組來理解,很容易斷章取義,無法真正明白新聞所指。但把新聞構成中的字詞句連貫起來,并置于各個背景節(jié)點中,就可以理解新聞的準確意思。

    當薩摩耶云把基于神經(jīng)網(wǎng)絡等技術的AI模型,應用于實際業(yè)務場景之中,能進一步放大數(shù)據(jù)價值,幫助企業(yè)增強預測分析能力,提升精準營銷、銷售管理、供應鏈協(xié)作、結果預測、風險控制的效率,進而實現(xiàn)從經(jīng)驗決策到智能決策,達到降本增效的效果。

    實驗數(shù)據(jù)也表明,用神經(jīng)網(wǎng)絡的時間序列來做變量衍生,可以產(chǎn)生較為顯著的變量增益效果,衍生變量可以直接用于其他傳統(tǒng)方式的建模環(huán)節(jié),同時也可擴充內(nèi)部的衍生變量空間。當原始特征的區(qū)分能力得到提升,模型的區(qū)分效果也得到增強,最終強化AI模型性能。

    作為領先的獨立云服務 科技 解決方案供應商,薩摩耶云立足場景需求,深耕AI決策智能賽道,不斷升級大數(shù)據(jù)、算法、模型策略和產(chǎn)品設計,為數(shù)字經(jīng)濟和企業(yè)數(shù)字化轉型提供技術支撐。在此過程中,薩摩耶云不僅強化了自身核心自主競爭力,而且著眼數(shù)字中國全景,源源不斷釋放 科技 賦能的價值。(山河)

    三、AI面試題第二彈(神經(jīng)網(wǎng)絡基礎)

    提取主要特征,減小網(wǎng)絡參數(shù)量,減小計算量

    層層傳遞的梯度>1 梯度爆炸

    層層傳遞的梯度<1 梯度消失

    與權重有很大關系,激活函數(shù)的影響較小。

    每次訓練一層隱節(jié)點,訓練時將上一層隱節(jié)點的輸出作為輸入,而本層隱節(jié)點的輸出作為下一層隱節(jié)點的輸入,此過程就是逐層“預訓練”(pre-training);在預訓練完成后,再對整個網(wǎng)絡進行“微調”(fine-tunning)。Hinton在訓練深度信念網(wǎng)絡(Deep Belief Networks中,使用了這個方法,在各層預訓練完成后,再利用BP算法對整個網(wǎng)絡進行訓練。

    這個方案主要是針對梯度爆炸提出的,其思想是設置一個梯度剪切閾值,然后更新梯度的時候,如果梯度超過這個閾值,那么就將其強制限制在這個范圍之內(nèi)。這可以防止梯度爆炸。

    比較常見的是l1l1l1正則,和l2l2l2正則,在各個深度框架中都有相應的API可以使用正則化

    反向傳播中,經(jīng)過每一層的梯度會乘以該層的權重。

    舉個簡單例子:

    為了得到一致假設而使假設變得過度復雜稱為過擬合(overfitting), 過擬合表現(xiàn)在訓練好的模型在訓練集上效果很好,但是在測試集上效果差 。也就是說模型的泛化能力弱。

    過擬合主要由兩個原因造成,數(shù)據(jù)集太小或模型太復雜

    (1). 數(shù)據(jù)集擴增(Data Augmentation)

    (2). 改進模型

    ·Early Stopping。在模型效果比較好的時候便提前停止訓練

     ·正則化(regularization)

    L1:稀疏參數(shù)

    L2:更小參數(shù)

    ·Dropout

    ·多任務學習

    深度學習中兩種多任務學習模式:隱層參數(shù)的硬共享和軟共享

    硬共享機制是指在所有任務中共享隱藏層,同時保留幾個特定任務的輸出層來實現(xiàn)。硬共享機制降低了過擬合的風險。多個任務同時學習,模型就越能捕捉到多個任務的同一表示,從而導致模型在原始任務上的過擬合風險越小。

    軟共享機制是指每個任務有自己的模型,自己的參數(shù)。模型參數(shù)之間的距離是正則化的,以便保障參數(shù)相似性。

    見后文

    leaky relu

    輸入是x輸出是y,正常的流程是:我們首先把x通過網(wǎng)絡前向傳播,然后把誤差反向傳播以決定如何更新參數(shù)讓網(wǎng)絡進行學習。使用Dropout之后,過程變成如下:

    (1)首先隨機(臨時)刪掉網(wǎng)絡中一半的隱藏神經(jīng)元,輸入輸出神經(jīng)元保持不變(圖中虛線為部分臨時被刪除的神經(jīng)元)

    (2) 然后把輸入x通過修改后的網(wǎng)絡前向傳播,然后把得到的損失結果通過修改的網(wǎng)絡反向傳播。一小批訓練樣本執(zhí)行完這個過程后,在沒有被刪除的神經(jīng)元上按照隨機梯度下降法更新對應的參數(shù)(w,b)。

    (3)然后繼續(xù)重復這一過程:

    恢復被刪掉的神經(jīng)元(此時被刪除的神經(jīng)元保持原樣,而沒有被刪除的神經(jīng)元已經(jīng)有所更新)

    從隱藏層神經(jīng)元中隨機選擇一個一半大小的子集臨時刪除掉(備份被刪除神經(jīng)元的參數(shù))。

    對一小批訓練樣本,先前向傳播然后反向傳播損失并根據(jù)隨機梯度下降法更新參數(shù)(w,b) (沒有被刪除的那一部分參數(shù)得到更新,刪除的神經(jīng)元參數(shù)保持被刪除前的結果)。

    不斷重復這一過程。

    沒有對數(shù)據(jù)進行歸一化

    忘記檢查輸入和輸出

    沒有對數(shù)據(jù)進行預處理

    沒有對數(shù)據(jù)正則化

    使用過大的樣本

    使用不正確的學習率

    在輸出層使用錯誤的激活函數(shù)

    網(wǎng)絡中包含壞梯度

    初始化權重錯誤

    過深的網(wǎng)絡

    隱藏單元數(shù)量錯誤

    網(wǎng)絡設計不合理(任務-網(wǎng)絡不匹配)

    機器學習有個很重要的假設:就是假設訓練數(shù)據(jù)和測試數(shù)據(jù)是滿足獨立同分布的,這保障了通過訓練數(shù)據(jù)獲得的優(yōu)秀模型也能夠在測試集獲得好的效果。但是在機器學習訓練中輸入層的每個批量(X,Y)中X的分布是不一致的,并且神經(jīng)網(wǎng)絡的隱藏層的輸入分布在每次訓練迭代中發(fā)生變化。 BatchNorm就是在深度神經(jīng)網(wǎng)絡訓練過程中使得每一層神經(jīng)網(wǎng)絡的輸入保持相同分布的。

    BN的基本思想其實相當直觀:因為深層神經(jīng)網(wǎng)絡在做非線性變換前(激活前)的 輸入值 (就是那個x=WU+B,U是輸入) 隨著網(wǎng)絡深度加深或者在訓練過程中,其分布逐漸發(fā)生偏移或者變動,之所以訓練收斂慢,一般是整體分布逐漸往非線性函數(shù)的取值區(qū)間的上下限兩端靠近 (對于Sigmoid函數(shù)來說,意味著激活輸入值WU+B是大的負值或正值),所以這 導致反向傳播時低層神經(jīng)網(wǎng)絡的梯度消失 ,這是訓練深層神經(jīng)網(wǎng)絡收斂越來越慢的 本質原因 , 而BN就是通過一定的規(guī)范化手段,把每層神經(jīng)網(wǎng)絡任意神經(jīng)元這個輸入值的分布強行拉回到均值為0方差為1的標準正態(tài)分布 ,其實就是把越來越偏的分布強制拉回比較標準的分布,這樣使得激活輸入值落在非線性函數(shù)對輸入比較敏感的區(qū)域,這樣輸入的小變化就會導致?lián)p失函數(shù)較大的變化,意思是 這樣讓梯度變大,避免梯度消失問題產(chǎn)生,而且梯度變大意味著學習收斂速度快,能大大加快訓練速度。

    但是接下來的問題是:如果都通過BN,那么不就跟把非線性函數(shù)替換成線性函數(shù)效果相同了,意味著網(wǎng)絡的非線性表達能力下降了, 所以BN為了保證非線性的獲得,對變換后的滿足均值為0方差為1的x又進行了scale加上shift操作(y=scale*x+shift), 每個神經(jīng)元增加了兩個參數(shù)scale和shift參數(shù),這兩個參數(shù)是通過訓練學習到的,意思是通過scale和shift把這個值從標準正態(tài)分布左移或者右移一點并長胖一點或者變瘦一點,每個實例挪動的程度不一樣,這樣等價于激活前的值經(jīng)過標準正太分布歸一化后再從正中心周圍的線性區(qū)往非線性區(qū)動了動。核心思想應該是想找到一個線性和非線性的較好平衡點,既能享受非線性的較強表達能力的好處,又避免太靠非線性區(qū)兩頭使得網(wǎng)絡收斂速度太慢

    Batch Normalization 好處:(1)提高了訓練速度,收斂速度也大大加快(2)另外調參過程也簡單多了,對于初始化要求沒那么高,而且可以使用大的學習率等 (3)可以防止梯度消失(4)BN類似于Dropout的一種防止過擬合的正則化表達方式,可以有效防止過擬合,不用太依賴dropou和正則化

    以下情況最好不要使用BN:(1)數(shù)據(jù)不平衡(2)batch_size太小

    batch_size是機器學習中的一個重要參數(shù),決定了梯度下降的方向,如果數(shù)據(jù)集比較小,完全可以采用全數(shù)據(jù)集的形式計算梯度,由全數(shù)據(jù)集確定的梯度方向能夠更好地代表樣本總體,從而更準確地朝向極值所在的方向。對于大型數(shù)據(jù)集則需要使用mini-batch_size,因為隨著數(shù)據(jù)集的海量增長和內(nèi)存限制,一次性載入所有的數(shù)據(jù)進來變得越來越不可行。

    當batch_size=1,即在線學習,模型難以達到收斂 。

    合理增加batch_size好處 :

    (1)內(nèi)存利用率提高了,大矩陣乘法的并行化效率提高

    (2)跑完一次 epoch(全數(shù)據(jù)集)所需的迭代次數(shù)減少,對于相同數(shù)據(jù)量的處理速度進一步加快。

    (3)在一定范圍內(nèi),一般來說 Batch_Size 越大,其確定的下降方向越準,引起訓練震蕩越小

    盲目增大 Batch_Size 壞處 :

    (1)內(nèi)存利用率提高了,但是內(nèi)存容量可能撐不住了

    (2)跑完一次 epoch(全數(shù)據(jù)集)所需的迭代次數(shù)減少,要想達到相同精度所需要的 epoch 數(shù)量越來越多,花費的時間越長

    (3)大的batchsize收斂到sharp minimum,而小的batchsize收斂到flat minimum,后者具有更好的泛化能力。

    總之batchsize在變得很大(超過一個臨界點)時,會降低模型的泛化能力。在這個臨界點之下,模型的性能變換隨batch size通常沒有學習率敏感

        目標所在的真實框(ground truth) 與算法預測的目標所在的框(bounding box)的交集與并集的比值,我們會用IOU閾值來判定預測的bounding box是否有效。一般閾值會設定在0.5,當IOU的值大于等于0.5時,我們會把這個預測的bounding box 歸為正類,而小于0.5的歸為負類。

    牛頓法使用的是目標函數(shù)的二階導數(shù),在高維情況下這個Hessian(n*n維度)矩陣非常大,計算復雜度是n*n,計算和存儲都是問題

    (1) 通過控制卷積核個數(shù)實現(xiàn)升維或者降維,從而減少模型參數(shù)和計算量

    (2) 用于不同channel上特征的融合

    (3)1x1的卷積相當于全連接層的計算過程,并且加入了非線性激活函數(shù),從而增加了網(wǎng)絡的非線性,使得網(wǎng)絡可以表達更加復雜的特征。

    它能夠把輸入的連續(xù)實值變換為0和1之間的輸出,如果是非常大的負數(shù),那么輸出就是0;如果是非常大的正數(shù),輸出就是1

    缺點:

    (1)函數(shù)的飽和區(qū),導致梯度幾乎為0,造成梯度消失問題

    (2)Sigmoid 的 output 不是0均值,具體解釋見 https://blog.csdn.net/tyhj_sf/article/details/79932893

    (3)其解析式中含有冪運算,計算機求解時相對來講比較耗時。對于規(guī)模比較大的深度網(wǎng)絡,這會較大地增加訓練時間。

    它解決了Sigmoid函數(shù)的不是零均值輸出問題,然而,梯度消失(gradient vanishing)的問題和冪運算的問題仍然存在。

    (1)在正區(qū)間解決了梯度消失的問題

    (2)函數(shù)簡單,計算速度快,收斂速度遠快于sigmoid和tanh

    缺點:

    (1)Relu函數(shù)輸出不是0均值

    (2)神經(jīng)元壞死問題:指的是某些神經(jīng)元可能永遠不會被激活,導致相應的參數(shù)永遠不能被更新,有兩個主要原因導致這種狀況發(fā)生

            (1) 非常不幸的參數(shù)初始化,這種情況比較少見 

            (2) learning rate太高導致在訓練過程中參數(shù)更新太大,不幸使網(wǎng)絡進入這種狀態(tài)。解決方法是可以采用Xavier初始化方法,以及避免將learning rate設置太大或使用adagrad等自動調節(jié)learning rate的算法

    為了解決ReLU函數(shù)帶來的神經(jīng)元壞死問題 , 提出了將ReLU的前半段設為αx,α通常設為0.01,,另外一種直觀的想法是基于參數(shù)的方法PReLU函數(shù), α可由方向傳播算法學習出來。

    ELU也是為解決ReLU存在的問題而提出,顯然,ELU有ReLU的基本所有優(yōu)點,以及:(1)不會有神經(jīng)元壞死現(xiàn)象(2)函數(shù)輸出均值接近于0

    但是ELU的小問題就是計算量稍微有點大。

    1、使用不同的激活函數(shù),比如Relu,Leak-Relu,PRelu,elu等激活函數(shù)代替sigmoid函數(shù)

    2、使用Batch Normalizaion(批量歸一化)

    3、使用殘差網(wǎng)絡

    4、預訓練加微調

    1、梯度裁剪

    2、權重正則化

    兩個3x3的卷積核的感受野比5x5的卷積核的感受野大,在保持相同感受野的同時,用3x3的卷積核可以提升網(wǎng)絡的深度,可以很明顯的減少計算量。

    1、局部連接

    2、權值共享:減小參數(shù)量

    3、池化操作:增大感受野

    4、多層次結構:可以提取low-level以及high-level的信息

    1、數(shù)據(jù)集太小,數(shù)據(jù)樣本不足時,深度學習相對其它機器學習算法,沒有明顯優(yōu)勢。

    2、數(shù)據(jù)集沒有局部相關特性,目前深度學習表現(xiàn)比較好的領域主要是圖像/語音/自然語言處理等領域,這些領域的一個共性是局部相關性。圖像中像素組成物體,語音信號中音位組合成單詞,文本數(shù)據(jù)中單詞組合成句子,這些特征元素的組合一旦被打亂,表示的含義同時也被改變。對于沒有這樣的局部相關性的數(shù)據(jù)集,不適于使用深度學習算法進行處理。舉個例子:預測一個人的健康狀況,相關的參數(shù)會有年齡、職業(yè)、收入、家庭狀況等各種元素,將這些元素打亂,并不會影響相關的結果。

    作用 :對輸入的特征圖進行壓縮,

    一方面使特征圖變小,簡化網(wǎng)絡計算復雜度;

    一方面進行特征壓縮,提取主要特征。

    通常來講,max-pooling的效果更好,雖然max-pooling和average-pooling都對數(shù)據(jù)做了下采樣,但是 max-pooling感覺更像是做了特征選擇,選出了分類辨識度更好的特征,提供了非線性 。 pooling的主要作用一方面是去掉冗余信息,一方面要保留feature map的特征信息,在分類問題中,我們需要知道的是這張圖像有什么object,而不大關心這個object位置在哪,在這種情況下顯然max pooling比average pooling更合適。在 網(wǎng)絡比較深的地方,特征已經(jīng)稀疏了,從一塊區(qū)域里選出最大的,比起這片區(qū)域的平均值來,更能把稀疏的特征傳遞下去 。

    average-pooling更強調對整體特征信息進行一層下采樣,在減少參數(shù)維度的貢獻上更大一點,更多的體現(xiàn)在 信息的完整傳遞這個維度 上,在一個很大很有代表性的模型中,比如說DenseNet中的模塊之間的連接大多采用average-pooling,在減少維度的同時,更有利信息傳遞到下一個模塊進行特征提取。

    average-pooling在 全局平均池化操作 中應用也比較廣,在ResNet和Inception結構中最后一層都使用了平均池化。有的時候在模型接近 分類器的末端使用全局平均池化還可以代替Flatten操作 ,使輸入數(shù)據(jù)變成一位向量。

    CNN網(wǎng)絡中另外一個不可導的環(huán)節(jié)就是Pooling池化操作,因為Pooling操作使得feature map的尺寸變化,假如做2×2的池化(步長也為2),假設那么第l+1層的feature map有16個梯度,那么第l層就會有64個梯度,這使得梯度無法對位的進行傳播下去。其實解決這個問題的思想也很簡單,就是把1個像素的梯度傳遞給4個像素,但是需要保證傳遞的loss(或者梯度)總和不變。根據(jù)這條原則,mean pooling和max pooling的反向傳播也是不同的

    mean pooling的前向傳播就是把一個patch中的值求取平均來做pooling,那么反向傳播的過程也就是把 某個元素的梯度等分為n份分配給前一層,這樣就保證池化前后的梯度(殘差)之和保持不變 ,圖示如下 :

    (2) max pooling

    max pooling也要滿足梯度之和不變的原則 ,max pooling的前向傳播是把patch中最大的值傳遞給后一層,而其他像素的值直接被舍棄掉。那么 反向傳播也就是把梯度直接傳給前一層某一個像素,而其他像素不接受梯度,也就是為0。 所以max pooling操作和mean pooling操作不同點在于需要記錄下池化操作時到底哪個像素的值是最大,也就是max id,這個變量就是記錄最大值所在位置的,因為在反向傳播中要用到,那么假設前向傳播和反向傳播的過程就如下圖所示 :

    28、細粒度分類

    29、LSTM&RNN

    30、解釋LSTM結構(相對于RNN)的好處

    31、RNN的梯度消失原因和解決辦法

    32、Object Detection

    33、Unet的介紹

    34、FCN和Unet的區(qū)別

    35、RCNN系列的算法流程和區(qū)別

    36、Fast RCNN中 bbox 回歸的損失函數(shù)什么

    37、解釋 ROI Pooling 和 ROI Align

    38、Mask RCNN中 mask branch 如何接入 Faster RCNN中

    39、解釋 FPN

    40、解釋 ROI Align

    41、簡述 YOLO 和 SSD

    42、簡述 Hough 直線檢測、Sobel 邊緣檢測算法流程

    43、Mask RCNN中的anchors如何判定為正負樣本

    44、簡述 NMS 算法流程

    45、attention起源是用在哪里?pixel還是frame,是soft還是hard

    46、anchor的正負樣本比是多少

    47、算法和激活函數(shù)等

    48、BN的原理和作用

    49、BN層反向傳播,怎么求導

    50、BN 的作用和缺陷,以及針對batch_size小的情況的改進(GN)

    51、BN層,先加BN還是激活,有什么區(qū)別

    52、手推BP

    53、優(yōu)化算法舉例和他們的區(qū)別(SGD、SGDM、RMSprop、Adam)

    54、隨機梯度下降和梯度下降

    55、訓練不收斂的原因有哪些

    56、簡述 SVM 流程、核函數(shù)尋參及常見的核函數(shù)舉例

    57、batch_size 和 learning rate 的關系(怎么平衡和調整二者)

    58、解釋過擬合和欠擬合,以及解決方法

    59、激活函數(shù)有哪些,各自區(qū)別

    60、損失函數(shù)有哪些

    61、Sigmoid 和 ReLu 對比(各自優(yōu)缺點)

    62、為什么不用sigmoid而用relu?做出了哪些改進?

    63、梯度消失和梯度爆炸的原因和解決方法

    64、Precision 和 Recall 的定義

    65、精確率高、召回率低是為什么

    66、SVM,線性回歸和邏輯回歸的原理及區(qū)別

    67、PCA原理,PCA和SVD的區(qū)別和聯(lián)系

    68、正則化怎么選擇,有哪些方式

    69、L1、L2范數(shù),區(qū)別

    70、boost、Adaboost

    71、dropout和batch normalization

    72、講一下決策樹和隨機森林

    73、講一下GBDT的細節(jié),寫出GBDT的目標函數(shù)。 GBDT和Adaboost的區(qū)別與聯(lián)系

    74、偏差、方差

    75、距離度量公式哪些,區(qū)別

    76、多標簽識別怎么做

    77、data argumentation怎么處理的

    78、數(shù)據(jù)不均衡怎么處理、只有少量帶標簽怎么處理

    79、權重初始化方法都有哪些

    80、權值衰減這個參數(shù)怎么設置

    81、分類問題有哪些評價指標?每種的適用場景。

    82、無監(jiān)督學習了解哪些

    83、圖像處理Opencv

    84、邊緣檢測算子有哪些

    85、霍夫變換

    86、直方圖是什么

    87、canny算子是怎么做的

    88、圖像的特征提取有哪些算法,適用范圍、優(yōu)缺點

    參考:

    https://blog.csdn.net/bluesliuf/article/details/89389117

    https://zhuanlan.zhihu.com/p/107279000

    https://zhuanlan.zhihu.com/p/56475281

    四、人工智能神經(jīng)網(wǎng)絡論文

    隨著科學技術的發(fā)展,人工神經(jīng)網(wǎng)絡技術得到了空前的發(fā)展,并且在諸多領域得到了廣泛的應用,為人工智能化的發(fā)展提供了強大的動力。以下是我整理分享的人工智能神經(jīng)網(wǎng)絡論文的相關資料,歡迎閱讀!

    人工智能神經(jīng)網(wǎng)絡論文篇一

    人工神經(jīng)網(wǎng)絡的發(fā)展及應用

    摘要隨著科學技術的發(fā)展,人工神經(jīng)網(wǎng)絡技術得到了空前的發(fā)展,并且在諸多領域得到了廣泛的應用,為人工智能化的發(fā)展提供了強大的動力。人工神經(jīng)網(wǎng)絡的發(fā)展經(jīng)歷了不同的階段,是人工智能的重要組成部分,并且在發(fā)展過程中形成了自身獨特的特點。文章對人工神經(jīng)網(wǎng)絡的發(fā)展歷程進行回顧,并對其在各個領域的應用情況進行探討。

    關鍵詞人工神經(jīng)網(wǎng)絡;發(fā)展;應用

    隨著科學技術的發(fā)展,各個行業(yè)和領域都在進行人工智能化的研究工作,已經(jīng)成為專家學者研究的熱點。人工神經(jīng)網(wǎng)絡就是在人工智能基礎上發(fā)展而來的重要分支,對人工智能的發(fā)展具有重要的促進作用。人工神經(jīng)網(wǎng)絡從形成之初發(fā)展至今,經(jīng)歷了不同的發(fā)展階段,并且在經(jīng)濟、生物、醫(yī)學等領域得到了廣泛的應用,解決了許多技術上的難題。

    1人工神經(jīng)網(wǎng)絡概述

    關于人工神經(jīng)網(wǎng)絡,到目前為止還沒有一個得到廣泛認可的統(tǒng)一定義,綜合各專家學者的觀點可以將人工神經(jīng)網(wǎng)絡簡單的概括為是模仿人腦的結構和功能的計算機信息處理系統(tǒng)[1]。人工神經(jīng)網(wǎng)絡具有自身的發(fā)展特性,其具有很強的并行結構以及并行處理的能力,在實時和動態(tài)控制時能夠起到很好的作用;人工神經(jīng)網(wǎng)絡具有非線性映射的特性,對處理非線性控制的問題時能給予一定的幫助;人工神經(jīng)網(wǎng)絡可以通過訓練掌握數(shù)據(jù)歸納和處理的能力,因此在數(shù)學模型等難以處理時對問題進行解決;人工神經(jīng)網(wǎng)絡的適應性和集成性很強,能夠適應不同規(guī)模的信息處理和大規(guī)模集成數(shù)據(jù)的處理與控制;人工神經(jīng)網(wǎng)絡不但在軟件技術上比較成熟,而且近年來在硬件方面也得到了較大發(fā)展,提高了人工神經(jīng)網(wǎng)絡系統(tǒng)的信息處理能力。

    2人工神經(jīng)網(wǎng)絡的發(fā)展歷程

    2.1 萌芽時期

    在20世紀40年代,生物學家McCulloch與數(shù)學家Pitts共同發(fā)表文章,第一次提出了關于神經(jīng)元的模型M-P模型,這一理論的提出為神經(jīng)網(wǎng)絡模型的研究和開發(fā)奠定了基礎,在此基礎上人工神經(jīng)網(wǎng)絡研究逐漸展開。1951年,心理學家Hebb提出了關于連接權數(shù)值強化的法則,為神經(jīng)網(wǎng)絡的學習功能開發(fā)進行了鋪墊。之后生物學家Eccles通過實驗證實了突觸的真實分流,為神經(jīng)網(wǎng)絡研究突觸的模擬功能提供了真實的模型基礎以及生物學的依據(jù)[2]。隨后,出現(xiàn)了能夠模擬行為以及條件反射的處理機和自適應線性網(wǎng)絡模型,提高了人工神經(jīng)網(wǎng)絡的速度和精準度。這一系列研究成果的出現(xiàn)為人工神經(jīng)網(wǎng)絡的形成和發(fā)展提供了可能。

    2.2 低谷時期

    在人工神經(jīng)網(wǎng)絡形成的初期,人們只是熱衷于對它的研究,卻對其自身的局限進行了忽視。Minskyh和Papert通過多年對神經(jīng)網(wǎng)絡的研究,在1969年對之前所取得的研究成果提出了質疑,認為當前研究出的神經(jīng)網(wǎng)絡只合適處理比較簡單的線性問題,對于非線性問題以及多層網(wǎng)絡問題卻無法解決。由于他們的質疑,使神經(jīng)網(wǎng)絡的發(fā)展進入了低谷時期,但是在這一時期,專家和學者也并沒有停止對神經(jīng)網(wǎng)絡的研究,針對他們的質疑也得出一些相應的研究成果。

    2.3 復興時期

    美國的物理學家Hopfield在1982年提出了新的神經(jīng)網(wǎng)絡模型,并通過實驗證明在滿足一定的條件時,神經(jīng)網(wǎng)絡是能夠達到穩(wěn)定的狀態(tài)的。通過他的研究和帶動,眾多專家學者又重新開始了對人工神經(jīng)網(wǎng)絡方面的研究,推動了神經(jīng)網(wǎng)絡的再一次發(fā)展[3]。經(jīng)過專家學者的不斷努力,提出了各種不同的人工神經(jīng)網(wǎng)絡的模型,神經(jīng)網(wǎng)絡理論研究不斷深化,新的理論和方法層出不窮,使神經(jīng)網(wǎng)絡的研究和應用進入了一個嶄新的時期。

    2.4 穩(wěn)步發(fā)展時期

    隨著人工神經(jīng)網(wǎng)絡研究在世界范圍內(nèi)的再次興起,我國也迎來了相關理論研究的熱潮,在人工神經(jīng)網(wǎng)絡和計算機技術方面取得了突破性的進展。到20世紀90年代時,國內(nèi)對于神經(jīng)網(wǎng)絡領域的研究得到了進一步的完善和發(fā)展,而且能夠利用神經(jīng)網(wǎng)絡對非線性的系統(tǒng)控制問題進行解決,研究成果顯著。隨著各類人工神經(jīng)網(wǎng)絡的相關刊物的創(chuàng)建和相關學術會議的召開,我國人工神經(jīng)網(wǎng)絡的研究和應用條件逐步改善,得到了國際的關注。

    隨著人工神經(jīng)網(wǎng)絡的穩(wěn)步發(fā)展,逐漸建立了光學神經(jīng)網(wǎng)絡系統(tǒng),利用光學的強大功能,提高了人工神經(jīng)網(wǎng)絡的學習能力和自適應能力。對非線性動態(tài)系統(tǒng)的控制問題,采取有效措施,提高超平面的光滑性,對其精度進行改進。之后有專家提出了關于人工神經(jīng)網(wǎng)絡的抽取算法,雖然保證了精度,但也加大了消耗,在一定程度上降低了神經(jīng)網(wǎng)絡的效率,因此在此基礎上又提出了改進算法FERNN?;煦缟窠?jīng)網(wǎng)絡的發(fā)展也得到了相應的進步,提高了神經(jīng)網(wǎng)絡的泛化能力。

    3人工神經(jīng)網(wǎng)絡的應用

    3.1 在信息領域中的應用

    人工神經(jīng)網(wǎng)絡在信息領域中的應用主要體現(xiàn)在信息處理和模式識別兩個方面。由于科技的發(fā)展,當代信息處理工作越來越復雜,利用人工神經(jīng)網(wǎng)絡系統(tǒng)可以對人的思維進行模仿甚至是替代,面對問題自動診斷和解決,能夠輕松解決許多傳統(tǒng)方法無法解決的問題,在軍事信息處理中的應用極為廣泛[4]。模式識別是對事物表象的各種信息進行整理和分析,對事物進行辨別和解釋的一個過程,這樣對信息進行處理的過程與人類大腦的思維方式很相像。模式識別的方法可以分為兩種,一種是統(tǒng)計模式識別,還有一種是結構模式識別,在語音識別和指紋識別等方面得到了廣泛的應用。

    3.2 在醫(yī)學領域的應用

    人工神經(jīng)網(wǎng)絡對于非線性問題處理十分有效,而人體的構成和疾病形成的原因十分復雜,具有不可預測性,在生物信號的表現(xiàn)形式和變化規(guī)律上也很難掌握,信息檢測和分析等諸多方面都存在著復雜的非線性聯(lián)系,所以應用人工神經(jīng)網(wǎng)絡決解這些非線性問題具有特殊意義[5]。目前,在醫(yī)學領域中的應用涉及到理論和臨床的各個方面,最主要的是生物信號的檢測和自動分析以及專家系統(tǒng)等方面的應用。

    3.3 在經(jīng)濟領域中的應用

    經(jīng)濟領域中的商品價格、供需關系、風險系數(shù)等方面的信息構成也十分復雜且變幻莫測,人工神經(jīng)網(wǎng)絡可以對不完整的信息以及模糊不確定的信息進行簡單明了的處理,與傳統(tǒng)的經(jīng)濟統(tǒng)計方法相比具有其無法比擬的優(yōu)勢,數(shù)據(jù)分析的穩(wěn)定性和可靠性更強。

    3.4 在其他領域的應用

    人工神經(jīng)網(wǎng)絡在控制領域、交通領域、心理學領域等方面都有很廣泛的應用,能夠對高難度的非線性問題進行處理,對交通運輸方面進行集成式的管理,以其高適應性和優(yōu)秀的模擬性能解決了許多傳統(tǒng)方法無法解決的問題,促進了各個領域的快速發(fā)展。

    4總結

    隨著科技的發(fā)展,人工智能系統(tǒng)將進入更加高級的發(fā)展階段,人工神經(jīng)網(wǎng)絡也將得到更快的發(fā)展和更加廣泛的應用。人工神經(jīng)網(wǎng)絡也許無法完全對人腦進行取代,但是其特有的非線性信息處理能力解決了許多人工無法解決的問題,在智能系統(tǒng)的各個領域中得到成功應用,今后的發(fā)展趨勢將向著更加智能和集成的方向發(fā)展。

    參考文獻

    [1]徐用懋,馮恩波.人工神經(jīng)網(wǎng)絡的發(fā)展及其在控制中的應用[J].化工進展,1993(5):8-12,20.

    [2]湯素麗,羅宇鋒.人工神經(jīng)網(wǎng)絡技術的發(fā)展與應用[J].電腦開發(fā)與應用,2009(10):59-61.

    [3]李會玲,柴秋燕.人工神經(jīng)網(wǎng)絡與神經(jīng)網(wǎng)絡控制的發(fā)展及展望[J].邢臺職業(yè)技術學院學報,2009(5):44-46.

    [4]過效杰,祝彥知.人工神經(jīng)網(wǎng)絡的發(fā)展及其在巖土工程領域研究現(xiàn)狀[J].河南水利,2004(1):22-23.

    [5]崔永華.基于人工神經(jīng)網(wǎng)絡的河流匯流預報模型及應用研究[D].鄭州大學,2006.

    下一頁分享更優(yōu)秀的<<<人工智能神經(jīng)網(wǎng)絡論文

    以上就是關于ai神經(jīng)網(wǎng)絡算法相關問題的回答。希望能幫到你,如有更多相關問題,您也可以聯(lián)系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。


    推薦閱讀:

    ai人工智能洗稿軟件(全自動二次剪輯軟件)

    ai人工智能機器人app(AI人工智能機器人圖片)

    關于介紹ai技術的視頻(關于介紹ai技術的視頻素材)

    幼兒園景觀設計平面圖(幼兒園景觀設計平面圖怎么畫)

    牧野公園景觀設計(牧野公園景觀設計理念)