檢測到您已登錄華為云國際站賬號,為了您更好的體驗,建議您訪問國際站服務(wù)網(wǎng)站 http://m.cqfng.cn/intl/zh-cn
不再顯示此消息
深度學(xué)習(xí)區(qū)別于傳統(tǒng)的淺層學(xué)習(xí),深度學(xué)習(xí)的不同在于: (1)強調(diào)了模型結(jié)構(gòu)的深度,通常有5層、6層,甚至10多層的隱層節(jié)點;(2)明確了特征學(xué)習(xí)的重要性。也就是說,通過逐層特征變換,將樣本在原空間的特征表示變換到一個新特征空間,從而使分類或預(yù)測更容易。
其核心思想是通過學(xué)習(xí)的方法,將龐大復(fù)雜的模型遷移到一個精簡的小模型上,盡量保持原有模型的特征和精度。
深度學(xué)習(xí)常用術(shù)語· 樣本(sample)或輸入(input)或數(shù)據(jù)點(data point):訓(xùn)練集中特定的實例。我們在上一章中看到的圖像分類問題,每個圖像都可以被稱為樣本、輸入或數(shù)據(jù)點。· 預(yù)測(prediction)或輸出(output):由算法生成的值稱為輸出。
線性模型相對比較簡單,但是他是學(xué)習(xí)比較復(fù)雜的深度學(xué)習(xí)模型的一個基礎(chǔ),而且線性模型本身也具有廣泛的用途。 這里講了線性模型中的線性回歸模型和logistic模型。線性回歸模型用于處理`回歸問題`。logistic模型用于處理`分類問題`。 線性回歸模型可以寫作如下的形式: !
1.3.2 圖像識別圖像識別是深度學(xué)習(xí)最成功的應(yīng)用之一。深度學(xué)習(xí)在計算機視覺領(lǐng)域的突破發(fā)生在2012年,Hinton教授的研究小組利用卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)(AlexNet)大幅降低了ImageNet ILSVRC挑戰(zhàn)中圖像分類任務(wù)的錯誤率并取得了冠軍。
型的深度學(xué)習(xí)模型有卷積神經(jīng)網(wǎng)絡(luò)( convolutional neural network)、DBN和堆棧自編碼網(wǎng)絡(luò)(stacked auto-encoder network)模型等,下面對這些模型進行描述。
擁有多個隱藏層的神經(jīng)網(wǎng)絡(luò)就可以實現(xiàn)深度學(xué)習(xí)。而數(shù)量越多,就需要更多的技巧來訓(xùn)練并發(fā)揮這些隱藏層的作用。
如果沒有激活函數(shù),神經(jīng)網(wǎng)絡(luò)會變成什么呢? 答案是如果沒有激活函數(shù),那么無論神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)有多復(fù)雜,它都將退化為一個線性模型?,F(xiàn)實的回歸問題或者分類問題的決策邊界通常都是復(fù)雜且非線性的。這要求模型具有產(chǎn)生復(fù)雜的非線性決策邊界的能力,在這一點上激活函數(shù)在神經(jīng)網(wǎng)絡(luò)中扮演了非常重要的角色,
深度學(xué)習(xí)是擁有多個隱藏層的神經(jīng)網(wǎng)絡(luò),在神經(jīng)網(wǎng)絡(luò)中,我們通過正向傳播算法得到預(yù)測值,并通過反向傳播算法得到參數(shù)梯度,然后利用梯度下降法更新參數(shù),使得模型誤差變小,最終得到一個訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型。在神經(jīng)網(wǎng)絡(luò)中,只要知道神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),就可以自動的計算參數(shù)梯度,進而訓(xùn)練神經(jīng)網(wǎng)絡(luò)。
接下來是概率論的一些基本的概念。 `隨機變量`就是一個取值不確定的變量。 這個在工作生活中應(yīng)用的實在是太廣泛了。比如老板問你這件事情明天能不能搞完?一般情況下,你的回答可能就是一個隨機變量。 隨機變量可以分為兩種類型:連續(xù)型和離散型。 `隨機變量的分布`用來描述隨機變量出現(xiàn)某種結(jié)果的可能性
之前學(xué)了一個深度學(xué)習(xí)應(yīng)用開發(fā),學(xué)了一段時間,后來就沒學(xué)了。 確實是"靡不有初,鮮克有終",現(xiàn)在不愿意再繼續(xù)之前的學(xué)。我又找了一本書從頭開始,這本書的名字是深度學(xué)習(xí)入門與TensorFlow實踐>。 `數(shù)(scalar)`是一個數(shù)字。 簡直是廢話。 不過這才剛開始嘛。
下面是一個簡單的例子來介紹線性回歸模型。 數(shù)據(jù)是在多個市場的3個不同渠道的廣告投入以及商品銷量。 這個模型的意義也就很明白了,那就是找出在這3個不同渠道廣告投入與最終的商品銷量之間的關(guān)系。 先把數(shù)據(jù)可視化: ```python %config InlineBackend.figure_format
在實際中訓(xùn)練誤差常常偏小, 不是模型真實誤差的好的估計值。這是因為如果考試題目是我們做過的作業(yè)題,那么我們更容易得高分。所以我們要有一些測試數(shù)據(jù)是不要參加模型訓(xùn)練的,需要擱置在一旁,直到模型完全建立好,再用來計算模型的測試誤差。模型的預(yù)測效果較差,經(jīng)常是由于兩類問題導(dǎo)致的。那就是
第一步類似神經(jīng)網(wǎng)絡(luò)的隨機初始化初值過程,由于第一步不是隨機初始化,而是通過學(xué)習(xí)輸入數(shù)據(jù)的結(jié)構(gòu)得到的,因而這個初值更接近全局最優(yōu),從而能夠取得更好的效果。所以深度學(xué)習(xí)的良好效果在很大程度上歸功于第一步的特征學(xué)習(xí)的過程。
深度學(xué)習(xí)框架有哪些?各有什么優(yōu)勢?
在實際情況中,一般就不僅僅是學(xué)習(xí)的那么簡單的情況。 數(shù)據(jù)會包含多個自變量,多個權(quán)重,很多個觀測點。 用 $L(w)=L(w_1,w_2,...,w_p)$ 表示包含p個權(quán)重或參數(shù)的損失函數(shù),它的梯度可以表示為: !
參數(shù)解釋: 流程圖拓?fù)?span id="vp7hblx" class='cur'>圖的父實例ID 取值范圍: 不涉及 status String 參數(shù)解釋: 流程圖拓?fù)?span id="5tjlfx3" class='cur'>圖的節(jié)點的狀態(tài) 取值范圍: RUNNING 運行中 FAILED 運行失敗 FINISHED 運行結(jié)束 succeed Boolean 參數(shù)解釋: 流程圖拓?fù)?span id="5zpzjtl" class='cur'>圖的節(jié)點是否成功
3.1 基于深度學(xué)習(xí)的圖像配準(zhǔn)模型的轉(zhuǎn)換步驟1 模型獲取 將基于深度學(xué)習(xí)的圖像配準(zhǔn)模型下載到本地。
從早期的基于模板的方法到嚴(yán)格的統(tǒng)計模型,再到如今的深度模型,語音識別技術(shù)已經(jīng)經(jīng)歷了幾代的更迭?!?span id="v7lnvvn" class='cur'>圖像識別圖像識別是深度學(xué)習(xí)最成功的應(yīng)用之一。
在這些微型硬件上部署深度學(xué)習(xí)模型將使我們能夠?qū)崿F(xiàn)人工智能的民主化。然而,由于內(nèi)存預(yù)算極其緊張,微型深度學(xué)習(xí)與移動深度學(xué)習(xí)有著根本性的不同:一個常見的MCU通常具有小于512KB的SRAM,這對于部署大多數(shù)現(xiàn)成的深度學(xué)習(xí)網(wǎng)絡(luò)來說太小了。