檢測(cè)到您已登錄華為云國(guó)際站賬號(hào),為了您更好的體驗(yàn),建議您訪問(wèn)國(guó)際站服務(wù)網(wǎng)站 http://m.cqfng.cn/intl/zh-cn
不再顯示此消息
數(shù)的性能。Glorot et al. (2011a) 說(shuō)明,在深度整流網(wǎng)絡(luò)中的學(xué)習(xí)比在激活函數(shù)具有曲率或兩側(cè)飽和的深度網(wǎng)絡(luò)中的學(xué)習(xí)更容易。整流線性單元還具有歷史意義,因?yàn)樗鼈儽砻魃窠?jīng)科學(xué)繼續(xù)對(duì)深度學(xué)習(xí)算法的發(fā)展產(chǎn)生影響。Glorot et al. (2011a) 從生物學(xué)考慮整流
數(shù)的性能。Glorot et al. (2011a) 說(shuō)明,在深度整流網(wǎng)絡(luò)中的學(xué)習(xí)比在激活函數(shù)具有曲率或兩側(cè)飽和的深度網(wǎng)絡(luò)中的學(xué)習(xí)更容易。整流線性單元還具有歷史意義,因?yàn)樗鼈儽砻魃窠?jīng)科學(xué)繼續(xù)對(duì)深度學(xué)習(xí)算法的發(fā)展產(chǎn)生影響。Glorot et al. (2011a) 從生物學(xué)考慮整流
是由加州大學(xué)伯克利分校的 賈揚(yáng)清 團(tuán)隊(duì)開(kāi)發(fā)的開(kāi)源深度學(xué)習(xí)框架,于 2014 年發(fā)布。其設(shè)計(jì)初衷是為計(jì)算機(jī)視覺(jué)任務(wù)(尤其是卷積神經(jīng)網(wǎng)絡(luò))提供高效的實(shí)現(xiàn),以速度快和模塊化設(shè)計(jì)著稱。1. 核心特性高效性能:基于 C++ 實(shí)現(xiàn),對(duì) CPU 和 GPU(CUDA)均有優(yōu)化,適合實(shí)時(shí)推理和高吞吐量場(chǎng)景。預(yù)訓(xùn)練模型庫(kù)(Model
無(wú)監(jiān)督學(xué)習(xí)算法(unsupervised learning algorithm) 訓(xùn)練含有很多特征的數(shù)據(jù)集,然后學(xué)習(xí)出這個(gè)數(shù)據(jù)集上有用的結(jié)構(gòu)性質(zhì)。在深度學(xué)習(xí)中,我們通常要學(xué)習(xí)生成數(shù)據(jù)集的整個(gè)概率分布,顯式地,比如密度估計(jì),或是隱式地,比如合成或去噪。還有一些其他類型的無(wú)監(jiān)督學(xué)習(xí)
深度學(xué)習(xí)1. TensorFlow星標(biāo):149000,提交數(shù):97741,貢獻(xiàn)者:754TensorFlow是針對(duì)機(jī)器學(xué)習(xí)的端對(duì)端開(kāi)源平臺(tái)。它具備綜合靈活的工具、庫(kù)和社區(qū)資源,可以幫助研究者推動(dòng)先進(jìn)的機(jī)器學(xué)習(xí)技術(shù)的發(fā)展以及開(kāi)發(fā)者更輕松地開(kāi)發(fā)和發(fā)布由機(jī)器學(xué)習(xí)支持的應(yīng)用。2. Ker
組件學(xué)習(xí)組件學(xué)習(xí)不僅使用一個(gè)模型的知識(shí),還使用多個(gè)模型的知識(shí)。人們相信,通過(guò)獨(dú)特的信息組合或輸入(包括靜態(tài)和動(dòng)態(tài)),深度學(xué)習(xí)可以比單一模式更深入地理解和表現(xiàn)。遷移學(xué)習(xí)是組件學(xué)習(xí)的一個(gè)非常明顯的例子。基于這一思想,對(duì)類似問(wèn)題預(yù)先訓(xùn)練的模型權(quán)重可用于對(duì)特定問(wèn)題進(jìn)行微調(diào)。為了區(qū)分不同類
最有效的現(xiàn)代優(yōu)化算法是基于梯度下降的,但是很多有用的損失函數(shù),如 0 − 1 損失,沒(méi)有有效的導(dǎo)數(shù)(導(dǎo)數(shù)要么為零,要么處處未定義)。這兩個(gè)問(wèn)題說(shuō)明,在深度學(xué)習(xí)中我們很少使用經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化。反之,我們會(huì)使用一個(gè)稍有不同的方法,我們真正優(yōu)化的目標(biāo)會(huì)更加不同于我們希望優(yōu)化的目標(biāo)。
它由多個(gè)層次的神經(jīng)元組成,每一層神經(jīng)元都負(fù)責(zé)處理不同的特征。深度學(xué)習(xí)通過(guò)多層次的神經(jīng)網(wǎng)絡(luò)來(lái)提取數(shù)據(jù)的特征,并利用這些特征進(jìn)行分類、預(yù)測(cè)和其他任務(wù)。 下圖展示了人工智能、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)之間的關(guān)系: 深度學(xué)習(xí)可被定義為以下四個(gè)基本網(wǎng)絡(luò)框架中具有大量參數(shù)和層數(shù)的神經(jīng)網(wǎng)絡(luò): 無(wú)監(jiān)督預(yù)訓(xùn)練網(wǎng)絡(luò)
權(quán)重比例推斷規(guī)則在其他設(shè)定下也是精確的,包括條件正態(tài)輸出的回歸網(wǎng)絡(luò)以及那些隱藏層不包含非線性的深度網(wǎng)絡(luò)。然而,權(quán)重比例推斷規(guī)則對(duì)具有非線性的深度模型僅僅是一個(gè)近似。雖然這個(gè)近似尚未有理論上的分析,但在實(shí)踐中往往效果很好。Goodfellow et al. (2013b) 實(shí)驗(yàn)發(fā)現(xiàn)
深度學(xué)習(xí)1. TensorFlow星標(biāo):149000,提交數(shù):97741,貢獻(xiàn)者:754TensorFlow是針對(duì)機(jī)器學(xué)習(xí)的端對(duì)端開(kāi)源平臺(tái)。它具備綜合靈活的工具、庫(kù)和社區(qū)資源,可以幫助研究者推動(dòng)先進(jìn)的機(jī)器學(xué)習(xí)技術(shù)的發(fā)展以及開(kāi)發(fā)者更輕松地開(kāi)發(fā)和發(fā)布由機(jī)器學(xué)習(xí)支持的應(yīng)用。2. Ker
在深度學(xué)習(xí)時(shí)代,谷歌、Facebook、百度等科技巨頭開(kāi)源了多款框架來(lái)幫助開(kāi)發(fā)者更輕松地學(xué)習(xí)、構(gòu)建和訓(xùn)練不同類型的神經(jīng)網(wǎng)絡(luò)。而這些大公司也花費(fèi)了很大的精力來(lái)維護(hù) TensorFlow、PyTorch 這樣龐大的深度學(xué)習(xí)框架。除了這類主流框架之外,開(kāi)發(fā)者們也會(huì)開(kāi)源一些小而精的框架或者庫(kù)。比如今年
卷積神經(jīng)網(wǎng)絡(luò)的層結(jié)構(gòu)和全連接神經(jīng)網(wǎng)絡(luò)的層結(jié)構(gòu)不同: 全連接神經(jīng)網(wǎng)絡(luò)每層的神經(jīng)元是按照一維排列的,也就是排成一條線的樣子而卷積神經(jīng)網(wǎng)絡(luò)每層的神經(jīng)元是按照三維排列的,也就是排成一個(gè)長(zhǎng)方體的樣子,有寬度、高度和深度 卷積計(jì)算 輸入層的寬度和高度對(duì)應(yīng)于輸入圖像的寬度和高度,而它的深度為1
深度神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)中的一個(gè)重要方面是代價(jià)函數(shù)的選擇。幸運(yùn)的是,神經(jīng)網(wǎng)絡(luò)的代價(jià)函數(shù)或多或少是和其他的參數(shù)模型例如線性模型的代價(jià)函數(shù)相同的。 在大多數(shù)情況下,我們的參數(shù)模型定義了一個(gè)分布 p(y | x; θ) 并且我們簡(jiǎn)單地使用最大似然原理。這意味著我們使
J 本身。訓(xùn)練深度模型的優(yōu)化算法通常也會(huì)包括一些針對(duì)機(jī)器學(xué)習(xí)目標(biāo)函數(shù)的特定結(jié)構(gòu)進(jìn)行的特化。通常,代價(jià)函數(shù)可寫為訓(xùn)練集上的平均,如J(θ) = E(x,y)∼pˆdata L(f(x; θ), y),中 L 是每個(gè)樣本的損失函數(shù),f(x; θ) 是輸入 x 時(shí)所預(yù)測(cè)的輸出,pˆdata
從數(shù)學(xué)上來(lái)看,深度神經(jīng)網(wǎng)絡(luò)僅僅是一種函數(shù)的表達(dá)形式,是復(fù)雜的多層復(fù)合函數(shù)。由于它有大量的可調(diào)參數(shù),而且近年來(lái)隨著大數(shù)據(jù)、優(yōu)化算法和并行計(jì)算GPU硬件的發(fā)展,使得用大規(guī)模的神經(jīng)網(wǎng)絡(luò)來(lái)逼近和擬合大數(shù)據(jù)成為可能。
恢復(fù)歸檔或深度歸檔存儲(chǔ)對(duì)象(Go SDK) 功能說(shuō)明 如果要獲取歸檔或深度歸檔存儲(chǔ)對(duì)象的內(nèi)容,需要先將對(duì)象恢復(fù),然后再執(zhí)行下載數(shù)據(jù)的操作。對(duì)象恢復(fù)后,會(huì)產(chǎn)生一個(gè)標(biāo)準(zhǔn)存儲(chǔ)類型的對(duì)象副本,也就是說(shuō)會(huì)同時(shí)存在標(biāo)準(zhǔn)存儲(chǔ)類型的對(duì)象副本和歸檔或深度歸檔存儲(chǔ)對(duì)象,在恢復(fù)對(duì)象的保存時(shí)間到期后標(biāo)準(zhǔn)存儲(chǔ)類型的對(duì)象副本會(huì)自動(dòng)刪除。
看到自己下載好的應(yīng)用程序,左上角“Applications on”應(yīng)該指向的是“base (root)”,左邊點(diǎn)擊“Environments”就可以看到自己建立的虛擬環(huán)境和對(duì)應(yīng)的包了。點(diǎn)擊左下角的Create 即可創(chuàng)建一個(gè)新的虛擬環(huán)境。輸入環(huán)境名稱和python 的版本,點(diǎn)擊create
對(duì)稱量化無(wú)需引入偏移量Z,因此計(jì)算量低,缺點(diǎn)是量化后的數(shù)據(jù)是非飽和的,即有一部分區(qū)域不存在量化的數(shù)據(jù)。 非對(duì)稱量化因?yàn)轭~外引入了一個(gè)偏移量來(lái)修正零點(diǎn),因此需要的計(jì)算量會(huì)大一點(diǎn)。優(yōu)點(diǎn)是其量化后的數(shù)據(jù)是飽和的,即量化前的最小值對(duì)應(yīng)量化范圍的最小值,量化后的最大值對(duì)應(yīng)量化范圍的最大值。 對(duì)于fp32的值若均勻分布在0左
" 深度學(xué)習(xí) " 中的 " 深 ",指的是技術(shù)上、架構(gòu)上的性質(zhì),也就是堆疊了很多隱藏層。這種 " 深 ",并不是說(shuō)它對(duì)抽象的概念有深刻的理解,但是呢,一旦任務(wù)場(chǎng)景改變,就需要重新找數(shù)據(jù)訓(xùn)練,比如說(shuō)檢測(cè)人臉的模型在不相關(guān)的應(yīng)用程序中可能是無(wú)用的,比如詐騙檢測(cè),目前還是無(wú)法像人腦一樣
線性代數(shù)作為數(shù)學(xué)的一個(gè)分支,廣泛應(yīng)用于科學(xué)和工程中。然而,因?yàn)榫€性代數(shù)是主要面向連續(xù)數(shù)學(xué),而非離散數(shù)學(xué)。掌握好線性代數(shù)對(duì)于理解和從事機(jī)器學(xué)習(xí)算法相關(guān)工作是很有必要的,尤其是深度學(xué)習(xí)算法而言。線性代數(shù)提供了被稱為矩陣逆(matrix inversion)的強(qiáng)大工具。對(duì)于大多數(shù)矩陣A,我們都能通過(guò)矩陣逆解析地求解式(2