檢測(cè)到您已登錄華為云國(guó)際站賬號(hào),為了您更好的體驗(yàn),建議您訪問(wèn)國(guó)際站服務(wù)網(wǎng)站 http://m.cqfng.cn/intl/zh-cn
不再顯示此消息
部署NGC容器環(huán)境以構(gòu)建深度學(xué)習(xí)開(kāi)發(fā)環(huán)境 應(yīng)用場(chǎng)景 華為云支持使用Docker容器來(lái)部署深度學(xué)習(xí)框架,并且可以通過(guò)NVIDIA Docker來(lái)啟動(dòng)支持GPU加速的容器,您可以從NVIDIA NGC下載適合的容器鏡像,并在華為云的GPU實(shí)例上運(yùn)行。 本文以搭建TensorFlow深度學(xué)習(xí)框架為例,
??????教程全知識(shí)點(diǎn)簡(jiǎn)介:1.深度學(xué)習(xí)概述包括深度學(xué)習(xí)與機(jī)器學(xué)習(xí)區(qū)別、深度學(xué)習(xí)應(yīng)用場(chǎng)景、深度學(xué)習(xí)框架介紹、項(xiàng)目演示、開(kāi)發(fā)環(huán)境搭建(pycharm安裝)。2. TensorFlow基礎(chǔ)涵蓋TF數(shù)據(jù)流圖、TensorFlow實(shí)現(xiàn)加法運(yùn)算、圖與TensorBoard(圖結(jié)構(gòu)、圖相關(guān)
??????教程全知識(shí)點(diǎn)簡(jiǎn)介:1.深度學(xué)習(xí)概述包括深度學(xué)習(xí)與機(jī)器學(xué)習(xí)區(qū)別、深度學(xué)習(xí)應(yīng)用場(chǎng)景、深度學(xué)習(xí)框架介紹、項(xiàng)目演示、開(kāi)發(fā)環(huán)境搭建(pycharm安裝)。2. TensorFlow基礎(chǔ)涵蓋TF數(shù)據(jù)流圖、TensorFlow實(shí)現(xiàn)加法運(yùn)算、圖與TensorBoard(圖結(jié)構(gòu)、圖相關(guān)
??????教程全知識(shí)點(diǎn)簡(jiǎn)介:1.深度學(xué)習(xí)概述包括深度學(xué)習(xí)與機(jī)器學(xué)習(xí)區(qū)別、深度學(xué)習(xí)應(yīng)用場(chǎng)景、深度學(xué)習(xí)框架介紹、項(xiàng)目演示、開(kāi)發(fā)環(huán)境搭建(pycharm安裝)。2. TensorFlow基礎(chǔ)涵蓋TF數(shù)據(jù)流圖、TensorFlow實(shí)現(xiàn)加法運(yùn)算、圖與TensorBoard(圖結(jié)構(gòu)、圖相關(guān)
??????教程全知識(shí)點(diǎn)簡(jiǎn)介:1.深度學(xué)習(xí)概述包括深度學(xué)習(xí)與機(jī)器學(xué)習(xí)區(qū)別、深度學(xué)習(xí)應(yīng)用場(chǎng)景、深度學(xué)習(xí)框架介紹、項(xiàng)目演示、開(kāi)發(fā)環(huán)境搭建(pycharm安裝)。2. TensorFlow基礎(chǔ)涵蓋TF數(shù)據(jù)流圖、TensorFlow實(shí)現(xiàn)加法運(yùn)算、圖與TensorBoard(圖結(jié)構(gòu)、圖相關(guān)
??????教程全知識(shí)點(diǎn)簡(jiǎn)介:1.深度學(xué)習(xí)概述包括深度學(xué)習(xí)與機(jī)器學(xué)習(xí)區(qū)別、深度學(xué)習(xí)應(yīng)用場(chǎng)景、深度學(xué)習(xí)框架介紹、項(xiàng)目演示、開(kāi)發(fā)環(huán)境搭建(pycharm安裝)。2. TensorFlow基礎(chǔ)涵蓋TF數(shù)據(jù)流圖、TensorFlow實(shí)現(xiàn)加法運(yùn)算、圖與TensorBoard(圖結(jié)構(gòu)、圖相關(guān)
反,我們正在走向一個(gè)人工智能嵌入式世界。智能冰箱可以自動(dòng)點(diǎn)菜,無(wú)人機(jī)可以自動(dòng)導(dǎo)航整個(gè)城市。強(qiáng)大的機(jī)器學(xué)習(xí)方法應(yīng)該能夠下載到個(gè)人電腦、手機(jī)和小型芯片上。這需要輕量級(jí)人工智能:使神經(jīng)網(wǎng)絡(luò)更小,同時(shí)保持性能。這直接或間接地表明,在深度學(xué)習(xí)的研究中,幾乎所有的事情都與減少必要的參數(shù)有關(guān),
約,但被(錯(cuò)誤)預(yù)測(cè)為不違約的人盡可能的少。(假陰) 如果銀行希望擴(kuò)大業(yè)務(wù)而適當(dāng)放寬風(fēng)險(xiǎn)控制,那么銀行可以讓真實(shí)違約,但被(錯(cuò)誤)預(yù)測(cè)為不違約的稍微多些。從上表可以看出該模型可以很好的控制假陽(yáng)性率, 也就是說(shuō), 在真實(shí)不違約的人中,絕大部分都正確預(yù)測(cè)為不違約;只有2人錯(cuò)誤預(yù)測(cè)為違約。
7116229.png) 觀察箭頭的方向,代表了處理的流程。通過(guò)線性回歸模型和生物神經(jīng)元的類(lèi)比,可以將線性模型稱(chēng)作一個(gè)只包含一個(gè)神經(jīng)元的神經(jīng)網(wǎng)絡(luò)。 同樣的,logistic模型也可以用來(lái)進(jìn)行類(lèi)比,下圖代表的就是預(yù)估y等于1的概率的處理過(guò)程: 。 然后介紹numpy庫(kù),他可以實(shí)現(xiàn)快速的算數(shù)運(yùn)算,特別是矩陣運(yùn)算,運(yùn)算內(nèi)部是通過(guò)C語(yǔ)言實(shí)現(xiàn)的,所以比較快。他包含兩種基本數(shù)據(jù)類(lèi)型:`數(shù)組(array)`和`矩陣(matrix)`。 然后介紹基于numpy庫(kù)的pandas庫(kù),可以用于數(shù)據(jù)分析,數(shù)據(jù)清理和數(shù)據(jù)準(zhǔn)備。他的數(shù)
解決欠擬合問(wèn)題的方法比較簡(jiǎn)單,增加模型復(fù)雜度就可以了。常見(jiàn)的方法是增加隱藏層的數(shù)量或者增加隱藏層的節(jié)點(diǎn)數(shù),或者二者同時(shí)增加。如果訓(xùn)練誤差持續(xù)下降,接近于0。而測(cè)試誤差在下降后變得平穩(wěn),甚至略有上升。訓(xùn)練誤差和測(cè)試誤差的差距較大。這就是典型的過(guò)擬合情況。在建立神經(jīng)網(wǎng)絡(luò)模型的初始階段
com/data/forums/attachment/forum/20228/6/1659775404176492371.png) 從上圖中可以看到,信用卡余額相對(duì)于每月收入來(lái)說(shuō),對(duì)還款違約的影響更大。 一般模型不會(huì)直接預(yù)測(cè)某信用卡用戶(hù)是否違約,而是預(yù)測(cè)其違約的概率,表示為`P(Default|Balance
因此,在此基礎(chǔ)上,隱藏層到輸出層的logistic模型就可以把其分開(kāi)了:從這個(gè)例子可以看到,神經(jīng)網(wǎng)絡(luò)可以先通過(guò)隱藏層學(xué)習(xí)數(shù)據(jù)的不同特征,再根據(jù)隱藏層得到的特征做出更好的預(yù)測(cè)。也就是說(shuō)通過(guò)增加隱藏層,神經(jīng)網(wǎng)絡(luò)可以找到輸入層和因變量之間更復(fù)雜的關(guān)系;而不通過(guò)隱藏層,這種關(guān)系無(wú)法表達(dá)。同時(shí)可以通過(guò)增加隱藏層的數(shù)量和每
這個(gè)在工作生活中應(yīng)用的實(shí)在是太廣泛了。比如老板問(wèn)你這件事情明天能不能搞完?一般情況下,你的回答可能就是一個(gè)隨機(jī)變量。 隨機(jī)變量可以分為兩種類(lèi)型:連續(xù)型和離散型。 `隨機(jī)變量的分布`用來(lái)描述隨機(jī)變量出現(xiàn)某種結(jié)果的可能性。可以用一些分布函數(shù)來(lái)表示。 常見(jiàn)的概率分布有幾種。這里只看最常見(jiàn)的一種概率分布,就是`正態(tài)分布`也叫高斯分布。
7/1658883526687508822.png) 矩陣的基本運(yùn)算就是加減乘除。加減法如果這兩個(gè)矩陣的維度是一樣的,就非常好理解。矩陣也可以和行向量進(jìn)行加減,要求行向量的列數(shù)和矩陣的列數(shù)是一樣的。 矩陣的乘法,如果兩個(gè)矩陣的維度一樣,也非常好理解,這種叫做`逐點(diǎn)相乘`(element-wise
現(xiàn)在我們來(lái)嘗試迭代多次,看看效果。 從w=0開(kāi)始 ```python #w初始值給0 x,y=0.5,0.8 w=0;lr=0.5 #lr學(xué)習(xí)率=0.5 pred=x*w loss=((pred-y)**2)/2 grad=(pred-y)*x print('自變量:'+str(x))
L2懲罰法也是一個(gè)經(jīng)典的正則化方法。 它是在原有損失函數(shù)的基礎(chǔ)上,在構(gòu)造一個(gè)新的損失函數(shù)。(帶有懲罰項(xiàng) 是一個(gè)超參數(shù))模型集成(model ensemble)可以提供模型的預(yù)測(cè)準(zhǔn)確度,思想就是, 先訓(xùn)練大量結(jié)構(gòu)不同的模型,通過(guò)平均、或投票方式綜合所有模型的結(jié)構(gòu),得到最終預(yù)測(cè)。在實(shí)際中,有較大限制,原因很簡(jiǎn)單,
之前學(xué)了一個(gè)深度學(xué)習(xí)應(yīng)用開(kāi)發(fā),學(xué)了一段時(shí)間,后來(lái)就沒(méi)學(xué)了。 確實(shí)是"靡不有初,鮮克有終",現(xiàn)在不愿意再繼續(xù)之前的學(xué)。我又找了一本書(shū)從頭開(kāi)始,這本書(shū)的名字是深度學(xué)習(xí)入門(mén)與TensorFlow實(shí)踐>。 `數(shù)(scalar)`是一個(gè)數(shù)字。 簡(jiǎn)直是廢話。 不過(guò)這才剛開(kāi)始嘛。 多個(gè)數(shù)字有序
引入這兩個(gè)算法。神經(jīng)網(wǎng)絡(luò)的目的是建立輸入層與輸出層之間的關(guān)系,進(jìn)而利用建立的關(guān)系得到預(yù)測(cè)值。通過(guò)增加隱藏層,神經(jīng)網(wǎng)絡(luò)可以找到輸入層與輸出層之間較復(fù)雜的關(guān)系。深度學(xué)習(xí)是擁有多個(gè)隱藏層的神經(jīng)網(wǎng)絡(luò),在神經(jīng)網(wǎng)絡(luò)中,我們通過(guò)正向傳播算法得到預(yù)測(cè)值,并通過(guò)反向傳播算法得到參數(shù)梯度,然后利用梯
些偏導(dǎo)數(shù)等于零,解方程得到b和w的估計(jì)值。但是這個(gè)方法只適合少數(shù)結(jié)構(gòu)比較簡(jiǎn)單的模型(比如線性回歸模型),不能求解深度學(xué)習(xí)這類(lèi)復(fù)雜模型的參數(shù)。 所以下面介紹的是深度學(xué)習(xí)中常用的優(yōu)化算法:`梯度下降法`。其中有三個(gè)不同的變體:隨機(jī)梯度下降法、全數(shù)據(jù)梯度下降法、和批量隨機(jī)梯度下降法。