五月婷婷丁香性爱|j久久一级免费片|久久美女福利视频|中文观看在线观看|加勒比四区三区二|亚洲裸女视频网站|超碰97AV在线69网站免费观看|有码在线免费视频|久久青青日本视频|亚洲国产AAAA

已找到以下 10000 條記錄
  • 部署NGC容器環(huán)境以構(gòu)建深度學(xué)習(xí)開(kāi)發(fā)環(huán)境 - 彈性云服務(wù)器 ECS

    部署NGC容器環(huán)境以構(gòu)建深度學(xué)習(xí)開(kāi)發(fā)環(huán)境 應(yīng)用場(chǎng)景 華為云支持使用Docker容器來(lái)部署深度學(xué)習(xí)框架,并且可以通過(guò)NVIDIA Docker來(lái)啟動(dòng)支持GPU加速的容器,您可以從NVIDIA NGC下載適合的容器鏡像,并在華為云的GPU實(shí)例上運(yùn)行。 本文以搭建TensorFlow深度學(xué)習(xí)框架為例,

  • 深度學(xué)習(xí)】嘿馬深度學(xué)習(xí)筆記第10篇:卷積神經(jīng)網(wǎng)絡(luò),2.5 CNN網(wǎng)絡(luò)實(shí)戰(zhàn)技巧【附代碼文檔】

    ??????教程全知識(shí)點(diǎn)簡(jiǎn)介:1.深度學(xué)習(xí)概述包括深度學(xué)習(xí)與機(jī)器學(xué)習(xí)區(qū)別、深度學(xué)習(xí)應(yīng)用場(chǎng)景、深度學(xué)習(xí)框架介紹、項(xiàng)目演示、開(kāi)發(fā)環(huán)境搭建(pycharm安裝)。2. TensorFlow基礎(chǔ)涵蓋TF數(shù)據(jù)流圖、TensorFlow實(shí)現(xiàn)加法運(yùn)算、圖與TensorBoard(圖結(jié)構(gòu)、圖相關(guān)

    作者: 程序員一諾python
    發(fā)表時(shí)間: 2025-09-05 04:55:08
    1
    0
  • 深度學(xué)習(xí)】嘿馬深度學(xué)習(xí)筆記第9篇:卷積神經(jīng)網(wǎng)絡(luò),2.4 BN與神經(jīng)網(wǎng)絡(luò)調(diào)優(yōu)【附代碼文檔】

    ??????教程全知識(shí)點(diǎn)簡(jiǎn)介:1.深度學(xué)習(xí)概述包括深度學(xué)習(xí)與機(jī)器學(xué)習(xí)區(qū)別、深度學(xué)習(xí)應(yīng)用場(chǎng)景、深度學(xué)習(xí)框架介紹、項(xiàng)目演示、開(kāi)發(fā)環(huán)境搭建(pycharm安裝)。2. TensorFlow基礎(chǔ)涵蓋TF數(shù)據(jù)流圖、TensorFlow實(shí)現(xiàn)加法運(yùn)算、圖與TensorBoard(圖結(jié)構(gòu)、圖相關(guān)

    作者: 程序員一諾python
    發(fā)表時(shí)間: 2025-09-02 05:38:42
    2
    0
  • 深度學(xué)習(xí)】嘿馬深度學(xué)習(xí)筆記第7篇:卷積神經(jīng)網(wǎng)絡(luò),3.1 卷積神經(jīng)網(wǎng)絡(luò)(CNN)原理【附代碼文檔】

    ??????教程全知識(shí)點(diǎn)簡(jiǎn)介:1.深度學(xué)習(xí)概述包括深度學(xué)習(xí)與機(jī)器學(xué)習(xí)區(qū)別、深度學(xué)習(xí)應(yīng)用場(chǎng)景、深度學(xué)習(xí)框架介紹、項(xiàng)目演示、開(kāi)發(fā)環(huán)境搭建(pycharm安裝)。2. TensorFlow基礎(chǔ)涵蓋TF數(shù)據(jù)流圖、TensorFlow實(shí)現(xiàn)加法運(yùn)算、圖與TensorBoard(圖結(jié)構(gòu)、圖相關(guān)

    作者: 程序員一諾python
    發(fā)表時(shí)間: 2025-08-15 08:51:34
    0
    0
  • 深度學(xué)習(xí)】嘿馬深度學(xué)習(xí)筆記第12篇:產(chǎn)品物體檢測(cè)項(xiàng)目介紹,3.4 Fast R-CNN【附代碼文檔】

    ??????教程全知識(shí)點(diǎn)簡(jiǎn)介:1.深度學(xué)習(xí)概述包括深度學(xué)習(xí)與機(jī)器學(xué)習(xí)區(qū)別、深度學(xué)習(xí)應(yīng)用場(chǎng)景、深度學(xué)習(xí)框架介紹、項(xiàng)目演示、開(kāi)發(fā)環(huán)境搭建(pycharm安裝)。2. TensorFlow基礎(chǔ)涵蓋TF數(shù)據(jù)流圖、TensorFlow實(shí)現(xiàn)加法運(yùn)算、圖與TensorBoard(圖結(jié)構(gòu)、圖相關(guān)

    作者: 程序員一諾python
    發(fā)表時(shí)間: 2025-09-16 08:32:44
    1
    0
  • 深度學(xué)習(xí)】嘿馬深度學(xué)習(xí)筆記第13篇:YOLO與SSD,4.3 案例:SSD進(jìn)行物體檢測(cè)【附代碼文檔】

    ??????教程全知識(shí)點(diǎn)簡(jiǎn)介:1.深度學(xué)習(xí)概述包括深度學(xué)習(xí)與機(jī)器學(xué)習(xí)區(qū)別、深度學(xué)習(xí)應(yīng)用場(chǎng)景、深度學(xué)習(xí)框架介紹、項(xiàng)目演示、開(kāi)發(fā)環(huán)境搭建(pycharm安裝)。2. TensorFlow基礎(chǔ)涵蓋TF數(shù)據(jù)流圖、TensorFlow實(shí)現(xiàn)加法運(yùn)算、圖與TensorBoard(圖結(jié)構(gòu)、圖相關(guān)

    作者: 程序員一諾python
    發(fā)表時(shí)間: 2025-09-24 00:49:33
    0
    0
  • 分享深度學(xué)習(xí)筆記

    反,我們正在走向一個(gè)人工智能嵌入式世界。智能冰箱可以自動(dòng)點(diǎn)菜,無(wú)人機(jī)可以自動(dòng)導(dǎo)航整個(gè)城市。強(qiáng)大的機(jī)器學(xué)習(xí)方法應(yīng)該能夠下載到個(gè)人電腦、手機(jī)和小型芯片上。這需要輕量級(jí)人工智能:使神經(jīng)網(wǎng)絡(luò)更小,同時(shí)保持性能。這直接或間接地表明,在深度學(xué)習(xí)的研究中,幾乎所有的事情都與減少必要的參數(shù)有關(guān),

    作者: 初學(xué)者7000
    發(fā)表時(shí)間: 2021-08-23 15:22:42
    637
    1
  • 深度學(xué)習(xí)入門(mén)》筆記 - 22

    約,但被(錯(cuò)誤)預(yù)測(cè)為不違約的人盡可能的少。(假陰) 如果銀行希望擴(kuò)大業(yè)務(wù)而適當(dāng)放寬風(fēng)險(xiǎn)控制,那么銀行可以讓真實(shí)違約,但被(錯(cuò)誤)預(yù)測(cè)為不違約的稍微多些。從上表可以看出該模型可以很好的控制假陽(yáng)性率, 也就是說(shuō), 在真實(shí)不違約的人中,絕大部分都正確預(yù)測(cè)為不違約;只有2人錯(cuò)誤預(yù)測(cè)為違約。

    作者: 黃生
    發(fā)表時(shí)間: 2022-10-30 13:33:18.0
    38
    3
  • 深度學(xué)習(xí)入門(mén)》筆記 - 14

    7116229.png) 觀察箭頭的方向,代表了處理的流程。通過(guò)線性回歸模型和生物神經(jīng)元的類(lèi)比,可以將線性模型稱(chēng)作一個(gè)只包含一個(gè)神經(jīng)元的神經(jīng)網(wǎng)絡(luò)。 同樣的,logistic模型也可以用來(lái)進(jìn)行類(lèi)比,下圖代表的就是預(yù)估y等于1的概率的處理過(guò)程: ![image.png](https://bbs-img

    作者: 黃生
    發(fā)表時(shí)間: 2022-08-06 09:52:20
    62
    2
  • 深度學(xué)習(xí)入門(mén)》筆記 - 04

    自定義函數(shù)。 然后介紹numpy庫(kù),他可以實(shí)現(xiàn)快速的算數(shù)運(yùn)算,特別是矩陣運(yùn)算,運(yùn)算內(nèi)部是通過(guò)C語(yǔ)言實(shí)現(xiàn)的,所以比較快。他包含兩種基本數(shù)據(jù)類(lèi)型:`數(shù)組(array)`和`矩陣(matrix)`。 然后介紹基于numpy庫(kù)的pandas庫(kù),可以用于數(shù)據(jù)分析,數(shù)據(jù)清理和數(shù)據(jù)準(zhǔn)備。他的數(shù)

    作者: 黃生
    發(fā)表時(shí)間: 2022-07-28 00:17:52.0
    41
    1
  • 深度學(xué)習(xí)入門(mén)》筆記 - 24

    解決欠擬合問(wèn)題的方法比較簡(jiǎn)單,增加模型復(fù)雜度就可以了。常見(jiàn)的方法是增加隱藏層的數(shù)量或者增加隱藏層的節(jié)點(diǎn)數(shù),或者二者同時(shí)增加。如果訓(xùn)練誤差持續(xù)下降,接近于0。而測(cè)試誤差在下降后變得平穩(wěn),甚至略有上升。訓(xùn)練誤差和測(cè)試誤差的差距較大。這就是典型的過(guò)擬合情況。在建立神經(jīng)網(wǎng)絡(luò)模型的初始階段

    作者: 黃生
    發(fā)表時(shí)間: 2022-10-30 14:00:55.0
    38
    2
  • 深度學(xué)習(xí)入門(mén)》筆記 - 13

    com/data/forums/attachment/forum/20228/6/1659775404176492371.png) 從上圖中可以看到,信用卡余額相對(duì)于每月收入來(lái)說(shuō),對(duì)還款違約的影響更大。 一般模型不會(huì)直接預(yù)測(cè)某信用卡用戶(hù)是否違約,而是預(yù)測(cè)其違約的概率,表示為`P(Default|Balance

    作者: 黃生
    發(fā)表時(shí)間: 2022-08-06 09:10:28
    49
    1
  • 深度學(xué)習(xí)入門(mén)》筆記 - 16

    因此,在此基礎(chǔ)上,隱藏層到輸出層的logistic模型就可以把其分開(kāi)了:從這個(gè)例子可以看到,神經(jīng)網(wǎng)絡(luò)可以先通過(guò)隱藏層學(xué)習(xí)數(shù)據(jù)的不同特征,再根據(jù)隱藏層得到的特征做出更好的預(yù)測(cè)。也就是說(shuō)通過(guò)增加隱藏層,神經(jīng)網(wǎng)絡(luò)可以找到輸入層和因變量之間更復(fù)雜的關(guān)系;而不通過(guò)隱藏層,這種關(guān)系無(wú)法表達(dá)。同時(shí)可以通過(guò)增加隱藏層的數(shù)量和每

    作者: 黃生
    發(fā)表時(shí)間: 2022-08-21 09:04:22.0
    37
    4
  • 深度學(xué)習(xí)入門(mén)》筆記 - 03

    這個(gè)在工作生活中應(yīng)用的實(shí)在是太廣泛了。比如老板問(wèn)你這件事情明天能不能搞完?一般情況下,你的回答可能就是一個(gè)隨機(jī)變量。 隨機(jī)變量可以分為兩種類(lèi)型:連續(xù)型和離散型。 `隨機(jī)變量的分布`用來(lái)描述隨機(jī)變量出現(xiàn)某種結(jié)果的可能性。可以用一些分布函數(shù)來(lái)表示。 常見(jiàn)的概率分布有幾種。這里只看最常見(jiàn)的一種概率分布,就是`正態(tài)分布`也叫高斯分布。

    作者: 黃生
    發(fā)表時(shí)間: 2022-07-27 13:39:58.0
    31
    0
  • 深度學(xué)習(xí)入門(mén)》筆記 - 02

    7/1658883526687508822.png) 矩陣的基本運(yùn)算就是加減乘除。加減法如果這兩個(gè)矩陣的維度是一樣的,就非常好理解。矩陣也可以和行向量進(jìn)行加減,要求行向量的列數(shù)和矩陣的列數(shù)是一樣的。 矩陣的乘法,如果兩個(gè)矩陣的維度一樣,也非常好理解,這種叫做`逐點(diǎn)相乘`(element-wise

    作者: 黃生
    發(fā)表時(shí)間: 2022-07-27 01:11:51.0
    54
    0
  • 深度學(xué)習(xí)入門(mén)》筆記 - 09

    現(xiàn)在我們來(lái)嘗試迭代多次,看看效果。 從w=0開(kāi)始 ```python #w初始值給0 x,y=0.5,0.8 w=0;lr=0.5 #lr學(xué)習(xí)率=0.5 pred=x*w loss=((pred-y)**2)/2 grad=(pred-y)*x print('自變量:'+str(x))

    作者: 黃生
    發(fā)表時(shí)間: 2022-08-03 00:21:51
    472
    3
  • 深度學(xué)習(xí)入門(mén)》筆記 - 25

    L2懲罰法也是一個(gè)經(jīng)典的正則化方法。 它是在原有損失函數(shù)的基礎(chǔ)上,在構(gòu)造一個(gè)新的損失函數(shù)。(帶有懲罰項(xiàng) 是一個(gè)超參數(shù))模型集成(model ensemble)可以提供模型的預(yù)測(cè)準(zhǔn)確度,思想就是, 先訓(xùn)練大量結(jié)構(gòu)不同的模型,通過(guò)平均、或投票方式綜合所有模型的結(jié)構(gòu),得到最終預(yù)測(cè)。在實(shí)際中,有較大限制,原因很簡(jiǎn)單,

    作者: 黃生
    發(fā)表時(shí)間: 2022-10-31 07:29:06.0
    20
    1
  • 深度學(xué)習(xí)入門(mén)》筆記 - 01

    之前學(xué)了一個(gè)深度學(xué)習(xí)應(yīng)用開(kāi)發(fā),學(xué)了一段時(shí)間,后來(lái)就沒(méi)學(xué)了。 確實(shí)是"靡不有初,鮮克有終",現(xiàn)在不愿意再繼續(xù)之前的學(xué)。我又找了一書(shū)從頭開(kāi)始,這本書(shū)的名字是深度學(xué)習(xí)入門(mén)與TensorFlow實(shí)踐>。 `數(shù)(scalar)`是一個(gè)數(shù)字。 簡(jiǎn)直是廢話。 不過(guò)這才剛開(kāi)始嘛。 多個(gè)數(shù)字有序

    作者: 黃生
    發(fā)表時(shí)間: 2022-07-19 13:25:42.0
    283
    1
  • 深度學(xué)習(xí)入門(mén)》筆記 - 18

    引入這兩個(gè)算法。神經(jīng)網(wǎng)絡(luò)的目的是建立輸入層與輸出層之間的關(guān)系,進(jìn)而利用建立的關(guān)系得到預(yù)測(cè)值。通過(guò)增加隱藏層,神經(jīng)網(wǎng)絡(luò)可以找到輸入層與輸出層之間較復(fù)雜的關(guān)系。深度學(xué)習(xí)是擁有多個(gè)隱藏層的神經(jīng)網(wǎng)絡(luò),在神經(jīng)網(wǎng)絡(luò)中,我們通過(guò)正向傳播算法得到預(yù)測(cè)值,并通過(guò)反向傳播算法得到參數(shù)梯度,然后利用梯

    作者: 黃生
    發(fā)表時(shí)間: 2022-10-22 11:06:27.0
    23
    1
  • 深度學(xué)習(xí)入門(mén)》筆記 - 07

    些偏導(dǎo)數(shù)等于零,解方程得到b和w的估計(jì)值。但是這個(gè)方法只適合少數(shù)結(jié)構(gòu)比較簡(jiǎn)單的模型(比如線性回歸模型),不能求解深度學(xué)習(xí)這類(lèi)復(fù)雜模型的參數(shù)。 所以下面介紹的是深度學(xué)習(xí)中常用的優(yōu)化算法:`梯度下降法`。其中有三個(gè)不同的變體:隨機(jī)梯度下降法、全數(shù)據(jù)梯度下降法、和批量隨機(jī)梯度下降法。

    作者: 黃生
    發(fā)表時(shí)間: 2022-07-30 10:24:45.0
    156
    2