五月婷婷丁香性爱|j久久一级免费片|久久美女福利视频|中文观看在线观看|加勒比四区三区二|亚洲裸女视频网站|超碰97AV在线69网站免费观看|有码在线免费视频|久久青青日本视频|亚洲国产AAAA

已找到以下 400 條記錄
  • 進(jìn)大廠必看的 MongoDB 面試題集錦

    S3 圖表,eg:Neo4J 文檔存儲(chǔ),eg:MongoDB 基于列存儲(chǔ),eg:Cassandra51、為什么用MongoDB? 架構(gòu)簡(jiǎn)單 沒(méi)有復(fù)雜的連接 深度查詢能力,MongoDB支持動(dòng)態(tài)查詢 容易調(diào)試 容易擴(kuò)展 不需要轉(zhuǎn)化/映射應(yīng)用對(duì)象到數(shù)據(jù)庫(kù)對(duì)象 使用內(nèi)部?jī)?nèi)存作為存儲(chǔ)工作區(qū),以便更快的存取

    作者: xxll
    發(fā)表時(shí)間: 2022-06-09 01:23:15
    358
    2
  • 機(jī)器學(xué)習(xí)以及深度學(xué)習(xí)

    所謂“ 機(jī)器學(xué)習(xí)” , 是指利用算法使計(jì)算機(jī)能夠像人一樣從數(shù)據(jù)中挖掘出信息; 而“ 深度學(xué)習(xí)”作為“機(jī)器學(xué)習(xí)”的一個(gè)**子集**, 相比其他學(xué)習(xí)方法, 使用了更多的參數(shù)、模型也更復(fù)雜, 從而使得模型對(duì)數(shù)據(jù)的理解更加深人, 也更加智能。 傳統(tǒng)機(jī)器學(xué)習(xí)是分步驟來(lái)進(jìn)行的, 每一步的最優(yōu)解不一定帶來(lái)結(jié)果的最優(yōu)解;

    作者: 黃生
    發(fā)表時(shí)間: 2022-05-17 08:51:08.0
    348
    1
  • 深度學(xué)習(xí)入門》筆記 - 24

    解決欠擬合問(wèn)題的方法比較簡(jiǎn)單,增加模型復(fù)雜度就可以了。常見(jiàn)的方法是增加隱藏層的數(shù)量或者增加隱藏層的節(jié)點(diǎn)數(shù),或者二者同時(shí)增加。如果訓(xùn)練誤差持續(xù)下降,接近于0。而測(cè)試誤差在下降后變得平穩(wěn),甚至略有上升。訓(xùn)練誤差和測(cè)試誤差的差距較大。這就是典型的過(guò)擬合情況。在建立神經(jīng)網(wǎng)絡(luò)模型的初始階段

    作者: 黃生
    發(fā)表時(shí)間: 2022-10-30 14:00:55.0
    38
    2
  • 深度學(xué)習(xí)入門》筆記 - 22

    神經(jīng)網(wǎng)絡(luò)模型建立好了之后,必然要進(jìn)行模型的評(píng)估來(lái)了解神經(jīng)網(wǎng)絡(luò)的表現(xiàn)。 神經(jīng)網(wǎng)絡(luò)的因變量通常有兩種數(shù)據(jù)類型,定量數(shù)據(jù)和定性數(shù)據(jù)。不同因變量數(shù)據(jù)類型對(duì)應(yīng)的模型誤差的定義也不一樣。當(dāng)因變量為定性數(shù)據(jù)時(shí),模型誤差可以進(jìn)一步分為兩個(gè)類型: 假陽(yáng)性率, FPR False Positive Rate

    作者: 黃生
    發(fā)表時(shí)間: 2022-10-30 13:33:18.0
    38
    3
  • 深度學(xué)習(xí)入門》筆記 - 28

    線性回歸模型相當(dāng)于下面的簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)模型,它沒(méi)有隱藏層、輸出層只有1個(gè)節(jié)點(diǎn),激活函數(shù)是線性函數(shù)。使用 tf.keras.models.Sequential()構(gòu)建模型使用 model.compile() 設(shè)置優(yōu)化方法、損失函數(shù)、評(píng)價(jià)指標(biāo) (損失函數(shù)的值即 訓(xùn)練誤差;評(píng)價(jià)指標(biāo)的值即

    作者: 黃生
    發(fā)表時(shí)間: 2022-11-12 09:01:34
    34
    5
  • 深度學(xué)習(xí)入門》筆記 - 11

    化`。 標(biāo)準(zhǔn)化后所有自變量的均值是0,方差是1。中心化后因變量的均值是0。 這樣做可以讓梯步下降法的數(shù)值更加穩(wěn)定,更容易找到合適的初始值和學(xué)習(xí)步長(zhǎng)。 一個(gè)標(biāo)準(zhǔn)化的方法就是讓數(shù)據(jù)的每一列減去該列的均值,然后除以該列的樣本標(biāo)準(zhǔn)差($sd(x)$): ![image.png](https://bbs-img

    作者: 黃生
    發(fā)表時(shí)間: 2022-08-04 00:13:23
    227
    2
  • 深度學(xué)習(xí)入門》筆記 - 20

    因變量的常見(jiàn)數(shù)據(jù)類型有三種:定量數(shù)據(jù)、二分類定性數(shù)據(jù)和多分類定性數(shù)據(jù)。輸出層激活函數(shù)的選擇主要取決于因變量的數(shù)據(jù)類型。MNIST數(shù)據(jù)集是機(jī)器學(xué)習(xí)文獻(xiàn)中常用的數(shù)據(jù)。因變量(0~9)用獨(dú)熱碼表示,比如數(shù)字8的獨(dú)熱碼為(0 0 0 0 0 0 0 0 1 0)數(shù)字2的讀熱碼為(0 0 1

    作者: 黃生
    發(fā)表時(shí)間: 2022-10-23 07:31:47.0
    25
    1
  • 深度學(xué)習(xí)入門》筆記 - 25

    L2懲罰法也是一個(gè)經(jīng)典的正則化方法。 它是在原有損失函數(shù)的基礎(chǔ)上,在構(gòu)造一個(gè)新的損失函數(shù)。(帶有懲罰項(xiàng) 是一個(gè)超參數(shù))模型集成(model ensemble)可以提供模型的預(yù)測(cè)準(zhǔn)確度,思想就是, 先訓(xùn)練大量結(jié)構(gòu)不同的模型,通過(guò)平均、或投票方式綜合所有模型的結(jié)構(gòu),得到最終預(yù)測(cè)。在實(shí)際中,有較大限制,原因很簡(jiǎn)單,

    作者: 黃生
    發(fā)表時(shí)間: 2022-10-31 07:29:06.0
    20
    1
  • 深度學(xué)習(xí)圖卷積

    作者: 我的老天鵝
    發(fā)表時(shí)間: 2021-12-02 02:55:46.0
    825
    6
  • 深度學(xué)習(xí)入門》筆記 - 27

    下面用之前的廣告數(shù)據(jù),來(lái)建立線性回歸模型,看看tensorflow2的一般建模過(guò)程。import numpy as np #1. 數(shù)據(jù)預(yù)處理:裝載廣告數(shù)據(jù) def loadDataSet(): x=[];y=[] f=open('./Ad.csv')

    作者: 黃生
    發(fā)表時(shí)間: 2022-11-12 07:44:42.0
    22
    2
  • 深度學(xué)習(xí)入門》筆記 - 08

    t/forum/20227/31/1659244208189864369.png) 這個(gè)算法就是梯度下降法,在更新w的過(guò)程中,加入了一個(gè)系數(shù)$\alpha$,他是一個(gè)比較小的正數(shù),叫做`學(xué)習(xí)步長(zhǎng)`,這樣可以讓w更新的速度變慢一些,使得w更容易收斂。

    作者: 黃生
    發(fā)表時(shí)間: 2022-07-31 05:15:20.0
    148
    3
  • 深度學(xué)習(xí)之動(dòng)量

    雖然隨機(jī)梯度下降仍然是非常受歡迎的優(yōu)化方法,但其學(xué)習(xí)過(guò)程有時(shí)會(huì)很慢。動(dòng)量方法 (Polyak, 1964) 旨在加速學(xué)習(xí),特別是處理高曲率、小但一致的梯度,或是帶噪聲的梯度。動(dòng)量算法積累了之前梯度指數(shù)級(jí)衰減的移動(dòng)平均,并且繼續(xù)沿該方向移動(dòng)。動(dòng)量的效果。動(dòng)量的主要目的是解決兩個(gè)問(wèn)題:Hessian

    作者: 小強(qiáng)鼓掌
    發(fā)表時(shí)間: 2021-09-30 03:08:09
    530
    3
  • 深度學(xué)習(xí)之PCA

    確定),使得方差的主坐標(biāo)和 z 相關(guān)的新表示空間的基對(duì)齊。雖然相關(guān)性是數(shù)據(jù)元素間依賴關(guān)系的一個(gè)重要范疇,但我們對(duì)于能夠消除特征依賴更復(fù)雜形式的表示學(xué)習(xí)也很有興趣。對(duì)此,我們需要比簡(jiǎn)單線性變換能做到更多的工具。

    作者: 小強(qiáng)鼓掌
    發(fā)表時(shí)間: 2021-03-27 03:42:42.0
    541
    1
  • 深度學(xué)習(xí)入門》筆記 - 04

    然后就是Python的介紹。包括常見(jiàn)的數(shù)據(jù)類型,基本算術(shù)運(yùn)算,比較和布爾運(yùn)算,如何載入額外的模塊和包。 基本數(shù)據(jù)結(jié)構(gòu)有列表、元組、字典和集合??刂平Y(jié)構(gòu),內(nèi)建函數(shù)和自定義函數(shù)。 然后介紹numpy庫(kù),他可以實(shí)現(xiàn)快速的算數(shù)運(yùn)算,特別是矩陣運(yùn)算,運(yùn)算內(nèi)部是通過(guò)C語(yǔ)言實(shí)現(xiàn)的,所以比較快。

    作者: 黃生
    發(fā)表時(shí)間: 2022-07-28 00:17:52.0
    41
    1
  • 深度學(xué)習(xí)入門》筆記 - 17

    正向傳播(Forward Propagation FP)算法指輸入值通過(guò)神經(jīng)網(wǎng)絡(luò)得到輸出值的方法。正向傳播算法的計(jì)算圖如下:$sigma$表示sigmoid函數(shù),也就是激活函數(shù)。包含損失函數(shù)的計(jì)算圖如下:得到$l_2$,通過(guò)$l$計(jì)算損失函數(shù)L,其中$l$表示求解損失函數(shù)的運(yùn)算。

    作者: 黃生
    發(fā)表時(shí)間: 2022-08-21 09:31:17.0
    35
    3
  • 深度學(xué)習(xí)入門》筆記 - 15

    ```python #定義sigmoid函數(shù) def sigmoid(input): return 1.0/(1+np.exp(-input)) #通過(guò)隨機(jī)梯度下降法估計(jì)參數(shù) def logit_model(x,y,w,b,lr=0.1): for iter in range(60):

    作者: 黃生
    發(fā)表時(shí)間: 2022-08-06 14:14:09
    241
    2
  • 深度學(xué)習(xí)入門》筆記 - 14

    6253.png) 接下來(lái)實(shí)在是看不下去了,還有求偏導(dǎo)數(shù)的主要技巧用到了鏈?zhǔn)椒▌t,還有其他的太難看了。所以這一小部分跳過(guò)。 接下來(lái)的內(nèi)容是深度神經(jīng)網(wǎng)絡(luò)。 ![image.png](https://bbs-img.huaweicloud.com/data/forums/attach

    作者: 黃生
    發(fā)表時(shí)間: 2022-08-06 09:52:20
    62
    2
  • 深度學(xué)習(xí)Sigmoid 激活函數(shù)

    Sigmoid 函數(shù)的圖像看起來(lái)像一個(gè) S 形曲線。

    作者: 我的老天鵝
    發(fā)表時(shí)間: 2021-11-29 01:02:04.0
    422
    4
  • 深度學(xué)習(xí)入門》筆記 - 02

    最常用的矩陣運(yùn)算是矩陣的轉(zhuǎn)置。轉(zhuǎn)置就像是翻轉(zhuǎn)。就像是一個(gè)撲克牌,原來(lái)是豎著拿的,把它變成翻面橫著拿了。 ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/20227/27/1658883526687508822

    作者: 黃生
    發(fā)表時(shí)間: 2022-07-27 01:11:51.0
    54
    0
  • 深度學(xué)習(xí)GoogLeNet結(jié)構(gòu)

    作者: 我的老天鵝
    發(fā)表時(shí)間: 2021-11-25 05:50:25.0
    426
    7