檢測(cè)到您已登錄華為云國(guó)際站賬號(hào),為了您更好的體驗(yàn),建議您訪問(wèn)國(guó)際站服務(wù)網(wǎng)站 http://m.cqfng.cn/intl/zh-cn
不再顯示此消息
度的以及基于跨模態(tài)數(shù)據(jù)語(yǔ)義標(biāo)注的深度跨模態(tài)檢索。一般來(lái)說(shuō),上述信息呈現(xiàn)遞增的情況,且提供學(xué)習(xí)的信息越多,跨模態(tài)檢索性能越優(yōu)。在上述不同類(lèi)別下,涵蓋了七類(lèi)主流技術(shù),即典型相關(guān)分析、一一對(duì)應(yīng)關(guān)系保持、度量學(xué)習(xí)、似然分析、學(xué)習(xí)排序、語(yǔ)義預(yù)測(cè)以及對(duì)抗學(xué)習(xí)。不同類(lèi)別下包含其中部分關(guān)鍵技術(shù),
例如: 1. 神經(jīng)網(wǎng)絡(luò)分多少層 2. 每層含有多少個(gè)隱藏單元 3. 學(xué)習(xí)速率是多少 4. 各層采用哪些激活函數(shù) 創(chuàng)建新應(yīng)用的過(guò)程中,我們不可能從一開(kāi)始就準(zhǔn)確預(yù)測(cè)出這些信息和其他超級(jí)參數(shù)。實(shí)際上,應(yīng)用型機(jī)器學(xué)習(xí)是一個(gè)高度迭代的過(guò)程,通常在項(xiàng)目啟動(dòng)時(shí),我們會(huì)先有一個(gè)初步想法,比如構(gòu)
正如我們已經(jīng)看到的,最近鄰預(yù)測(cè)和決策樹(shù)都有很多的局限性。盡管如此,在計(jì)算資源受限制時(shí),它們都是很有用的學(xué)習(xí)算法。通過(guò)思考復(fù)雜算法和 k-最近鄰或決策樹(shù)之間的相似性和差異,我們可以建立對(duì)更復(fù)雜學(xué)習(xí)算法的直覺(jué)。
當(dāng)數(shù)據(jù)的維數(shù)很高時(shí),很多機(jī)器學(xué)習(xí)問(wèn)題變得相當(dāng)困難。這種現(xiàn)象被稱(chēng)為維數(shù)災(zāi)難 (curse of dimensionality)。特別值得注意的是,一組變量不同的可能配置數(shù)量會(huì)隨著變量數(shù)目的增加而指數(shù)級(jí)增長(zhǎng)。維數(shù)災(zāi)難發(fā)生在計(jì)算機(jī)科學(xué)的許多地方,在機(jī)器學(xué)習(xí)中尤其如此。 由維數(shù)災(zāi)難帶來(lái)的一個(gè)挑戰(zhàn)是統(tǒng)計(jì)挑戰(zhàn)。如圖5
深度前饋網(wǎng)絡(luò) (deep feedforward network),也叫作前饋神經(jīng)網(wǎng)絡(luò) (feedforward neural network) 或者多層感知機(jī) (multilayer perceptron, MLP),是典型的深度學(xué)習(xí)模型。前饋網(wǎng)絡(luò)的目標(biāo)是近似某個(gè)函數(shù)
且看云端編程CloudIDE如何幫助培訓(xùn)公司快速搭建研發(fā)環(huán)境。既敏捷,又便捷,想要體驗(yàn)云端編程,快快點(diǎn)擊華為云CloudIDE體驗(yàn)吧~
非常小。另一方面,實(shí)驗(yàn)中梯度下降似乎可以在許多情況下逃離鞍點(diǎn)。Goodfellow et al. (2015) 可視化了最新神經(jīng)網(wǎng)絡(luò)的幾個(gè)學(xué)習(xí)軌跡,給了一個(gè)例子。這些可視化顯示,在突出的鞍點(diǎn)附近,代價(jià)函數(shù)都是平坦的,權(quán)重都為零。但是他們也展示了梯度下降軌跡能夠迅速逸出該區(qū)間。Goodfellow
引言 「深度學(xué)習(xí)」(DL)一詞最初在 1986 被引入機(jī)器學(xué)習(xí)(ML),后來(lái)在 2000 年時(shí)被用于人工神經(jīng)網(wǎng)絡(luò)(ANN)。深度學(xué)習(xí)方法由多個(gè)層組成,以學(xué)習(xí)具有多個(gè)抽象層次的數(shù)據(jù)特征。DL 方法允許計(jì)算機(jī)通過(guò)相對(duì)簡(jiǎn)單的概念來(lái)學(xué)習(xí)復(fù)雜的概念。對(duì)于人工神經(jīng)網(wǎng)絡(luò)(ANN),深度學(xué)習(xí)(DL
深度學(xué)習(xí)的另一個(gè)最大的成就是其在強(qiáng)化學(xué)習(xí) (reinforcement learning) 領(lǐng)域的擴(kuò)展。在強(qiáng)化學(xué)習(xí)中,一個(gè)自主的智能體必須在沒(méi)有人類(lèi)操作者指導(dǎo)的情況下,通過(guò)試錯(cuò)來(lái)學(xué)習(xí)執(zhí)行任務(wù)。DeepMind 表明,基于深度學(xué)習(xí)的強(qiáng)化學(xué)習(xí)系統(tǒng)能夠?qū)W會(huì)玩Atari 視頻游戲,并在多種任務(wù)中可與人類(lèi)匹敵
取得絕對(duì)的最小值(相對(duì)所有其他值)的點(diǎn)是全局最小點(diǎn) (globalminimum)。函數(shù)可能只有一個(gè)全局最小點(diǎn)或存在多個(gè)全局最小點(diǎn),還可能存在不是全局最優(yōu)的局部極小點(diǎn)。在深度學(xué)習(xí)的背景下,我們優(yōu)化的函數(shù)可能含有許多不是最優(yōu)的局部極小點(diǎn),或許多被非常平坦的區(qū)域包圍的鞍點(diǎn)。尤其是當(dāng)輸入是多維的時(shí)候,所有這些都將使優(yōu)化變得困難。因此,我們通常尋找
通信。在這種情況下,信息論告訴我們?nèi)绾卧O(shè)計(jì)最優(yōu)編碼,以及計(jì)算從一個(gè)特定的概率分布上采樣得到、使用多種不同的編碼機(jī)制的消息的期望長(zhǎng)度。在機(jī)器學(xué)習(xí)中,我們也可以把信息論應(yīng)用在連續(xù)型變量上,而信息論中一些消息長(zhǎng)度的解釋不怎么使用。信息論是電子工程和計(jì)算機(jī)科學(xué)的許多領(lǐng)域的基礎(chǔ)。在本書(shū)中,
深度學(xué)習(xí)是通向人工智能的途徑之一。具體來(lái)說(shuō),它是機(jī)器學(xué)習(xí)的一種,一種能夠使計(jì)算機(jī)系統(tǒng)從經(jīng)驗(yàn)和數(shù)據(jù)中得到提高的技術(shù)。我們堅(jiān)信機(jī)器學(xué)習(xí)可以構(gòu)建出在復(fù)雜實(shí)際環(huán)境下運(yùn)行的AI系統(tǒng),并且是唯一切實(shí)可行的方法。深度學(xué)習(xí)是一種特定類(lèi)型的機(jī)器學(xué)習(xí),具有強(qiáng)大的能力和靈活性,它將大千
對(duì)總訓(xùn)練時(shí)間的影響不大。提前終止是一種非常不顯眼的正則化形式,它幾乎不需要改變基本訓(xùn)練過(guò)程、目標(biāo)函數(shù)或一組允許的參數(shù)值。這意味著,無(wú)需破壞學(xué)習(xí)動(dòng)態(tài)就能很容易地使用提前終止。相對(duì)于權(quán)重衰減,必須小心不能使用太多的權(quán)重衰減,以防網(wǎng)絡(luò)陷入不良局部極小點(diǎn)(對(duì)應(yīng)于病態(tài)的小權(quán)重)。提前終止可
當(dāng)輸入向量的每個(gè)度量不被保證的時(shí)候,分類(lèi)問(wèn)題將會(huì)變得有挑戰(zhàn)性。為了解決分類(lèi)任務(wù),學(xué)習(xí)算法只需要定義一個(gè)從輸入向量映射到輸出類(lèi)別的函數(shù)。當(dāng)一些輸入可能丟失時(shí),學(xué)習(xí)算法必須學(xué)習(xí)一組函數(shù),而不是單個(gè)分類(lèi)函數(shù)。每個(gè)函數(shù)對(duì)應(yīng)著分類(lèi)具有不同缺失輸入子集的 x。這種情況在醫(yī)療診斷中經(jīng)常出現(xiàn),因
之前有幸參加8小時(shí)玩轉(zhuǎn)openGauss訓(xùn)練營(yíng)(第二期)并通過(guò)考核,并獲得優(yōu)惠參加openGauss培訓(xùn)認(rèn)證。 通過(guò)2天的OGCA培訓(xùn),學(xué)習(xí)很多關(guān)于openGauss的知識(shí)。沒(méi)學(xué)習(xí)前習(xí)慣性是先創(chuàng)建數(shù)據(jù)庫(kù)testdb和表departments,再創(chuàng)建新用戶wuyico
對(duì)于初次踏入深度學(xué)習(xí)領(lǐng)域的人員而言,選擇哪種計(jì)算框架是一個(gè)值得思考的問(wèn)題。 如果一定要選出一個(gè)框架作為你的深度學(xué)習(xí)入門(mén)工具,那么建議選擇Keras,Keras具備搭建神經(jīng)網(wǎng)絡(luò)各個(gè)零部件高度集成的API,并且對(duì)新手非常友好,基于Keras進(jìn)行一次快速的深度學(xué)習(xí)試驗(yàn)幾乎是分分鐘的事。
c8c8bf691f9235b05fc1摘要:大規(guī)模標(biāo)記數(shù)據(jù)集推動(dòng)深度學(xué)習(xí)獲得廣泛應(yīng)用,但在現(xiàn)實(shí)場(chǎng)景中收集足量的標(biāo)記數(shù)據(jù)往往耗時(shí)耗力。為了降低對(duì)標(biāo)記數(shù)據(jù)的需求,半監(jiān)督學(xué)習(xí)側(cè)重于同時(shí)探索標(biāo)記和未標(biāo)記數(shù)據(jù),而遷移學(xué)習(xí)旨在將預(yù)訓(xùn)練模型微調(diào)到目標(biāo)數(shù)據(jù)中。然而,從頭訓(xùn)練的半監(jiān)督自訓(xùn)練模型容
一些軟件框架支持使用高階導(dǎo)數(shù)。在深度學(xué)習(xí)軟件框架中,這至少包括 Theano和 TensorFlow。這些庫(kù)使用一種數(shù)據(jù)結(jié)構(gòu)來(lái)描述要被微分的原始函數(shù),它們使用相同類(lèi)型的數(shù)據(jù)結(jié)構(gòu)來(lái)描述這個(gè)函數(shù)的導(dǎo)數(shù)表達(dá)式。這意味著符號(hào)微分機(jī)制可以應(yīng)用于導(dǎo)數(shù)(從而產(chǎn)生高階導(dǎo)數(shù))。在深度學(xué)習(xí)的相關(guān)領(lǐng)域,很少會(huì)計(jì)算
入對(duì)應(yīng)不同的輸出,那么訓(xùn)練誤差可能會(huì)大于零)。最后,我們也可以將參數(shù)學(xué)習(xí)算法嵌入另一個(gè)依所需增加參數(shù)數(shù)目的算法來(lái)創(chuàng)建非參數(shù)學(xué)習(xí)算法。例如,我們可以想象一個(gè)算法,外層循環(huán)調(diào)整多項(xiàng)式的次數(shù),內(nèi)存循環(huán)通過(guò)線性回歸學(xué)習(xí)模型。理想模型假設(shè)我們能夠預(yù)先知道生成數(shù)據(jù)的真實(shí)概率分布。然而這樣的模
支持向量機(jī)的一個(gè)重要?jiǎng)?chuàng)新是核技巧 (kernel trick)。核策略觀察到許多機(jī)器學(xué)習(xí)算法都可以寫(xiě)成樣本間點(diǎn)積的形式。例如,支持向量機(jī)中的線性函數(shù)可以重寫(xiě)為: 其中,x(i) 是訓(xùn)練樣本,α 是系數(shù)向量。學(xué)習(xí)算法重寫(xiě)為這種形式允許我們將 x替換為特征函數(shù) φ(x) 的輸出,點(diǎn)積替換為被稱(chēng)為核函數(shù)