檢測(cè)到您已登錄華為云國(guó)際站賬號(hào),為了您更好的體驗(yàn),建議您訪問(wèn)國(guó)際站服務(wù)網(wǎng)站 http://m.cqfng.cn/intl/zh-cn
不再顯示此消息
深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一種,而機(jī)器學(xué)習(xí)是實(shí)現(xiàn)人工智能的必經(jīng)路徑。深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究,含多個(gè)隱藏層的多層感知器就是一種深度學(xué)習(xí)結(jié)構(gòu)。深度學(xué)習(xí)通過(guò)組合低層特征形成更加抽象的高層表示屬性類別或特征,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示。研究深度學(xué)習(xí)的動(dòng)機(jī)在于建立模擬人腦進(jìn)行分析學(xué)
深度學(xué)習(xí)是實(shí)現(xiàn)機(jī)器學(xué)習(xí)的一種技術(shù)。早期機(jī)器學(xué)習(xí)研究者中還開發(fā)了一種叫人工神經(jīng)網(wǎng)絡(luò)的算法,但是發(fā)明之后數(shù)十年都默默無(wú)聞。神經(jīng)網(wǎng)絡(luò)是受人類大腦的啟發(fā)而來(lái)的:神經(jīng)元之間的相互連接關(guān)系。但是,人類大腦中的神經(jīng)元可以與特定范圍內(nèi)的任意神經(jīng)元連接,而人工神經(jīng)網(wǎng)絡(luò)中數(shù)據(jù)傳播要經(jīng)歷不同的層,傳播
其擅長(zhǎng)深度學(xué)習(xí)所需的計(jì)算類型。在過(guò)去,這種水平的硬件對(duì)于大多數(shù)組織來(lái)說(shuō)成本費(fèi)用太高。然而,基于云計(jì)算的機(jī)器學(xué)習(xí)服務(wù)的增長(zhǎng)意味著組織可以在沒(méi)有高昂的前期基礎(chǔ)設(shè)施成本的情況下訪問(wèn)具有深度學(xué)習(xí)功能的系統(tǒng)。 •數(shù)據(jù)挑戰(zhàn):深度學(xué)習(xí)也會(huì)受到妨礙其他大數(shù)據(jù)項(xiàng)目的數(shù)據(jù)質(zhì)量和數(shù)據(jù)治理挑戰(zhàn)的阻礙。用
搭建起來(lái)的一樣,稍有不同的是,在神經(jīng)網(wǎng)絡(luò)中層的類型更多樣,而且層與層之間的聯(lián)系復(fù)雜多變。深度學(xué)習(xí)中的深度主要就是來(lái)描述神經(jīng)網(wǎng)絡(luò)中層的數(shù)量,目前神經(jīng)網(wǎng)絡(luò)可以達(dá)到成百上千層,整個(gè)網(wǎng)絡(luò)的參數(shù)量從萬(wàn)到億不等,所以深度學(xué)習(xí)并不是非常深?yuàn)W的概念,其本質(zhì)上就是神經(jīng)網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)并不是最近幾年才
Learning,DL)屬于機(jī)器學(xué)習(xí)的子類。它的靈感來(lái)源于人類大腦的工作方式,是利用深度神經(jīng)網(wǎng)絡(luò)來(lái)解決特征表達(dá)的一種學(xué)習(xí)過(guò)程。深度神經(jīng)網(wǎng)絡(luò)本身并非是一個(gè)全新的概念,可理解為包含多個(gè)隱含層的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。為了提高深層神經(jīng)網(wǎng)絡(luò)的訓(xùn)練效果,人們對(duì)神經(jīng)元的連接方法以及激活函數(shù)等方面做出了
這些學(xué)習(xí)過(guò)程中獲得的信息對(duì)諸如文字,圖像和聲音等數(shù)據(jù)的解釋有很大的幫助。它的最終目標(biāo)是讓機(jī)器能夠像人一樣具有分析學(xué)習(xí)能力,能夠識(shí)別文字、圖像和聲音等數(shù)據(jù)。 深度學(xué)習(xí)是一個(gè)復(fù)雜的機(jī)器學(xué)習(xí)算法,在語(yǔ)音和圖像識(shí)別方面取得的效果,遠(yuǎn)遠(yuǎn)超過(guò)先前相關(guān)技術(shù)。 深度學(xué)習(xí)在搜索技術(shù),數(shù)據(jù)挖掘,機(jī)器
數(shù)據(jù)依賴性性能是兩種算法之間的主要關(guān)鍵區(qū)別。雖然,當(dāng)數(shù)據(jù)很小時(shí),深度學(xué)習(xí)算法表現(xiàn)不佳。這就是是深度學(xué)習(xí)算法需要大量數(shù)據(jù)才能完美理解的原因。但是,在這種情況下,我們可以看到算法的使用以及他們手工制作的規(guī)則。上圖總結(jié)了這一事實(shí)。硬件依賴通常,深度學(xué)習(xí)依賴于高端機(jī)器,而傳統(tǒng)學(xué)習(xí)依賴于低端機(jī)器。因
所謂“ 機(jī)器學(xué)習(xí)” , 是指利用算法使計(jì)算機(jī)能夠像人一樣從數(shù)據(jù)中挖掘出信息; 而“ 深度學(xué)習(xí)”作為“機(jī)器學(xué)習(xí)”的一個(gè)**子集**, 相比其他學(xué)習(xí)方法, 使用了更多的參數(shù)、模型也更復(fù)雜, 從而使得模型對(duì)數(shù)據(jù)的理解更加深人, 也更加智能。 傳統(tǒng)機(jī)器學(xué)習(xí)是分步驟來(lái)進(jìn)行的, 每一步的最優(yōu)解不一定帶來(lái)結(jié)果的最優(yōu)解;
在放射學(xué)或無(wú)人駕駛汽車領(lǐng)域,我們對(duì)待深度學(xué)習(xí)的態(tài)度就要更加謹(jǐn)慎。如果一個(gè)小小的錯(cuò)誤就能奪去一條生命,那么深度學(xué)習(xí)還不夠優(yōu)秀,不足以應(yīng)用。在遇到與訓(xùn)練數(shù)據(jù)差異非常大的“異常值”時(shí),深度學(xué)習(xí)系統(tǒng)表現(xiàn)出的問(wèn)題尤為明顯。例如,不久前,一輛特斯拉在所謂的全自動(dòng)駕駛模式下遇到了一個(gè)站在路中間
實(shí)地執(zhí)行,所以當(dāng)用戶的代碼出現(xiàn)缺陷(bug)的時(shí)候,可以通過(guò)這些信息輕松快捷地找到出錯(cuò)的代碼,不會(huì)讓用戶在調(diào)試(Debug)的時(shí)候因?yàn)殄e(cuò)誤的指向或者異步和不透明的引擎浪費(fèi)太多的時(shí)間。 PyTorch的代碼相對(duì)于TensorFlow而言,更加簡(jiǎn)潔直觀,同時(shí)對(duì)于TensorFlow高
計(jì)算機(jī)視覺(jué)香港中文大學(xué)的多媒體實(shí)驗(yàn)室是最早應(yīng)用深度學(xué)習(xí)進(jìn)行計(jì)算機(jī)視覺(jué)研究的華人團(tuán)隊(duì)。在世界級(jí)人工智能競(jìng)賽LFW(大規(guī)模人臉識(shí)別競(jìng)賽)上,該實(shí)驗(yàn)室曾力壓FaceBook奪得冠軍,使得人工智能在該領(lǐng)域的識(shí)別能力首次超越真人。語(yǔ)音識(shí)別微軟研究人員通過(guò)與hinton合作,首先將RBM和D
計(jì)算機(jī)視覺(jué)香港中文大學(xué)的多媒體實(shí)驗(yàn)室是最早應(yīng)用深度學(xué)習(xí)進(jìn)行計(jì)算機(jī)視覺(jué)研究的華人團(tuán)隊(duì)。在世界級(jí)人工智能競(jìng)賽LFW(大規(guī)模人臉識(shí)別競(jìng)賽)上,該實(shí)驗(yàn)室曾力壓FaceBook奪得冠軍,使得人工智能在該領(lǐng)域的識(shí)別能力首次超越真人。語(yǔ)音識(shí)別微軟研究人員通過(guò)與hinton合作,首先將RBM和D
還介紹了神經(jīng)元模型的起源和全連接層的概念,以及ReLU等激活函數(shù)的作用。深度學(xué)習(xí)的核心是構(gòu)建多層的神經(jīng)網(wǎng)絡(luò),而卷積神經(jīng)網(wǎng)絡(luò)(CNN)的發(fā)展,尤其是AlexNet在2012年的突破,讓我對(duì)深度學(xué)習(xí)的強(qiáng)大能力有了更深的認(rèn)識(shí)。在學(xué)習(xí)過(guò)程中,我也了解到了不同的深度學(xué)習(xí)開發(fā)框架,包括The
組件學(xué)習(xí)組件學(xué)習(xí)不僅使用一個(gè)模型的知識(shí),還使用多個(gè)模型的知識(shí)。人們相信,通過(guò)獨(dú)特的信息組合或輸入(包括靜態(tài)和動(dòng)態(tài)),深度學(xué)習(xí)可以比單一模式更深入地理解和表現(xiàn)。遷移學(xué)習(xí)是組件學(xué)習(xí)的一個(gè)非常明顯的例子?;谶@一思想,對(duì)類似問(wèn)題預(yù)先訓(xùn)練的模型權(quán)重可用于對(duì)特定問(wèn)題進(jìn)行微調(diào)。為了區(qū)分不同類
長(zhǎng)短期記憶(Long short-term memory, LSTM)是一種特殊的RNN,主要是為了解決長(zhǎng)序列訓(xùn)練過(guò)程中的梯度消失和梯度爆炸問(wèn)題。簡(jiǎn)單來(lái)說(shuō),就是相比普通的RNN,LSTM能夠在更長(zhǎng)的序列中有更好的表現(xiàn)。
什么是深度?深度就是簡(jiǎn)單的量變。神經(jīng)網(wǎng)絡(luò)到深度神經(jīng)網(wǎng)絡(luò),就是每一層的節(jié)點(diǎn)搞多一點(diǎn),層數(shù)也搞多一點(diǎn)。但是如果說(shuō)網(wǎng)絡(luò)越深,節(jié)點(diǎn)越多,表現(xiàn)能力就越好,這個(gè)我看未必,過(guò)猶未及嘛深度神經(jīng)網(wǎng)絡(luò)本身沒(méi)再多講,講的是卷積神經(jīng)網(wǎng)絡(luò)就是CNN。這個(gè)是在60年代的時(shí)候,在研究貓的神經(jīng)元時(shí)發(fā)現(xiàn)的,199
理解神經(jīng)網(wǎng)絡(luò)基本原理及常見(jiàn)深度學(xué)習(xí)算法的結(jié)構(gòu)和基本原理。
機(jī)器學(xué)習(xí)算法是一種可以從數(shù)據(jù)中學(xué)習(xí)的算法。然而,我們所謂的 “學(xué)習(xí)”是什么意思呢?Mitchell (1997) 提供了一個(gè)簡(jiǎn)潔的定義:“對(duì)于某類任務(wù) T 和性能度量P,一個(gè)計(jì)算機(jī)程序被認(rèn)為可以從經(jīng)驗(yàn) E 中學(xué)習(xí)是指,通過(guò)經(jīng)驗(yàn) E 改進(jìn)后,它在任務(wù) T 上由性能度量
Gated Recurrent Unit – GRU 是 LSTM 的一個(gè)變體。他保留了 LSTM 劃重點(diǎn),遺忘不重要信息的特點(diǎn),在long-term 傳播的時(shí)候也不會(huì)被丟失。
這種學(xué)習(xí)范式試圖跨越監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí)之間的界限。由于缺少標(biāo)簽數(shù)據(jù)和收集標(biāo)簽數(shù)據(jù)集的高成本,它通常用于業(yè)務(wù)環(huán)境中。從本質(zhì)上講,混合學(xué)習(xí)就是這個(gè)問(wèn)題的答案。我們?nèi)绾问褂帽O(jiān)督學(xué)習(xí)方法來(lái)解決或聯(lián)系非監(jiān)督學(xué)習(xí)問(wèn)題?例如,半監(jiān)督學(xué)習(xí)在機(jī)器學(xué)習(xí)領(lǐng)域正變得越來(lái)越流行,因?yàn)樗梢院芎玫靥幚?/p>