檢測到您已登錄華為云國際站賬號,為了您更好的體驗,建議您訪問國際站服務(wù)網(wǎng)站 http://m.cqfng.cn/intl/zh-cn
不再顯示此消息
深度神經(jīng)網(wǎng)絡(luò):深度學(xué)習(xí)的模型有很多,目前開發(fā)者最常用的深度學(xué)習(xí)模型與架構(gòu)包括卷積神經(jīng)網(wǎng)絡(luò) (CNN)、深度置信網(wǎng)絡(luò) (DBN)、受限玻爾茲曼機(jī) (RBM)、遞歸神經(jīng)網(wǎng)絡(luò) (RNN & LSTM & GRU)、遞歸張量神經(jīng)網(wǎng)絡(luò) (RNTN)、自動編碼器 (AutoEncoder)、生成對抗網(wǎng)絡(luò)
但是,當(dāng)前大多數(shù)基于深度學(xué)習(xí)的語言模型都將句子視為詞的序列。在遇到陌生的句子結(jié)構(gòu)時,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)無法系統(tǒng)地展示、擴(kuò)展句子的遞歸結(jié)構(gòu),深度學(xué)習(xí)學(xué)到的各組特征之間的關(guān)聯(lián)是平面的,沒有層級關(guān)系,那么請問層級關(guān)系是重要嗎,在哪些方面能夠體現(xiàn)
深度學(xué)習(xí)區(qū)別于傳統(tǒng)的淺層學(xué)習(xí),深度學(xué)習(xí)的不同在于: (1)強(qiáng)調(diào)了模型結(jié)構(gòu)的深度,通常有5層、6層,甚至10多層的隱層節(jié)點;(2)明確了特征學(xué)習(xí)的重要性。也就是說,通過逐層特征變換,將樣本在原空間的特征表示變換到一個新特征空間,從而使分類或預(yù)測更容易。
在深度學(xué)習(xí)領(lǐng)域,特別是在NLP(最令人興奮的深度學(xué)習(xí)研究領(lǐng)域)中,該模型的規(guī)模正在擴(kuò)大。最新的gpt-3模型有1750億個參數(shù)。把它比作伯特就像把木星比作蚊子一樣(好吧,不是字面意思)。深度學(xué)習(xí)的未來會更大嗎?
欠擬合、過擬合的總結(jié)如下:接下來是TensorFlow框架部分,之前有個帖子 基于TensorFlow 2建立深度學(xué)習(xí)的模型 - 快速入門 cid:link_0然后會使用它來建立線性回歸模型和神經(jīng)網(wǎng)絡(luò)分類模型敬請期待
但是這個方法只適合少數(shù)結(jié)構(gòu)比較簡單的模型(比如線性回歸模型),不能求解深度學(xué)習(xí)這類復(fù)雜模型的參數(shù)。 所以下面介紹的是深度學(xué)習(xí)中常用的優(yōu)化算法:`梯度下降法`。其中有三個不同的變體:隨機(jī)梯度下降法、全數(shù)據(jù)梯度下降法、和批量隨機(jī)梯度下降法。
科技公司通過基于GAN的深度學(xué)習(xí)開發(fā)了一種名為“自動全身模型生成人工智能”的技術(shù),他們完全是由人工智能虛擬而成,時尚品牌或廣告代理商因而可以不用支付模特酬勞,也不用負(fù)擔(dān)拍攝相關(guān)的人員、場地、燈光、設(shè)備、甚至是餐飲等成本,這意味著人工智能已經(jīng)完全可以取代人類模特拍攝時尚宣傳廣告了。
這兩個問題說明,在深度學(xué)習(xí)中我們很少使用經(jīng)驗風(fēng)險最小化。反之,我們會使用一個稍有不同的方法,我們真正優(yōu)化的目標(biāo)會更加不同于我們希望優(yōu)化的目標(biāo)。
另一種深度學(xué)習(xí)算法——批標(biāo)準(zhǔn)化,在訓(xùn)練時向隱藏單元引入加性和乘性噪聲重新參數(shù)化模型。批標(biāo)準(zhǔn)化的主要目的是改善優(yōu)化,但噪聲具有正則化的效果,有時沒必要再使用Dropout。
點擊訪問華為云深度學(xué)習(xí)官網(wǎng)
而手工選取特征費時費力,需要專業(yè)知識,很大程度上靠經(jīng)驗和運氣,那么機(jī)器能不能自動的學(xué)習(xí)特征呢?深度學(xué)習(xí)的出現(xiàn)就這個問題提出了一種解決方案。
ReLU(Rectified Linear Unit)函數(shù)出現(xiàn)和流行的時間都比較晚,但卻是深度學(xué)習(xí)常用的激活函數(shù)。它非常簡單: ReLU(x)=max(x,0) 是一個折線函數(shù),所有負(fù)的輸入值都變換成0,所有非負(fù)的輸入值,函數(shù)值都等于輸入值本身。
深度學(xué)習(xí)中常用的backbone有resnet系列(resnet的各種變體)、NAS網(wǎng)絡(luò)系列(RegNet)、Mobilenet系列、Darknet系列、HRNet系列、Transformer系列和ConvNeXt。
資深的深度學(xué)習(xí)開發(fā)者都體會過手動求解的過程,不僅求導(dǎo)過程復(fù)雜,結(jié)果還很容易出錯。所以現(xiàn)有深度學(xué)習(xí)框架,都有自動微分的特性,幫助開發(fā)者利用自動微分技術(shù)實現(xiàn)自動求導(dǎo),解決這個復(fù)雜、關(guān)鍵的過程。
第一步類似神經(jīng)網(wǎng)絡(luò)的隨機(jī)初始化初值過程,由于第一步不是隨機(jī)初始化,而是通過學(xué)習(xí)輸入數(shù)據(jù)的結(jié)構(gòu)得到的,因而這個初值更接近全局最優(yōu),從而能夠取得更好的效果。所以深度學(xué)習(xí)的良好效果在很大程度上歸功于第一步的特征學(xué)習(xí)的過程。
到目前為止,面向自然語言處理任務(wù)的深度學(xué)習(xí)架構(gòu)仍在不斷進(jìn)化,與強(qiáng)化學(xué)習(xí)、無監(jiān)督學(xué)習(xí)等的結(jié)合應(yīng)該會帶來效果更優(yōu)的模型。1.3.4 其他領(lǐng)域深度學(xué)習(xí)在其他領(lǐng)域(如生物學(xué)、醫(yī)療和金融等)也有很多應(yīng)用。在生物學(xué)研究中,深度學(xué)習(xí)算法可以發(fā)現(xiàn)人類無法捕捉到的特征。
深度學(xué)習(xí)借鑒的這個過程就是建模的過程。
深度學(xué)習(xí)框架有哪些?各有什么優(yōu)勢?
深度學(xué)習(xí)區(qū)別于傳統(tǒng)的淺層學(xué)習(xí),深度學(xué)習(xí)的不同在于: (1)強(qiáng)調(diào)了模型結(jié)構(gòu)的深度,通常有5層、6層,甚至10多層的隱層節(jié)點;(2)明確了特征學(xué)習(xí)的重要性。也就是說,通過逐層特征變換,將樣本在原空間的特征表示變換到一個新特征空間,從而使分類或預(yù)測更容易。
盡管在圖上進(jìn)行深度學(xué)習(xí)的不同模型太多了,但迄今為止,很少有人提出方法來處理呈現(xiàn)某種動態(tài)性質(zhì)的圖(例如,隨著時間的推移而進(jìn)化的特征或連通性)。在本文中,我們提出了時序圖網(wǎng)絡(luò)(TGNs),一個通用的,有效的框架,用于深度學(xué)習(xí)動態(tài)圖表示為時間事件序列。