檢測(cè)到您已登錄華為云國(guó)際站賬號(hào),為了您更好的體驗(yàn),建議您訪問國(guó)際站服務(wù)網(wǎng)站 http://m.cqfng.cn/intl/zh-cn
不再顯示此消息
處理領(lǐng)域。而研讀卷積神經(jīng)網(wǎng)絡(luò)的經(jīng)典論文,對(duì)于學(xué)習(xí)和研究卷積神經(jīng)網(wǎng)絡(luò)必不可缺。今天,給大家推薦一些資料,有論文、知識(shí)圖譜。7份經(jīng)典學(xué)術(shù)論文這些論文大部分都發(fā)表在計(jì)算機(jī)視覺頂級(jí)學(xué)術(shù)會(huì)議上。這7份論文資料,100p以上的內(nèi)容體量。建議收藏學(xué)習(xí)。01 resnet02 CNN03 batchnorm04 alexnet05
躍,打破桎梏,真正進(jìn)入了深度學(xué)習(xí)的時(shí)代。 · 更深還是更寬?:變深比較重要,變寬沒那么重要。增寬的學(xué)習(xí)效率是線性增長(zhǎng),而加深的學(xué)習(xí)效率是幾何式增長(zhǎng)。有論文論證了深度的重要作用。 · 新手入門的推薦方法:網(wǎng)上找來代碼去跑通。先熟悉/找感覺,再進(jìn)行更多的學(xué)習(xí)。 · 訓(xùn)練方法的變化:隨機(jī)梯度下降/設(shè)置學(xué)習(xí)率。
png1600538500706002867.png 今天華為云服務(wù)器到期,已經(jīng)做釋放,原本想做文章推薦。但是因某種原因,目前暫時(shí)只做到離線文章畫像。后期只能使用筆記本電腦來做。電腦配置cpu為4核8線程,內(nèi)存32G,只能夠開5臺(tái)虛擬機(jī)和PyCharm。剛好能搭建一套高可用hado
Systems》進(jìn)一步全面地歸納了近年來基于知識(shí)圖譜的推薦系統(tǒng)方面的相關(guān)工作,其闡述如下:為了解決信息爆炸問題,增強(qiáng)各種在線應(yīng)用的用戶體驗(yàn),開發(fā)了基于用戶偏好的推薦系統(tǒng)。盡管為實(shí)現(xiàn)更個(gè)性化的推薦做出了許多努力,但推薦系統(tǒng)仍然面臨著一些挑戰(zhàn),如數(shù)據(jù)稀疏和冷啟動(dòng)問題。近年來,以知識(shí)圖譜作為邊信息生成推薦引起了人們的極大興
較大時(shí),Cramér-Rao 下界(Rao, 1945; Cramér, 1946) 表明不存在均方誤差低于最大似然學(xué)習(xí)的一致估計(jì)。因?yàn)檫@些原因(一致性和統(tǒng)計(jì)效率),最大似然通常是機(jī)器學(xué)習(xí)中的首選估計(jì)。當(dāng)樣本數(shù)目小到會(huì)過擬合時(shí),正則化策略如權(quán)重衰減可用于獲得訓(xùn)練數(shù)據(jù)有限時(shí)方差較小的最大似然有偏版本。
我們經(jīng)常會(huì)需要在已知 P (y | x) 時(shí)計(jì)算 P (x | y)。幸運(yùn)的是,如果還知道 P (x),我們可以用貝葉斯規(guī)則 (Bayes’ rule) 來實(shí)現(xiàn)這一目的: 注意到 P (y) 出現(xiàn)在上面的公式中,它通常使用 P (y) = ∑x P (y
0那一節(jié)開始看起,環(huán)境呢就不用自己搭建了,直接用modelarts里的開發(fā)環(huán)境Notebook里的jupyterLab,免費(fèi)使用只是每小時(shí)會(huì)停止一下,對(duì)于學(xué)習(xí)來說沒有關(guān)系。基本概念,tensorflow=tensor張量 + flow 流張量具體是啥意思之前不是很明白,只知道張力的概念,比如在亞
從算法上提升性能 a. 算法的篩選 b. 從文獻(xiàn)中學(xué)習(xí) c. 重采樣的方法3. 從算法調(diào)優(yōu)上提升性能 a. 模型可診斷性 b. 權(quán)重的初始化 c. 學(xué)習(xí)率 d. 激活函數(shù) e. 網(wǎng)絡(luò)結(jié)構(gòu) f. batch和epoch g. 正則項(xiàng) h. 優(yōu)化目標(biāo) i. 提早結(jié)束訓(xùn)練4. 從模型融合上提升性能
這個(gè)房?jī)r(jià)預(yù)測(cè)的例子基本就結(jié)束了,下面是用TensorBoard來將算法,和模型訓(xùn)練過程的一些信息進(jìn)行可視化。可視化是一件有意見的工作,有助于信息的理解和推廣??梢暬趍odelarts的老版的訓(xùn)練作業(yè)下,是收費(fèi)的,但這個(gè)服務(wù)在新版的訓(xùn)練作業(yè)里已經(jīng)沒有了,也行是因?yàn)檫@個(gè)可視化服務(wù)的
終于進(jìn)了一步,看到了MNIST手寫數(shù)字識(shí)別,使用一個(gè)神經(jīng)元。 MNIST數(shù)據(jù)集來自于NIST 美國(guó)國(guó)家標(biāo)準(zhǔn)和技術(shù)研究所。 找學(xué)生和工作人員手寫的。 規(guī)模:訓(xùn)練集55000,驗(yàn)證集5000,測(cè)試集10000。大小約10M。 數(shù)據(jù)集可以在網(wǎng)站上去下載,同時(shí)tf自己里面已經(jīng)集成了這個(gè)數(shù)據(jù)集。
數(shù)據(jù)不是收集的,是自己生成的,好吧~一個(gè)簡(jiǎn)單的例子學(xué)習(xí)用的沒關(guān)系%matplotlib inline這個(gè)是為了讓在jupyter在瀏覽器里能夠顯示圖像。生成y=2x+1的隨機(jī)數(shù)據(jù),數(shù)據(jù)加背景噪聲限值0.4生成等差數(shù)列,100個(gè)x_data=np.linspace(-1,1,100)y_data=2*x_data+1
訓(xùn)練模型跑出來了后,要使用,但是我們沒有數(shù)據(jù)了,因?yàn)閿?shù)據(jù)都拿去訓(xùn)練了。 所以課程中,隨機(jī)挑了一條訓(xùn)練數(shù)據(jù)來應(yīng)用到模型里來使用。 這樣是不好的,因?yàn)榫拖?span id="2uwm08k" class='cur'>學(xué)習(xí)訓(xùn)練時(shí)將考試題都讓你做過一遍,再讓你考試就不公平了,類似于作弊了。 應(yīng)該是考你運(yùn)用學(xué)到的知識(shí),來做沒做過的題。 那比較好的做法呢,是有一些數(shù)據(jù),把這些數(shù)據(jù)分一分,
從人的角度來看,12個(gè)特征比1個(gè)特征要復(fù)雜了很多, 但對(duì)計(jì)算機(jī)來說,無所謂。 在tf里,12元的線性回歸方程的實(shí)現(xiàn),比1元的線性方程的實(shí)現(xiàn),代碼上也只是多了一點(diǎn)點(diǎn)復(fù)雜度而已。 這就是計(jì)算機(jī)的優(yōu)勢(shì)。 只是最后訓(xùn)練的結(jié)果,為什么都是nan,像老師說的,臉都黑了哦~ 這次先到這里,請(qǐng)聽下回分解~
落了很長(zhǎng)時(shí)間沒學(xué),撿起來繼續(xù)。編號(hào)也忘了從哪里接上,就從20開始吧。 前面弄完了一元線性回歸,現(xiàn)在是波士頓房?jī)r(jià)預(yù)測(cè)-多元線性回歸。 數(shù)據(jù)方面,12+1共13個(gè)指標(biāo),506行數(shù)據(jù)。 前面12個(gè)是多個(gè)維度的數(shù)據(jù),維度還是比較全面的,是輸入值/特征。 比如:城鎮(zhèn)人均犯罪率、師生比例、住宅比例、邊界是否為河流等
難易程度也可以看出,圍棋是最強(qiáng)調(diào)系統(tǒng)性思維的,所以 AI想要戰(zhàn)勝人類也是最難的。第一講到這里就結(jié)束了,第二講看了一點(diǎn),其中關(guān)于人工智能機(jī)器學(xué)習(xí)概念,除了公式的定義之外,用類比的方法講的非常的簡(jiǎn)單易懂
上一節(jié)訓(xùn)練不出結(jié)果,都是nan的原因找到了,就是因?yàn)樘卣鲾?shù)據(jù)沒有做歸一化,那歸一化是個(gè)什么概念呢?這里有一個(gè)很好的例子,做一道菜,準(zhǔn)備好材料鴨、筍、....鹽、醬油...水,再加上烹飪火候,可以做出一道菜。上面做菜的每一個(gè)要素,都可以看做一個(gè)特征變量,而重量可以看做是特征變量的值,比如鴨肉xxg
太快步子大了容易扯著蛋,也沒有必要。這里的用學(xué)習(xí)率/步長(zhǎng)來描述這個(gè)節(jié)奏,如果梯度是2.5,學(xué)習(xí)率是0.01,那下一個(gè)嘗試的點(diǎn)是距離前一個(gè)點(diǎn)2.5*0.01=0.0025的位置。(梯度是固定的,還是每走一步都會(huì)變的呢?)個(gè)人認(rèn)為好的學(xué)習(xí)率,不應(yīng)該是一個(gè)固定值,而應(yīng)該是先大后小。也就
在1904年的時(shí)候,生物學(xué)家了解了神經(jīng)元的結(jié)構(gòu)然后在1945年的時(shí)候發(fā)明了神經(jīng)元模型。那么這個(gè)神經(jīng)元的模型真的可以模擬生物的神經(jīng)功能嗎,個(gè)人覺得有點(diǎn)奇妙,不過動(dòng)物植物本來都是很奇妙的存在。所謂的全連接層,就是說某層的一個(gè)節(jié)點(diǎn),和他上一層的所有節(jié)點(diǎn)都有連接。就像連接的邊長(zhǎng)不同,每條
人工智能相關(guān)的課程,看了一下確實(shí)很不錯(cuò)。課程名稱叫做《深度學(xué)習(xí)應(yīng)用開發(fā) 基于tensorflow的實(shí)踐》。是一個(gè)入門級(jí)別的課程,不需要人工智能的基礎(chǔ),不需要太多的數(shù)學(xué)知識(shí),也不需要什么編程經(jīng)驗(yàn)。我覺得很友好呀,所以現(xiàn)在開始學(xué)習(xí)并記錄一下第一講:導(dǎo)論第二講:環(huán)境搭建和Python快
征,?},用于對(duì)新數(shù)據(jù)做出預(yù)測(cè)模型可將樣本映射到預(yù)測(cè)標(biāo)簽,由模型的內(nèi)部參數(shù)定義,內(nèi)部參數(shù)通過學(xué)習(xí)得到具體到這里,參數(shù)就是 y=wx+b里的w和b,也叫權(quán)重和偏差?在監(jiān)督式學(xué)習(xí)中,機(jī)器學(xué)習(xí)算法通過以下方式構(gòu)建模型:檢查多個(gè)樣本并嘗試找出可最大限度的減少損失的模型。這一過程稱為經(jīng)驗(yàn)風(fēng)