檢測(cè)到您已登錄華為云國(guó)際站賬號(hào),為了您更好的體驗(yàn),建議您訪(fǎng)問(wèn)國(guó)際站服務(wù)網(wǎng)站 http://m.cqfng.cn/intl/zh-cn
不再顯示此消息
從人的角度來(lái)看,12個(gè)特征比1個(gè)特征要復(fù)雜了很多, 但對(duì)計(jì)算機(jī)來(lái)說(shuō),無(wú)所謂。 在tf里,12元的線(xiàn)性回歸方程的實(shí)現(xiàn),比1元的線(xiàn)性方程的實(shí)現(xiàn),代碼上也只是多了一點(diǎn)點(diǎn)復(fù)雜度而已。 這就是計(jì)算機(jī)的優(yōu)勢(shì)。 只是最后訓(xùn)練的結(jié)果,為什么都是nan,像老師說(shuō)的,臉都黑了哦~ 這次先到這里,請(qǐng)聽(tīng)下回分解~
落了很長(zhǎng)時(shí)間沒(méi)學(xué),撿起來(lái)繼續(xù)。編號(hào)也忘了從哪里接上,就從20開(kāi)始吧。 前面弄完了一元線(xiàn)性回歸,現(xiàn)在是波士頓房?jī)r(jià)預(yù)測(cè)-多元線(xiàn)性回歸。 數(shù)據(jù)方面,12+1共13個(gè)指標(biāo),506行數(shù)據(jù)。 前面12個(gè)是多個(gè)維度的數(shù)據(jù),維度還是比較全面的,是輸入值/特征。 比如:城鎮(zhèn)人均犯罪率、師生比例、住宅比例、邊界是否為河流等
難易程度也可以看出,圍棋是最強(qiáng)調(diào)系統(tǒng)性思維的,所以 AI想要戰(zhàn)勝人類(lèi)也是最難的。第一講到這里就結(jié)束了,第二講看了一點(diǎn),其中關(guān)于人工智能機(jī)器學(xué)習(xí)概念,除了公式的定義之外,用類(lèi)比的方法講的非常的簡(jiǎn)單易懂
上一節(jié)訓(xùn)練不出結(jié)果,都是nan的原因找到了,就是因?yàn)樘卣鲾?shù)據(jù)沒(méi)有做歸一化,那歸一化是個(gè)什么概念呢?這里有一個(gè)很好的例子,做一道菜,準(zhǔn)備好材料鴨、筍、....鹽、醬油...水,再加上烹飪火候,可以做出一道菜。上面做菜的每一個(gè)要素,都可以看做一個(gè)特征變量,而重量可以看做是特征變量的值,比如鴨肉xxg
太快步子大了容易扯著蛋,也沒(méi)有必要。這里的用學(xué)習(xí)率/步長(zhǎng)來(lái)描述這個(gè)節(jié)奏,如果梯度是2.5,學(xué)習(xí)率是0.01,那下一個(gè)嘗試的點(diǎn)是距離前一個(gè)點(diǎn)2.5*0.01=0.0025的位置。(梯度是固定的,還是每走一步都會(huì)變的呢?)個(gè)人認(rèn)為好的學(xué)習(xí)率,不應(yīng)該是一個(gè)固定值,而應(yīng)該是先大后小。也就
在1904年的時(shí)候,生物學(xué)家了解了神經(jīng)元的結(jié)構(gòu)然后在1945年的時(shí)候發(fā)明了神經(jīng)元模型。那么這個(gè)神經(jīng)元的模型真的可以模擬生物的神經(jīng)功能嗎,個(gè)人覺(jué)得有點(diǎn)奇妙,不過(guò)動(dòng)物植物本來(lái)都是很奇妙的存在。所謂的全連接層,就是說(shuō)某層的一個(gè)節(jié)點(diǎn),和他上一層的所有節(jié)點(diǎn)都有連接。就像連接的邊長(zhǎng)不同,每條
人工智能相關(guān)的課程,看了一下確實(shí)很不錯(cuò)。課程名稱(chēng)叫做《深度學(xué)習(xí)應(yīng)用開(kāi)發(fā) 基于tensorflow的實(shí)踐》。是一個(gè)入門(mén)級(jí)別的課程,不需要人工智能的基礎(chǔ),不需要太多的數(shù)學(xué)知識(shí),也不需要什么編程經(jīng)驗(yàn)。我覺(jué)得很友好呀,所以現(xiàn)在開(kāi)始學(xué)習(xí)并記錄一下第一講:導(dǎo)論第二講:環(huán)境搭建和Python快
征,?},用于對(duì)新數(shù)據(jù)做出預(yù)測(cè)模型可將樣本映射到預(yù)測(cè)標(biāo)簽,由模型的內(nèi)部參數(shù)定義,內(nèi)部參數(shù)通過(guò)學(xué)習(xí)得到具體到這里,參數(shù)就是 y=wx+b里的w和b,也叫權(quán)重和偏差?在監(jiān)督式學(xué)習(xí)中,機(jī)器學(xué)習(xí)算法通過(guò)以下方式構(gòu)建模型:檢查多個(gè)樣本并嘗試找出可最大限度的減少損失的模型。這一過(guò)程稱(chēng)為經(jīng)驗(yàn)風(fēng)
com/data/forums/attachment/forum/202108/04/105156dxvyfdoaeoob1d2w.png) ```python #插播學(xué)習(xí)一下reshape,總體順序還是不變,但切分點(diǎn)變了 import numpy as np int_array=np.array([i for
這里談到了獨(dú)熱編碼one-hot,獨(dú)熱編碼是用來(lái)表示標(biāo)簽數(shù)據(jù)的。前面已經(jīng)知道了,標(biāo)簽數(shù)據(jù)很簡(jiǎn)單,就是表示0-9范圍內(nèi)的一個(gè)數(shù)字。 說(shuō)實(shí)話(huà)獨(dú)熱編碼有什么用處,真的還沒(méi)有理解。還有什么歐式空間的概念啊,都很陌生。 看看代碼吧。 ```python #獨(dú)熱編碼示例。 x=[3,4] tf
可視化還是比較重要的,因?yàn)閿?shù)據(jù)能在圖形上看到,會(huì)更直觀,更符合人的認(rèn)知思維。 這里先來(lái)展示一下loss的可視化。 用matplot將列表值畫(huà)出來(lái),調(diào)用非常簡(jiǎn)單 plt.plot(loss_list) 橫坐標(biāo)是列表中的索引,縱坐標(biāo)是列表值,也就是loss值。 可以看到,曲線(xiàn)在收斂了
有監(jiān)督學(xué)習(xí),無(wú)監(jiān)督學(xué)習(xí),半監(jiān)督學(xué)習(xí),強(qiáng)化學(xué)習(xí)。強(qiáng)化學(xué)習(xí)說(shuō)的非常厲害,適用于下棋和游戲這一類(lèi)領(lǐng)域,基本邏輯是正確就獎(jiǎng)勵(lì),錯(cuò)誤就懲罰來(lái)做一個(gè)學(xué)習(xí)。那么無(wú)監(jiān)督學(xué)習(xí)的典型應(yīng)用模式是什么呢?說(shuō)出來(lái)之后你就會(huì)覺(jué)得無(wú)監(jiān)督學(xué)習(xí)沒(méi)有那么神秘了,那就是聚類(lèi)。一個(gè)比較典型的例子就是超市里貨架商品擺放,
對(duì)于如何處理估計(jì)不確定性的這個(gè)問(wèn)題,貝葉斯派的答案是積分,這往往會(huì)防止過(guò)擬合。積分當(dāng)然是概率法則的應(yīng)用,使貝葉斯方法容易驗(yàn)證,而頻率派機(jī)器學(xué)習(xí)基于相當(dāng)特別的決定構(gòu)建了一個(gè)估計(jì),將數(shù)據(jù)集里的所有信息歸納到一個(gè)單獨(dú)的點(diǎn)估計(jì)。貝葉斯方法和最大似然方法的第二個(gè)最大區(qū)別是由貝葉斯先驗(yàn)分布造
有時(shí)候,在 x 的所有可能值下最大化或最小化一個(gè)函數(shù) f(x) 不是我們所希望的。相反,我們可能希望在 x 的某些集合 S 中找 f(x) 的最大值或最小值。這被稱(chēng)為約束優(yōu)化 (constrained optimization)。在約束優(yōu)化術(shù)語(yǔ)中,集合 S 內(nèi)的點(diǎn) x
標(biāo)量:一個(gè)標(biāo)量就是一個(gè)單獨(dú)的數(shù),不同于線(xiàn)性代數(shù)中大多數(shù)概念會(huì)涉及到多個(gè)數(shù)。我們用斜體表示標(biāo)量。標(biāo)量通常賦予小寫(xiě)的變量名稱(chēng)。當(dāng)我們介紹標(biāo)量時(shí),會(huì)明確它們是哪種類(lèi)型的數(shù)。比如,在定義實(shí)數(shù)標(biāo)量時(shí),我們可能會(huì)說(shuō)“讓s ∈ R 表示一條線(xiàn)的斜率”;在定義自然數(shù)標(biāo)量時(shí),我們可能會(huì)說(shuō)“讓n
深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一種,而機(jī)器學(xué)習(xí)是實(shí)現(xiàn)人工智能的必經(jīng)路徑。深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究,含多個(gè)隱藏層的多層感知器就是一種深度學(xué)習(xí)結(jié)構(gòu)。深度學(xué)習(xí)通過(guò)組合低層特征形成更加抽象的高層表示屬性類(lèi)別或特征,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示。研究深度學(xué)習(xí)的動(dòng)機(jī)在于建立模擬人腦進(jìn)行分析學(xué)
Multinoulli 分布 (multinoulli distribution) 或者分類(lèi)分布 (categorical distri-bution) 是指在具有 k 個(gè)不同狀態(tài)的單個(gè)離散型隨機(jī)變量上的分布,k 是有限的。2 Multinoulli 分布的參數(shù)是向量
我們可以使用最大似然估計(jì)找到對(duì)于有參分布族 p(y | x; θ) 最好的參數(shù)向量 θ。我們已經(jīng)看到,線(xiàn)性回歸對(duì)應(yīng)于分布族p(y | x; θ) = N (y; θ?x, I).通過(guò)定義一族不同的概率分布,我們可以將線(xiàn)性回歸擴(kuò)展到分類(lèi)情況中。如果我們有兩個(gè)類(lèi),類(lèi) 0 和類(lèi) 1,那么我們只需要指定這兩類(lèi)之一的概率。類(lèi)
房?jī)r(jià)的tf2版本,有一些變化。 1是直接使用sklearn.preprocessing里的scale來(lái)做歸一化,更簡(jiǎn)單便捷 2不是一股腦將數(shù)據(jù)全用于訓(xùn)練,劃分了分別用于訓(xùn)練、驗(yàn)證、測(cè)試的數(shù)據(jù) 3損失函數(shù),優(yōu)化器方面,代碼有變化,頭疼~ 4對(duì)訓(xùn)練數(shù)據(jù)沒(méi)有做打散的操作 代碼如下: 最
還有一個(gè)是vggnet,他的問(wèn)題是參數(shù)太大。深度學(xué)習(xí)的問(wèn)題:1面向任務(wù)單一,依賴(lài)于大規(guī)模有標(biāo)簽數(shù)據(jù),幾乎是個(gè)黑箱模型?,F(xiàn)在人工智能基本由深度學(xué)習(xí)代表了,但人工智能還有更多。。。然后就開(kāi)始講深度學(xué)習(xí)的開(kāi)發(fā)框架。先整了了Theano,開(kāi)始于2007年的加拿大的蒙特利爾大學(xué)。隨著ten