五月婷婷丁香性爱|j久久一级免费片|久久美女福利视频|中文观看在线观看|加勒比四区三区二|亚洲裸女视频网站|超碰97AV在线69网站免费观看|有码在线免费视频|久久青青日本视频|亚洲国产AAAA

已找到以下 400 條記錄
AI智能搜索
AI智能搜索
  • 分享深度學(xué)習(xí)算法——GPT-GNN

    Ziniu /Dong Yuxiao /Wang Kuansan /Chang Kai-Wei /Sun Yizhou發(fā)表時(shí)間:2020/6/27論文鏈接:https://arxiv.org/abs/2006.15437推薦原因該論文介紹的工作是致力于預(yù)訓(xùn)練圖神經(jīng)網(wǎng)絡(luò),以期GNN能夠學(xué)習(xí)到圖數(shù)據(jù)的結(jié)構(gòu)和特征信息

    作者: 初學(xué)者7000
    發(fā)表時(shí)間: 2021-04-09 12:41:15.0
    938
    1
  • 深度學(xué)習(xí)筆記之應(yīng)用

          深度學(xué)習(xí)對語音識別產(chǎn)生了巨大影響。語音識別在 20 世紀(jì) 90 年代得到提高后,直到約 2000 年都停滯不前。

    作者: 小強(qiáng)鼓掌
    發(fā)表時(shí)間: 2020-12-26 10:32:47.0
    624
    0
  • 深度學(xué)習(xí)之泛化誤差

    隨著數(shù)據(jù)集的規(guī)模迅速增長,超越了計(jì)算能力的增速,機(jī)器學(xué)習(xí)應(yīng)用每個(gè)樣本只使用一次的情況變得越來越常見,甚至是不完整地使用訓(xùn)練集。在使用一個(gè)非常大的訓(xùn)練集時(shí),過擬合不再是問題,而欠擬合和計(jì)算效率變成了主要的顧慮。

    作者: 小強(qiáng)鼓掌
    發(fā)表時(shí)間: 2021-09-30 02:41:56.0
    545
    1
  • 什么專業(yè)的學(xué)生接觸深度學(xué)習(xí)更多呢

    深度學(xué)習(xí)在那個(gè)專業(yè)應(yīng)用前景更廣泛呢

    作者: yyy7124
    發(fā)表時(shí)間: 2020-11-17 07:32:50.0
    849
    2
  • 深度學(xué)習(xí)之Dropout優(yōu)點(diǎn)

    當(dāng)有其他未分類的數(shù)據(jù)可用時(shí),無監(jiān)督特征學(xué)習(xí)也比Dropout更有優(yōu)勢。

    作者: 小強(qiáng)鼓掌
    發(fā)表時(shí)間: 2022-02-26 08:37:47.0
    640
    1
  • 深度學(xué)習(xí)之隨機(jī)梯度下降

    在學(xué)術(shù)界,深度學(xué)習(xí)從 2006 年開始收到關(guān)注的原因是,在數(shù)以萬計(jì)樣本的中等規(guī)模數(shù)據(jù)集上,深度學(xué)習(xí)在新樣本上比當(dāng)時(shí)很多熱門算法泛化得更好。不久后,深度學(xué)習(xí)在工業(yè)界受到了更多的關(guān)注,因?yàn)槠涮峁┝艘环N可擴(kuò)展的方式訓(xùn)練大數(shù)據(jù)集上的非線性模型。

    作者: 小強(qiáng)鼓掌
    發(fā)表時(shí)間: 2021-01-23 02:54:38.0
    1324
    1
  • 深度學(xué)習(xí)之參數(shù)范數(shù)懲罰

    正則化在深度學(xué)習(xí)的出現(xiàn)前就已經(jīng)被使用了數(shù)十年。線性模型,如線性回歸和邏輯回歸可以使用簡單、直接、有效的正則化策略。許多正則化方法通過對目標(biāo)函數(shù) J 添加一個(gè)參數(shù)范數(shù)懲罰 ?(θ),限制模型(如神經(jīng)網(wǎng)絡(luò)、線性回歸或邏輯回歸)的學(xué)習(xí)能力。

    作者: 小強(qiáng)鼓掌
    發(fā)表時(shí)間: 2021-07-25 08:12:16.0
    841
    0
  • 深度學(xué)習(xí)之主成分分析

    我們也可以將PCA視為學(xué)習(xí)數(shù)據(jù)表示的無監(jiān)督學(xué)習(xí)算法。這種表示基于上述簡單表示的兩個(gè)標(biāo)準(zhǔn)。PCA學(xué)習(xí)一種比原始輸入低維的表示。它也學(xué)習(xí)了一種元素之間彼此沒有線性相關(guān)的表示。這是學(xué)習(xí)表示中元素統(tǒng)計(jì)獨(dú)立標(biāo)準(zhǔn)的第一步。要實(shí)現(xiàn)完全獨(dú)立性,表示學(xué)習(xí)算法必須也去掉變量間的非線性關(guān)系。

    作者: 小強(qiáng)鼓掌
    發(fā)表時(shí)間: 2021-03-27 03:41:06
    630
    1
  • 深度學(xué)習(xí)中的知識蒸餾技術(shù)

    深度學(xué)習(xí)在計(jì)算機(jī)視覺、語音識別、自然語言處理等內(nèi)的眾多領(lǐng)域中均取得了令人難以置信的性能。但是,大多數(shù)模型在計(jì)算上過于昂貴,無法在移動端或嵌入式設(shè)備上運(yùn)行。因此需要對模型進(jìn)行壓縮,且知識蒸餾是模型壓縮中重要的技術(shù)之一。1.

    作者: 可愛又積極
    發(fā)表時(shí)間: 2021-04-26 08:28:19
    1084
    3
  • 深度學(xué)習(xí)計(jì)算框架選擇-PyTorch

    但TensorFlow、Keras和PyTorch這3種深度學(xué)習(xí)計(jì)算框架我們都要學(xué)習(xí),一個(gè)好的深度學(xué)習(xí)項(xiàng)目不能因?yàn)槭褂昧瞬煌目蚣芏刮覀冨e(cuò)過它們。

    作者: 黃生
    發(fā)表時(shí)間: 2023-11-28 13:41:52
    17
    0
  • 深度學(xué)習(xí)之代理損失函數(shù)

    反之,機(jī)器學(xué)習(xí)通常優(yōu)化代理損失函數(shù),但是在基于提前終止(第 7.8 節(jié))的收斂條件滿足時(shí)停止。通常,提前終止使用真實(shí)潛在損失函數(shù),如驗(yàn)證集上的 0 − 1 損失,并設(shè)計(jì)為在過擬合發(fā)生之前終止。與純優(yōu)化不同的是,提前終止時(shí)代理損失函數(shù)仍然有較大的導(dǎo)數(shù),而純優(yōu)化終止時(shí)導(dǎo)數(shù)較小。

    作者: 小強(qiáng)鼓掌
    發(fā)表時(shí)間: 2022-02-26 11:01:20
    661
    1
  • Windows系統(tǒng)深度學(xué)習(xí)環(huán)境配置

    1.1 打開Anaconda Prompt1、conda create -n pytorch python=3.7.0:創(chuàng)建名為pytorch的虛擬環(huán)境,并為該環(huán)境安裝python=3.7。2、activate pytorch:激活名為pytorch的環(huán)境1.2 確定硬件支持的CUDA

    作者: @Wu
    發(fā)表時(shí)間: 2022-02-28 11:41:07
    451
    0
  • 機(jī)器學(xué)習(xí)與深度學(xué)習(xí)的比較

    雖然,當(dāng)數(shù)據(jù)很小時(shí),深度學(xué)習(xí)算法表現(xiàn)不佳。這就是是深度學(xué)習(xí)算法需要大量數(shù)據(jù)才能完美理解的原因。但是,在這種情況下,我們可以看到算法的使用以及他們手工制作的規(guī)則。上圖總結(jié)了這一事實(shí)。硬件依賴通常,深度學(xué)習(xí)依賴于高端機(jī)器,而傳統(tǒng)學(xué)習(xí)依賴于低端機(jī)器。因此,深度學(xué)習(xí)要求包括GPU。

    作者: @Wu
    發(fā)表時(shí)間: 2021-06-30 13:28:51.0
    541
    1
  • 深度學(xué)習(xí)之基于梯度的學(xué)習(xí)

    和其他的機(jī)器學(xué)習(xí)模型一樣,為了使用基于梯度的學(xué)習(xí)方法我們必須選擇一個(gè)代價(jià)函數(shù),并且我們必須選擇如何表示模型的輸出?,F(xiàn)在,我們重溫這些設(shè)計(jì)上的考慮,并且特別強(qiáng)調(diào)神經(jīng)網(wǎng)絡(luò)的情景。

    作者: 小強(qiáng)鼓掌
    發(fā)表時(shí)間: 2021-01-23 03:23:11.0
    833
    2
  • 華為云&拉勾 北京高校行第二期

    華為云&拉勾 北京高校行第二期 “勾”建未來篇 | 敏捷項(xiàng)目管理實(shí)戰(zhàn) 了解更多 馬上登錄,觀看直播 已有華為云賬號,即刻登錄 還未注冊華為云,即刻注冊 馬上登錄,觀看回放 已有華為云賬號,即刻登錄 還未注冊華為云,即刻注冊 直播正在恢復(fù),請稍后重試

  • 空三計(jì)算簡介 - 城市智能體

    通過影像點(diǎn)與所攝物體之間的對應(yīng)關(guān)系計(jì)算出相機(jī)成像時(shí)刻相機(jī)位置姿態(tài)及所攝目標(biāo)的稀疏點(diǎn)云的過程。處理空三后,能快速判斷原始數(shù)據(jù)的質(zhì)量是否滿足項(xiàng)目交付需求以及是否需要增刪影像空中三角測量計(jì)算可以充分考慮當(dāng)前相機(jī)位置、姿態(tài)與控制點(diǎn)。 父主題: 空三計(jì)算

  • 深度學(xué)習(xí)之維數(shù)災(zāi)難

    許多傳統(tǒng)機(jī)器學(xué)習(xí)算法只是簡單地假設(shè)在一個(gè)新點(diǎn)的輸出應(yīng)大致和最接近的訓(xùn)練點(diǎn)的輸出相同。然而在高維空間中,這個(gè)假設(shè)是不夠的。

    作者: 小強(qiáng)鼓掌
    發(fā)表時(shí)間: 2021-01-23 03:04:41
    1034
    3
  • 深度學(xué)習(xí)常用損失函數(shù)總覽(1)

    深度學(xué)習(xí)中分類與回歸常用的幾種損失函數(shù),包括均方差損失 Mean Squared Loss、平均絕對誤差損失 Mean Absolute Error Loss、Huber Loss、分位數(shù)損失 Quantile Loss、交叉熵?fù)p失函數(shù) Cross Entropy Loss、Hinge

    作者: @Wu
    發(fā)表時(shí)間: 2021-01-29 02:40:24
    1564
    4
  • 深度學(xué)習(xí)之泛化誤差

    通常,我們度量模型在訓(xùn)練集中分出來的測試集 (test set)樣本上的性能,來評估機(jī)器學(xué)習(xí)模型的泛化誤差。

    作者: 小強(qiáng)鼓掌
    發(fā)表時(shí)間: 2021-02-21 03:13:45
    933
    2
  • 深度學(xué)習(xí)筆記之理解

    彼時(shí),深度學(xué)習(xí)模型被認(rèn)為是受生物大腦(無論人類大腦或其他動物的大腦)所啟發(fā)而設(shè)計(jì)出來的系統(tǒng)。盡管有些機(jī)器學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)有時(shí)被用來理解大腦功能 (Hinton and Shallice, 1991),但它們一般都沒有被設(shè)計(jì)成生物功能的真實(shí)模型。深度學(xué)習(xí)的神經(jīng)觀點(diǎn)受兩個(gè)主要思想啟發(fā)。

    作者: 小強(qiáng)鼓掌
    發(fā)表時(shí)間: 2020-12-25 14:17:26
    828
    2