五月婷婷丁香性爱|j久久一级免费片|久久美女福利视频|中文观看在线观看|加勒比四区三区二|亚洲裸女视频网站|超碰97AV在线69网站免费观看|有码在线免费视频|久久青青日本视频|亚洲国产AAAA

內(nèi)容選擇
全部
內(nèi)容選擇
內(nèi)容分類
  • 學(xué)堂
  • 博客
  • 論壇
  • 開發(fā)服務(wù)
  • 開發(fā)工具
  • 直播
  • 視頻
  • 用戶
時間
  • 一周
  • 一個月
  • 三個月
  • 認識深度學(xué)習(xí)

    什么是深度學(xué)習(xí) 要理解什么是深度學(xué)習(xí),人們首先需要理解它是更廣泛的人工智能領(lǐng)域的一部分。簡而言之,人工智能涉及教計算機思考人類的思維方式,其中包括各種不同的應(yīng)用,例如計算機視覺、自然語言處理和機器學(xué)習(xí)。 

    作者: 建赟
    發(fā)表時間: 2020-04-27 05:30:15.0
    1845
    2
  • 深度學(xué)習(xí)簡介

    由此可將深度學(xué)習(xí)理解為進行“特征學(xué)習(xí)”(feature learning)或“表示學(xué)習(xí)”(representation learning)。 以往在機器學(xué)習(xí)用于現(xiàn)實任務(wù)時,描述樣本的特征通常需由人類專家來設(shè)計,這成為“特征工程”(feature engineering)。

    作者: 某地瓜
    發(fā)表時間: 2020-05-07 17:22:54
    1686
    1
  • 深度學(xué)習(xí)釋義

    深度學(xué)習(xí)是機器學(xué)習(xí)的一種,而機器學(xué)習(xí)是實現(xiàn)人工智能的必經(jīng)路徑。深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究,含多個隱藏層的多層感知器就是一種深度學(xué)習(xí)結(jié)構(gòu)。深度學(xué)習(xí)通過組合低層特征形成更加抽象的高層表示屬性類別或特征,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示。

    作者: 某地瓜
    發(fā)表時間: 2020-05-07 17:24:11.0
    1961
    1
  • 【mindSpore】【深度學(xué)習(xí)】求指路站內(nèi)的深度學(xué)習(xí)教程

    老師給了我們個任務(wù),用mindSpore完成一個深度學(xué)習(xí),求大佬指路,站內(nèi)有什么方便的教程。要求不能是花卉識別、手寫體數(shù)字識別、貓狗識別,因為這些按教程已經(jīng)做過了(然而我還是不會mindSpore)。盡量簡單,我們只要是個深度學(xué)習(xí)就能完成任務(wù)。

    作者: abcd咸魚
    發(fā)表時間: 2021-11-14 13:34:28
    1444
    1
  • 深度學(xué)習(xí)導(dǎo)論

    一、深度學(xué)習(xí)的起源深度學(xué)習(xí)的發(fā)展歷程可以追溯到1943年,當時心理學(xué)家麥卡洛克和數(shù)學(xué)邏輯學(xué)家皮茨發(fā)表論文《神經(jīng)活動中內(nèi)在思想的邏輯演算》,提出了MP模型,這標志著神經(jīng)網(wǎng)絡(luò)的開端。在隨后的幾十年中,深度學(xué)習(xí)經(jīng)歷了多次起伏。

    作者: 林欣
    發(fā)表時間: 2024-01-30 05:56:58.0
    42
    1
  • 深度學(xué)習(xí)深度學(xué)習(xí)界以外的微分

    深度學(xué)習(xí)界在某種程度上已經(jīng)與更廣泛的計算機科學(xué)界隔離開來,并且在很大程度上發(fā)展了自己關(guān)于如何進行微分的文化態(tài)度。更一般地,自動微分(automatic di?erentiation)領(lǐng)域關(guān)心如何以算法方式計算導(dǎo)數(shù)。這里描述的反向傳播算法只是自動微分的一種方法。

    作者: 小強鼓掌
    發(fā)表時間: 2021-07-25 08:03:37
    438
    0
  • RTX 4090助力深度學(xué)習(xí):從PyTorch到生產(chǎn)環(huán)境的完整實踐指南

    RTX 4090深度學(xué)習(xí)優(yōu)勢分析 1.1 硬件規(guī)格深度解讀 RTX 4090作為NVIDIA最新一代的旗艦級顯卡,在深度學(xué)習(xí)領(lǐng)域具有顯著的技術(shù)優(yōu)勢。

    作者: 摘星.
    發(fā)表時間: 2025-09-19 01:15:05
    0
    0
  • **深度學(xué)習(xí)優(yōu)化算法的核心:從梯度下降到隨機梯度下降**

    梯度下降(Gradient Descent)是機器學(xué)習(xí)深度學(xué)習(xí)中最常用的優(yōu)化算法之一,其目標是通過迭代更新模型參數(shù)以最小化損失函數(shù)。

    作者: i-WIFI
    發(fā)表時間: 2025-09-27 08:35:18
    0
    0
  • 深度學(xué)習(xí)GRU

    Gated Recurrent Unit – GRU 是 LSTM 的一個變體。他保留了 LSTM 劃重點,遺忘不重要信息的特點,在long-term 傳播的時候也不會被丟失。

    作者: 我的老天鵝
    發(fā)表時間: 2021-12-07 07:47:59
    1264
    13
  • 適合新手的深度學(xué)習(xí)綜述(4)--深度學(xué)習(xí)方法

    深度神經(jīng)網(wǎng)絡(luò)在監(jiān)督學(xué)習(xí)中取得了巨大的成功。此外,深度學(xué)習(xí)模型在無監(jiān)督、混合和強化學(xué)習(xí)方面也非常成功。4.1 深度監(jiān)督學(xué)習(xí)監(jiān)督學(xué)習(xí)應(yīng)用在當數(shù)據(jù)標記、分類器分類或數(shù)值預(yù)測的情況。LeCun 等人 (2015) 對監(jiān)督學(xué)習(xí)方法以及深層結(jié)構(gòu)的形成給出了一個精簡的解釋。

    作者: @Wu
    發(fā)表時間: 2022-05-30 07:44:06.0
    177
    1
  • 深度學(xué)習(xí)不再高冷:openEuler下的DL項目實戰(zhàn)分享【華為根技術(shù)】

    深度學(xué)習(xí)不再高冷:openEuler下的DL項目實戰(zhàn)分享 大家好,今天咱聊點“接地氣”的深度學(xué)習(xí)實戰(zhàn)。不過和以往不同,這次的主角不是Ubuntu、CentOS,而是華為自家的 openEuler。

    作者: Echo_Wish
    發(fā)表時間: 2025-09-03 15:22:33
    0
    0
  • 深度學(xué)習(xí)中的優(yōu)化算法:梯度下降、反向傳播與隨機梯度下降(SGD)

    深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)通常具有多層結(jié)構(gòu),直接計算損失函數(shù)對各層參數(shù)的梯度非常復(fù)雜。反向傳播算法通過鏈式法則,從輸出層開始,逐層向后計算梯度,大大提高了計算效率。

    作者: i-WIFI
    發(fā)表時間: 2025-09-27 08:34:51
    0
    0
  • 深度學(xué)習(xí)初體驗

    顯然,“深度學(xué)習(xí)”是與機器學(xué)習(xí)中的“神經(jīng)網(wǎng)絡(luò)”是強相關(guān),“神經(jīng)網(wǎng)絡(luò)”也是其主要的算法和手段;或者可以將“深度學(xué)習(xí)”稱之為“改良版的神經(jīng)網(wǎng)絡(luò)”算法。

    作者: ad123445
    發(fā)表時間: 2020-07-05 15:24:31
    8091
    33
  • 深度學(xué)習(xí)的挑戰(zhàn)

    深度學(xué)習(xí)挑戰(zhàn) 雖然深度學(xué)習(xí)具有令人印象深刻的能力,但是一些障礙正在阻礙其廣泛采用。它們包括以下內(nèi)容: •技能短缺:當O'Reilly公司的調(diào)查詢問是什么阻礙人們采用深度學(xué)習(xí)時,受訪者的第一個反應(yīng)就是缺乏熟練的員工。

    作者: 建赟
    發(fā)表時間: 2020-04-27 05:31:31.0
    1653
    2
  • 深度學(xué)習(xí)在環(huán)保

    深度學(xué)習(xí)模型在規(guī)模上不斷擴大,越來越先進, 目前呈指數(shù)級增長。令大多數(shù)人意想不到的是:這意味著能源消耗正在隨之增加。" 一次深度學(xué)習(xí)訓(xùn)練 =126 個丹麥家庭的年度能源消耗 深度學(xué)習(xí)訓(xùn)練是數(shù)學(xué)模型識別大型數(shù)據(jù)集中的模式的過程。

    作者: 初學(xué)者7000
    發(fā)表時間: 2020-12-03 15:08:16
    841
    2
  • 部署深度學(xué)習(xí)模型

    雖然modelarts能夠幫助我們在線上完成深度學(xué)習(xí)的模型,但是訓(xùn)練好的深度學(xué)習(xí)模型是怎么部署的

    作者: 初學(xué)者7000
    發(fā)表時間: 2020-11-14 08:58:36
    884
    3
  • 深度學(xué)習(xí)深陷困境!

    起初,符號處理對計算機科學(xué)的發(fā)展至關(guān)重要,從圖靈和馮 · 諾伊曼兩位先驅(qū)的論文開始,至今仍是幾乎所有軟件工程的基礎(chǔ)。但在深度學(xué)習(xí)中,符號處理被視為不入流。擺脫符號處理簡直就是異想天開。然而,如今的大多數(shù) AI 就在朝著這個方向努力。Hinton 和許多研究者都在努力擺脫符號處理。

    作者: 星恒
    發(fā)表時間: 2022-04-11 03:28:53
    251
    3
  • 分享深度學(xué)習(xí)算法

    基于立體視覺深度估計的深度學(xué)習(xí)技術(shù)研究論文名稱:A Survey on Deep Learning Techniques for Stereo-based Depth Estimation作者:Laga Hamid /Jospin Laurent Valentin /Boussaid

    作者: 初學(xué)者7000
    發(fā)表時間: 2021-04-02 14:08:12.0
    953
    3
  • 基于深度學(xué)習(xí)的自然語言處理技術(shù)在智能客服中的應(yīng)用

    傳統(tǒng)的基于規(guī)則的客服系統(tǒng)在處理復(fù)雜查詢時效率低下,而基于深度學(xué)習(xí)的NLP技術(shù)則能夠顯著提升系統(tǒng)的智能化水平。 2. 深度學(xué)習(xí)在NLP中的應(yīng)用 深度學(xué)習(xí)通過多層神經(jīng)網(wǎng)絡(luò)模擬人腦的學(xué)習(xí)過程,能夠從大量數(shù)據(jù)中自動提取特征,適用于NLP的多個任務(wù)。

    作者: 8181暴風(fēng)雪
    發(fā)表時間: 2025-09-27 11:10:22
    0
    0
  • 什么是深度學(xué)習(xí)深度學(xué)習(xí)與Mindspore實踐》今天你讀書了嗎?

    深度學(xué)習(xí)方法處理計算機視覺問題的過程類似于人類的學(xué)習(xí)過程:我們搭建的深度學(xué)習(xí)模型通過對現(xiàn)有圖片的不斷學(xué)**結(jié)出各類圖片的特征,最后輸出一個理想的模型,該模型能夠準確預(yù)測新圖片所屬的類別。深度學(xué)習(xí)中的“深度”體現(xiàn)在將數(shù)據(jù)轉(zhuǎn)換為所需要數(shù)據(jù)的層數(shù)之深。

    作者: QGS
    發(fā)表時間: 2021-01-22 15:21:18
    947
    0