五月婷婷丁香性爱|j久久一级免费片|久久美女福利视频|中文观看在线观看|加勒比四区三区二|亚洲裸女视频网站|超碰97AV在线69网站免费观看|有码在线免费视频|久久青青日本视频|亚洲国产AAAA

[快速入門]訓(xùn)練ai大模型
盤古NLP大模型

體驗 政企知識檢索 智能創(chuàng)意營銷 行業(yè)API助手 行業(yè)研發(fā)助手 政企會議助手 文檔與學習成長 盤古模型 盤古模型 什么是盤古模型 盤古NLP模型能力與規(guī)格 盤古模型快速入門 如何調(diào)用盤古模型API 查看全部 AI Gallery百模千態(tài)社區(qū) AI Gallery百模千態(tài)社區(qū)

大模型混合云

化應(yīng)用 模型混合云十創(chuàng)新技術(shù) 模型混合云十創(chuàng)新技術(shù) 了解詳情 十創(chuàng)新技術(shù) 加速構(gòu)建企業(yè)專屬模型創(chuàng)新技術(shù) 加速構(gòu)建企業(yè)專屬模型 圍繞企業(yè)大模型構(gòu)建關(guān)鍵過程,聚焦根技術(shù),為AI原生系統(tǒng)性創(chuàng)新 圍繞企業(yè)大模型構(gòu)建關(guān)鍵過程,聚焦根技術(shù),為AI原生系統(tǒng)性創(chuàng)新 多樣性算力調(diào)度

盤古預(yù)測大模型

文檔與學習成長 盤古模型 盤古模型 什么是盤古模型 盤古預(yù)測模型能力與規(guī)格 盤古模型快速入門 如何調(diào)用盤古模型API 查看全部 AI Gallery百模千態(tài)社區(qū) AI Gallery百模千態(tài)社區(qū) 優(yōu)質(zhì)昇騰云AI模型專區(qū) 幾行代碼自由部署AI應(yīng)用 豐富多樣的AI訓(xùn)練數(shù)據(jù)集 場景化AI案例,助力AI賦能千行百業(yè)

盤古大模型 panguLM

盤古模型 PanguLargeModels 盤古模型 PanguLargeModels 盤古模型是面向B端行業(yè)的模型,包含L0中5類基礎(chǔ)模型、L1行業(yè)大模型及L2場景模型三層架構(gòu) 盤古模型是面向B端行業(yè)的模型,包含L0中5類基礎(chǔ)模型、L1行業(yè)大模型及L2場景模型三層架構(gòu)

盤古多模態(tài)大模型

廣汽借助華為云盤古多模態(tài)模型,打造業(yè)界首個支持點云生成的模型,為其端到端仿真高效迭代提供強有力支撐。 文檔與學習成長 盤古模型 盤古模型 什么是盤古模型 盤古多模態(tài)模型能力與規(guī)格 用戶指南 如何調(diào)用盤古模型API 查看全部 AI Gallery百模千態(tài)社區(qū) AI Gallery百模千態(tài)社區(qū)

盤古科學計算大模型

提供高精度的全球模型,無需定制和訓(xùn)練,直接訂閱即可推理 多種部署形態(tài) 支持公有云、混合云、邊緣多種形態(tài),滿足不同需求 文檔與學習成長 盤古模型 盤古模型 什么是盤古模型 盤古科學計算模型能力與規(guī)格 盤古模型用戶指南 如何調(diào)用盤古模型API 查看全部 AI Gallery百模千態(tài)社區(qū)

昇騰云服務(wù)

支持三方開源大模型,加速客戶模型業(yè)務(wù)上線 構(gòu)建模型應(yīng)用開發(fā)工具鏈,使能模型開箱即用 構(gòu)建模型應(yīng)用開發(fā)工具鏈,完善云上數(shù)據(jù)清洗|模型微調(diào)|部署|Prompt|評測|Agent,模型應(yīng)用開發(fā)效率提升; 原生昇騰云組件Agent,構(gòu)建“模型+云組件”組合競爭力,如搜索Agent,大數(shù)據(jù)Agent等,使能云上存量用戶零遷移構(gòu)建大模型應(yīng)用;

AI開發(fā)平臺ModelArts-概覽

穩(wěn)定安全的算力底座,極快至簡的模型訓(xùn)練 穩(wěn)定安全的算力底座,極快至簡的模型訓(xùn)練 支持萬節(jié)點計算集群管理 大規(guī)模分布式訓(xùn)練能力,加速模型研發(fā) 多應(yīng)用場景全覆蓋,AI智能平臺助力業(yè)務(wù)成功 多應(yīng)用場景全覆蓋,AI智能平臺助力業(yè)務(wù)成功 模型 實現(xiàn)智能回答、聊天機器人、自動摘要、機器翻譯、文本分類等任務(wù)

工業(yè)智能體 - EI企業(yè)智能-華為云

學習資源 學習資源 AI開發(fā)基本流程介紹 自動學習簡介 使用預(yù)置算法構(gòu)建模型 使用自定義算法構(gòu)建模型 查看更多 您感興趣的產(chǎn)品 您感興趣的產(chǎn)品 盤古NLP模型 最貼合行業(yè)落地的NLP模型 盤古CV模型 賦能行業(yè)客戶使用少量數(shù)據(jù)微調(diào)即可滿足特定場景任務(wù) 盤古預(yù)測模型 基于Triplet

[相關(guān)產(chǎn)品]訓(xùn)練ai大模型
AI大模型 算法備案

《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》明確,具有輿論屬性或者社會動員能力的算法推薦服務(wù)提供者應(yīng)當在提供服務(wù)之日起十個工作日內(nèi)通過互聯(lián)網(wǎng)信息服務(wù)算法備案系統(tǒng)填報服務(wù)提供者的名稱、服務(wù)形式、應(yīng)用領(lǐng)域、算法類型、算法自評估報告、擬公示內(nèi)容等信息  方便

AI大模型專業(yè)服務(wù)

湘江鯤鵬目前在人工智能模型領(lǐng)域擁有算力、數(shù)據(jù)、算法三關(guān)鍵要素的經(jīng)驗積累,構(gòu)建了模型三個方面的差異化競爭力,盤古模型AI專業(yè)服務(wù)覆蓋從前期咨詢、規(guī)劃設(shè)計,到數(shù)據(jù)工程、模型訓(xùn)練,再到應(yīng)用工程及模型運維的完整流程。基于華為盤古提供的AI專業(yè)服務(wù)包,致力于為企業(yè)提供一站式人工智能解決方案

大模型及AI應(yīng)用配套服務(wù)

angChain等流行的模型開發(fā)框架,構(gòu)建企業(yè)級AI應(yīng)用;團隊擁有成熟的軟件工程技術(shù)和管理能力。6. 模型使用的技術(shù)支持,用戶使用模型平臺,解答用戶使用過程遇到的問題;模型與應(yīng)用對接集成,以及進行日常巡檢、故障處理、模型升級等服務(wù)。4. 工業(yè)數(shù)據(jù)模型(CAD模型、CAE模

天尊大模型AIGC場景解決方案

太杉天尊模型AIGC場景解決方案是以AI場景解決方案為核心的全棧Maas綜合方案,助力政企客戶靈活部署(可公有可私有部署)。具備自研的行業(yè)模型能力,主要用于政府/公安/教育等行業(yè)的數(shù)據(jù)處理、文本處理以及多模態(tài)處理等多場景。太杉天尊模型AIGC場景解決方案,是一款專為滿足政府企

人工智能AI大模型技術(shù)研發(fā)定制服務(wù)

公司集成了世界領(lǐng)先的底層模型,具備打通跨模型和工具鏈的平臺,提供從需求分析、數(shù)據(jù)收集、模型設(shè)計、訓(xùn)練優(yōu)化、評估、系統(tǒng)集成、用戶界面設(shè)計、部署維護、合規(guī)性檢查、技術(shù)支持、性能監(jiān)控、擴展性設(shè)計、定制服務(wù)到持續(xù)研發(fā)一站式AI模型定制研發(fā)服務(wù)。光啟慧語是一家圍繞模型全棧開展技術(shù)研發(fā)和產(chǎn)

盤古大模型專家服務(wù)

&撰寫根據(jù)模型微調(diào)數(shù)據(jù)標注規(guī)范,通過配套工具進行數(shù)據(jù)標注。 八、數(shù)據(jù)轉(zhuǎn)換與導(dǎo)入 完成數(shù)據(jù)格式的轉(zhuǎn)換,可進行跨網(wǎng)絡(luò)環(huán)境的數(shù)據(jù)導(dǎo)入。 九、調(diào)優(yōu)方案設(shè)計 根據(jù)模型訓(xùn)練及調(diào)優(yōu)工具和平臺,輸出模型調(diào)優(yōu)方案。 十、模型訓(xùn)練實施1. 基于模型訓(xùn)練所需的云服務(wù),完成大模型訓(xùn)練及微調(diào)。2.

博匠行業(yè)AI大模型專業(yè)服務(wù)

數(shù)據(jù)質(zhì)量。4. 模型訓(xùn)練:?設(shè)計調(diào)優(yōu)方案,實施模型訓(xùn)練,并進行模型評測。?熟悉盤古模型工作流和云服務(wù)操作,確保模型效果優(yōu)化。5. 應(yīng)用工程:?提供基于模型能力的Agent開發(fā)和應(yīng)用對接服務(wù)。?具備良好的軟件開發(fā)和溝通能力,實現(xiàn)模型與應(yīng)用的無縫對接。6. 模型運維: ?提供技

天尊大模型AIGC場景解決方案配套服務(wù)

天尊模型AIGC場景解決方案配套服務(wù)是太杉AIGC解決方案的人工服務(wù),是以AI應(yīng)用解決方案為核心的全棧Maas綜合方案,助力政企客戶靈活部署(可公有可私有部署)。主要用于政府/公安/教育等行業(yè)的數(shù)據(jù)處理、文本處理以及多模態(tài)處理等多場景。天尊模型AIGC場景解決方案配套服務(wù)是太

X-brain AI+自動訓(xùn)練平臺

,只需人工提供極少量的標注數(shù)據(jù),通過平臺的自動標注功能,能夠提升50%的標注效率,節(jié)省人力及時間成本;3、解決模型訓(xùn)練門檻高問題,可視化的模型訓(xùn)練界面,自動推薦訓(xùn)練參數(shù),5分鐘快速上手,模型訓(xùn)練成本降低70%;4、克服算法只能解決單一業(yè)務(wù)場景問題,通過拖拽的方式將多個模型串聯(lián)起來

[相似文章]訓(xùn)練ai大模型
ModelArts模型訓(xùn)練_模型訓(xùn)練簡介_如何訓(xùn)練模型

ModelArts模型訓(xùn)練 ModelArts模型訓(xùn)練簡介 ModelArts模型訓(xùn)練,俗稱“建模”,指通過分析手段、方法和技巧對準備好的數(shù)據(jù)進行探索分析,從中發(fā)現(xiàn)因果關(guān)系、內(nèi)部聯(lián)系和業(yè)務(wù)規(guī)律,為商業(yè)目的提供決策參考。訓(xùn)練模型的結(jié)果通常是一個或多個機器學習或深度學習模型,模型可以應(yīng)用到新的數(shù)據(jù)中,得到預(yù)測、評價等結(jié)果。

華為云盤古大模型_華為云AI大模型_盤古人工智能

華為云盤古模型 華為云盤古模型 AI for Industries 模型重塑千行百業(yè) AI for Industries 模型重塑千行百業(yè) 盤古模型致力于深耕行業(yè),打造金融、政務(wù)、制造、礦山、氣象、鐵路等領(lǐng)域行業(yè)大模型和能力集,將行業(yè)知識know-how與模型能力相結(jié)合

ModelArts模型訓(xùn)練_創(chuàng)建訓(xùn)練作業(yè)_如何創(chuàng)建訓(xùn)練作業(yè)

ModelArts訓(xùn)練管理 ModelArts訓(xùn)練管理 ModelArts訓(xùn)練管理模塊用于創(chuàng)建訓(xùn)練作業(yè)、查看訓(xùn)練情況以及管理訓(xùn)練版本。在訓(xùn)練模塊的統(tǒng)一管理下,方便用戶試驗算法、數(shù)據(jù)和超參數(shù)的各種組合,便于追蹤最佳的模型與輸入配置,您可以通過不同版本間的評估指標比較,確定最佳訓(xùn)練作業(yè)。 M

ModelArts模型訓(xùn)練_超參搜索簡介_超參搜索算法

ModelArts訓(xùn)練之超參搜索 ModelArts訓(xùn)練之超參搜索 ModelArts訓(xùn)練中新增了超參搜索功能,自動實現(xiàn)模型超參搜索,為您的模型匹配最優(yōu)的超參。ModelArts支持的超參搜索功能,在無需算法工程師介入的情況下,即可自動進行超參的調(diào)優(yōu),在速度和精度上超過人工調(diào)優(yōu)。 Mo

AI訓(xùn)練加速存儲_高性能數(shù)據(jù)存儲_AI數(shù)據(jù)存儲內(nèi)存不足怎么辦

源,包括高性能算力,高速存儲和網(wǎng)絡(luò)帶寬等基礎(chǔ)設(shè)施,即“算力、存力、運力”的AI基礎(chǔ)設(shè)施底座,讓算力發(fā)展不要偏斜。 從過去的經(jīng)典AI,到今天人人談?wù)摰?span style='color:'>大模型,自動駕駛,我們看到AI模型的參數(shù)及AI算力規(guī)模呈現(xiàn)出指數(shù)級的爆發(fā)增長,對存儲基礎(chǔ)設(shè)施也帶來全新的挑戰(zhàn)。 1、高吞吐的數(shù)據(jù)訪問挑戰(zhàn):隨著企業(yè)使用

ModelArts推理部署_模型_AI應(yīng)用來源-華為云

ModelArts支持本地準備模型包,編寫模型配置文件和模型推理代碼,將準備好的模型包上傳至對象存儲服務(wù)OBS,從OBS導(dǎo)入模型創(chuàng)建為AI應(yīng)用。 制作模型包,則需要符合一定的模型包規(guī)范。模型包里面必需包含“model”文件夾,“model”文件夾下面放置模型文件,模型配置文件,模型推理代碼文件。

文件存儲方式SFS_高性能文件存儲方案_海量文件安全存儲

10ms 最大容量 4PB EB 優(yōu)勢 容量、高帶寬、低成本 容量、高帶寬、低成本 應(yīng)用場景 容量擴展以及成本敏感型業(yè)務(wù),如媒體處理、文件共享、高性能計算、數(shù)據(jù)備份等。SFS容量型文件系統(tǒng)不適合海量小文件業(yè)務(wù),推薦使用SFS Turbo文件系統(tǒng)。 容量擴展以及成本敏感型業(yè)務(wù),如媒

人工智能學習入門

使用MindSpore訓(xùn)練手寫數(shù)字識別模型 基于昇騰AI處理器的算子開發(fā) 使用MindSpore訓(xùn)練手寫數(shù)字識別模型 基于昇騰AI處理器的算子開發(fā) 在線課程 體系化的培訓(xùn)課程,快速完成學習覆蓋,讓您輕松上云 AI基礎(chǔ) AI基礎(chǔ)課程--概覽 AI基礎(chǔ)課程--Python編程知識 AI基礎(chǔ)課程--數(shù)學基礎(chǔ)知識

人工智能學習入門

人工智能學習入門 人工智能課程學習,動手實驗,在線考試認證,掌握人工智能技能 人工智能知識圖譜 在線課程 01 AI基礎(chǔ)、技術(shù)領(lǐng)域、應(yīng)用場景、華為云EI AI基礎(chǔ)、技術(shù)領(lǐng)域、應(yīng)用場景、華為云EI 動手實驗 02 包括初級、中級實驗 包括初級、中級實驗 AI基礎(chǔ) AI基礎(chǔ) AI基礎(chǔ)課程--概覽

訓(xùn)練ai大模型

AI Gallery支持將模型進行微調(diào),訓(xùn)練后得到更優(yōu)模型。

場景描述

模型微調(diào)是深度學習中的一種重要技術(shù),它是指在預(yù)訓(xùn)練好的模型基礎(chǔ)上,通過調(diào)整部分參數(shù),使其在特定任務(wù)上達到更好的性能。 在實際應(yīng)用中,預(yù)訓(xùn)練模型是在大規(guī)模通用數(shù)據(jù)集上訓(xùn)練得到的,而在特定任務(wù)上,這些模型的參數(shù)可能并不都是最合適的,因此需要進行微調(diào)。

AI Gallery的模型微調(diào),簡單易用,用戶只需要選擇訓(xùn)練數(shù)據(jù)、創(chuàng)建微調(diào)任務(wù),模型微調(diào)就會對數(shù)據(jù)進行訓(xùn)練,快速生成模型。

約束限制

  • 如果模型的“任務(wù)類型”“文本問答”“文本生成”,則支持模型微調(diào)。如果模型的“任務(wù)類型”是除“文本問答”“文本生成”之外的類型(即自定義模型),則模型文件必須滿足自定義模型規(guī)范(訓(xùn)練)才支持模型自定義訓(xùn)練。
  • 當使用自定義 鏡像 進行模型微調(diào)時,要確認鏡像是否滿足自定義鏡像規(guī)范,否則無法成功完成自定義訓(xùn)練。

進入模型微調(diào)

  1. 登錄AI Gallery。
  2. 單擊“模型”進入模型列表。
  3. 選擇需要進行微調(diào)訓(xùn)練的模型,單擊模型名稱進入模型詳情頁。
  4. 在模型詳情頁,選擇“訓(xùn)練 > 微調(diào)大師”進入微調(diào)工作流頁面。

選擇訓(xùn)練任務(wù)類型

選擇模型微調(diào)的訓(xùn)練任務(wù)類型。

  • 當模型的“任務(wù)類型”“文本問答”“文本生成”時,“訓(xùn)練任務(wù)類型”默認和模型“任務(wù)類型”一致。“訓(xùn)練任務(wù)類型”支持修改,如果模型文件滿足自定義模型規(guī)范(訓(xùn)練),則“訓(xùn)練任務(wù)類型”支持選擇“自定義”。
  • 當模型的“任務(wù)類型”是除“文本問答”“文本生成”之外的類型(即自定義模型)時,則“訓(xùn)練任務(wù)類型”默認為“自定義”,支持修改為“文本問答”“文本生成”
  • 當使用自定義鏡像進行模型微調(diào)時,“訓(xùn)練任務(wù)類型”默認為“自定義”,且不支持修改。

準備數(shù)據(jù)

  • 本地上傳數(shù)據(jù)需要確保數(shù)據(jù)已按照數(shù)據(jù)集要求完成編排。如果是自定義模型,此處的數(shù)據(jù)集要求即為模型文件“dataset_readme.md”里的內(nèi)容。
  • 單個文件最大5GB,所有文件總大小不超過50G。
  1. 在微調(diào)工作流的“數(shù)據(jù)準備”環(huán)節(jié)選擇數(shù)據(jù)集。
    • 從本地上傳
      1. “從本地上傳”處,單擊“點擊上傳”,選擇本地編排好的訓(xùn)練數(shù)據(jù)。
      2. 數(shù)據(jù)上傳成功后,頁面會有提示信息。

        此時AI Gallery會自動新建一個數(shù)據(jù)集,單擊提示信息處的“查看”可以進入數(shù)據(jù)集詳情頁,也可以在“我的Gallery > 數(shù)據(jù)集 > 我創(chuàng)建的數(shù)據(jù)集”進入數(shù)據(jù)集詳情頁查看。

    • 從AI Gallery中選
      1. 單擊“從AI Gallery中選擇”。
      2. 在彈窗中,從“我創(chuàng)建的”或“我收藏的”數(shù)據(jù)集中選擇所需要數(shù)據(jù)集。
      3. 選擇完成后,單擊“確定”。
  2. 數(shù)據(jù)準備完成后,單擊“下一步”進入“作業(yè)設(shè)置”環(huán)節(jié)。

設(shè)置并啟動作業(yè)

  1. 在微調(diào)工作流的“作業(yè)設(shè)置”環(huán)節(jié)配置訓(xùn)練作業(yè)參數(shù)。
    1. 算法配置,會顯示已選模型的信息,基于已選模型選擇微調(diào)方式。
      • “訓(xùn)練任務(wù)類型”“文本問答”“文本生成”時,AI Gallery支持的微調(diào)方式是LoRA。
      • “訓(xùn)練任務(wù)類型”“自定義”時,微調(diào)方式來自于模型文件“train_params.json” 。

      低秩適應(yīng)(LoRA)是一種重參數(shù)化方法,旨在減少具有低秩表示的可訓(xùn)練參數(shù)的數(shù)量。權(quán)重矩陣被分解為經(jīng)過訓(xùn)練和更新的低秩矩陣。所有預(yù)訓(xùn)練的模型參數(shù)保持凍結(jié)。訓(xùn)練后,低秩矩陣被添加回原始權(quán)重。這使得存儲和訓(xùn)練LoRA模型更加高效,因為參數(shù)明顯減少。

    2. 超參數(shù)設(shè)置,基于訓(xùn)練作業(yè)配置超參。超參指的是模型訓(xùn)練時原始數(shù)據(jù)集中實際字段和算法需要字段之間的映射關(guān)系。
      • “訓(xùn)練任務(wù)類型”“文本問答”“文本生成”時,則常見的超參說明請參見表1。
      • “訓(xùn)練任務(wù)類型”“自定義”時,超參信息來自于模型文件“train_params.json” 。如果不使用可選超參,建議單擊右側(cè)的刪除按鈕,刪除參數(shù)。
      表1 常見超參說明

      參數(shù)名稱

      參數(shù)類型

      說明

      data_url

      String

      數(shù)據(jù) OBS 存儲路徑。

      train_url

      String

      微調(diào)產(chǎn)物輸出OBS路徑。

      train_data_file

      String

      訓(xùn)練數(shù)據(jù)文件名。

      test_data_file

      String

      測試數(shù)據(jù)文件名。

      prompt_field

      String

      數(shù)據(jù)prompt列名。

      response_field

      String

      數(shù)據(jù)response列名。

      history_field

      String

      數(shù)據(jù)history列名。

      prefix

      String

      數(shù)據(jù)格式化時使用的前綴。

      instruction_template

      String

      數(shù)據(jù)格式化時使用的指令模板。

      response_template

      String

      數(shù)據(jù)格式化時使用的回答模板。

      lora_alpha

      int

      Lora scaling的alpha參數(shù)。

      lora_dropout

      float

      Lora dropout概率。

      lora_rank

      int

      Lora attention維度。

      per_device_train_batch_size

      int

      用于訓(xùn)練的每個GPU/TPU core/CPU的批處理大小。

      gradient_accumulation_steps

      int

      梯度累計步數(shù)。

      max_steps

      int

      訓(xùn)練最大步數(shù),如果數(shù)據(jù)耗盡,訓(xùn)練將會在最大步數(shù)前停止。

      save_steps

      int

      checkpoint保存步數(shù)。

      logging_steps

      int

      日志輸出步數(shù)。

      learning_rate

      float

      初始學習率。

      max_grad_norm

      float

      梯度裁剪最大范數(shù)。

      warmup_ratio

      float

      熱身步數(shù)比。

      max_seq_length

      int

      數(shù)據(jù)最大序列長度。

      finetuned_model

      String

      前序微調(diào)產(chǎn)物OBS路徑。

      bits

      int

      模型量化bit數(shù),如4、8。

      max_eval_samples

      int

      最大測試數(shù)據(jù)數(shù)。

    3. 計算規(guī)格選擇,按需選擇計算規(guī)格。單擊“選擇”,在彈窗中選擇資源規(guī)格,單擊“確定”。
      • “所在區(qū)”選擇計算規(guī)格所在的區(qū)域。默認顯示全部區(qū)域的計算規(guī)格。
      • 選擇計算規(guī)格不可用的資源會置灰。右側(cè)“配置信息”區(qū)域會顯示計算規(guī)格的詳細數(shù)據(jù),AI Gallery會基于資產(chǎn)和資源情況分析該任務(wù)是否支持設(shè)置“商品數(shù)量”,用戶可以基于業(yè)務(wù)需要選擇任務(wù)所需的資源卡數(shù)。

      如果選擇付費資源,則請確認賬號未欠費,且余額高于所選計算規(guī)格的收費標準,否則可能會導(dǎo)致AI Gallery工具鏈服務(wù)異常中斷。AI Gallery的計算規(guī)格的計費說明請參見計算規(guī)格說明。

  2. 作業(yè)參數(shù)配置完成后,單擊“啟動作業(yè)”。
  3. “訂單信息確認”頁面,確認服務(wù)信息和費用,單擊“確定”提交模型訓(xùn)練任務(wù)。

    單擊“返回模型訓(xùn)練”跳轉(zhuǎn)到微調(diào)大師頁面,可以查看訓(xùn)練作業(yè)狀態(tài)。當“狀態(tài)”“訓(xùn)練完成”時,表示微調(diào)任務(wù)完成。

    • 單擊操作列的“查看模型”跳轉(zhuǎn)到微調(diào)獲得的新模型的詳情頁面。
    • 單擊操作列的“任務(wù)詳情”可以在彈窗中查看“訓(xùn)練信息”、“訓(xùn)練日志”“指標效果”。
    • 單擊操作列的“更多 > 刪除任務(wù)”,可以刪除微調(diào)任務(wù),但是微調(diào)獲得的新模型不會被刪除。

查看訓(xùn)練效果

啟動模型微調(diào)任務(wù)后,在微調(diào)大師列表單擊操作列的“任務(wù)詳情”,在彈窗中選擇“指標效果”頁簽,可以查看訓(xùn)練效果。

表2 訓(xùn)練效果的指標介紹

指標名稱

指標說明

NPU/GPU利用率

在訓(xùn)練過程中,機器的NPU/GPU占用情況(橫坐標時間,縱坐標占用率)。

顯存利用率

在訓(xùn)練過程中,機器的顯存占用情況(橫坐標時間,縱坐標占用率)。

吞吐

在訓(xùn)練過程中,每卡處理tokens數(shù)量(tokens/s/p)。每種框架計算方式不一致,例如,ATB可通過“samples per second*seq_lenth/總卡數(shù)”得到tokens/s/p,輸出給throughout字段,seq_lenth取值在訓(xùn)練腳本中可以查看。

單機8卡吞吐量一般為1650tokens/s/p,雙機16卡吞吐量一般為1625tokens/s/p。

說明:

自定義訓(xùn)練或自定義鏡像訓(xùn)練,需要提前在訓(xùn)練啟動腳本(例如“train.py”)中定義好迭代次數(shù)、LOSS和吞吐數(shù)據(jù)的存放位置,以及存放格式(必須是“迭代次數(shù)|loss|吞吐”),才能在此處正常查看吞吐和“訓(xùn)練LOSS”曲線。

訓(xùn)練LOSS

訓(xùn)練階段的LOSS變化,模型在日志里用LOSS關(guān)鍵詞記錄數(shù)據(jù),按照訓(xùn)練迭代周期記錄LOSS值。

微調(diào)產(chǎn)物說明

模型微調(diào)完成后,會得到一個新模型,即微調(diào)產(chǎn)物。

在微調(diào)大師頁面,單擊操作列的“查看模型”跳轉(zhuǎn)到微調(diào)獲得的新模型的詳情頁面。選擇“模型文件”頁簽可以查看微調(diào)產(chǎn)物。各文件說明請參見表3。

圖1 微調(diào)產(chǎn)物示例
表3 微調(diào)產(chǎn)物說明

文件名

文件說明

gallery_train文件夾

自定義模型的模型訓(xùn)練文件,僅當使用自定義模型微調(diào)時才會有這個微調(diào)產(chǎn)物,內(nèi)容和預(yù)訓(xùn)練模型里的gallery_train文件一致。

training_logs/user_params.json

微調(diào)配置參數(shù)信息,AI Gallery會自動將微調(diào)設(shè)置的參數(shù)信息記錄在此文件下。

“README.md”

模型的基礎(chǔ)信息。內(nèi)容和預(yù)訓(xùn)練模型里“模型文件”頁簽的“README.md”一致。

其他文件

當使用自定義模型微調(diào)時,可能還會有一些其他微調(diào)產(chǎn)物,這是由自定義模型的訓(xùn)練腳本文件train.py決定的,如果訓(xùn)練腳本定義了歸檔其他訓(xùn)練產(chǎn)物,就會在此處呈現(xiàn)。

訓(xùn)練ai大模型常見問題

更多常見問題 >>
  • 在自然語言處理(NLP)領(lǐng)域中,使用語言模型預(yù)訓(xùn)練方法在多項NLP任務(wù)上都獲得了不錯的提升,廣泛受到了各界的關(guān)注。本課程將簡單介紹一下預(yù)訓(xùn)練的思想,幾個代表性模型和它們之間的關(guān)系。

  • ModelArts模型訓(xùn)練旨在提升開發(fā)者模型訓(xùn)練的開發(fā)效率及訓(xùn)練性能。提供了可視化作業(yè)管理、資源管理、版本管理等功能,基于機器學習算法及強化學習的模型訓(xùn)練自動超參調(diào)優(yōu);預(yù)置和調(diào)優(yōu)常用模型,簡化模型開發(fā)和全流程訓(xùn)練管理。

  • 盤古大模型致力于深耕行業(yè),打造金融、政務(wù)、制造、礦山、氣象、鐵路等領(lǐng)域行業(yè)大模型和能力集,將行業(yè)知識know-how與大模型能力相結(jié)合,重塑千行百業(yè),成為各組織、企業(yè)、個人的專家助手。

  • 訓(xùn)練管理模塊是ModelArts不可或缺的功能模塊,用于創(chuàng)建訓(xùn)練作業(yè)、查看訓(xùn)練情況以及管理訓(xùn)練版本。模型訓(xùn)練是一個不斷迭代和優(yōu)化的過程。在訓(xùn)練模塊的統(tǒng)一管理下,方便用戶試驗算法、數(shù)據(jù)和超參數(shù)的各種組合,便于追蹤最佳的模型與輸入配置,您可以通過不同版本間的評估指標比較,確定最佳訓(xùn)練作業(yè)。

  • 模型轉(zhuǎn)換,即將開源框架的網(wǎng)絡(luò)模型(如Caffe、TensorFlow等),通過ATC(Ascend Tensor Compiler)模型轉(zhuǎn)換工具,將其轉(zhuǎn)換成昇騰AI處理器支持的離線模型。

  • 本實驗指導(dǎo)用戶在短時間內(nèi),了解和熟悉使用ModelArts進行模型開發(fā)和訓(xùn)練的基本流程,并利用ModelArts訓(xùn)練管理服務(wù)完成一次訓(xùn)練任務(wù)。

更多相關(guān)專題