五月婷婷丁香性爱|j久久一级免费片|久久美女福利视频|中文观看在线观看|加勒比四区三区二|亚洲裸女视频网站|超碰97AV在线69网站免费观看|有码在线免费视频|久久青青日本视频|亚洲国产AAAA

[快速入門]ai大模型如何訓(xùn)練
盤古NLP大模型

體驗(yàn) 政企知識(shí)檢索 智能創(chuàng)意營(yíng)銷 行業(yè)API助手 行業(yè)研發(fā)助手 政企會(huì)議助手 文檔與學(xué)習(xí)成長(zhǎng) 盤古模型 盤古模型 什么是盤古模型 盤古NLP模型能力與規(guī)格 盤古模型快速入門 如何調(diào)用盤古模型API 查看全部 AI Gallery百模千態(tài)社區(qū) AI Gallery百模千態(tài)社區(qū)

盤古預(yù)測(cè)大模型

文檔與學(xué)習(xí)成長(zhǎng) 盤古模型 盤古模型 什么是盤古模型 盤古預(yù)測(cè)模型能力與規(guī)格 盤古模型快速入門 如何調(diào)用盤古模型API 查看全部 AI Gallery百模千態(tài)社區(qū) AI Gallery百模千態(tài)社區(qū) 優(yōu)質(zhì)昇騰云AI模型專區(qū) 幾行代碼自由部署AI應(yīng)用 豐富多樣的AI訓(xùn)練數(shù)據(jù)集 場(chǎng)景化AI案例,助力AI賦能千行百業(yè)

大模型混合云

化應(yīng)用 模型混合云十創(chuàng)新技術(shù) 模型混合云十創(chuàng)新技術(shù) 了解詳情 十創(chuàng)新技術(shù) 加速構(gòu)建企業(yè)專屬模型創(chuàng)新技術(shù) 加速構(gòu)建企業(yè)專屬模型 圍繞企業(yè)大模型構(gòu)建關(guān)鍵過程,聚焦根技術(shù),為AI原生系統(tǒng)性創(chuàng)新 圍繞企業(yè)大模型構(gòu)建關(guān)鍵過程,聚焦根技術(shù),為AI原生系統(tǒng)性創(chuàng)新 多樣性算力調(diào)度

AI開發(fā)平臺(tái)ModelArts-概覽

穩(wěn)定安全的算力底座,極快至簡(jiǎn)的模型訓(xùn)練 穩(wěn)定安全的算力底座,極快至簡(jiǎn)的模型訓(xùn)練 支持萬(wàn)節(jié)點(diǎn)計(jì)算集群管理 大規(guī)模分布式訓(xùn)練能力,加速模型研發(fā) 多應(yīng)用場(chǎng)景全覆蓋,AI智能平臺(tái)助力業(yè)務(wù)成功 多應(yīng)用場(chǎng)景全覆蓋,AI智能平臺(tái)助力業(yè)務(wù)成功 模型 實(shí)現(xiàn)智能回答、聊天機(jī)器人、自動(dòng)摘要、機(jī)器翻譯、文本分類等任務(wù)

盤古大模型 panguLM

盤古模型 PanguLargeModels 盤古模型 PanguLargeModels 盤古模型是面向B端行業(yè)的模型,包含L0中5類基礎(chǔ)模型、L1行業(yè)大模型及L2場(chǎng)景模型三層架構(gòu) 盤古模型是面向B端行業(yè)的模型,包含L0中5類基礎(chǔ)模型、L1行業(yè)大模型及L2場(chǎng)景模型三層架構(gòu)

盤古多模態(tài)大模型

廣汽借助華為云盤古多模態(tài)模型,打造業(yè)界首個(gè)支持點(diǎn)云生成的模型,為其端到端仿真高效迭代提供強(qiáng)有力支撐。 文檔與學(xué)習(xí)成長(zhǎng) 盤古模型 盤古模型 什么是盤古模型 盤古多模態(tài)模型能力與規(guī)格 用戶指南 如何調(diào)用盤古模型API 查看全部 AI Gallery百模千態(tài)社區(qū) AI Gallery百模千態(tài)社區(qū)

盤古科學(xué)計(jì)算大模型

提供高精度的全球模型,無(wú)需定制和訓(xùn)練,直接訂閱即可推理 多種部署形態(tài) 支持公有云、混合云、邊緣多種形態(tài),滿足不同需求 文檔與學(xué)習(xí)成長(zhǎng) 盤古模型 盤古模型 什么是盤古模型 盤古科學(xué)計(jì)算模型能力與規(guī)格 盤古模型用戶指南 如何調(diào)用盤古模型API 查看全部 AI Gallery百模千態(tài)社區(qū)

昇騰云服務(wù)

支持三方開源大模型,加速客戶模型業(yè)務(wù)上線 構(gòu)建模型應(yīng)用開發(fā)工具鏈,使能模型開箱即用 構(gòu)建模型應(yīng)用開發(fā)工具鏈,完善云上數(shù)據(jù)清洗|模型微調(diào)|部署|Prompt|評(píng)測(cè)|Agent,模型應(yīng)用開發(fā)效率提升; 原生昇騰云組件Agent,構(gòu)建“模型+云組件”組合競(jìng)爭(zhēng)力,如搜索Agent,大數(shù)據(jù)Agent等,使能云上存量用戶零遷移構(gòu)建大模型應(yīng)用;

ModelArts Studio大模型開發(fā)平臺(tái)

多語(yǔ)種內(nèi)容審核,平臺(tái)全面保護(hù) 一站式模型開發(fā)平臺(tái) 一站式模型開發(fā)平臺(tái) ModelArts Studio模型開發(fā)平臺(tái)是集數(shù)據(jù)管理、模型訓(xùn)練模型部署于一體的綜合平臺(tái),專為開發(fā)和應(yīng)用模型而設(shè)計(jì),旨在為開發(fā)者提供簡(jiǎn)單、高效的模型開發(fā)和部署方式 為什么選擇模型開發(fā)平臺(tái)ModelArts

[相關(guān)產(chǎn)品]ai大模型如何訓(xùn)練
AI大模型 算法備案

《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》明確,具有輿論屬性或者社會(huì)動(dòng)員能力的算法推薦服務(wù)提供者應(yīng)當(dāng)在提供服務(wù)之日起十個(gè)工作日內(nèi)通過互聯(lián)網(wǎng)信息服務(wù)算法備案系統(tǒng)填報(bào)服務(wù)提供者的名稱、服務(wù)形式、應(yīng)用領(lǐng)域、算法類型、算法自評(píng)估報(bào)告、擬公示內(nèi)容等信息  方便

AI大模型專業(yè)服務(wù)

湘江鯤鵬目前在人工智能模型領(lǐng)域擁有算力、數(shù)據(jù)、算法三關(guān)鍵要素的經(jīng)驗(yàn)積累,構(gòu)建了模型三個(gè)方面的差異化競(jìng)爭(zhēng)力,盤古模型AI專業(yè)服務(wù)覆蓋從前期咨詢、規(guī)劃設(shè)計(jì),到數(shù)據(jù)工程、模型訓(xùn)練,再到應(yīng)用工程及模型運(yùn)維的完整流程?;谌A為盤古提供的AI專業(yè)服務(wù)包,致力于為企業(yè)提供一站式人工智能解決方案

大模型及AI應(yīng)用配套服務(wù)

angChain等流行的模型開發(fā)框架,構(gòu)建企業(yè)級(jí)AI應(yīng)用;團(tuán)隊(duì)擁有成熟的軟件工程技術(shù)和管理能力。6. 模型使用的技術(shù)支持,用戶使用模型平臺(tái),解答用戶使用過程遇到的問題;模型與應(yīng)用對(duì)接集成,以及進(jìn)行日常巡檢、故障處理、模型升級(jí)等服務(wù)。4. 工業(yè)數(shù)據(jù)模型(CAD模型、CAE模

天尊大模型AIGC場(chǎng)景解決方案

太杉天尊模型AIGC場(chǎng)景解決方案是以AI場(chǎng)景解決方案為核心的全棧Maas綜合方案,助力政企客戶靈活部署(可公有可私有部署)。具備自研的行業(yè)模型能力,主要用于政府/公安/教育等行業(yè)的數(shù)據(jù)處理、文本處理以及多模態(tài)處理等多場(chǎng)景。太杉天尊模型AIGC場(chǎng)景解決方案,是一款專為滿足政府企

人工智能AI大模型技術(shù)研發(fā)定制服務(wù)

公司集成了世界領(lǐng)先的底層模型,具備打通跨模型和工具鏈的平臺(tái),提供從需求分析、數(shù)據(jù)收集、模型設(shè)計(jì)、訓(xùn)練優(yōu)化、評(píng)估、系統(tǒng)集成、用戶界面設(shè)計(jì)、部署維護(hù)、合規(guī)性檢查、技術(shù)支持、性能監(jiān)控、擴(kuò)展性設(shè)計(jì)、定制服務(wù)到持續(xù)研發(fā)一站式AI模型定制研發(fā)服務(wù)。光啟慧語(yǔ)是一家圍繞模型全棧開展技術(shù)研發(fā)和產(chǎn)

盤古大模型專家服務(wù)

&撰寫根據(jù)模型微調(diào)數(shù)據(jù)標(biāo)注規(guī)范,通過配套工具進(jìn)行數(shù)據(jù)標(biāo)注。 八、數(shù)據(jù)轉(zhuǎn)換與導(dǎo)入 完成數(shù)據(jù)格式的轉(zhuǎn)換,可進(jìn)行跨網(wǎng)絡(luò)環(huán)境的數(shù)據(jù)導(dǎo)入。 九、調(diào)優(yōu)方案設(shè)計(jì) 根據(jù)模型訓(xùn)練及調(diào)優(yōu)工具和平臺(tái),輸出模型調(diào)優(yōu)方案。 十、模型訓(xùn)練實(shí)施1. 基于模型訓(xùn)練所需的云服務(wù),完成大模型訓(xùn)練及微調(diào)。2.

博匠行業(yè)AI大模型專業(yè)服務(wù)

數(shù)據(jù)質(zhì)量。4. 模型訓(xùn)練:?設(shè)計(jì)調(diào)優(yōu)方案,實(shí)施模型訓(xùn)練,并進(jìn)行模型評(píng)測(cè)。?熟悉盤古模型工作流和云服務(wù)操作,確保模型效果優(yōu)化。5. 應(yīng)用工程:?提供基于模型能力的Agent開發(fā)和應(yīng)用對(duì)接服務(wù)。?具備良好的軟件開發(fā)和溝通能力,實(shí)現(xiàn)模型與應(yīng)用的無(wú)縫對(duì)接。6. 模型運(yùn)維: ?提供技

天尊大模型AIGC場(chǎng)景解決方案配套服務(wù)

天尊模型AIGC場(chǎng)景解決方案配套服務(wù)是太杉AIGC解決方案的人工服務(wù),是以AI應(yīng)用解決方案為核心的全棧Maas綜合方案,助力政企客戶靈活部署(可公有可私有部署)。主要用于政府/公安/教育等行業(yè)的數(shù)據(jù)處理、文本處理以及多模態(tài)處理等多場(chǎng)景。天尊模型AIGC場(chǎng)景解決方案配套服務(wù)是太

X-brain AI+自動(dòng)訓(xùn)練平臺(tái)

,只需人工提供極少量的標(biāo)注數(shù)據(jù),通過平臺(tái)的自動(dòng)標(biāo)注功能,能夠提升50%的標(biāo)注效率,節(jié)省人力及時(shí)間成本;3、解決模型訓(xùn)練門檻高問題,可視化的模型訓(xùn)練界面,自動(dòng)推薦訓(xùn)練參數(shù),5分鐘快速上手,模型訓(xùn)練成本降低70%;4、克服算法只能解決單一業(yè)務(wù)場(chǎng)景問題,通過拖拽的方式將多個(gè)模型串聯(lián)起來(lái)

[相似文章]ai大模型如何訓(xùn)練
ModelArts模型訓(xùn)練_模型訓(xùn)練簡(jiǎn)介_如何訓(xùn)練模型

ModelArts模型訓(xùn)練 ModelArts模型訓(xùn)練簡(jiǎn)介 ModelArts模型訓(xùn)練,俗稱“建模”,指通過分析手段、方法和技巧對(duì)準(zhǔn)備好的數(shù)據(jù)進(jìn)行探索分析,從中發(fā)現(xiàn)因果關(guān)系、內(nèi)部聯(lián)系和業(yè)務(wù)規(guī)律,為商業(yè)目的提供決策參考。訓(xùn)練模型的結(jié)果通常是一個(gè)或多個(gè)機(jī)器學(xué)習(xí)或深度學(xué)習(xí)模型,模型可以應(yīng)用到新的數(shù)據(jù)中,得到預(yù)測(cè)、評(píng)價(jià)等結(jié)果。

ModelArts模型訓(xùn)練_創(chuàng)建訓(xùn)練作業(yè)_如何創(chuàng)建訓(xùn)練作業(yè)

ModelArts訓(xùn)練管理 ModelArts訓(xùn)練管理 ModelArts訓(xùn)練管理模塊用于創(chuàng)建訓(xùn)練作業(yè)、查看訓(xùn)練情況以及管理訓(xùn)練版本。在訓(xùn)練模塊的統(tǒng)一管理下,方便用戶試驗(yàn)算法、數(shù)據(jù)和超參數(shù)的各種組合,便于追蹤最佳的模型與輸入配置,您可以通過不同版本間的評(píng)估指標(biāo)比較,確定最佳訓(xùn)練作業(yè)。 M

華為云盤古大模型_華為云AI大模型_盤古人工智能

華為云盤古模型 華為云盤古模型 AI for Industries 模型重塑千行百業(yè) AI for Industries 模型重塑千行百業(yè) 盤古模型致力于深耕行業(yè),打造金融、政務(wù)、制造、礦山、氣象、鐵路等領(lǐng)域行業(yè)大模型和能力集,將行業(yè)知識(shí)know-how與模型能力相結(jié)合

ModelArts模型訓(xùn)練_超參搜索簡(jiǎn)介_超參搜索算法

ModelArts訓(xùn)練之超參搜索 ModelArts訓(xùn)練之超參搜索 ModelArts訓(xùn)練中新增了超參搜索功能,自動(dòng)實(shí)現(xiàn)模型超參搜索,為您的模型匹配最優(yōu)的超參。ModelArts支持的超參搜索功能,在無(wú)需算法工程師介入的情況下,即可自動(dòng)進(jìn)行超參的調(diào)優(yōu),在速度和精度上超過人工調(diào)優(yōu)。 Mo

AI訓(xùn)練加速存儲(chǔ)_高性能數(shù)據(jù)存儲(chǔ)_AI數(shù)據(jù)存儲(chǔ)內(nèi)存不足怎么辦

源,包括高性能算力,高速存儲(chǔ)和網(wǎng)絡(luò)帶寬等基礎(chǔ)設(shè)施,即“算力、存力、運(yùn)力”的AI基礎(chǔ)設(shè)施底座,讓算力發(fā)展不要偏斜。 從過去的經(jīng)典AI,到今天人人談?wù)摰?span style='color:'>大模型,自動(dòng)駕駛,我們看到AI模型的參數(shù)及AI算力規(guī)模呈現(xiàn)出指數(shù)級(jí)的爆發(fā)增長(zhǎng),對(duì)存儲(chǔ)基礎(chǔ)設(shè)施也帶來(lái)全新的挑戰(zhàn)。 1、高吞吐的數(shù)據(jù)訪問挑戰(zhàn):隨著企業(yè)使用

ModelArts推理部署_模型_AI應(yīng)用來(lái)源-華為云

ModelArts支持本地準(zhǔn)備模型包,編寫模型配置文件和模型推理代碼,將準(zhǔn)備好的模型包上傳至對(duì)象存儲(chǔ)服務(wù)OBS,從OBS導(dǎo)入模型創(chuàng)建為AI應(yīng)用。 制作模型包,則需要符合一定的模型包規(guī)范。模型包里面必需包含“model”文件夾,“model”文件夾下面放置模型文件,模型配置文件,模型推理代碼文件。

.email域名注冊(cè)_如何注冊(cè).email域名

.email域名注冊(cè) 什么是.email域名注冊(cè)? 域名注冊(cè)(Domain Registration)是用戶付費(fèi)獲取Internet上某一域名一段時(shí)間使用權(quán)的過程。華為云域名注冊(cè)服務(wù)提供域名的注冊(cè)、購(gòu)買、實(shí)名認(rèn)證以及管理功能。 華為云的域名注冊(cè)服務(wù)與新網(wǎng)合作,因此通過華為云注冊(cè)的

ModelArts計(jì)費(fèi)說(shuō)明_計(jì)費(fèi)簡(jiǎn)介_ModelArts怎么計(jì)費(fèi)

基于ModelArts學(xué)習(xí)Python正則表達(dá)式、多線程執(zhí)行任務(wù)和Python魔法方法的使用 什么是數(shù)據(jù)集 2019學(xué)生ICT大賽加分賽人工智能測(cè)試題 華為云AI開發(fā)平臺(tái)助你輕松掌握Python初級(jí)語(yǔ)言 大量文件存儲(chǔ)系統(tǒng)特惠_文件存儲(chǔ)場(chǎng)景是什么_高性能計(jì)算文件存儲(chǔ) 華為云內(nèi)容審核

人工智能學(xué)習(xí)入門

使用MindSpore訓(xùn)練手寫數(shù)字識(shí)別模型 基于昇騰AI處理器的算子開發(fā) 使用MindSpore訓(xùn)練手寫數(shù)字識(shí)別模型 基于昇騰AI處理器的算子開發(fā) 在線課程 體系化的培訓(xùn)課程,快速完成學(xué)習(xí)覆蓋,讓您輕松上云 AI基礎(chǔ) AI基礎(chǔ)課程--概覽 AI基礎(chǔ)課程--Python編程知識(shí) AI基礎(chǔ)課程--數(shù)學(xué)基礎(chǔ)知識(shí)

ai大模型如何訓(xùn)練

AI Gallery支持將模型進(jìn)行微調(diào),訓(xùn)練后得到更優(yōu)模型。

場(chǎng)景描述

模型微調(diào)是深度學(xué)習(xí)中的一種重要技術(shù),它是指在預(yù)訓(xùn)練好的模型基礎(chǔ)上,通過調(diào)整部分參數(shù),使其在特定任務(wù)上達(dá)到更好的性能。 在實(shí)際應(yīng)用中,預(yù)訓(xùn)練模型是在大規(guī)模通用數(shù)據(jù)集上訓(xùn)練得到的,而在特定任務(wù)上,這些模型的參數(shù)可能并不都是最合適的,因此需要進(jìn)行微調(diào)。

AI Gallery的模型微調(diào),簡(jiǎn)單易用,用戶只需要選擇訓(xùn)練數(shù)據(jù)、創(chuàng)建微調(diào)任務(wù),模型微調(diào)就會(huì)對(duì)數(shù)據(jù)進(jìn)行訓(xùn)練,快速生成模型。

約束限制

  • 如果模型的“任務(wù)類型”“文本問答”“文本生成”,則支持模型微調(diào)。如果模型的“任務(wù)類型”是除“文本問答”“文本生成”之外的類型(即自定義模型),則模型文件必須滿足自定義模型規(guī)范(訓(xùn)練)才支持模型自定義訓(xùn)練。
  • 當(dāng)使用自定義 鏡像 進(jìn)行模型微調(diào)時(shí),要確認(rèn)鏡像是否滿足自定義鏡像規(guī)范,否則無(wú)法成功完成自定義訓(xùn)練。

進(jìn)入模型微調(diào)

  1. 登錄AI Gallery。
  2. 單擊“模型”進(jìn)入模型列表。
  3. 選擇需要進(jìn)行微調(diào)訓(xùn)練的模型,單擊模型名稱進(jìn)入模型詳情頁(yè)。
  4. 在模型詳情頁(yè),選擇“訓(xùn)練 > 微調(diào)大師”進(jìn)入微調(diào)工作流頁(yè)面。

選擇訓(xùn)練任務(wù)類型

選擇模型微調(diào)的訓(xùn)練任務(wù)類型。

  • 當(dāng)模型的“任務(wù)類型”“文本問答”“文本生成”時(shí),“訓(xùn)練任務(wù)類型”默認(rèn)和模型“任務(wù)類型”一致。“訓(xùn)練任務(wù)類型”支持修改,如果模型文件滿足自定義模型規(guī)范(訓(xùn)練),則“訓(xùn)練任務(wù)類型”支持選擇“自定義”。
  • 當(dāng)模型的“任務(wù)類型”是除“文本問答”“文本生成”之外的類型(即自定義模型)時(shí),則“訓(xùn)練任務(wù)類型”默認(rèn)為“自定義”,支持修改為“文本問答”“文本生成”。
  • 當(dāng)使用自定義鏡像進(jìn)行模型微調(diào)時(shí),“訓(xùn)練任務(wù)類型”默認(rèn)為“自定義”,且不支持修改。

準(zhǔn)備數(shù)據(jù)

  • 本地上傳數(shù)據(jù)需要確保數(shù)據(jù)已按照數(shù)據(jù)集要求完成編排。如果是自定義模型,此處的數(shù)據(jù)集要求即為模型文件“dataset_readme.md”里的內(nèi)容。
  • 單個(gè)文件最大5GB,所有文件總大小不超過50G。
  1. 在微調(diào)工作流的“數(shù)據(jù)準(zhǔn)備”環(huán)節(jié)選擇數(shù)據(jù)集。
    • 從本地上傳
      1. “從本地上傳”處,單擊“點(diǎn)擊上傳”,選擇本地編排好的訓(xùn)練數(shù)據(jù)。
      2. 數(shù)據(jù)上傳成功后,頁(yè)面會(huì)有提示信息。

        此時(shí)AI Gallery會(huì)自動(dòng)新建一個(gè)數(shù)據(jù)集,單擊提示信息處的“查看”可以進(jìn)入數(shù)據(jù)集詳情頁(yè),也可以在“我的Gallery > 數(shù)據(jù)集 > 我創(chuàng)建的數(shù)據(jù)集”進(jìn)入數(shù)據(jù)集詳情頁(yè)查看。

    • 從AI Gallery中選
      1. 單擊“從AI Gallery中選擇”。
      2. 在彈窗中,從“我創(chuàng)建的”或“我收藏的”數(shù)據(jù)集中選擇所需要數(shù)據(jù)集。
      3. 選擇完成后,單擊“確定”。
  2. 數(shù)據(jù)準(zhǔn)備完成后,單擊“下一步”進(jìn)入“作業(yè)設(shè)置”環(huán)節(jié)。

設(shè)置并啟動(dòng)作業(yè)

  1. 在微調(diào)工作流的“作業(yè)設(shè)置”環(huán)節(jié)配置訓(xùn)練作業(yè)參數(shù)。
    1. 算法配置,會(huì)顯示已選模型的信息,基于已選模型選擇微調(diào)方式。
      • 當(dāng)“訓(xùn)練任務(wù)類型”“文本問答”“文本生成”時(shí),AI Gallery支持的微調(diào)方式是LoRA。
      • 當(dāng)“訓(xùn)練任務(wù)類型”“自定義”時(shí),微調(diào)方式來(lái)自于模型文件“train_params.json”

      低秩適應(yīng)(LoRA)是一種重參數(shù)化方法,旨在減少具有低秩表示的可訓(xùn)練參數(shù)的數(shù)量。權(quán)重矩陣被分解為經(jīng)過訓(xùn)練和更新的低秩矩陣。所有預(yù)訓(xùn)練的模型參數(shù)保持凍結(jié)。訓(xùn)練后,低秩矩陣被添加回原始權(quán)重。這使得存儲(chǔ)和訓(xùn)練LoRA模型更加高效,因?yàn)閰?shù)明顯減少。

    2. 超參數(shù)設(shè)置,基于訓(xùn)練作業(yè)配置超參。超參指的是模型訓(xùn)練時(shí)原始數(shù)據(jù)集中實(shí)際字段和算法需要字段之間的映射關(guān)系。
      • 當(dāng)“訓(xùn)練任務(wù)類型”“文本問答”“文本生成”時(shí),則常見的超參說(shuō)明請(qǐng)參見表1。
      • 當(dāng)“訓(xùn)練任務(wù)類型”“自定義”時(shí),超參信息來(lái)自于模型文件“train_params.json” 。如果不使用可選超參,建議單擊右側(cè)的刪除按鈕,刪除參數(shù)。
      表1 常見超參說(shuō)明

      參數(shù)名稱

      參數(shù)類型

      說(shuō)明

      data_url

      String

      數(shù)據(jù) OBS 存儲(chǔ)路徑。

      train_url

      String

      微調(diào)產(chǎn)物輸出OBS路徑。

      train_data_file

      String

      訓(xùn)練數(shù)據(jù)文件名。

      test_data_file

      String

      測(cè)試數(shù)據(jù)文件名。

      prompt_field

      String

      數(shù)據(jù)prompt列名。

      response_field

      String

      數(shù)據(jù)response列名。

      history_field

      String

      數(shù)據(jù)history列名。

      prefix

      String

      數(shù)據(jù)格式化時(shí)使用的前綴。

      instruction_template

      String

      數(shù)據(jù)格式化時(shí)使用的指令模板。

      response_template

      String

      數(shù)據(jù)格式化時(shí)使用的回答模板。

      lora_alpha

      int

      Lora scaling的alpha參數(shù)。

      lora_dropout

      float

      Lora dropout概率。

      lora_rank

      int

      Lora attention維度。

      per_device_train_batch_size

      int

      用于訓(xùn)練的每個(gè)GPU/TPU core/CPU的批處理大小。

      gradient_accumulation_steps

      int

      梯度累計(jì)步數(shù)。

      max_steps

      int

      訓(xùn)練最大步數(shù),如果數(shù)據(jù)耗盡,訓(xùn)練將會(huì)在最大步數(shù)前停止。

      save_steps

      int

      checkpoint保存步數(shù)。

      logging_steps

      int

      日志輸出步數(shù)。

      learning_rate

      float

      初始學(xué)習(xí)率。

      max_grad_norm

      float

      梯度裁剪最大范數(shù)。

      warmup_ratio

      float

      熱身步數(shù)比。

      max_seq_length

      int

      數(shù)據(jù)最大序列長(zhǎng)度。

      finetuned_model

      String

      前序微調(diào)產(chǎn)物OBS路徑。

      bits

      int

      模型量化bit數(shù),如4、8。

      max_eval_samples

      int

      最大測(cè)試數(shù)據(jù)數(shù)。

    3. 計(jì)算規(guī)格選擇,按需選擇計(jì)算規(guī)格。單擊“選擇”,在彈窗中選擇資源規(guī)格,單擊“確定”。
      • “所在區(qū)”選擇計(jì)算規(guī)格所在的區(qū)域。默認(rèn)顯示全部區(qū)域的計(jì)算規(guī)格。
      • 選擇計(jì)算規(guī)格不可用的資源會(huì)置灰。右側(cè)“配置信息”區(qū)域會(huì)顯示計(jì)算規(guī)格的詳細(xì)數(shù)據(jù),AI Gallery會(huì)基于資產(chǎn)和資源情況分析該任務(wù)是否支持設(shè)置“商品數(shù)量”,用戶可以基于業(yè)務(wù)需要選擇任務(wù)所需的資源卡數(shù)。

      如果選擇付費(fèi)資源,則請(qǐng)確認(rèn)賬號(hào)未欠費(fèi),且余額高于所選計(jì)算規(guī)格的收費(fèi)標(biāo)準(zhǔn),否則可能會(huì)導(dǎo)致AI Gallery工具鏈服務(wù)異常中斷。AI Gallery的計(jì)算規(guī)格的計(jì)費(fèi)說(shuō)明請(qǐng)參見計(jì)算規(guī)格說(shuō)明。

  2. 作業(yè)參數(shù)配置完成后,單擊“啟動(dòng)作業(yè)”。
  3. “訂單信息確認(rèn)”頁(yè)面,確認(rèn)服務(wù)信息和費(fèi)用,單擊“確定”提交模型訓(xùn)練任務(wù)。

    單擊“返回模型訓(xùn)練”跳轉(zhuǎn)到微調(diào)大師頁(yè)面,可以查看訓(xùn)練作業(yè)狀態(tài)。當(dāng)“狀態(tài)”“訓(xùn)練完成”時(shí),表示微調(diào)任務(wù)完成。

    • 單擊操作列的“查看模型”跳轉(zhuǎn)到微調(diào)獲得的新模型的詳情頁(yè)面。
    • 單擊操作列的“任務(wù)詳情”可以在彈窗中查看“訓(xùn)練信息”、“訓(xùn)練日志”“指標(biāo)效果”。
    • 單擊操作列的“更多 > 刪除任務(wù)”,可以刪除微調(diào)任務(wù),但是微調(diào)獲得的新模型不會(huì)被刪除。

查看訓(xùn)練效果

啟動(dòng)模型微調(diào)任務(wù)后,在微調(diào)大師列表單擊操作列的“任務(wù)詳情”,在彈窗中選擇“指標(biāo)效果”頁(yè)簽,可以查看訓(xùn)練效果。

表2 訓(xùn)練效果的指標(biāo)介紹

指標(biāo)名稱

指標(biāo)說(shuō)明

NPU/GPU利用率

在訓(xùn)練過程中,機(jī)器的NPU/GPU占用情況(橫坐標(biāo)時(shí)間,縱坐標(biāo)占用率)。

顯存利用率

在訓(xùn)練過程中,機(jī)器的顯存占用情況(橫坐標(biāo)時(shí)間,縱坐標(biāo)占用率)。

吞吐

在訓(xùn)練過程中,每卡處理tokens數(shù)量(tokens/s/p)。每種框架計(jì)算方式不一致,例如,ATB可通過“samples per second*seq_lenth/總卡數(shù)”得到tokens/s/p,輸出給throughout字段,seq_lenth取值在訓(xùn)練腳本中可以查看。

單機(jī)8卡吞吐量一般為1650tokens/s/p,雙機(jī)16卡吞吐量一般為1625tokens/s/p。

說(shuō)明:

自定義訓(xùn)練或自定義鏡像訓(xùn)練,需要提前在訓(xùn)練啟動(dòng)腳本(例如“train.py”)中定義好迭代次數(shù)、LOSS和吞吐數(shù)據(jù)的存放位置,以及存放格式(必須是“迭代次數(shù)|loss|吞吐”),才能在此處正常查看吞吐和“訓(xùn)練LOSS”曲線。

訓(xùn)練LOSS

訓(xùn)練階段的LOSS變化,模型在日志里用LOSS關(guān)鍵詞記錄數(shù)據(jù),按照訓(xùn)練迭代周期記錄LOSS值。

微調(diào)產(chǎn)物說(shuō)明

模型微調(diào)完成后,會(huì)得到一個(gè)新模型,即微調(diào)產(chǎn)物。

在微調(diào)大師頁(yè)面,單擊操作列的“查看模型”跳轉(zhuǎn)到微調(diào)獲得的新模型的詳情頁(yè)面。選擇“模型文件”頁(yè)簽可以查看微調(diào)產(chǎn)物。各文件說(shuō)明請(qǐng)參見表3。

圖1 微調(diào)產(chǎn)物示例
表3 微調(diào)產(chǎn)物說(shuō)明

文件名

文件說(shuō)明

gallery_train文件夾

自定義模型的模型訓(xùn)練文件,僅當(dāng)使用自定義模型微調(diào)時(shí)才會(huì)有這個(gè)微調(diào)產(chǎn)物,內(nèi)容和預(yù)訓(xùn)練模型里的gallery_train文件一致。

training_logs/user_params.json

微調(diào)配置參數(shù)信息,AI Gallery會(huì)自動(dòng)將微調(diào)設(shè)置的參數(shù)信息記錄在此文件下。

“README.md”

模型的基礎(chǔ)信息。內(nèi)容和預(yù)訓(xùn)練模型里“模型文件”頁(yè)簽的“README.md”一致。

其他文件

當(dāng)使用自定義模型微調(diào)時(shí),可能還會(huì)有一些其他微調(diào)產(chǎn)物,這是由自定義模型的訓(xùn)練腳本文件train.py決定的,如果訓(xùn)練腳本定義了歸檔其他訓(xùn)練產(chǎn)物,就會(huì)在此處呈現(xiàn)。

ai大模型如何訓(xùn)練常見問題

更多常見問題 >>
  • ModelArts模型訓(xùn)練旨在提升開發(fā)者模型訓(xùn)練的開發(fā)效率及訓(xùn)練性能。提供了可視化作業(yè)管理、資源管理、版本管理等功能,基于機(jī)器學(xué)習(xí)算法及強(qiáng)化學(xué)習(xí)的模型訓(xùn)練自動(dòng)超參調(diào)優(yōu);預(yù)置和調(diào)優(yōu)常用模型,簡(jiǎn)化模型開發(fā)和全流程訓(xùn)練管理。

  • 在自然語(yǔ)言處理(NLP)領(lǐng)域中,使用語(yǔ)言模型預(yù)訓(xùn)練方法在多項(xiàng)NLP任務(wù)上都獲得了不錯(cuò)的提升,廣泛受到了各界的關(guān)注。本課程將簡(jiǎn)單介紹一下預(yù)訓(xùn)練的思想,幾個(gè)代表性模型和它們之間的關(guān)系。

  • 訓(xùn)練管理模塊是ModelArts不可或缺的功能模塊,用于創(chuàng)建訓(xùn)練作業(yè)、查看訓(xùn)練情況以及管理訓(xùn)練版本。模型訓(xùn)練是一個(gè)不斷迭代和優(yōu)化的過程。在訓(xùn)練模塊的統(tǒng)一管理下,方便用戶試驗(yàn)算法、數(shù)據(jù)和超參數(shù)的各種組合,便于追蹤最佳的模型與輸入配置,您可以通過不同版本間的評(píng)估指標(biāo)比較,確定最佳訓(xùn)練作業(yè)。

  • 盤古大模型致力于深耕行業(yè),打造金融、政務(wù)、制造、礦山、氣象、鐵路等領(lǐng)域行業(yè)大模型和能力集,將行業(yè)知識(shí)know-how與大模型能力相結(jié)合,重塑千行百業(yè),成為各組織、企業(yè)、個(gè)人的專家助手。

  • 模型轉(zhuǎn)換,即將開源框架的網(wǎng)絡(luò)模型(如Caffe、TensorFlow等),通過ATC(Ascend Tensor Compiler)模型轉(zhuǎn)換工具,將其轉(zhuǎn)換成昇騰AI處理器支持的離線模型。

  • 本實(shí)驗(yàn)指導(dǎo)用戶在短時(shí)間內(nèi),了解和熟悉使用ModelArts進(jìn)行模型開發(fā)和訓(xùn)練的基本流程,并利用ModelArts訓(xùn)練管理服務(wù)完成一次訓(xùn)練任務(wù)。

更多相關(guān)專題