體驗 政企知識檢索 智能創(chuàng)意營銷 行業(yè)API助手 行業(yè)研發(fā)助手 政企會議助手 文檔與學習成長 盤古大模型 盤古大模型 什么是盤古大模型 盤古NLP大模型能力與規(guī)格 盤古大模型快速入門 如何調(diào)用盤古大模型API 查看全部 AI Gallery百模千態(tài)社區(qū) AI Gallery百模千態(tài)社區(qū)
化應(yīng)用 大模型混合云十大創(chuàng)新技術(shù) 大模型混合云十大創(chuàng)新技術(shù) 了解詳情 十大創(chuàng)新技術(shù) 加速構(gòu)建企業(yè)專屬大模型 十大創(chuàng)新技術(shù) 加速構(gòu)建企業(yè)專屬大模型 圍繞企業(yè)大模型構(gòu)建關(guān)鍵過程,聚焦根技術(shù),為AI原生系統(tǒng)性創(chuàng)新 圍繞企業(yè)大模型構(gòu)建關(guān)鍵過程,聚焦根技術(shù),為AI原生系統(tǒng)性創(chuàng)新 多樣性算力調(diào)度
文檔與學習成長 盤古大模型 盤古大模型 什么是盤古大模型 盤古預(yù)測大模型能力與規(guī)格 盤古大模型快速入門 如何調(diào)用盤古大模型API 查看全部 AI Gallery百模千態(tài)社區(qū) AI Gallery百模千態(tài)社區(qū) 優(yōu)質(zhì)昇騰云AI模型專區(qū) 幾行代碼自由部署AI應(yīng)用 豐富多樣的AI訓(xùn)練數(shù)據(jù)集 場景化AI案例,助力AI賦能千行百業(yè)
盤古大模型 PanguLargeModels 盤古大模型 PanguLargeModels 盤古大模型是面向B端行業(yè)的大模型,包含L0中5類基礎(chǔ)大模型、L1行業(yè)大模型及L2場景模型三層架構(gòu) 盤古大模型是面向B端行業(yè)的大模型,包含L0中5類基礎(chǔ)大模型、L1行業(yè)大模型及L2場景模型三層架構(gòu)
廣汽借助華為云盤古多模態(tài)大模型,打造業(yè)界首個支持點云生成的大模型,為其端到端仿真高效迭代提供強有力支撐。 文檔與學習成長 盤古大模型 盤古大模型 什么是盤古大模型 盤古多模態(tài)大模型能力與規(guī)格 用戶指南 如何調(diào)用盤古大模型API 查看全部 AI Gallery百模千態(tài)社區(qū) AI Gallery百模千態(tài)社區(qū)
提供高精度的全球模型,無需定制和訓(xùn)練,直接訂閱即可推理 多種部署形態(tài) 支持公有云、混合云、邊緣多種形態(tài),滿足不同需求 文檔與學習成長 盤古大模型 盤古大模型 什么是盤古大模型 盤古科學計算大模型能力與規(guī)格 盤古大模型用戶指南 如何調(diào)用盤古大模型API 查看全部 AI Gallery百模千態(tài)社區(qū)
支持三方開源大模型,加速客戶大模型業(yè)務(wù)上線 構(gòu)建大模型應(yīng)用開發(fā)工具鏈,使能大模型開箱即用 構(gòu)建大模型應(yīng)用開發(fā)工具鏈,完善云上數(shù)據(jù)清洗|模型微調(diào)|部署|Prompt|評測|Agent,大模型應(yīng)用開發(fā)效率提升; 原生昇騰云組件Agent,構(gòu)建“大模型+云組件”組合競爭力,如搜索Agent,大數(shù)據(jù)Agent等,使能云上存量用戶零遷移構(gòu)建大模型應(yīng)用;
穩(wěn)定安全的算力底座,極快至簡的模型訓(xùn)練 穩(wěn)定安全的算力底座,極快至簡的模型訓(xùn)練 支持萬節(jié)點計算集群管理 大規(guī)模分布式訓(xùn)練能力,加速大模型研發(fā) 多應(yīng)用場景全覆蓋,AI智能平臺助力業(yè)務(wù)成功 多應(yīng)用場景全覆蓋,AI智能平臺助力業(yè)務(wù)成功 大模型 實現(xiàn)智能回答、聊天機器人、自動摘要、機器翻譯、文本分類等任務(wù)
學習資源 學習資源 AI開發(fā)基本流程介紹 自動學習簡介 使用預(yù)置算法構(gòu)建模型 使用自定義算法構(gòu)建模型 查看更多 您感興趣的產(chǎn)品 您感興趣的產(chǎn)品 盤古NLP大模型 最貼合行業(yè)落地的NLP大模型 盤古CV大模型 賦能行業(yè)客戶使用少量數(shù)據(jù)微調(diào)即可滿足特定場景任務(wù) 盤古預(yù)測大模型 基于Triplet
《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》明確,具有輿論屬性或者社會動員能力的算法推薦服務(wù)提供者應(yīng)當在提供服務(wù)之日起十個工作日內(nèi)通過互聯(lián)網(wǎng)信息服務(wù)算法備案系統(tǒng)填報服務(wù)提供者的名稱、服務(wù)形式、應(yīng)用領(lǐng)域、算法類型、算法自評估報告、擬公示內(nèi)容等信息 方便
湘江鯤鵬目前在人工智能大模型領(lǐng)域擁有算力、數(shù)據(jù)、算法三大關(guān)鍵要素的經(jīng)驗積累,構(gòu)建了大模型三個方面的差異化競爭力,盤古大模型AI專業(yè)服務(wù)覆蓋從前期咨詢、規(guī)劃設(shè)計,到數(shù)據(jù)工程、模型訓(xùn)練,再到應(yīng)用工程及模型運維的完整流程。基于華為盤古提供的AI專業(yè)服務(wù)包,致力于為企業(yè)提供一站式人工智能解決方案
angChain等流行的大模型開發(fā)框架,構(gòu)建企業(yè)級AI應(yīng)用;團隊擁有成熟的軟件工程技術(shù)和管理能力。6. 大模型使用的技術(shù)支持,用戶使用大模型平臺,解答用戶使用過程遇到的問題;大模型與應(yīng)用對接集成,以及進行日常巡檢、故障處理、模型升級等服務(wù)。4. 工業(yè)數(shù)據(jù)模型(CAD模型、CAE模
太杉天尊大模型AIGC場景解決方案是以AI場景解決方案為核心的全棧Maas綜合方案,助力政企客戶靈活部署(可公有可私有部署)。具備自研的行業(yè)模型能力,主要用于政府/公安/教育等行業(yè)的數(shù)據(jù)處理、文本處理以及多模態(tài)處理等多場景。太杉天尊大模型AIGC場景解決方案,是一款專為滿足政府企
公司集成了世界領(lǐng)先的底層大模型,具備打通跨模型和工具鏈的平臺,提供從需求分析、數(shù)據(jù)收集、模型設(shè)計、訓(xùn)練優(yōu)化、評估、系統(tǒng)集成、用戶界面設(shè)計、部署維護、合規(guī)性檢查、技術(shù)支持、性能監(jiān)控、擴展性設(shè)計、定制服務(wù)到持續(xù)研發(fā)一站式AI大模型定制研發(fā)服務(wù)。光啟慧語是一家圍繞大模型全棧開展技術(shù)研發(fā)和產(chǎn)
&撰寫根據(jù)大模型微調(diào)數(shù)據(jù)標注規(guī)范,通過配套工具進行數(shù)據(jù)標注。 八、數(shù)據(jù)轉(zhuǎn)換與導(dǎo)入 完成數(shù)據(jù)格式的轉(zhuǎn)換,可進行跨網(wǎng)絡(luò)環(huán)境的數(shù)據(jù)導(dǎo)入。 九、調(diào)優(yōu)方案設(shè)計 根據(jù)大模型訓(xùn)練及調(diào)優(yōu)工具和平臺,輸出大模型調(diào)優(yōu)方案。 十、模型訓(xùn)練實施1. 基于大模型訓(xùn)練所需的云服務(wù),完成大模型訓(xùn)練及微調(diào)。2.
數(shù)據(jù)質(zhì)量。4. 模型訓(xùn)練:?設(shè)計調(diào)優(yōu)方案,實施模型訓(xùn)練,并進行模型評測。?熟悉盤古大模型工作流和云服務(wù)操作,確保模型效果優(yōu)化。5. 應(yīng)用工程:?提供基于大模型能力的Agent開發(fā)和應(yīng)用對接服務(wù)。?具備良好的軟件開發(fā)和溝通能力,實現(xiàn)大模型與應(yīng)用的無縫對接。6. 模型運維: ?提供技
天尊大模型AIGC場景解決方案配套服務(wù)是太杉AIGC解決方案的人工服務(wù),是以AI應(yīng)用解決方案為核心的全棧Maas綜合方案,助力政企客戶靈活部署(可公有可私有部署)。主要用于政府/公安/教育等行業(yè)的數(shù)據(jù)處理、文本處理以及多模態(tài)處理等多場景。天尊大模型AIGC場景解決方案配套服務(wù)是太
,只需人工提供極少量的標注數(shù)據(jù),通過平臺的自動標注功能,能夠提升50%的標注效率,節(jié)省人力及時間成本;3、解決模型訓(xùn)練門檻高問題,可視化的模型訓(xùn)練界面,自動推薦訓(xùn)練參數(shù),5分鐘快速上手,模型訓(xùn)練成本降低70%;4、克服算法只能解決單一業(yè)務(wù)場景問題,通過拖拽的方式將多個模型串聯(lián)起來
ModelArts模型訓(xùn)練 ModelArts模型訓(xùn)練簡介 ModelArts模型訓(xùn)練,俗稱“建模”,指通過分析手段、方法和技巧對準備好的數(shù)據(jù)進行探索分析,從中發(fā)現(xiàn)因果關(guān)系、內(nèi)部聯(lián)系和業(yè)務(wù)規(guī)律,為商業(yè)目的提供決策參考。訓(xùn)練模型的結(jié)果通常是一個或多個機器學習或深度學習模型,模型可以應(yīng)用到新的數(shù)據(jù)中,得到預(yù)測、評價等結(jié)果。
華為云盤古大模型 華為云盤古大模型 AI for Industries 大模型重塑千行百業(yè) AI for Industries 大模型重塑千行百業(yè) 盤古大模型致力于深耕行業(yè),打造金融、政務(wù)、制造、礦山、氣象、鐵路等領(lǐng)域行業(yè)大模型和能力集,將行業(yè)知識know-how與大模型能力相結(jié)合
ModelArts訓(xùn)練管理 ModelArts訓(xùn)練管理 ModelArts訓(xùn)練管理模塊用于創(chuàng)建訓(xùn)練作業(yè)、查看訓(xùn)練情況以及管理訓(xùn)練版本。在訓(xùn)練模塊的統(tǒng)一管理下,方便用戶試驗算法、數(shù)據(jù)和超參數(shù)的各種組合,便于追蹤最佳的模型與輸入配置,您可以通過不同版本間的評估指標比較,確定最佳訓(xùn)練作業(yè)。 M
ModelArts訓(xùn)練之超參搜索 ModelArts訓(xùn)練之超參搜索 ModelArts訓(xùn)練中新增了超參搜索功能,自動實現(xiàn)模型超參搜索,為您的模型匹配最優(yōu)的超參。ModelArts支持的超參搜索功能,在無需算法工程師介入的情況下,即可自動進行超參的調(diào)優(yōu),在速度和精度上超過人工調(diào)優(yōu)。 Mo
源,包括高性能算力,高速存儲和網(wǎng)絡(luò)帶寬等基礎(chǔ)設(shè)施,即“大算力、大存力、大運力”的AI基礎(chǔ)大設(shè)施底座,讓算力發(fā)展不要偏斜。 從過去的經(jīng)典AI,到今天人人談?wù)摰?span style='color:'>大模型,自動駕駛,我們看到AI模型的參數(shù)及AI算力規(guī)模呈現(xiàn)出指數(shù)級的爆發(fā)增長,對存儲基礎(chǔ)設(shè)施也帶來全新的挑戰(zhàn)。 1、高吞吐的數(shù)據(jù)訪問挑戰(zhàn):隨著企業(yè)使用
ModelArts支持本地準備模型包,編寫模型配置文件和模型推理代碼,將準備好的模型包上傳至對象存儲服務(wù)OBS,從OBS導(dǎo)入模型創(chuàng)建為AI應(yīng)用。 制作模型包,則需要符合一定的模型包規(guī)范。模型包里面必需包含“model”文件夾,“model”文件夾下面放置模型文件,模型配置文件,模型推理代碼文件。
10ms 最大容量 4PB EB 優(yōu)勢 大容量、高帶寬、低成本 大容量、高帶寬、低成本 應(yīng)用場景 大容量擴展以及成本敏感型業(yè)務(wù),如媒體處理、文件共享、高性能計算、數(shù)據(jù)備份等。SFS容量型文件系統(tǒng)不適合海量小文件業(yè)務(wù),推薦使用SFS Turbo文件系統(tǒng)。 大容量擴展以及成本敏感型業(yè)務(wù),如媒
使用MindSpore訓(xùn)練手寫數(shù)字識別模型 基于昇騰AI處理器的算子開發(fā) 使用MindSpore訓(xùn)練手寫數(shù)字識別模型 基于昇騰AI處理器的算子開發(fā) 在線課程 體系化的培訓(xùn)課程,快速完成學習覆蓋,讓您輕松上云 AI基礎(chǔ) AI基礎(chǔ)課程--概覽 AI基礎(chǔ)課程--Python編程知識 AI基礎(chǔ)課程--數(shù)學基礎(chǔ)知識
人工智能學習入門 人工智能課程學習,動手實驗,在線考試認證,掌握人工智能技能 人工智能知識圖譜 在線課程 01 AI基礎(chǔ)、技術(shù)領(lǐng)域、應(yīng)用場景、華為云EI AI基礎(chǔ)、技術(shù)領(lǐng)域、應(yīng)用場景、華為云EI 動手實驗 02 包括初級、中級實驗 包括初級、中級實驗 AI基礎(chǔ) AI基礎(chǔ) AI基礎(chǔ)課程--概覽
訓(xùn)練ai大模型
AI Gallery支持將模型進行微調(diào),訓(xùn)練后得到更優(yōu)模型。
場景描述
模型微調(diào)是深度學習中的一種重要技術(shù),它是指在預(yù)訓(xùn)練好的模型基礎(chǔ)上,通過調(diào)整部分參數(shù),使其在特定任務(wù)上達到更好的性能。 在實際應(yīng)用中,預(yù)訓(xùn)練模型是在大規(guī)模通用數(shù)據(jù)集上訓(xùn)練得到的,而在特定任務(wù)上,這些模型的參數(shù)可能并不都是最合適的,因此需要進行微調(diào)。
AI Gallery的模型微調(diào),簡單易用,用戶只需要選擇訓(xùn)練數(shù)據(jù)、創(chuàng)建微調(diào)任務(wù),模型微調(diào)就會對數(shù)據(jù)進行訓(xùn)練,快速生成模型。
約束限制
- 如果模型的“任務(wù)類型”是“文本問答”或“文本生成”,則支持模型微調(diào)。如果模型的“任務(wù)類型”是除“文本問答”和“文本生成”之外的類型(即自定義模型),則模型文件必須滿足自定義模型規(guī)范(訓(xùn)練)才支持模型自定義訓(xùn)練。
- 當使用自定義 鏡像 進行模型微調(diào)時,要確認鏡像是否滿足自定義鏡像規(guī)范,否則無法成功完成自定義訓(xùn)練。
進入模型微調(diào)
- 登錄AI Gallery。
- 單擊“模型”進入模型列表。
- 選擇需要進行微調(diào)訓(xùn)練的模型,單擊模型名稱進入模型詳情頁。
- 在模型詳情頁,選擇“訓(xùn)練 > 微調(diào)大師”進入微調(diào)工作流頁面。
選擇訓(xùn)練任務(wù)類型
選擇模型微調(diào)的訓(xùn)練任務(wù)類型。
- 當模型的“任務(wù)類型”是“文本問答”或“文本生成”時,“訓(xùn)練任務(wù)類型”默認和模型“任務(wù)類型”一致。“訓(xùn)練任務(wù)類型”支持修改,如果模型文件滿足自定義模型規(guī)范(訓(xùn)練),則“訓(xùn)練任務(wù)類型”支持選擇“自定義”。
- 當模型的“任務(wù)類型”是除“文本問答”和“文本生成”之外的類型(即自定義模型)時,則“訓(xùn)練任務(wù)類型”默認為“自定義”,支持修改為“文本問答”或“文本生成”。
- 當使用自定義鏡像進行模型微調(diào)時,“訓(xùn)練任務(wù)類型”默認為“自定義”,且不支持修改。
準備數(shù)據(jù)
- 本地上傳數(shù)據(jù)需要確保數(shù)據(jù)已按照數(shù)據(jù)集要求完成編排。如果是自定義模型,此處的數(shù)據(jù)集要求即為模型文件“dataset_readme.md”里的內(nèi)容。
- 單個文件最大5GB,所有文件總大小不超過50G。
- 在微調(diào)工作流的“數(shù)據(jù)準備”環(huán)節(jié)選擇數(shù)據(jù)集。
- 從本地上傳
- 從AI Gallery中選
- 單擊“從AI Gallery中選擇”。
- 在彈窗中,從“我創(chuàng)建的”或“我收藏的”數(shù)據(jù)集中選擇所需要數(shù)據(jù)集。
- 選擇完成后,單擊“確定”。
- 數(shù)據(jù)準備完成后,單擊“下一步”進入“作業(yè)設(shè)置”環(huán)節(jié)。
設(shè)置并啟動作業(yè)
- 在微調(diào)工作流的“作業(yè)設(shè)置”環(huán)節(jié)配置訓(xùn)練作業(yè)參數(shù)。
- 算法配置,會顯示已選模型的信息,基于已選模型選擇微調(diào)方式。
- 當“訓(xùn)練任務(wù)類型”是“文本問答”或“文本生成”時,AI Gallery支持的微調(diào)方式是LoRA。
- 當“訓(xùn)練任務(wù)類型”是“自定義”時,微調(diào)方式來自于模型文件“train_params.json” 。
低秩適應(yīng)(LoRA)是一種重參數(shù)化方法,旨在減少具有低秩表示的可訓(xùn)練參數(shù)的數(shù)量。權(quán)重矩陣被分解為經(jīng)過訓(xùn)練和更新的低秩矩陣。所有預(yù)訓(xùn)練的模型參數(shù)保持凍結(jié)。訓(xùn)練后,低秩矩陣被添加回原始權(quán)重。這使得存儲和訓(xùn)練LoRA模型更加高效,因為參數(shù)明顯減少。
- 超參數(shù)設(shè)置,基于訓(xùn)練作業(yè)配置超參。超參指的是模型訓(xùn)練時原始數(shù)據(jù)集中實際字段和算法需要字段之間的映射關(guān)系。
- 當“訓(xùn)練任務(wù)類型”是“文本問答”或“文本生成”時,則常見的超參說明請參見表1。
- 當“訓(xùn)練任務(wù)類型”是“自定義”時,超參信息來自于模型文件“train_params.json” 。如果不使用可選超參,建議單擊右側(cè)的刪除按鈕,刪除參數(shù)。
表1 常見超參說明 參數(shù)名稱
參數(shù)類型
說明
data_url
String
數(shù)據(jù) OBS 存儲路徑。
train_url
String
微調(diào)產(chǎn)物輸出OBS路徑。
train_data_file
String
訓(xùn)練數(shù)據(jù)文件名。
test_data_file
String
測試數(shù)據(jù)文件名。
prompt_field
String
數(shù)據(jù)prompt列名。
response_field
String
數(shù)據(jù)response列名。
history_field
String
數(shù)據(jù)history列名。
prefix
String
數(shù)據(jù)格式化時使用的前綴。
instruction_template
String
數(shù)據(jù)格式化時使用的指令模板。
response_template
String
數(shù)據(jù)格式化時使用的回答模板。
lora_alpha
int
Lora scaling的alpha參數(shù)。
lora_dropout
float
Lora dropout概率。
lora_rank
int
Lora attention維度。
per_device_train_batch_size
int
用于訓(xùn)練的每個GPU/TPU core/CPU的批處理大小。
gradient_accumulation_steps
int
梯度累計步數(shù)。
max_steps
int
訓(xùn)練最大步數(shù),如果數(shù)據(jù)耗盡,訓(xùn)練將會在最大步數(shù)前停止。
save_steps
int
checkpoint保存步數(shù)。
logging_steps
int
日志輸出步數(shù)。
learning_rate
float
初始學習率。
max_grad_norm
float
梯度裁剪最大范數(shù)。
warmup_ratio
float
熱身步數(shù)比。
max_seq_length
int
數(shù)據(jù)最大序列長度。
finetuned_model
String
前序微調(diào)產(chǎn)物OBS路徑。
bits
int
模型量化bit數(shù),如4、8。
max_eval_samples
int
最大測試數(shù)據(jù)數(shù)。
- 計算規(guī)格選擇,按需選擇計算規(guī)格。單擊“選擇”,在彈窗中選擇資源規(guī)格,單擊“確定”。
- 在“所在區(qū)”選擇計算規(guī)格所在的區(qū)域。默認顯示全部區(qū)域的計算規(guī)格。
- 選擇計算規(guī)格不可用的資源會置灰。右側(cè)“配置信息”區(qū)域會顯示計算規(guī)格的詳細數(shù)據(jù),AI Gallery會基于資產(chǎn)和資源情況分析該任務(wù)是否支持設(shè)置“商品數(shù)量”,用戶可以基于業(yè)務(wù)需要選擇任務(wù)所需的資源卡數(shù)。
如果選擇付費資源,則請確認賬號未欠費,且余額高于所選計算規(guī)格的收費標準,否則可能會導(dǎo)致AI Gallery工具鏈服務(wù)異常中斷。AI Gallery的計算規(guī)格的計費說明請參見計算規(guī)格說明。
- 算法配置,會顯示已選模型的信息,基于已選模型選擇微調(diào)方式。
- 作業(yè)參數(shù)配置完成后,單擊“啟動作業(yè)”。
- 在“訂單信息確認”頁面,確認服務(wù)信息和費用,單擊“確定”提交模型訓(xùn)練任務(wù)。
單擊“返回模型訓(xùn)練”跳轉(zhuǎn)到微調(diào)大師頁面,可以查看訓(xùn)練作業(yè)狀態(tài)。當“狀態(tài)”為“訓(xùn)練完成”時,表示微調(diào)任務(wù)完成。
- 單擊操作列的“查看模型”跳轉(zhuǎn)到微調(diào)獲得的新模型的詳情頁面。
- 單擊操作列的“任務(wù)詳情”可以在彈窗中查看“訓(xùn)練信息”、“訓(xùn)練日志”和“指標效果”。
- 單擊操作列的“更多 > 刪除任務(wù)”,可以刪除微調(diào)任務(wù),但是微調(diào)獲得的新模型不會被刪除。
查看訓(xùn)練效果
啟動模型微調(diào)任務(wù)后,在微調(diào)大師列表單擊操作列的“任務(wù)詳情”,在彈窗中選擇“指標效果”頁簽,可以查看訓(xùn)練效果。
|
指標名稱 |
指標說明 |
|---|---|
|
NPU/GPU利用率 |
在訓(xùn)練過程中,機器的NPU/GPU占用情況(橫坐標時間,縱坐標占用率)。 |
|
顯存利用率 |
在訓(xùn)練過程中,機器的顯存占用情況(橫坐標時間,縱坐標占用率)。 |
|
吞吐 |
在訓(xùn)練過程中,每卡處理tokens數(shù)量(tokens/s/p)。每種框架計算方式不一致,例如,ATB可通過“samples per second*seq_lenth/總卡數(shù)”得到tokens/s/p,輸出給throughout字段,seq_lenth取值在訓(xùn)練腳本中可以查看。 單機8卡吞吐量一般為1650tokens/s/p,雙機16卡吞吐量一般為1625tokens/s/p。
說明:
自定義訓(xùn)練或自定義鏡像訓(xùn)練,需要提前在訓(xùn)練啟動腳本(例如“train.py”)中定義好迭代次數(shù)、LOSS和吞吐數(shù)據(jù)的存放位置,以及存放格式(必須是“迭代次數(shù)|loss|吞吐”),才能在此處正常查看吞吐和“訓(xùn)練LOSS”曲線。 |
|
訓(xùn)練LOSS |
訓(xùn)練階段的LOSS變化,模型在日志里用LOSS關(guān)鍵詞記錄數(shù)據(jù),按照訓(xùn)練迭代周期記錄LOSS值。 |
微調(diào)產(chǎn)物說明
模型微調(diào)完成后,會得到一個新模型,即微調(diào)產(chǎn)物。
在微調(diào)大師頁面,單擊操作列的“查看模型”跳轉(zhuǎn)到微調(diào)獲得的新模型的詳情頁面。選擇“模型文件”頁簽可以查看微調(diào)產(chǎn)物。各文件說明請參見表3。
|
文件名 |
文件說明 |
|---|---|
|
gallery_train文件夾 |
自定義模型的模型訓(xùn)練文件,僅當使用自定義模型微調(diào)時才會有這個微調(diào)產(chǎn)物,內(nèi)容和預(yù)訓(xùn)練模型里的gallery_train文件一致。 |
|
training_logs/user_params.json |
微調(diào)配置參數(shù)信息,AI Gallery會自動將微調(diào)設(shè)置的參數(shù)信息記錄在此文件下。 |
|
“README.md” |
模型的基礎(chǔ)信息。內(nèi)容和預(yù)訓(xùn)練模型里“模型文件”頁簽的“README.md”一致。 |
|
其他文件 |
當使用自定義模型微調(diào)時,可能還會有一些其他微調(diào)產(chǎn)物,這是由自定義模型的訓(xùn)練腳本文件train.py決定的,如果訓(xùn)練腳本定義了歸檔其他訓(xùn)練產(chǎn)物,就會在此處呈現(xiàn)。 |
訓(xùn)練ai大模型常見問題
更多常見問題 >>-
在自然語言處理(NLP)領(lǐng)域中,使用語言模型預(yù)訓(xùn)練方法在多項NLP任務(wù)上都獲得了不錯的提升,廣泛受到了各界的關(guān)注。本課程將簡單介紹一下預(yù)訓(xùn)練的思想,幾個代表性模型和它們之間的關(guān)系。
-
ModelArts模型訓(xùn)練旨在提升開發(fā)者模型訓(xùn)練的開發(fā)效率及訓(xùn)練性能。提供了可視化作業(yè)管理、資源管理、版本管理等功能,基于機器學習算法及強化學習的模型訓(xùn)練自動超參調(diào)優(yōu);預(yù)置和調(diào)優(yōu)常用模型,簡化模型開發(fā)和全流程訓(xùn)練管理。
-
盤古大模型致力于深耕行業(yè),打造金融、政務(wù)、制造、礦山、氣象、鐵路等領(lǐng)域行業(yè)大模型和能力集,將行業(yè)知識know-how與大模型能力相結(jié)合,重塑千行百業(yè),成為各組織、企業(yè)、個人的專家助手。
-
訓(xùn)練管理模塊是ModelArts不可或缺的功能模塊,用于創(chuàng)建訓(xùn)練作業(yè)、查看訓(xùn)練情況以及管理訓(xùn)練版本。模型訓(xùn)練是一個不斷迭代和優(yōu)化的過程。在訓(xùn)練模塊的統(tǒng)一管理下,方便用戶試驗算法、數(shù)據(jù)和超參數(shù)的各種組合,便于追蹤最佳的模型與輸入配置,您可以通過不同版本間的評估指標比較,確定最佳訓(xùn)練作業(yè)。
-
模型轉(zhuǎn)換,即將開源框架的網(wǎng)絡(luò)模型(如Caffe、TensorFlow等),通過ATC(Ascend Tensor Compiler)模型轉(zhuǎn)換工具,將其轉(zhuǎn)換成昇騰AI處理器支持的離線模型。
-
本實驗指導(dǎo)用戶在短時間內(nèi),了解和熟悉使用ModelArts進行模型開發(fā)和訓(xùn)練的基本流程,并利用ModelArts訓(xùn)練管理服務(wù)完成一次訓(xùn)練任務(wù)。
訓(xùn)練ai大模型教程視頻
最佳實踐視頻幫助您快速了解搭建流程 了解更多
-
NAIE模型訓(xùn)練服務(wù)演示
以數(shù)據(jù)中心PUE優(yōu)化為例進行模型訓(xùn)練服務(wù)和數(shù)據(jù)中心PUE優(yōu)化模型生成服務(wù)操作演示,使開發(fā)者快速熟悉NAIE模型訓(xùn)練服務(wù)和數(shù)據(jù)中心PUE優(yōu)化模型生成服務(wù)。 -
06大規(guī)模并行模型訓(xùn)練
基于Atlas 900 AI集群和深度學習訓(xùn)練平臺進行BERT網(wǎng)絡(luò)大規(guī)模并行模型訓(xùn)練。 -
3.1 電信AI模型訓(xùn)練平臺簡介
精選視頻內(nèi)容,邀您觀看
更多相關(guān)專題
- 熱門產(chǎn)品
- 大模型即服務(wù)平臺 MaaS
- Flexus云服務(wù)
- 云服務(wù)器
- 盤古大模型
- SSL證書
- 華為云WeLink
- 實用工具
- 文字識別
- 漏洞掃描
- 華為云會議
- 云服務(wù)健康看板
增值電信業(yè)務(wù)經(jīng)營許可證:B1.B2-20200593 | 域名注冊服務(wù)機構(gòu)許可:黔D3-20230001 | 代理域名注冊服務(wù)機構(gòu):新網(wǎng)、西數(shù)