盤古大模型 PanguLargeModels 盤古大模型 PanguLargeModels 盤古大模型是面向B端行業(yè)的大模型,包含L0中5類基礎大模型、L1行業(yè)大模型及L2場景模型三層架構 盤古大模型是面向B端行業(yè)的大模型,包含L0中5類基礎大模型、L1行業(yè)大模型及L2場景模型三層架構
化應用 大模型混合云十大創(chuàng)新技術 大模型混合云十大創(chuàng)新技術 了解詳情 十大創(chuàng)新技術 加速構建企業(yè)專屬大模型 十大創(chuàng)新技術 加速構建企業(yè)專屬大模型 圍繞企業(yè)大模型構建關鍵過程,聚焦根技術,為AI原生系統(tǒng)性創(chuàng)新 圍繞企業(yè)大模型構建關鍵過程,聚焦根技術,為AI原生系統(tǒng)性創(chuàng)新 多樣性算力調度
體驗 政企知識檢索 智能創(chuàng)意營銷 行業(yè)API助手 行業(yè)研發(fā)助手 政企會議助手 文檔與學習成長 盤古大模型 盤古大模型 什么是盤古大模型 盤古NLP大模型能力與規(guī)格 盤古大模型快速入門 如何調用盤古大模型API 查看全部 AI Gallery百模千態(tài)社區(qū) AI Gallery百模千態(tài)社區(qū)
文檔與學習成長 盤古大模型 盤古大模型 什么是盤古大模型 盤古預測大模型能力與規(guī)格 盤古大模型快速入門 如何調用盤古大模型API 查看全部 AI Gallery百模千態(tài)社區(qū) AI Gallery百模千態(tài)社區(qū) 優(yōu)質昇騰云AI模型專區(qū) 幾行代碼自由部署AI應用 豐富多樣的AI訓練數(shù)據(jù)集 場景化AI案例,助力AI賦能千行百業(yè)
提供高精度的全球模型,無需定制和訓練,直接訂閱即可推理 多種部署形態(tài) 支持公有云、混合云、邊緣多種形態(tài),滿足不同需求 文檔與學習成長 盤古大模型 盤古大模型 什么是盤古大模型 盤古科學計算大模型能力與規(guī)格 盤古大模型用戶指南 如何調用盤古大模型API 查看全部 AI Gallery百模千態(tài)社區(qū)
廣汽借助華為云盤古多模態(tài)大模型,打造業(yè)界首個支持點云生成的大模型,為其端到端仿真高效迭代提供強有力支撐。 文檔與學習成長 盤古大模型 盤古大模型 什么是盤古大模型 盤古多模態(tài)大模型能力與規(guī)格 用戶指南 如何調用盤古大模型API 查看全部 AI Gallery百模千態(tài)社區(qū) AI Gallery百模千態(tài)社區(qū)
穩(wěn)定安全的算力底座,極快至簡的模型訓練 穩(wěn)定安全的算力底座,極快至簡的模型訓練 支持萬節(jié)點計算集群管理 大規(guī)模分布式訓練能力,加速大模型研發(fā) 多應用場景全覆蓋,AI智能平臺助力業(yè)務成功 多應用場景全覆蓋,AI智能平臺助力業(yè)務成功 大模型 實現(xiàn)智能回答、聊天機器人、自動摘要、機器翻譯、文本分類等任務
支持三方開源大模型,加速客戶大模型業(yè)務上線 構建大模型應用開發(fā)工具鏈,使能大模型開箱即用 構建大模型應用開發(fā)工具鏈,完善云上數(shù)據(jù)清洗|模型微調|部署|Prompt|評測|Agent,大模型應用開發(fā)效率提升; 原生昇騰云組件Agent,構建“大模型+云組件”組合競爭力,如搜索Agent,大數(shù)據(jù)Agent等,使能云上存量用戶零遷移構建大模型應用;
多語種內容審核,平臺全面保護 一站式大模型開發(fā)平臺 一站式大模型開發(fā)平臺 ModelArts Studio大模型開發(fā)平臺是集數(shù)據(jù)管理、模型訓練、模型部署于一體的綜合平臺,專為開發(fā)和應用大模型而設計,旨在為開發(fā)者提供簡單、高效的大模型開發(fā)和部署方式 為什么選擇大模型開發(fā)平臺ModelArts
《互聯(lián)網信息服務算法推薦管理規(guī)定》明確,具有輿論屬性或者社會動員能力的算法推薦服務提供者應當在提供服務之日起十個工作日內通過互聯(lián)網信息服務算法備案系統(tǒng)填報服務提供者的名稱、服務形式、應用領域、算法類型、算法自評估報告、擬公示內容等信息 方便
湘江鯤鵬目前在人工智能大模型領域擁有算力、數(shù)據(jù)、算法三大關鍵要素的經驗積累,構建了大模型三個方面的差異化競爭力,盤古大模型AI專業(yè)服務覆蓋從前期咨詢、規(guī)劃設計,到數(shù)據(jù)工程、模型訓練,再到應用工程及模型運維的完整流程?;谌A為盤古提供的AI專業(yè)服務包,致力于為企業(yè)提供一站式人工智能解決方案
angChain等流行的大模型開發(fā)框架,構建企業(yè)級AI應用;團隊擁有成熟的軟件工程技術和管理能力。6. 大模型使用的技術支持,用戶使用大模型平臺,解答用戶使用過程遇到的問題;大模型與應用對接集成,以及進行日常巡檢、故障處理、模型升級等服務。4. 工業(yè)數(shù)據(jù)模型(CAD模型、CAE模
太杉天尊大模型AIGC場景解決方案是以AI場景解決方案為核心的全棧Maas綜合方案,助力政企客戶靈活部署(可公有可私有部署)。具備自研的行業(yè)模型能力,主要用于政府/公安/教育等行業(yè)的數(shù)據(jù)處理、文本處理以及多模態(tài)處理等多場景。太杉天尊大模型AIGC場景解決方案,是一款專為滿足政府企
公司集成了世界領先的底層大模型,具備打通跨模型和工具鏈的平臺,提供從需求分析、數(shù)據(jù)收集、模型設計、訓練優(yōu)化、評估、系統(tǒng)集成、用戶界面設計、部署維護、合規(guī)性檢查、技術支持、性能監(jiān)控、擴展性設計、定制服務到持續(xù)研發(fā)一站式AI大模型定制研發(fā)服務。光啟慧語是一家圍繞大模型全棧開展技術研發(fā)和產
&撰寫根據(jù)大模型微調數(shù)據(jù)標注規(guī)范,通過配套工具進行數(shù)據(jù)標注。 八、數(shù)據(jù)轉換與導入 完成數(shù)據(jù)格式的轉換,可進行跨網絡環(huán)境的數(shù)據(jù)導入。 九、調優(yōu)方案設計 根據(jù)大模型訓練及調優(yōu)工具和平臺,輸出大模型調優(yōu)方案。 十、模型訓練實施1. 基于大模型訓練所需的云服務,完成大模型訓練及微調。2.
數(shù)據(jù)質量。4. 模型訓練:?設計調優(yōu)方案,實施模型訓練,并進行模型評測。?熟悉盤古大模型工作流和云服務操作,確保模型效果優(yōu)化。5. 應用工程:?提供基于大模型能力的Agent開發(fā)和應用對接服務。?具備良好的軟件開發(fā)和溝通能力,實現(xiàn)大模型與應用的無縫對接。6. 模型運維: ?提供技
天尊大模型AIGC場景解決方案配套服務是太杉AIGC解決方案的人工服務,是以AI應用解決方案為核心的全棧Maas綜合方案,助力政企客戶靈活部署(可公有可私有部署)。主要用于政府/公安/教育等行業(yè)的數(shù)據(jù)處理、文本處理以及多模態(tài)處理等多場景。天尊大模型AIGC場景解決方案配套服務是太
,只需人工提供極少量的標注數(shù)據(jù),通過平臺的自動標注功能,能夠提升50%的標注效率,節(jié)省人力及時間成本;3、解決模型訓練門檻高問題,可視化的模型訓練界面,自動推薦訓練參數(shù),5分鐘快速上手,模型訓練成本降低70%;4、克服算法只能解決單一業(yè)務場景問題,通過拖拽的方式將多個模型串聯(lián)起來
ModelArts模型訓練 ModelArts模型訓練簡介 ModelArts模型訓練,俗稱“建模”,指通過分析手段、方法和技巧對準備好的數(shù)據(jù)進行探索分析,從中發(fā)現(xiàn)因果關系、內部聯(lián)系和業(yè)務規(guī)律,為商業(yè)目的提供決策參考。訓練模型的結果通常是一個或多個機器學習或深度學習模型,模型可以應用到新的數(shù)據(jù)中,得到預測、評價等結果。
華為云盤古大模型 華為云盤古大模型 AI for Industries 大模型重塑千行百業(yè) AI for Industries 大模型重塑千行百業(yè) 盤古大模型致力于深耕行業(yè),打造金融、政務、制造、礦山、氣象、鐵路等領域行業(yè)大模型和能力集,將行業(yè)知識know-how與大模型能力相結合
ModelArts訓練管理 ModelArts訓練管理 ModelArts訓練管理模塊用于創(chuàng)建訓練作業(yè)、查看訓練情況以及管理訓練版本。在訓練模塊的統(tǒng)一管理下,方便用戶試驗算法、數(shù)據(jù)和超參數(shù)的各種組合,便于追蹤最佳的模型與輸入配置,您可以通過不同版本間的評估指標比較,確定最佳訓練作業(yè)。 M
源,包括高性能算力,高速存儲和網絡帶寬等基礎設施,即“大算力、大存力、大運力”的AI基礎大設施底座,讓算力發(fā)展不要偏斜。 從過去的經典AI,到今天人人談論的大模型,自動駕駛,我們看到AI模型的參數(shù)及AI算力規(guī)模呈現(xiàn)出指數(shù)級的爆發(fā)增長,對存儲基礎設施也帶來全新的挑戰(zhàn)。 1、高吞吐的數(shù)據(jù)訪問挑戰(zhàn):隨著企業(yè)使用
ModelArts訓練之超參搜索 ModelArts訓練之超參搜索 ModelArts訓練中新增了超參搜索功能,自動實現(xiàn)模型超參搜索,為您的模型匹配最優(yōu)的超參。ModelArts支持的超參搜索功能,在無需算法工程師介入的情況下,即可自動進行超參的調優(yōu),在速度和精度上超過人工調優(yōu)。 Mo
ModelArts支持本地準備模型包,編寫模型配置文件和模型推理代碼,將準備好的模型包上傳至對象存儲服務OBS,從OBS導入模型創(chuàng)建為AI應用。 制作模型包,則需要符合一定的模型包規(guī)范。模型包里面必需包含“model”文件夾,“model”文件夾下面放置模型文件,模型配置文件,模型推理代碼文件。
使用MindSpore訓練手寫數(shù)字識別模型 基于昇騰AI處理器的算子開發(fā) 使用MindSpore訓練手寫數(shù)字識別模型 基于昇騰AI處理器的算子開發(fā) 在線課程 體系化的培訓課程,快速完成學習覆蓋,讓您輕松上云 AI基礎 AI基礎課程--概覽 AI基礎課程--Python編程知識 AI基礎課程--數(shù)學基礎知識
基于ModelArts學習Python正則表達式、多線程執(zhí)行任務和Python魔法方法的使用 什么是數(shù)據(jù)集 2019大學生ICT大賽加分賽人工智能測試題 華為云AI開發(fā)平臺助你輕松掌握Python初級語言 大量文件存儲系統(tǒng)特惠_文件存儲場景是什么_高性能計算文件存儲 華為云內容審核
人工智能學習入門 人工智能課程學習,動手實驗,在線考試認證,掌握人工智能技能 人工智能知識圖譜 在線課程 01 AI基礎、技術領域、應用場景、華為云EI AI基礎、技術領域、應用場景、華為云EI 動手實驗 02 包括初級、中級實驗 包括初級、中級實驗 AI基礎 AI基礎 AI基礎課程--概覽
ai大模型怎么訓練
AI Gallery支持將模型進行微調,訓練后得到更優(yōu)模型。
場景描述
模型微調是深度學習中的一種重要技術,它是指在預訓練好的模型基礎上,通過調整部分參數(shù),使其在特定任務上達到更好的性能。 在實際應用中,預訓練模型是在大規(guī)模通用數(shù)據(jù)集上訓練得到的,而在特定任務上,這些模型的參數(shù)可能并不都是最合適的,因此需要進行微調。
AI Gallery的模型微調,簡單易用,用戶只需要選擇訓練數(shù)據(jù)、創(chuàng)建微調任務,模型微調就會對數(shù)據(jù)進行訓練,快速生成模型。
約束限制
- 如果模型的“任務類型”是“文本問答”或“文本生成”,則支持模型微調。如果模型的“任務類型”是除“文本問答”和“文本生成”之外的類型(即自定義模型),則模型文件必須滿足自定義模型規(guī)范(訓練)才支持模型自定義訓練。
- 當使用自定義 鏡像 進行模型微調時,要確認鏡像是否滿足自定義鏡像規(guī)范,否則無法成功完成自定義訓練。
進入模型微調
- 登錄AI Gallery。
- 單擊“模型”進入模型列表。
- 選擇需要進行微調訓練的模型,單擊模型名稱進入模型詳情頁。
- 在模型詳情頁,選擇“訓練 > 微調大師”進入微調工作流頁面。
選擇訓練任務類型
選擇模型微調的訓練任務類型。
- 當模型的“任務類型”是“文本問答”或“文本生成”時,“訓練任務類型”默認和模型“任務類型”一致。“訓練任務類型”支持修改,如果模型文件滿足自定義模型規(guī)范(訓練),則“訓練任務類型”支持選擇“自定義”。
- 當模型的“任務類型”是除“文本問答”和“文本生成”之外的類型(即自定義模型)時,則“訓練任務類型”默認為“自定義”,支持修改為“文本問答”或“文本生成”。
- 當使用自定義鏡像進行模型微調時,“訓練任務類型”默認為“自定義”,且不支持修改。
準備數(shù)據(jù)
- 本地上傳數(shù)據(jù)需要確保數(shù)據(jù)已按照數(shù)據(jù)集要求完成編排。如果是自定義模型,此處的數(shù)據(jù)集要求即為模型文件“dataset_readme.md”里的內容。
- 單個文件最大5GB,所有文件總大小不超過50G。
- 在微調工作流的“數(shù)據(jù)準備”環(huán)節(jié)選擇數(shù)據(jù)集。
- 從本地上傳
- 從AI Gallery中選
- 單擊“從AI Gallery中選擇”。
- 在彈窗中,從“我創(chuàng)建的”或“我收藏的”數(shù)據(jù)集中選擇所需要數(shù)據(jù)集。
- 選擇完成后,單擊“確定”。
- 數(shù)據(jù)準備完成后,單擊“下一步”進入“作業(yè)設置”環(huán)節(jié)。
設置并啟動作業(yè)
- 在微調工作流的“作業(yè)設置”環(huán)節(jié)配置訓練作業(yè)參數(shù)。
- 算法配置,會顯示已選模型的信息,基于已選模型選擇微調方式。
- 當“訓練任務類型”是“文本問答”或“文本生成”時,AI Gallery支持的微調方式是LoRA。
- 當“訓練任務類型”是“自定義”時,微調方式來自于模型文件“train_params.json” 。
低秩適應(LoRA)是一種重參數(shù)化方法,旨在減少具有低秩表示的可訓練參數(shù)的數(shù)量。權重矩陣被分解為經過訓練和更新的低秩矩陣。所有預訓練的模型參數(shù)保持凍結。訓練后,低秩矩陣被添加回原始權重。這使得存儲和訓練LoRA模型更加高效,因為參數(shù)明顯減少。
- 超參數(shù)設置,基于訓練作業(yè)配置超參。超參指的是模型訓練時原始數(shù)據(jù)集中實際字段和算法需要字段之間的映射關系。
- 當“訓練任務類型”是“文本問答”或“文本生成”時,則常見的超參說明請參見表1。
- 當“訓練任務類型”是“自定義”時,超參信息來自于模型文件“train_params.json” 。如果不使用可選超參,建議單擊右側的刪除按鈕,刪除參數(shù)。
表1 常見超參說明 參數(shù)名稱
參數(shù)類型
說明
data_url
String
數(shù)據(jù) OBS 存儲路徑。
train_url
String
微調產物輸出OBS路徑。
train_data_file
String
訓練數(shù)據(jù)文件名。
test_data_file
String
測試數(shù)據(jù)文件名。
prompt_field
String
數(shù)據(jù)prompt列名。
response_field
String
數(shù)據(jù)response列名。
history_field
String
數(shù)據(jù)history列名。
prefix
String
數(shù)據(jù)格式化時使用的前綴。
instruction_template
String
數(shù)據(jù)格式化時使用的指令模板。
response_template
String
數(shù)據(jù)格式化時使用的回答模板。
lora_alpha
int
Lora scaling的alpha參數(shù)。
lora_dropout
float
Lora dropout概率。
lora_rank
int
Lora attention維度。
per_device_train_batch_size
int
用于訓練的每個GPU/TPU core/CPU的批處理大小。
gradient_accumulation_steps
int
梯度累計步數(shù)。
max_steps
int
訓練最大步數(shù),如果數(shù)據(jù)耗盡,訓練將會在最大步數(shù)前停止。
save_steps
int
checkpoint保存步數(shù)。
logging_steps
int
日志輸出步數(shù)。
learning_rate
float
初始學習率。
max_grad_norm
float
梯度裁剪最大范數(shù)。
warmup_ratio
float
熱身步數(shù)比。
max_seq_length
int
數(shù)據(jù)最大序列長度。
finetuned_model
String
前序微調產物OBS路徑。
bits
int
模型量化bit數(shù),如4、8。
max_eval_samples
int
最大測試數(shù)據(jù)數(shù)。
- 計算規(guī)格選擇,按需選擇計算規(guī)格。單擊“選擇”,在彈窗中選擇資源規(guī)格,單擊“確定”。
- 在“所在區(qū)”選擇計算規(guī)格所在的區(qū)域。默認顯示全部區(qū)域的計算規(guī)格。
- 選擇計算規(guī)格不可用的資源會置灰。右側“配置信息”區(qū)域會顯示計算規(guī)格的詳細數(shù)據(jù),AI Gallery會基于資產和資源情況分析該任務是否支持設置“商品數(shù)量”,用戶可以基于業(yè)務需要選擇任務所需的資源卡數(shù)。
如果選擇付費資源,則請確認賬號未欠費,且余額高于所選計算規(guī)格的收費標準,否則可能會導致AI Gallery工具鏈服務異常中斷。AI Gallery的計算規(guī)格的計費說明請參見計算規(guī)格說明。
- 算法配置,會顯示已選模型的信息,基于已選模型選擇微調方式。
- 作業(yè)參數(shù)配置完成后,單擊“啟動作業(yè)”。
- 在“訂單信息確認”頁面,確認服務信息和費用,單擊“確定”提交模型訓練任務。
單擊“返回模型訓練”跳轉到微調大師頁面,可以查看訓練作業(yè)狀態(tài)。當“狀態(tài)”為“訓練完成”時,表示微調任務完成。
- 單擊操作列的“查看模型”跳轉到微調獲得的新模型的詳情頁面。
- 單擊操作列的“任務詳情”可以在彈窗中查看“訓練信息”、“訓練日志”和“指標效果”。
- 單擊操作列的“更多 > 刪除任務”,可以刪除微調任務,但是微調獲得的新模型不會被刪除。
查看訓練效果
啟動模型微調任務后,在微調大師列表單擊操作列的“任務詳情”,在彈窗中選擇“指標效果”頁簽,可以查看訓練效果。
|
指標名稱 |
指標說明 |
|---|---|
|
NPU/GPU利用率 |
在訓練過程中,機器的NPU/GPU占用情況(橫坐標時間,縱坐標占用率)。 |
|
顯存利用率 |
在訓練過程中,機器的顯存占用情況(橫坐標時間,縱坐標占用率)。 |
|
吞吐 |
在訓練過程中,每卡處理tokens數(shù)量(tokens/s/p)。每種框架計算方式不一致,例如,ATB可通過“samples per second*seq_lenth/總卡數(shù)”得到tokens/s/p,輸出給throughout字段,seq_lenth取值在訓練腳本中可以查看。 單機8卡吞吐量一般為1650tokens/s/p,雙機16卡吞吐量一般為1625tokens/s/p。
說明:
自定義訓練或自定義鏡像訓練,需要提前在訓練啟動腳本(例如“train.py”)中定義好迭代次數(shù)、LOSS和吞吐數(shù)據(jù)的存放位置,以及存放格式(必須是“迭代次數(shù)|loss|吞吐”),才能在此處正常查看吞吐和“訓練LOSS”曲線。 |
|
訓練LOSS |
訓練階段的LOSS變化,模型在日志里用LOSS關鍵詞記錄數(shù)據(jù),按照訓練迭代周期記錄LOSS值。 |
微調產物說明
模型微調完成后,會得到一個新模型,即微調產物。
在微調大師頁面,單擊操作列的“查看模型”跳轉到微調獲得的新模型的詳情頁面。選擇“模型文件”頁簽可以查看微調產物。各文件說明請參見表3。
|
文件名 |
文件說明 |
|---|---|
|
gallery_train文件夾 |
自定義模型的模型訓練文件,僅當使用自定義模型微調時才會有這個微調產物,內容和預訓練模型里的gallery_train文件一致。 |
|
training_logs/user_params.json |
微調配置參數(shù)信息,AI Gallery會自動將微調設置的參數(shù)信息記錄在此文件下。 |
|
“README.md” |
模型的基礎信息。內容和預訓練模型里“模型文件”頁簽的“README.md”一致。 |
|
其他文件 |
當使用自定義模型微調時,可能還會有一些其他微調產物,這是由自定義模型的訓練腳本文件train.py決定的,如果訓練腳本定義了歸檔其他訓練產物,就會在此處呈現(xiàn)。 |
ai大模型怎么訓練常見問題
更多常見問題 >>-
ModelArts模型訓練旨在提升開發(fā)者模型訓練的開發(fā)效率及訓練性能。提供了可視化作業(yè)管理、資源管理、版本管理等功能,基于機器學習算法及強化學習的模型訓練自動超參調優(yōu);預置和調優(yōu)常用模型,簡化模型開發(fā)和全流程訓練管理。
-
在自然語言處理(NLP)領域中,使用語言模型預訓練方法在多項NLP任務上都獲得了不錯的提升,廣泛受到了各界的關注。本課程將簡單介紹一下預訓練的思想,幾個代表性模型和它們之間的關系。
-
盤古大模型致力于深耕行業(yè),打造金融、政務、制造、礦山、氣象、鐵路等領域行業(yè)大模型和能力集,將行業(yè)知識know-how與大模型能力相結合,重塑千行百業(yè),成為各組織、企業(yè)、個人的專家助手。
-
訓練管理模塊是ModelArts不可或缺的功能模塊,用于創(chuàng)建訓練作業(yè)、查看訓練情況以及管理訓練版本。模型訓練是一個不斷迭代和優(yōu)化的過程。在訓練模塊的統(tǒng)一管理下,方便用戶試驗算法、數(shù)據(jù)和超參數(shù)的各種組合,便于追蹤最佳的模型與輸入配置,您可以通過不同版本間的評估指標比較,確定最佳訓練作業(yè)。
-
模型轉換,即將開源框架的網絡模型(如Caffe、TensorFlow等),通過ATC(Ascend Tensor Compiler)模型轉換工具,將其轉換成昇騰AI處理器支持的離線模型。
-
本實驗指導用戶在短時間內,了解和熟悉使用ModelArts進行模型開發(fā)和訓練的基本流程,并利用ModelArts訓練管理服務完成一次訓練任務。
更多相關專題
增值電信業(yè)務經營許可證:B1.B2-20200593 | 域名注冊服務機構許可:黔D3-20230001 | 代理域名注冊服務機構:新網、西數(shù)