全鏈路專業(yè)服務,讓大模型從可用到好用 · 6大階段30+專業(yè)服務,覆蓋大模型建設全流程,加速政企落地大模型 · 創(chuàng)新運營服務模式,實現(xiàn)全場景模型經(jīng)驗沉淀、全流程運營賦能產(chǎn)業(yè),快速孵化大模型場景化應用 大模型混合云十大創(chuàng)新技術 大模型混合云十大創(chuàng)新技術 了解詳情 十大創(chuàng)新技術 加速構建企業(yè)專屬大模型
體驗 政企知識檢索 智能創(chuàng)意營銷 行業(yè)API助手 行業(yè)研發(fā)助手 政企會議助手 文檔與學習成長 盤古大模型 盤古大模型 什么是盤古大模型 盤古NLP大模型能力與規(guī)格 盤古大模型快速入門 如何調(diào)用盤古大模型API 查看全部 AI Gallery百模千態(tài)社區(qū) AI Gallery百模千態(tài)社區(qū)
文檔與學習成長 盤古大模型 盤古大模型 什么是盤古大模型 盤古預測大模型能力與規(guī)格 盤古大模型快速入門 如何調(diào)用盤古大模型API 查看全部 AI Gallery百模千態(tài)社區(qū) AI Gallery百模千態(tài)社區(qū) 優(yōu)質(zhì)昇騰云AI模型專區(qū) 幾行代碼自由部署AI應用 豐富多樣的AI訓練數(shù)據(jù)集 場景化AI案例,助力AI賦能千行百業(yè)
盤古大模型 PanguLargeModels 盤古大模型 PanguLargeModels 盤古大模型是面向B端行業(yè)的大模型,包含L0中5類基礎大模型、L1行業(yè)大模型及L2場景模型三層架構 盤古大模型是面向B端行業(yè)的大模型,包含L0中5類基礎大模型、L1行業(yè)大模型及L2場景模型三層架構
廣汽借助華為云盤古多模態(tài)大模型,打造業(yè)界首個支持點云生成的大模型,為其端到端仿真高效迭代提供強有力支撐。 文檔與學習成長 盤古大模型 盤古大模型 什么是盤古大模型 盤古多模態(tài)大模型能力與規(guī)格 用戶指南 如何調(diào)用盤古大模型API 查看全部 AI Gallery百模千態(tài)社區(qū) AI Gallery百模千態(tài)社區(qū)
提供高精度的全球模型,無需定制和訓練,直接訂閱即可推理 多種部署形態(tài) 支持公有云、混合云、邊緣多種形態(tài),滿足不同需求 文檔與學習成長 盤古大模型 盤古大模型 什么是盤古大模型 盤古科學計算大模型能力與規(guī)格 盤古大模型用戶指南 如何調(diào)用盤古大模型API 查看全部 AI Gallery百模千態(tài)社區(qū)
大模型混合云TOP N 場景 大模型混合云TOP N 場景 1對1咨詢 了解華為云Stack 大模型行業(yè)場景落地三要素 大模型行業(yè)場景落地三要素 場景是大模型行業(yè)落地的關鍵所在,而在場景落地過程中,數(shù)據(jù)、經(jīng)驗和生態(tài)是核心要素,數(shù)據(jù)的數(shù)量和質(zhì)量決定模型效果上限;經(jīng)驗就像“名師指導”
多語種內(nèi)容審核,平臺全面保護 一站式大模型開發(fā)平臺 一站式大模型開發(fā)平臺 ModelArts Studio大模型開發(fā)平臺是集數(shù)據(jù)管理、模型訓練、模型部署于一體的綜合平臺,專為開發(fā)和應用大模型而設計,旨在為開發(fā)者提供簡單、高效的大模型開發(fā)和部署方式 為什么選擇大模型開發(fā)平臺ModelArts
豐富的生態(tài) AI Gallery生態(tài)繁榮,沉淀行業(yè)資產(chǎn)10萬+; 匯聚主流開源大模型,高效連接云上昇騰算力。 豐富的應用場景,滿足海量訪問訴求 大模型 AIGC 自動駕駛 內(nèi)容審核 大模型 支持三方開源大模型,加速客戶大模型業(yè)務上線 構建大模型應用開發(fā)工具鏈,使能大模型開箱即用 構
《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》明確,具有輿論屬性或者社會動員能力的算法推薦服務提供者應當在提供服務之日起十個工作日內(nèi)通過互聯(lián)網(wǎng)信息服務算法備案系統(tǒng)填報服務提供者的名稱、服務形式、應用領域、算法類型、算法自評估報告、擬公示內(nèi)容等信息 方便
湘江鯤鵬目前在人工智能大模型領域擁有算力、數(shù)據(jù)、算法三大關鍵要素的經(jīng)驗積累,構建了大模型三個方面的差異化競爭力,盤古大模型AI專業(yè)服務覆蓋從前期咨詢、規(guī)劃設計,到數(shù)據(jù)工程、模型訓練,再到應用工程及模型運維的完整流程?;谌A為盤古提供的AI專業(yè)服務包,致力于為企業(yè)提供一站式人工智能解決方案
angChain等流行的大模型開發(fā)框架,構建企業(yè)級AI應用;團隊擁有成熟的軟件工程技術和管理能力。6. 大模型使用的技術支持,用戶使用大模型平臺,解答用戶使用過程遇到的問題;大模型與應用對接集成,以及進行日常巡檢、故障處理、模型升級等服務。4. 工業(yè)數(shù)據(jù)模型(CAD模型、CAE模
太杉天尊大模型AIGC場景解決方案是以AI場景解決方案為核心的全棧Maas綜合方案,助力政企客戶靈活部署(可公有可私有部署)。具備自研的行業(yè)模型能力,主要用于政府/公安/教育等行業(yè)的數(shù)據(jù)處理、文本處理以及多模態(tài)處理等多場景。太杉天尊大模型AIGC場景解決方案,是一款專為滿足政府企
公司集成了世界領先的底層大模型,具備打通跨模型和工具鏈的平臺,提供從需求分析、數(shù)據(jù)收集、模型設計、訓練優(yōu)化、評估、系統(tǒng)集成、用戶界面設計、部署維護、合規(guī)性檢查、技術支持、性能監(jiān)控、擴展性設計、定制服務到持續(xù)研發(fā)一站式AI大模型定制研發(fā)服務。光啟慧語是一家圍繞大模型全棧開展技術研發(fā)和產(chǎn)
數(shù)據(jù)質(zhì)量。4. 模型訓練:?設計調(diào)優(yōu)方案,實施模型訓練,并進行模型評測。?熟悉盤古大模型工作流和云服務操作,確保模型效果優(yōu)化。5. 應用工程:?提供基于大模型能力的Agent開發(fā)和應用對接服務。?具備良好的軟件開發(fā)和溝通能力,實現(xiàn)大模型與應用的無縫對接。6. 模型運維: ?提供技
. 模型更新后,將新模型部署至相應環(huán)境。 十一、模型評測1. 設計模型評測方案,對大模型各類指標進行評測。2. 能夠按評測標準對大模型各項能力進行打分,輸出大模型評測報告。 十二、Agent開發(fā)1. 基于場景,設計并開發(fā)Agent工具。2. 基于langchain等大模型框架,完
天尊大模型AIGC場景解決方案配套服務是太杉AIGC解決方案的人工服務,是以AI應用解決方案為核心的全棧Maas綜合方案,助力政企客戶靈活部署(可公有可私有部署)。主要用于政府/公安/教育等行業(yè)的數(shù)據(jù)處理、文本處理以及多模態(tài)處理等多場景。天尊大模型AIGC場景解決方案配套服務是太
出門問問大模型“序列猴子”是一款具備多模態(tài)生成能力的大語言模型,模型以語言為核心的能力體系涵蓋“知識、對話、數(shù)學、邏輯、推理、規(guī)劃”六個維度,能夠同時支持文字生成、圖片生成、3D內(nèi)容生成、語言生成和語音識別等不同任務。出門問問大模型“序列猴子”是一款具備多模態(tài)生成能力的大語言模型,模
華為云盤古大模型 華為云盤古大模型 AI for Industries 大模型重塑千行百業(yè) AI for Industries 大模型重塑千行百業(yè) 盤古大模型致力于深耕行業(yè),打造金融、政務、制造、礦山、氣象、鐵路等領域行業(yè)大模型和能力集,將行業(yè)知識know-how與大模型能力相結合
ModelArts支持本地準備模型包,編寫模型配置文件和模型推理代碼,將準備好的模型包上傳至對象存儲服務OBS,從OBS導入模型創(chuàng)建為AI應用。 制作模型包,則需要符合一定的模型包規(guī)范。模型包里面必需包含“model”文件夾,“model”文件夾下面放置模型文件,模型配置文件,模型推理代碼文件。
ModelArts模型訓練 ModelArts模型訓練簡介 ModelArts模型訓練,俗稱“建模”,指通過分析手段、方法和技巧對準備好的數(shù)據(jù)進行探索分析,從中發(fā)現(xiàn)因果關系、內(nèi)部聯(lián)系和業(yè)務規(guī)律,為商業(yè)目的提供決策參考。訓練模型的結果通常是一個或多個機器學習或深度學習模型,模型可以應用到新的數(shù)據(jù)中,得到預測、評價等結果。
免費AI客服電話-云蝠智能AI客戶聯(lián)絡中心 免費AI客服電話-云蝠智能AI客戶聯(lián)絡中心 “云蝠智能”企業(yè)提供AI客戶聯(lián)絡中心,包含智能語音電話機器人、智能語音呼叫、短信分發(fā)及企業(yè)微信SCRM的業(yè)務體系。通過提供AI會員回訪、通知、精準營銷的系統(tǒng)進行產(chǎn)品服務和賦能。 “云蝠智能”企
端口。 高斯數(shù)據(jù)庫模型-應用場景 金融核心交易 ERP/CRM 政企OA/辦公 金融核心交易 金融核心交易 適用于各類銀行核心交易系統(tǒng)分布式改造,數(shù)據(jù)庫的原生分布式能力可以極大的降低改造和遷移工作量。兩地三中心等極致高可用能力,可以為核心業(yè)務保駕護航。 優(yōu)勢 大容量高擴展:支持T
次拷貝,多種計算引擎,存儲和計算資源靈活配比,各自按需擴縮,性價比領先業(yè)界30% 極致性能體驗 通過結合硬件、數(shù)據(jù)組織、計算引擎、AI智能調(diào)優(yōu)四級垂直優(yōu)化,全棧式性能加速,同時具備百萬規(guī)模元數(shù)據(jù)毫秒級響應,為用戶提供極致性能體驗 領先開源技術 主流引擎Spark、Hive、Fli
.email域名注冊 什么是.email域名注冊? 域名注冊(Domain Registration)是用戶付費獲取Internet上某一域名一段時間使用權的過程。華為云域名注冊服務提供域名的注冊、購買、實名認證以及管理功能。 華為云的域名注冊服務與新網(wǎng)合作,因此通過華為云注冊的
廣泛集成華為OBS和第三方圖片/視頻處理能力 建議搭配使用 對象存儲服務 OBS 內(nèi)容分發(fā)網(wǎng)絡 CDN AI處理 AI處理 數(shù)據(jù)工坊提供高可用、高質(zhì)量的AI處理服務,如人臉識別、人臉比對、內(nèi)容審核等,滿足多種業(yè)務場景下AI使用需求。 優(yōu)勢 高效 在文檔存入或讀出存儲時即進行同步或異步處理 易用 圖像化界
簡單拖拽、自由組合、預置豐富的樣式、組件和大屏模板,實時預覽,輕松搭建大屏。業(yè)務人員和運營人員也可基于需求快速配置大屏。 簡單拖拽、自由組合、預置豐富的樣式、組件和大屏模板,實時預覽,輕松搭建大屏。業(yè)務人員和運營人員也可基于需求快速配置大屏。 自定義大屏模板 大屏模板作為資產(chǎn)沉淀,可在項目中快速復用。 大屏模板作為資產(chǎn)沉淀,可在項目中快速復用。
ai垂直大模型什么意思
- 什么情況下需要微調(diào)?
微調(diào)的目的是為了提升模型在某個特定的任務或領域的表現(xiàn)。在大多數(shù)場景下,通過Prompt工程,通用模型也能給出比較滿意的回答。但如果您的場景涉及如下幾種情況,則建議采用微調(diào)的手段來解決:
- 目標任務依賴垂域背景知識:通用模型學習到的知識大部分都是來自互聯(lián)網(wǎng)上的開源數(shù)據(jù),如果目標任務本身屬于某個領域(比如,金融、政務、法律、醫(yī)療、工業(yè)等),需要依賴很深的領域背景知識,那么通用模型可能無法滿足這些要求,需要在該領域的數(shù)據(jù)集上進行微調(diào),以增強模型的泛化能力。
- 回答的風格或格式有特殊要求:雖然通用模型學習了相當可觀的基礎知識,但如果目標任務要求回答必須符合特定的風格或格式,這將造成和基礎知識的數(shù)據(jù)分布差異。比如,需要模型使用某某銀行客服的口吻進行線上問答,此時需要使用符合該行風格和格式的數(shù)據(jù)集進行微調(diào),以提升模型的遵循度。
- Prompt工程后,效果仍無法達到預期:當對模型做了大量的Prompt工程,加之目標任務的難度也較高,通用模型的回答可能無法達到預期,此時也建議采用目標任務的數(shù)據(jù)進行微調(diào),以提升模型回答的準確性。
- 什么情況下不建議微調(diào)?
雖然微調(diào)可以在一定程度上提升領域能力,但有時候微調(diào)也無法解決所有問題。即使您的目標場景依賴垂域背景知識,微調(diào)也并非最佳方案,比如:
- 場景微調(diào)的數(shù)據(jù)量很少或者數(shù)據(jù)質(zhì)量很差:微調(diào)對數(shù)據(jù)量和數(shù)據(jù)質(zhì)量有很高的要求。
- 垂域知識問答場景:通用模型本身已經(jīng)具有在給定的一段或幾段段落知識的場景下,來做總結回答的能力。因此,如果您的場景是基于某個領域內(nèi)的知識問答,那么采用微調(diào)的手段確實能從一定程度上提升效果,但如果綜合考慮訓練的耗時和模型后續(xù)的持續(xù)迭代,采用搜索+問答的方案則更具性價比。
- 數(shù)據(jù)量很少,可以微調(diào)嗎?
不同規(guī)格的模型對微調(diào)的數(shù)據(jù)量都有相應要求。
如果您準備用于微調(diào)的數(shù)據(jù)量很少,無法滿足最小的量級要求,那么不建議您直接使用該數(shù)據(jù)進行微調(diào),否則可能會存在如下問題:
- 過擬合:當微調(diào)數(shù)據(jù)量很小時,為了能充分學習這些數(shù)據(jù)的知識,可能會訓練較多的輪次,因而模型會過分記住這些數(shù)據(jù),導致無法泛化到其他數(shù)據(jù)上,最終發(fā)生過擬合現(xiàn)象。
- 欠擬合:當微調(diào)數(shù)據(jù)量很小時,模型無法有效地調(diào)整模型的參數(shù),同時也很容易受到數(shù)據(jù)噪聲的干擾,從而影響模型的魯棒性。當目標任務的難度較大時,該問題將愈加顯著。
如果您的可用數(shù)據(jù)很少,也可以采取一些方法來擴充您的數(shù)據(jù),從而滿足微調(diào)要求,比如:
- 數(shù)據(jù)增強:在傳統(tǒng)機器學習中,可以通過簡單的重復上采樣方式來擴充數(shù)據(jù),但該方法不適用于大模型微調(diào)的場景,這將導致模型的過擬合。因此可以通過一些規(guī)則來擴充數(shù)據(jù),比如:同義詞替換、語法結構修改、標點符號替換等,保證數(shù)據(jù)的多樣性。
- 基于大模型的數(shù)據(jù)泛化:您可以通過調(diào)用大模型(比如盤古提供的任意一個規(guī)格的基礎功能模型)來獲取目標場景的數(shù)據(jù),以此擴充您的數(shù)據(jù)集。為了能獲取更高質(zhì)量的數(shù)據(jù),可以通過CoT(思維鏈)、self-instruct等方式批量調(diào)用大模型,來獲取滿足您要求的數(shù)據(jù)。
- 人工標注:如果以上兩種方案均無法滿足您的要求,您也可以使用“數(shù)據(jù)標注”功能,采用人工標注方式來獲取數(shù)據(jù)。
- 數(shù)據(jù)量足夠,但質(zhì)量較差,可以微調(diào)嗎?
對于微調(diào)而言,數(shù)據(jù)質(zhì)量非常重要。一份數(shù)據(jù)量少但質(zhì)量高的數(shù)據(jù),對于模型效果的提升要遠大于一份數(shù)據(jù)量多但質(zhì)量低的數(shù)據(jù)。若微調(diào)數(shù)據(jù)的質(zhì)量較差,那么可能會導致模型學習到一些錯誤或者不完整的信息,從而影響模型的準確性和可靠性。因此,不建議您直接使用低質(zhì)量數(shù)據(jù)進行微調(diào)。
一份高質(zhì)量的數(shù)據(jù)應具備以下幾類特征:
- 數(shù)據(jù)與目標任務一致:微調(diào)數(shù)據(jù)應該與微調(diào)任務的目標和分布保持一致,反映出任務的實際要求。比如,現(xiàn)在需要微調(diào)一個情感分類的模型,模型只需要回復“消極”或者“積極”:
- 情感分類場景-典型低質(zhì)量數(shù)據(jù):數(shù)據(jù)中存在與目標任務不一致的樣本。
{"context": ["請分析以下內(nèi)容的情感,只回復積極或者消極\n內(nèi)容:xxx], "target": "積極"}{"context": ["請分析以下內(nèi)容的情感,只回復積極或者消極\n內(nèi)容:xxx], "target": "消極"}{"context": ["請分析以下內(nèi)容的情感,只回復積極或者消極\n內(nèi)容:xxx], "target": "這段內(nèi)容xxx"}{"context": ["請分析以下內(nèi)容的情感,回復你的看法\n內(nèi)容:xxx], "target": "這段內(nèi)容xxx"}…… - 情感分類場景-較高質(zhì)量數(shù)據(jù):數(shù)據(jù)指向性明確。
{"context": ["請分析以下內(nèi)容的情感,回復積極或者消極\n內(nèi)容:xxx], "target": "積極"}{"context": ["請分析以下內(nèi)容的情感,回復積極或者消極\n內(nèi)容:xxx], "target": "消極"}……
- 情感分類場景-典型低質(zhì)量數(shù)據(jù):數(shù)據(jù)中存在與目標任務不一致的樣本。
- 數(shù)據(jù)中無異常樣本:微調(diào)數(shù)據(jù)需要加工和校驗,濾除其中的噪聲,盡可能保證回答中不存在異常數(shù)據(jù)。比如,空數(shù)據(jù)、重復、水印、異常字符等。
- 數(shù)據(jù)多樣性:微調(diào)數(shù)據(jù)需要具有一定的多樣性,多樣性能增加任務的復雜度和難度,讓模型能夠處理不同的情況和問題,提升模型泛化性。比如,現(xiàn)在需要微調(diào)一個文案創(chuàng)作的模型,模型需要生成各個城市的宣傳文案:
- 文案創(chuàng)作場景-典型低質(zhì)量數(shù)據(jù):數(shù)據(jù)多樣性差。
{"context": ["請幫我寫一份宣傳文案"], "target": "北京,xxx"}{"context": ["請幫我寫一份宣傳文案"], "target": "上海,xxx "}{"context": ["請幫我寫一份宣傳文案"], "target": "廣州,xxx "}{"context": ["請幫我寫一份宣傳文案"], "target": "深圳,xxx "}…… - 文案創(chuàng)作場景-較高質(zhì)量數(shù)據(jù):數(shù)據(jù)有一定多樣性。
{"context": ["請幫我寫一份宣傳文案介紹北京"], "target": "北京,xxx"}{"context": ["現(xiàn)在需要你寫一份文案來宣傳上海"], "target": "上海,xxx "}{"context": ["廣州市需要一份推廣文案,請開始創(chuàng)作"], "target": "廣州,xxx "}{"context": ["你是一名導游,現(xiàn)在請向我介紹下深圳這座城市"], "target": "深圳,xxx "}……
- 文案創(chuàng)作場景-典型低質(zhì)量數(shù)據(jù):數(shù)據(jù)多樣性差。
若目標任務是相對明確的,則在微調(diào)數(shù)據(jù)中,每個任務的Prompt可以保持固定的。注意,這里Prompt保持固定和保證數(shù)據(jù)多樣性,二者并不沖突。
如果您的數(shù)據(jù)質(zhì)量較差,也可以采取一些方法來提升數(shù)據(jù)質(zhì)量,比如:
- 數(shù)據(jù)過濾:您可以通過一些簡單基礎的規(guī)則邏輯來過濾異常數(shù)據(jù),比如,去空、去重、字符串過濾等。同時,您也可以采用PPL(困惑度),或訓練一個二分類模型等方式過濾臟數(shù)據(jù)。
- 數(shù)據(jù)轉換:您可以通過一些規(guī)則來提升數(shù)據(jù)的多樣性,比如:同義詞替換、語法結構修改、標點符號替換等,保證數(shù)據(jù)的多樣性。
- 基于大模型的數(shù)據(jù)泛化:您可以通過調(diào)用大模型(比如盤古提供的任意一個規(guī)格的基礎功能模型)來獲取目標場景的數(shù)據(jù),以此提升數(shù)據(jù)質(zhì)量。一個比較常見的方法是,將微調(diào)數(shù)據(jù)以及數(shù)據(jù)評估標準輸入給模型,讓模型來評估數(shù)據(jù)的優(yōu)劣。
- 人工標注:如果以上方案均無法滿足您的要求,您也可以使用“數(shù)據(jù)標注”功能,采用人工標注方式來加工數(shù)據(jù)。
- 數(shù)據(jù)與目標任務一致:微調(diào)數(shù)據(jù)應該與微調(diào)任務的目標和分布保持一致,反映出任務的實際要求。比如,現(xiàn)在需要微調(diào)一個情感分類的模型,模型只需要回復“消極”或者“積極”:
ai垂直大模型什么意思常見問題
更多常見問題 >>-
盤古大模型致力于深耕行業(yè),打造金融、政務、制造、礦山、氣象、鐵路等領域行業(yè)大模型和能力集,將行業(yè)知識know-how與大模型能力相結合,重塑千行百業(yè),成為各組織、企業(yè)、個人的專家助手。
-
模型轉換,即將開源框架的網(wǎng)絡模型(如Caffe、TensorFlow等),通過ATC(Ascend Tensor Compiler)模型轉換工具,將其轉換成昇騰AI處理器支持的離線模型。
-
本次Serverless應用中心上線文生圖應用,用戶無需下載源代碼、了解各種安裝部署知識、安裝復雜的依賴,通過華為云Serverless應用中心即可一鍵創(chuàng)建AI文生圖應用,體驗 “0” 構建門檻、“0” 資源閑置并具備極致彈性的Serverless AI繪圖能力。
-
在自然語言處理(NLP)領域中,使用語言模型預訓練方法在多項NLP任務上都獲得了不錯的提升,廣泛受到了各界的關注。本課程將簡單介紹一下預訓練的思想,幾個代表性模型和它們之間的關系。
-
華為云Serverless技術極大的優(yōu)化了AI應用開發(fā)過程,一鍵部署AI應用、提升開發(fā)團隊工作效率。讓AI團隊可以更關注業(yè)務實現(xiàn),而無需關注底層技術細節(jié)。
-
知識圖譜(KG)和大語言模型(LLM)都是知識的表示形式。KG是符號化的知識庫,具備一定推理能力,且結果可解釋性較好。但存在構建成本高、泛化能力不足、更新難等不足。
ai垂直大模型什么意思教程視頻
最佳實踐視頻幫助您快速了解搭建流程 了解更多
-
06大規(guī)模并行模型訓練
基于Atlas 900 AI集群和深度學習訓練平臺進行BERT網(wǎng)絡大規(guī)模并行模型訓練。 -
NAIE模型訓練服務演示
以數(shù)據(jù)中心PUE優(yōu)化為例進行模型訓練服務和數(shù)據(jù)中心PUE優(yōu)化模型生成服務操作演示,使開發(fā)者快速熟悉NAIE模型訓練服務和數(shù)據(jù)中心PUE優(yōu)化模型生成服務。 -
數(shù)據(jù)中心AI模型開發(fā)
使用電信領域一站式模型開發(fā)服務,從數(shù)據(jù)預處理,到特征提取、模型訓練、模型驗證,本服務為開發(fā)者提供開發(fā)環(huán)境、模擬驗證環(huán)境,API和一系列開發(fā)工具,幫助開發(fā)者快速高效開發(fā)電信領域模型。
更多相關專題
增值電信業(yè)務經(jīng)營許可證:B1.B2-20200593 | 域名注冊服務機構許可:黔D3-20230001 | 代理域名注冊服務機構:新網(wǎng)、西數(shù)