體驗 政企知識檢索 智能創(chuàng)意營銷 行業(yè)API助手 行業(yè)研發(fā)助手 政企會議助手 文檔與學(xué)習(xí)成長 盤古大模型 盤古大模型 什么是盤古大模型 盤古NLP大模型能力與規(guī)格 盤古大模型快速入門 如何調(diào)用盤古大模型API 查看全部 AI Gallery百模千態(tài)社區(qū) AI Gallery百模千態(tài)社區(qū)
盤古大模型 PanguLargeModels 盤古大模型 PanguLargeModels 盤古大模型是面向B端行業(yè)的大模型,包含L0中5類基礎(chǔ)大模型、L1行業(yè)大模型及L2場景模型三層架構(gòu) 盤古大模型是面向B端行業(yè)的大模型,包含L0中5類基礎(chǔ)大模型、L1行業(yè)大模型及L2場景模型三層架構(gòu)
全鏈路專業(yè)服務(wù),讓大模型從可用到好用 · 6大階段30+專業(yè)服務(wù),覆蓋大模型建設(shè)全流程,加速政企落地大模型 · 創(chuàng)新運營服務(wù)模式,實現(xiàn)全場景模型經(jīng)驗沉淀、全流程運營賦能產(chǎn)業(yè),快速孵化大模型場景化應(yīng)用 大模型混合云十大創(chuàng)新技術(shù) 大模型混合云十大創(chuàng)新技術(shù) 了解詳情 十大創(chuàng)新技術(shù) 加速構(gòu)建企業(yè)專屬大模型
文檔與學(xué)習(xí)成長 盤古大模型 盤古大模型 什么是盤古大模型 盤古預(yù)測大模型能力與規(guī)格 盤古大模型快速入門 如何調(diào)用盤古大模型API 查看全部 AI Gallery百模千態(tài)社區(qū) AI Gallery百模千態(tài)社區(qū) 優(yōu)質(zhì)昇騰云AI模型專區(qū) 幾行代碼自由部署AI應(yīng)用 豐富多樣的AI訓(xùn)練數(shù)據(jù)集 場景化AI案例,助力AI賦能千行百業(yè)
廣汽借助華為云盤古多模態(tài)大模型,打造業(yè)界首個支持點云生成的大模型,為其端到端仿真高效迭代提供強有力支撐。 文檔與學(xué)習(xí)成長 盤古大模型 盤古大模型 什么是盤古大模型 盤古多模態(tài)大模型能力與規(guī)格 用戶指南 如何調(diào)用盤古大模型API 查看全部 AI Gallery百模千態(tài)社區(qū) AI Gallery百模千態(tài)社區(qū)
提供高精度的全球模型,無需定制和訓(xùn)練,直接訂閱即可推理 多種部署形態(tài) 支持公有云、混合云、邊緣多種形態(tài),滿足不同需求 文檔與學(xué)習(xí)成長 盤古大模型 盤古大模型 什么是盤古大模型 盤古科學(xué)計算大模型能力與規(guī)格 盤古大模型用戶指南 如何調(diào)用盤古大模型API 查看全部 AI Gallery百模千態(tài)社區(qū)
學(xué)習(xí)資源 學(xué)習(xí)資源 AI開發(fā)基本流程介紹 自動學(xué)習(xí)簡介 使用預(yù)置算法構(gòu)建模型 使用自定義算法構(gòu)建模型 查看更多 您感興趣的產(chǎn)品 您感興趣的產(chǎn)品 盤古NLP大模型 最貼合行業(yè)落地的NLP大模型 盤古CV大模型 賦能行業(yè)客戶使用少量數(shù)據(jù)微調(diào)即可滿足特定場景任務(wù) 盤古預(yù)測大模型 基于Triplet
大模型混合云TOP N 場景 大模型混合云TOP N 場景 1對1咨詢 了解華為云Stack 大模型行業(yè)場景落地三要素 大模型行業(yè)場景落地三要素 場景是大模型行業(yè)落地的關(guān)鍵所在,而在場景落地過程中,數(shù)據(jù)、經(jīng)驗和生態(tài)是核心要素,數(shù)據(jù)的數(shù)量和質(zhì)量決定模型效果上限;經(jīng)驗就像“名師指導(dǎo)”
多語種內(nèi)容審核,平臺全面保護 一站式大模型開發(fā)平臺 一站式大模型開發(fā)平臺 ModelArts Studio大模型開發(fā)平臺是集數(shù)據(jù)管理、模型訓(xùn)練、模型部署于一體的綜合平臺,專為開發(fā)和應(yīng)用大模型而設(shè)計,旨在為開發(fā)者提供簡單、高效的大模型開發(fā)和部署方式 為什么選擇大模型開發(fā)平臺ModelArts
《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》明確,具有輿論屬性或者社會動員能力的算法推薦服務(wù)提供者應(yīng)當在提供服務(wù)之日起十個工作日內(nèi)通過互聯(lián)網(wǎng)信息服務(wù)算法備案系統(tǒng)填報服務(wù)提供者的名稱、服務(wù)形式、應(yīng)用領(lǐng)域、算法類型、算法自評估報告、擬公示內(nèi)容等信息 方便
湘江鯤鵬目前在人工智能大模型領(lǐng)域擁有算力、數(shù)據(jù)、算法三大關(guān)鍵要素的經(jīng)驗積累,構(gòu)建了大模型三個方面的差異化競爭力,盤古大模型AI專業(yè)服務(wù)覆蓋從前期咨詢、規(guī)劃設(shè)計,到數(shù)據(jù)工程、模型訓(xùn)練,再到應(yīng)用工程及模型運維的完整流程。基于華為盤古提供的AI專業(yè)服務(wù)包,致力于為企業(yè)提供一站式人工智能解決方案
公司集成了世界領(lǐng)先的底層大模型,具備打通跨模型和工具鏈的平臺,提供從需求分析、數(shù)據(jù)收集、模型設(shè)計、訓(xùn)練優(yōu)化、評估、系統(tǒng)集成、用戶界面設(shè)計、部署維護、合規(guī)性檢查、技術(shù)支持、性能監(jiān)控、擴展性設(shè)計、定制服務(wù)到持續(xù)研發(fā)一站式AI大模型定制研發(fā)服務(wù)。光啟慧語是一家圍繞大模型全棧開展技術(shù)研發(fā)和產(chǎn)
angChain等流行的大模型開發(fā)框架,構(gòu)建企業(yè)級AI應(yīng)用;團隊擁有成熟的軟件工程技術(shù)和管理能力。6. 大模型使用的技術(shù)支持,用戶使用大模型平臺,解答用戶使用過程遇到的問題;大模型與應(yīng)用對接集成,以及進行日常巡檢、故障處理、模型升級等服務(wù)。4. 工業(yè)數(shù)據(jù)模型(CAD模型、CAE模
太杉天尊大模型AIGC場景解決方案是以AI場景解決方案為核心的全棧Maas綜合方案,助力政企客戶靈活部署(可公有可私有部署)。具備自研的行業(yè)模型能力,主要用于政府/公安/教育等行業(yè)的數(shù)據(jù)處理、文本處理以及多模態(tài)處理等多場景。太杉天尊大模型AIGC場景解決方案,是一款專為滿足政府企
100%包通過,不通過,全額退款,全國可辦理!生成式人工智能備案,大模型備案
數(shù)據(jù)質(zhì)量。4. 模型訓(xùn)練:?設(shè)計調(diào)優(yōu)方案,實施模型訓(xùn)練,并進行模型評測。?熟悉盤古大模型工作流和云服務(wù)操作,確保模型效果優(yōu)化。5. 應(yīng)用工程:?提供基于大模型能力的Agent開發(fā)和應(yīng)用對接服務(wù)。?具備良好的軟件開發(fā)和溝通能力,實現(xiàn)大模型與應(yīng)用的無縫對接。6. 模型運維: ?提供技
. 模型更新后,將新模型部署至相應(yīng)環(huán)境。 十一、模型評測1. 設(shè)計模型評測方案,對大模型各類指標進行評測。2. 能夠按評測標準對大模型各項能力進行打分,輸出大模型評測報告。 十二、Agent開發(fā)1. 基于場景,設(shè)計并開發(fā)Agent工具。2. 基于langchain等大模型框架,完
天尊大模型AIGC場景解決方案配套服務(wù)是太杉AIGC解決方案的人工服務(wù),是以AI應(yīng)用解決方案為核心的全棧Maas綜合方案,助力政企客戶靈活部署(可公有可私有部署)。主要用于政府/公安/教育等行業(yè)的數(shù)據(jù)處理、文本處理以及多模態(tài)處理等多場景。天尊大模型AIGC場景解決方案配套服務(wù)是太
華為云盤古大模型 華為云盤古大模型 AI for Industries 大模型重塑千行百業(yè) AI for Industries 大模型重塑千行百業(yè) 盤古大模型致力于深耕行業(yè),打造金融、政務(wù)、制造、礦山、氣象、鐵路等領(lǐng)域行業(yè)大模型和能力集,將行業(yè)知識know-how與大模型能力相結(jié)合
免費AI客服電話-云蝠智能AI客戶聯(lián)絡(luò)中心 免費AI客服電話-云蝠智能AI客戶聯(lián)絡(luò)中心 “云蝠智能”企業(yè)提供AI客戶聯(lián)絡(luò)中心,包含智能語音電話機器人、智能語音呼叫、短信分發(fā)及企業(yè)微信SCRM的業(yè)務(wù)體系。通過提供AI會員回訪、通知、精準營銷的系統(tǒng)進行產(chǎn)品服務(wù)和賦能。 “云蝠智能”企
Recognition,簡稱OCR)指將圖片、掃描件或PDF、OFD文檔中的打印字符進行檢測識別成可編輯的文本格式。 OCR以開放API(Application Programming Interface,應(yīng)用程序編程接口)的方式提供給用戶,用戶使用Python、Java等編程語言調(diào)用OCR服務(wù)API將圖片識別
使用ModelArts自動學(xué)習(xí)開發(fā)AI模型無需編寫代碼,您只需上傳數(shù)據(jù)、創(chuàng)建項目、完成數(shù)據(jù)標注、發(fā)布訓(xùn)練、然后將訓(xùn)練的模型部署上線。將訓(xùn)練的模型部署上線的過程中,將會生成一個AI應(yīng)用,命名規(guī)范為exeMl-{類別}_ExeMl_xxx。 命名規(guī)范 Workflow ModelArts服務(wù)為
r。 創(chuàng)建訓(xùn)練作業(yè)時提示“對象目錄大小/數(shù)量超過限制”,如何解決? 問題分析 創(chuàng)建訓(xùn)練作業(yè)選擇的代碼目錄有大小和文件個數(shù)限制。 解決方法 將代碼目錄中除代碼以外的文件刪除或存放到其他目錄,保證代碼目錄大小不超過128MB,文件個數(shù)不超過4096個。 訓(xùn)練作業(yè)的“/cache”目錄是否安全?
遵循如下規(guī)范: ·如果在連接中設(shè)置了GUC參數(shù),那么在將連接歸還連接池之前,必須使用“SET SESSION AUTHORIZATION DEFAULT;RESET ALL;”將連接的狀態(tài)清空。 ·如果使用了臨時表,那么在將連接歸還連接池之前,必須將臨時表刪除。 否則,連接池里面
華為云提供免費的備案服務(wù)。 備案網(wǎng)站 云解析服務(wù) 將域名轉(zhuǎn)換為網(wǎng)站服務(wù)器IP地址,實現(xiàn)通過域名直接訪問網(wǎng)站。 華為云提供免費的域名解析服務(wù)。 配置網(wǎng)站解析 SSL證書管理 如果想要實現(xiàn)網(wǎng)站的可信身份認證與安全數(shù)據(jù)傳輸,您可以通過華為云SCM購買并部署SSL證書。 部署成功后,可以將HTTP協(xié)議替換成HTTPS協(xié)議,通過https://www
這些DeepSeek模型在多項能力上與OpenAI的o1-mini相當,為開發(fā)者提供了強大的AI能力。 在MaaS平臺上,DeepSeek-R1蒸餾模型已經(jīng)部署上線,開發(fā)者可以通過在線體驗或API調(diào)用來使用這些模型。為了幫助開發(fā)者快速驗證和開發(fā)創(chuàng)新的AI應(yīng)用,平臺還提供了200
【限時特惠】研發(fā)與中間件專場 研發(fā)與中間件專場 眾多AI創(chuàng)新者反饋,構(gòu)建AIGC應(yīng)用時常遇這些挑戰(zhàn) 眾多AI創(chuàng)新者反饋,構(gòu)建AIGC應(yīng)用時常遇這些挑戰(zhàn) 模型開發(fā)/定制門檻高 大模型應(yīng)用是一個模型、數(shù)據(jù)、代碼集成的新型應(yīng)用。 開發(fā)一個完整的大模型應(yīng)用既需要利用多樣化的AI原生技術(shù)又需要強大的工程能力,并將它們充分整合,開發(fā)門檻高
ai智能文本校對大模型將到來
搜索大模型插件通過模型服務(wù)將AI能力集成到Elasticsearch集群中,實現(xiàn)語義向量搜索、語義排序等高級功能。其核心流程是基于業(yè)務(wù)需求(如語義搜索、智能推薦)定義模型類型(Embedding/Rerank等),并綁定對應(yīng)的AI服務(wù)地址,確保上層應(yīng)用能通過向量索引正確調(diào)用服務(wù)接口。
- 語義搜索:依賴Embedding模型服務(wù),將文本轉(zhuǎn)換為向量,實現(xiàn)相似性檢索。
- 智能推薦:組合使用Embedding模型服務(wù)(生成用戶/物品向量)和Rerank模型服務(wù),優(yōu)化推薦結(jié)果排序。
前提條件
確認Elasticsearch集群已啟用搜索大模型插件,操作指導(dǎo)請參見開啟搜索大模型插件。
支持的模型服務(wù)
搜索大模型插件支持接入多種模型服務(wù),具體支持的模型服務(wù)清單如表1 支持的模型服務(wù)所示。
獲取獨享版集群的訪問地址
- 登錄 云搜索服務(wù) 管理控制臺。
- 在左側(cè)導(dǎo)航欄,選擇“搜索大模型 > 獨享版集群”。
- 在集群列表,選擇目標集群,在“內(nèi)網(wǎng)訪問地址”列獲取并記錄集群的內(nèi)網(wǎng)IP地址,后續(xù)配置模型服務(wù)需要使用。
一般是“<host>:<port>”或“<host>:<port>,<host>:<port>”樣式。
圖1 獲取集群訪問地址
登錄Kibana
登錄Kibana進入命令執(zhí)行頁面。Elasticsearch集群支持多種客戶端訪問,本文僅以 CSS 服務(wù)集成的Kibana為例介紹配置指導(dǎo)。
- 登錄 云搜索 服務(wù)管理控制臺。
- 在左側(cè)導(dǎo)航欄,選擇“集群管理 > Elasticsearch”。
- 在集群列表,選擇目標集群,單擊操作列的“Kibana”,登錄Kibana。
- 在Kibana左側(cè)導(dǎo)航欄選擇“Dev Tools”,進入操作頁面。
控制臺左側(cè)是命令輸入框,其右側(cè)的三角形圖標為執(zhí)行按鈕,右側(cè)區(qū)域則顯示執(zhí)行結(jié)果。
配置模型服務(wù)
當模型創(chuàng)建完成后,根據(jù)業(yè)務(wù)需要配置模型服務(wù)。下面介紹了各類模型服務(wù)的配置指導(dǎo)。
配置Embedding模型服務(wù)
在Kibana中執(zhí)行以下命令,配置Embedding模型服務(wù)。其中,模型類型必須是semantic_vector。
PUT _inference/model_service/{service_name} { "description": "搜索大模型-語義向量化", "service_config": { "semantic_vector": { "service_urls" : ["http://{endpoint}/app/search/v1/vector"], "algorithm": "GRAPH", "metric": "inner_product", "dimension": "768", "timeout_ms": 30000 } } }
|
參數(shù) |
是否必選 |
參數(shù)類型 |
描述 |
|---|---|---|---|
|
service_name |
是 |
String |
模型服務(wù)的名稱。自定義,如pangu_vector。 |
|
service_urls |
是 |
List<String> |
訪問模型服務(wù)的接口URL。 支持配置多個訪問地址,用逗號分隔。 配置格式:http://{endpoint}/app/search/v1/vector,endpoint參考獲取獨享版集群的訪問地址獲取。 舉例:http://192.168.0.85:18088/app/search/v1/vector |
|
method |
否 |
String |
模型服務(wù)的訪問方法。 由Embedding模型服務(wù)決定,搜索大模型使用的是POST,保持默認值即可。 取值范圍:POST、GET、PUT 默認值:POST |
|
algorithm |
否 |
String |
模型服務(wù)支持的向量索引算法。 取值范圍:
默認值:GRAPH |
|
metric |
否 |
String |
計算向量之間距離的度量方式。 取值范圍:
默認值:inner_product |
|
dimension |
否 |
String |
向量數(shù)據(jù)維度。 由Embedding模型服務(wù)決定,必須配置為768,保持默認值即可。 取值范圍:1~4096 默認值:768 |
|
timeout_ms |
否 |
int |
訪問模型服務(wù)的超時時間,超時會請求失敗。 單位:ms(毫秒) 最小值:3000 默認值:10000 |
|
content_length |
否 |
int |
模型服務(wù)支持單個文檔屬性的最大值,超過最大值將進行文本截斷。 默認值:-1(小于0代表不進行長度截斷) |
|
embedding_type |
否 |
String |
配置Embedding模型的查詢類型。
取值范圍:
默認值:query2doc |
配置Rerank模型服務(wù)
在Kibana中執(zhí)行以下命令,配置Rerank模型服務(wù)。其中,模型類型必須是reorder。
PUT _inference/model_service/{service_name} { "description": "搜索大模型-精排模型", "service_config": { "reorder": { "service_urls": ["http://{endpoint}/app/search/v1/rerank"], "timeout_ms": 60000 } } }
|
參數(shù) |
是否必選 |
參數(shù)類型 |
描述 |
|---|---|---|---|
|
service_name |
是 |
String |
模型服務(wù)的名稱。自定義,如pangu_ranking。 |
|
service_urls |
是 |
List<String> |
訪問模型服務(wù)的接口URL。 支持配置多個訪問地址,用逗號分隔。 配置格式:http://{endpoint}/app/search/v1/rerank,endpoint參考獲取獨享版集群的訪問地址獲取。 舉例:http://192.168.0.85:18088/app/search/v1/rerank |
|
method |
否 |
String |
模型服務(wù)的訪問方法。 由Rerank模型服務(wù)決定,搜索大模型使用的是POST,保持默認值即可。 取值范圍:POST、GET、PUT 默認值:POST |
|
timeout_ms |
否 |
int |
訪問模型服務(wù)的超時時間,超時會請求失敗。 單位:ms(毫秒) 最小值:3000 默認值:10000 |
|
content_length |
否 |
int |
模型服務(wù)支持單個文檔屬性的最大值,超過最大值將進行文本截斷。 默認值:-1(小于0代表不進行長度截斷) |
管理模型服務(wù)
搜索大模型插件深度集成Kibana命令行界面(CLI),支持對模型服務(wù)進行更新、監(jiān)控、擴縮容等全生命周期管理。如表4所示,可以通過標準CLI命令執(zhí)行更新(update)、刪除(delete)等核心操作管理模型服務(wù)。
|
操作類型 |
API命令 |
請求示例 |
響應(yīng)示例 |
|---|---|---|---|
|
更新模型服務(wù) |
POST _inference/model_service/{service_name}/update |
更新Embedding模型服務(wù): POST _inference/model_service/pangu_vector/update
{
"description": "搜索大模型-語義向量化模型更新",
"service_config": {
"semantic_vector": {
"service_urls": ["http://{endpoint}/app/search/v1/vector"],
"timeout_ms": 60000
}
}
} |
返回更新后的模型服務(wù)信息: {
"service_name" : "pangu_vector",
"service_type" : "remote",
"description" : "搜索大模型-語義向量化模型更新",
"create_time" : 1747966388508,
"service_config" : {
"semantic_vector" : {
"embedding_type" : "query2doc",
"service_urls" : [
"http://{endpoint}/app/search/v1/vector"],
"method" : "POST",
"timeout_ms" : 60000,
"max_conn" : 200,
"security" : false,
"dimension" : "768",
"algorithm" : "GRAPH",
"metric" : "inner_product"
}
}
} |
|
檢查模型服務(wù)連通性 |
GET _inference/model_service/{service_name}/check |
檢查Embedding模型服務(wù)的連通性: GET _inference/model_service/pangu_vector/check |
{
"acknowledged" : true
} |
|
查看模型服務(wù) |
|
查看Embedding模型服務(wù)的配置信息: GET _inference/model_service/pangu_vector |
返回模型服務(wù)信息: {
"count" : 1,
"model_service_configs" : [
{
"service_name" : "pangu_vector",
"service_type" : "remote",
"description" : "搜索大模型-語義向量化模型",
"create_time" : 1747966388508,
"service_config" : {
"semantic_vector" : {
"embedding_type" : "query2doc",
"service_urls" : ["http://{endpoint}/app/search/v1/vector"],
"method" : "POST",
"timeout_ms" : 60000,
"max_conn" : 200,
"security" : false,
"dimension" : "768",
"algorithm" : "GRAPH",
"metric" : "inner_product"
}
}
}
]
} |
|
刪除模型服務(wù)配置(刪除后,索引將無法使用該模型服務(wù)) |
DELETE _inference/model_service/{service_name} |
刪除Embedding模型服務(wù)配置: DELETE _inference/model_service/pangu_vector |
{
"acknowledged" : true
} |
|
設(shè)置模型服務(wù)的數(shù)量上限(最多支持創(chuàng)建幾個模型服務(wù)) |
PUT _cluster/settings
{
"transient": {
"pg_search.inference.max_inference_model_service": 100 //最大值是1000,最小值是1,默認值是100。
}
} |
設(shè)置模型服務(wù)的數(shù)量上限為10: PUT _cluster/settings
{
"transient": {
"pg_search.inference.max_inference_model_service": 10
}
} |
{
"acknowledged" : true,
"persistent" : { },
"transient" : {
"pg_search" : {
"inference" : {
"max_inference_model_service" : "10"
}
}
}
} |
ai智能文本校對大模型將到來常見問題
更多常見問題 >>-
盤古大模型致力于深耕行業(yè),打造金融、政務(wù)、制造、礦山、氣象、鐵路等領(lǐng)域行業(yè)大模型和能力集,將行業(yè)知識know-how與大模型能力相結(jié)合,重塑千行百業(yè),成為各組織、企業(yè)、個人的專家助手。
-
模型轉(zhuǎn)換,即將開源框架的網(wǎng)絡(luò)模型(如Caffe、TensorFlow等),通過ATC(Ascend Tensor Compiler)模型轉(zhuǎn)換工具,將其轉(zhuǎn)換成昇騰AI處理器支持的離線模型。
-
華為云CodeArts Snap是一款基于大模型技術(shù)打造的智能開發(fā)助手,旨在提高開發(fā)人員的生產(chǎn)力和代碼質(zhì)量,為開發(fā)者帶來全新的編程方式和體驗。
-
本次Serverless應(yīng)用中心上線文生圖應(yīng)用,用戶無需下載源代碼、了解各種安裝部署知識、安裝復(fù)雜的依賴,通過華為云Serverless應(yīng)用中心即可一鍵創(chuàng)建AI文生圖應(yīng)用,體驗 “0” 構(gòu)建門檻、“0” 資源閑置并具備極致彈性的Serverless AI繪圖能力。
-
在自然語言處理(NLP)領(lǐng)域中,使用語言模型預(yù)訓(xùn)練方法在多項NLP任務(wù)上都獲得了不錯的提升,廣泛受到了各界的關(guān)注。本課程將簡單介紹一下預(yù)訓(xùn)練的思想,幾個代表性模型和它們之間的關(guān)系。
-
華為云Serverless技術(shù)極大的優(yōu)化了AI應(yīng)用開發(fā)過程,一鍵部署AI應(yīng)用、提升開發(fā)團隊工作效率。讓AI團隊可以更關(guān)注業(yè)務(wù)實現(xiàn),而無需關(guān)注底層技術(shù)細節(jié)。
ai智能文本校對大模型將到來教程視頻
最佳實踐視頻幫助您快速了解搭建流程 了解更多
更多相關(guān)專題
- 熱門產(chǎn)品
- 大模型即服務(wù)平臺 MaaS
- Flexus云服務(wù)
- 云服務(wù)器
- 盤古大模型
- SSL證書
- 華為云WeLink
- 實用工具
- 文字識別
- 漏洞掃描
- 華為云會議
- 云服務(wù)健康看板
增值電信業(yè)務(wù)經(jīng)營許可證:B1.B2-20200593 | 域名注冊服務(wù)機構(gòu)許可:黔D3-20230001 | 代理域名注冊服務(wù)機構(gòu):新網(wǎng)、西數(shù)