免費(fèi)的ai大模型接入
圍繞工業(yè)、城市、政務(wù)等重點(diǎn)場景打造以盤古CV大模型為中心的通用視覺能力,助力企業(yè)實(shí)現(xiàn)CV模型“工業(yè)化”生產(chǎn),并打通模型監(jiān)控-數(shù)據(jù)回傳-持續(xù)學(xué)習(xí)-自動評估-持續(xù)更新的AI全鏈路閉環(huán)。在工業(yè)場景已有多個應(yīng)用。
盤古NLP大模型 盤古NLP大模型 優(yōu)秀的模型結(jié)構(gòu),完善的工程化能力,最貼合行業(yè)落地的NLP大模型 超大參數(shù)規(guī)模,最貼合行業(yè)落地的NLP大模型 重磅發(fā)布盤古NLP 718B深度思考模型,多專家+大稀疏比的MOE新架構(gòu),昇騰親和設(shè)計(jì),高效訓(xùn)推 專家咨詢 ModelArts Studio控制臺
使用預(yù)置算法構(gòu)建模型 使用自定義算法構(gòu)建模型 查看全部 即刻領(lǐng)取 免費(fèi)試用 產(chǎn)品 開啟您的大模型之旅 企業(yè)免費(fèi)試用 您可能感興趣的產(chǎn)品 您可能感興趣的產(chǎn)品 大模型開發(fā)平臺ModelArts Studio 一站式大模型工具鏈平臺 ModelArts 面向開發(fā)者的AI平臺
識別并攔截惡意提示詞,防止大模型被誘導(dǎo)生成不當(dāng)內(nèi)容。 內(nèi)容合規(guī)審核 對大模型輸出內(nèi)容進(jìn)行實(shí)時審核,確保符合相關(guān)法律法規(guī)和企業(yè)政策。 數(shù)據(jù)隱私保護(hù) 監(jiān)測并防止敏感數(shù)據(jù)泄露,保障用戶隱私安全。 大模型防火墻應(yīng)用場景 面向大模型推理應(yīng)用場景提供全??v深的安全防御能力,保護(hù)AI應(yīng)用穩(wěn)定可靠運(yùn)行 大模型防火墻
全鏈路專業(yè)服務(wù),讓大模型從可用到好用 · 6大階段30+專業(yè)服務(wù),覆蓋大模型建設(shè)全流程,加速政企落地大模型 · 創(chuàng)新運(yùn)營服務(wù)模式,實(shí)現(xiàn)全場景模型經(jīng)驗(yàn)沉淀、全流程運(yùn)營賦能產(chǎn)業(yè),快速孵化大模型場景化應(yīng)用 大模型混合云十大創(chuàng)新技術(shù) 大模型混合云十大創(chuàng)新技術(shù) 了解詳情 十大創(chuàng)新技術(shù) 加速構(gòu)建企業(yè)專屬大模型
盤古大模型 PanguLargeModels 盤古大模型 PanguLargeModels 盤古大模型是面向B端行業(yè)的大模型,包含L0中5類基礎(chǔ)大模型、L1行業(yè)大模型及L2場景模型三層架構(gòu) 盤古大模型是面向B端行業(yè)的大模型,包含L0中5類基礎(chǔ)大模型、L1行業(yè)大模型及L2場景模型三層架構(gòu)
化區(qū)域的基礎(chǔ)大模型。 全球模型 提供高精度的全球模型,無需定制和訓(xùn)練,直接訂閱即可推理 多種部署形態(tài) 支持公有云、混合云、邊緣多種形態(tài),滿足不同需求 文檔與學(xué)習(xí)成長 盤古大模型 盤古大模型 什么是盤古大模型 盤古科學(xué)計(jì)算大模型能力與規(guī)格 盤古大模型用戶指南 如何調(diào)用盤古大模型API
古多模態(tài)大模型為基座,持續(xù)優(yōu)化萬興天幕音視頻大模型2.0,構(gòu)建其音視頻垂類能力。 廣汽集團(tuán) 廣汽借助華為云盤古多模態(tài)大模型,打造業(yè)界首個支持點(diǎn)云生成的大模型,為其端到端仿真高效迭代提供強(qiáng)有力支撐。 文檔與學(xué)習(xí)成長 盤古大模型 盤古大模型 什么是盤古大模型 盤古多模態(tài)大模型能力與規(guī)格
大模型混合云TOP N 場景 大模型混合云TOP N 場景 1對1咨詢 了解華為云Stack 大模型行業(yè)場景落地三要素 大模型行業(yè)場景落地三要素 場景是大模型行業(yè)落地的關(guān)鍵所在,而在場景落地過程中,數(shù)據(jù)、經(jīng)驗(yàn)和生態(tài)是核心要素,數(shù)據(jù)的數(shù)量和質(zhì)量決定模型效果上限;經(jīng)驗(yàn)就像“名師指導(dǎo)”
多語種內(nèi)容審核,平臺全面保護(hù) 一站式大模型開發(fā)平臺 一站式大模型開發(fā)平臺 ModelArts Studio大模型開發(fā)平臺是集數(shù)據(jù)管理、模型訓(xùn)練、模型部署于一體的綜合平臺,專為開發(fā)和應(yīng)用大模型而設(shè)計(jì),旨在為開發(fā)者提供簡單、高效的大模型開發(fā)和部署方式 為什么選擇大模型開發(fā)平臺ModelArts
《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》明確,具有輿論屬性或者社會動員能力的算法推薦服務(wù)提供者應(yīng)當(dāng)在提供服務(wù)之日起十個工作日內(nèi)通過互聯(lián)網(wǎng)信息服務(wù)算法備案系統(tǒng)填報(bào)服務(wù)提供者的名稱、服務(wù)形式、應(yīng)用領(lǐng)域、算法類型、算法自評估報(bào)告、擬公示內(nèi)容等信息 方便
湘江鯤鵬目前在人工智能大模型領(lǐng)域擁有算力、數(shù)據(jù)、算法三大關(guān)鍵要素的經(jīng)驗(yàn)積累,構(gòu)建了大模型三個方面的差異化競爭力,盤古大模型AI專業(yè)服務(wù)覆蓋從前期咨詢、規(guī)劃設(shè)計(jì),到數(shù)據(jù)工程、模型訓(xùn)練,再到應(yīng)用工程及模型運(yùn)維的完整流程。基于華為盤古提供的AI專業(yè)服務(wù)包,致力于為企業(yè)提供一站式人工智能解決方案
等,以及整體的規(guī)劃設(shè)計(jì)(需求、思路、方案、架構(gòu)、落地周期、預(yù)算等)。3. 數(shù)據(jù)的咨詢、治理和梳理,數(shù)據(jù)的采集(各業(yè)務(wù)系統(tǒng)中的多種業(yè)務(wù)模型、網(wǎng)絡(luò)等等),數(shù)據(jù)的標(biāo)注,關(guān)聯(lián)關(guān)系的定義,以及數(shù)據(jù)導(dǎo)入。4. 基于具體任務(wù)和對應(yīng)的數(shù)據(jù)分布,設(shè)計(jì)適合的微調(diào)訓(xùn)練框架和方案;使用不同的調(diào)參策略和技
,滿足企業(yè)在不同地點(diǎn)的工作需求。5、我們保證了業(yè)務(wù)的高質(zhì)量數(shù)據(jù)供給。我們的工作站擁有強(qiáng)大的數(shù)據(jù)處理能力,可以提供高質(zhì)量的數(shù)據(jù),幫助企業(yè)做出更好的決策??偟膩碚f,太杉天尊大模型AIGC場景解決方案具備功能強(qiáng)大、安全可靠、易于使用的特點(diǎn),是政府的得力助手,企業(yè)的重要伙伴。1、數(shù)據(jù)私有化;
%+,能夠?yàn)榭蛻籼峁┒ㄖ苹?span style='color:'>的解決方案。 公司集成了世界領(lǐng)先的底層大模型,具備打通跨模型和工具鏈的平臺能力,采用最新的人工智能技術(shù)和算法,能夠基于業(yè)務(wù)場景,支持大規(guī)模數(shù)據(jù)處理和復(fù)雜的模型訓(xùn)練,根據(jù)客戶的特定需求調(diào)整模型參數(shù)和功能,確保為客戶提供高效、可靠的技術(shù)服務(wù),以滿足業(yè)務(wù)目標(biāo)。
擇和技術(shù)方案設(shè)計(jì)。?提供NLP/CV等大模型的訓(xùn)練集數(shù)據(jù)標(biāo)準(zhǔn)設(shè)計(jì)指導(dǎo)。2. 規(guī)劃設(shè)計(jì):?提供需求調(diào)研服務(wù),基于盤古大模型的能力進(jìn)行科學(xué)合理的方案設(shè)計(jì)和模型選擇。?完成需求調(diào)研報(bào)告和方案設(shè)計(jì)報(bào)告的輸出及交付。?提供L0盤古大模型服務(wù)部署方案的規(guī)劃設(shè)計(jì)及部署實(shí)施服務(wù)。3. 數(shù)據(jù)工程:
注&撰寫根據(jù)大模型微調(diào)數(shù)據(jù)標(biāo)注規(guī)范,通過配套工具進(jìn)行數(shù)據(jù)標(biāo)注。 八、數(shù)據(jù)轉(zhuǎn)換與導(dǎo)入 完成數(shù)據(jù)格式的轉(zhuǎn)換,可進(jìn)行跨網(wǎng)絡(luò)環(huán)境的數(shù)據(jù)導(dǎo)入。 九、調(diào)優(yōu)方案設(shè)計(jì) 根據(jù)大模型訓(xùn)練及調(diào)優(yōu)工具和平臺,輸出大模型調(diào)優(yōu)方案。 十、模型訓(xùn)練實(shí)施1. 基于大模型訓(xùn)練所需的云服務(wù),完成大模型訓(xùn)練及微調(diào)。2
、安全的工作環(huán)境。1、我們特別注重?cái)?shù)據(jù)私有化。我們采用最新的數(shù)據(jù)加密技術(shù),確保企業(yè)的數(shù)據(jù)安全。每一個工作站都擁有獨(dú)立的存儲空間,企業(yè)的數(shù)據(jù)不會被未經(jīng)授權(quán)的第三方訪問。2、我們提供了場景定制的服務(wù)。我們的工作站可以根據(jù)企業(yè)的具體需求,進(jìn)行個性化設(shè)計(jì),以滿足企業(yè)在不同場景下的工作需求
出門問問大模型“序列猴子”是一款具備多模態(tài)生成能力的大語言模型,模型以語言為核心的能力體系涵蓋“知識、對話、數(shù)學(xué)、邏輯、推理、規(guī)劃”六個維度,能夠同時支持文字生成、圖片生成、3D內(nèi)容生成、語言生成和語音識別等不同任務(wù)。出門問問大模型“序列猴子”是一款具備多模態(tài)生成能力的大語言模型,模
深厚的行業(yè)積累,分層解耦的架構(gòu),多樣化的部署模式 深厚的行業(yè)積累,分層解耦的架構(gòu),多樣化的部署模式 技術(shù)扎根 全棧技術(shù)創(chuàng)新,極致算力加速大模型開發(fā),打造世界AI另一極 全棧技術(shù)創(chuàng)新,極致算力加速大模型開發(fā),打造世界AI另一極 開放同飛 打造云原生應(yīng)用平臺AppArts,成立大模型高質(zhì)量數(shù)據(jù)聯(lián)盟
ModelArts提供了模型訓(xùn)練的功能,方便您查看訓(xùn)練情況并不斷調(diào)整您的模型參數(shù)。您還可以基于不同的數(shù)據(jù),選擇不同規(guī)格的資源池用于模型訓(xùn)練。除支持用戶自己開發(fā)的模型外,ModelArts還提供了從AI Gallery訂閱算法,您可以不關(guān)注模型開發(fā),直接使用AI Gallery的算法,通過算法參數(shù)的調(diào)整,得到一個滿意的模型。
鐵三角服務(wù)體系,每名客戶提供不少于3人的運(yùn)維輔助客戶成功 免費(fèi)AI客服電話的產(chǎn)品: 3年積累,國家高新技術(shù)企業(yè),專注SAAS服務(wù) 免費(fèi)AI客服電話的技術(shù): NLP自然語義理解,高對話能力 免費(fèi)AI客服電話的矩陣: 提供從線路、線索、機(jī)器人、企業(yè)微信SCRM一體化服務(wù),可以O(shè)EM 免費(fèi)AI客服電話-智能AI客戶聯(lián)絡(luò)中心的應(yīng)用場景
有活動時,可能有可以免費(fèi)試用的活動。您可以關(guān)注華為云的企業(yè)郵箱活動。 企業(yè)郵箱怎么收費(fèi) 華為云企業(yè)郵箱中,云速郵箱的收費(fèi)主要看您購買的時長和購買的賬號數(shù)量,購買的實(shí)時價(jià)格可參考本內(nèi)容。 華為云企業(yè)郵箱一年多少錢 您購買的賬號數(shù)不同的話,價(jià)格也會有所不同。當(dāng)前購買華為云企業(yè)郵箱,1年8折。
將代碼目錄中除代碼以外的文件刪除或存放到其他目錄,保證代碼目錄大小不超過128MB,文件個數(shù)不超過4096個。 訓(xùn)練作業(yè)的“/cache”目錄是否安全? ModelArts訓(xùn)練作業(yè)的程序運(yùn)行在容器中,容器掛載的目錄地址是唯一的,只有運(yùn)行時的容器能訪問到。因此訓(xùn)練作業(yè)的“/cache”是安全的。
云資源的,IAM權(quán)限定義了允許和拒絕的訪問操作,以此實(shí)現(xiàn)云資源權(quán)限訪問控制。 了解詳情 云專線DC-專線接入點(diǎn) 您可以自主選擇運(yùn)營商的專線,連接華為云專線接入點(diǎn),并自助購買對應(yīng)的端口資源,完成物理連接接入。 您可以自主選擇運(yùn)營商的專線,連接華為云專線接入點(diǎn),并自助購買對應(yīng)的端口資源,完成物理連接接入。
平臺設(shè)置設(shè)備屬性 設(shè)備的產(chǎn)品模型中定義了平臺可向設(shè)備設(shè)置的屬性,平臺/應(yīng)用服務(wù)器可通過屬性設(shè)置的方式修改指定設(shè)備的屬性值。 平臺查詢設(shè)備屬性 平臺/應(yīng)用服務(wù)器通過屬性查詢的方式,實(shí)時查詢指定設(shè)備的屬性數(shù)據(jù)。 平臺命令下發(fā) 平臺/應(yīng)用服務(wù)器按產(chǎn)品模型中定義的命令格式下發(fā)控制命令給設(shè)備。
檢查應(yīng)用服務(wù)器是否集成了物聯(lián)網(wǎng)平臺的證書,證書由物聯(lián)網(wǎng)平臺服務(wù)商提供。 根據(jù)API參考的鑒權(quán)接口,檢查URL、body、header的參數(shù)信息是否正確。 使用MQTT協(xié)議的設(shè)備如何接入? MQTT協(xié)議的設(shè)備可以根據(jù)開發(fā)語言、設(shè)備的操作系統(tǒng)及資源情況選擇不同協(xié)議的SDK接入,或者使用原生MQTT協(xié)議接入。詳細(xì)請參考設(shè)備側(cè)接入。
戶應(yīng)用或者云服務(wù)。 不支持MQTT協(xié)議規(guī)范中retain msg。IoTDA提供消息緩存的能力消息上報(bào)和消息下發(fā)時支持對消息進(jìn)行緩存。 支持的MQTT 5.0特性說明 華為云設(shè)備接入服務(wù)IoTDA服務(wù)支持的MQTT 5.0的部分新增特性如下: 支持Topic Alias。將消息通
免費(fèi)的ai大模型接入
在 ModelArts Studio大模型即服務(wù)平臺部署成功的模型服務(wù)支持在其他業(yè)務(wù)環(huán)境中調(diào)用。本文以我的服務(wù)為例,調(diào)用部署的模型服務(wù)。您也可以調(diào)用預(yù)置服務(wù)-免費(fèi)服務(wù)、預(yù)置服務(wù)-商用服務(wù)或自定義接入點(diǎn)。
操作場景
在企業(yè)AI應(yīng)用開發(fā)過程中,開發(fā)人員通常需要將訓(xùn)練好的模型部署到實(shí)際業(yè)務(wù)環(huán)境中。然而,傳統(tǒng)方法需要手動配置環(huán)境、處理依賴關(guān)系、編寫部署腳本,整個過程耗時且容易出錯,且存在環(huán)境復(fù)雜、遷移困難、維護(hù)成本高、版本更新麻煩等問題。
ModelArts Studio(MaaS)大模型即服務(wù)平臺提供了一站式解決方案,提供統(tǒng)一的API接口方便業(yè)務(wù)系統(tǒng)調(diào)用,并提供監(jiān)控和日志功能便于運(yùn)維管理。
計(jì)費(fèi)說明
在調(diào)用模型推理服務(wù)的過程中,輸入內(nèi)容首先會被分詞(tokenize),轉(zhuǎn)換為模型可識別的Token。在調(diào)用MaaS預(yù)置服務(wù)時,將根據(jù)實(shí)際使用的Tokens數(shù)量進(jìn)行計(jì)費(fèi)。計(jì)費(fèi)詳情請參見計(jì)費(fèi)說明。
約束限制
對于支持圖片上傳的模型,單個圖片文件的大小不超過10MB。如果以Base64編碼形式上傳圖片,需確保編碼后的圖片小于10MB。
前提條件
- 使用預(yù)置服務(wù):在“在線推理”頁面的“預(yù)置服務(wù)”頁簽,使用有效期內(nèi)的免費(fèi)服務(wù)或者已開通商用服務(wù)(付費(fèi)狀態(tài)為“開通”)。具體操作,請參見ModelArts Studio(MaaS)在線推理服務(wù)。
- 使用我的服務(wù):在“在線推理”頁面的“我的服務(wù)”頁簽,服務(wù)列表存在運(yùn)行中、更新中或升級中的模型服務(wù)。具體操作,請參見使用ModelArts Studio(MaaS)部署模型服務(wù)。
- 使用自定義接入點(diǎn):已創(chuàng)建自定義接入點(diǎn)。具體操作,請參見在ModelArts Studio(MaaS)創(chuàng)建自定義接入點(diǎn)。
步驟一:獲取API Key
在調(diào)用MaaS部署的模型服務(wù)時,需要填寫API Key用于接口的鑒權(quán)認(rèn)證。最多可創(chuàng)建30個密鑰。每個密鑰僅在創(chuàng)建時顯示一次,請確保妥善保存。如果密鑰丟失,無法找回,需要重新創(chuàng)建API Key以獲取新的訪問密鑰。更多信息,請參見在ModelArts Studio(MaaS)管理API Key。
- 登錄ModelArts Studio(MaaS)控制臺,在頂部導(dǎo)航欄選擇目標(biāo)區(qū)域。
- 在左側(cè)導(dǎo)航欄,單擊“API Key管理”。
- 在“API Key管理”頁面,單擊“創(chuàng)建API Key”,填寫標(biāo)簽和描述信息后,單擊“確定”。
標(biāo)簽和描述信息在創(chuàng)建完成后,不支持修改。
表1 創(chuàng)建API Key參數(shù)說明 參數(shù)
說明
標(biāo)簽
自定義API Key的標(biāo)簽。標(biāo)簽具有唯一性,不可重復(fù)。僅支持大小寫英文字母、數(shù)字、下劃線、中劃線,長度范圍為1~100個字符。
描述
自定義API Key的描述,長度范圍為1~100個字符。
- 在“您的密鑰”對話框,復(fù)制密鑰并保存至安全位置。
- 保存完畢后,單擊“關(guān)閉”。
單擊“關(guān)閉”后將無法再次查看密鑰。
步驟二:調(diào)用MaaS模型服務(wù)進(jìn)行預(yù)測
- 在ModelArts Studio(MaaS)控制臺左側(cè)導(dǎo)航欄,選擇“在線推理”。
- 在“在線推理”頁面,單擊“我的服務(wù)”頁簽,在目標(biāo)服務(wù)右側(cè),單擊操作列的“更多 > 調(diào)用說明”。
- 在“關(guān)閉 內(nèi)容審核 服務(wù)”對話框,選擇是否啟用內(nèi)容審核(默認(rèn)啟用)。
- 在“調(diào)用說明”頁面,選擇接口類型,復(fù)制調(diào)用示例,修改接口信息和API Key后用于業(yè)務(wù)環(huán)境調(diào)用模型服務(wù)API。
Rest API、OpenAI SDK的示例代碼如下。
- Rest API示例代碼如下所示:
- 使用Python調(diào)用示例。
import requests import json if __name__ == '__main__': url = "https:/example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06*****/v1/chat/completions" api_key = "<your_apiKey>" # 把<your_apiKey>替換成已獲取的API Key。 # Send request. headers = { 'Content-Type': 'application/json', 'Authorization': f'Bearer {api_key}' } data = { "model": "******", # 調(diào)用時的模型名稱。 "max_tokens": 1024, # 最大輸出token數(shù)。 "messages": [ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "hello"} ], # 是否開啟流式推理,默認(rèn)為False,表示不開啟流式推理。 "stream": False, # 在流式輸出時是否展示使用的token數(shù)目。只有當(dāng)stream為True時該參數(shù)才會生效。 # "stream_options": {"include_usage": True}, # 控制采樣隨機(jī)性的浮點(diǎn)數(shù),值較低時模型更具確定性,值較高時模型更具創(chuàng)造性。"0"表示貪婪取樣。默認(rèn)為0.6。 "temperature": 0.6 } response = requests.post(url, headers=headers, data=json.dumps(data), verify=False) # Print result. print(response.status_code) print(response.text) - 使用cURL調(diào)用示例。
curl -X POST "https://example.com/v1/chat/completions" \ -H "Content-Type: application/json" \ -H "Authorization: Bearer $API_KEY" \ -d '{ "model": "DeepSeek-R1", "messages": [ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "你好"} ], "stream": true, "stream_options": { "include_usage": true }, "temperature": 0.6 }'
- 使用Python調(diào)用示例。
- 使用OpenAI SDK調(diào)用示例。
# 安裝環(huán)境命令。 pip install --upgrade "openai>=1.0"
# OpenAI SDK調(diào)用示例。 from openai import OpenAI if __name__ == '__main__': base_url = "https://example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06******/v1" api_key = "<your_apiKey>" # 把<your_apiKey>替換成已獲取的API Key。 client = OpenAI(api_key=api_key, base_url=base_url) response = client.chat.completions.create( model="******", messages=[ {"role": "system", "content": "You are a helpful assistant"}, {"role": "user", "content": "Hello"}, ], max_tokens=1024, temperature=0.6, stream=False ) # Print result. print(response.choices[0].message.content)
模型服務(wù)的API與vLLM相同,表2僅介紹關(guān)鍵參數(shù),詳細(xì)參數(shù)解釋請參見vLLM官網(wǎng)。使用昇騰云909 鏡像 的模型,開啟流式輸出時,需要新增stream_options參數(shù),值為{"include_usage":true},才會打印token數(shù)。
表2 請求參數(shù)說明 參數(shù)
是否必選
默認(rèn)值
參數(shù)類型
描述
url
是
無
Str
調(diào)用時的API地址。假設(shè)URL為https://example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06*****/{endpoint} , 其中{endpoint}僅支持如下接口,詳細(xì)介紹請參見接口調(diào)用說明。
- /v1/chat/completions
- /v1/models
model
是
無
Str
調(diào)用時的模型名稱。
在ModelArts Studio大模型即服務(wù)平臺的“在線推理”頁面,選擇調(diào)用的模型服務(wù),單擊操作列的“更多 > 調(diào)用”,在調(diào)用頁面可以獲取“模型名稱”。
messages
是
-
Array
請求輸入的問題。
messages.role
是
無
Str
不同的role對應(yīng)不同的消息類型。
- system:開發(fā)人員輸入的指令,例如模型應(yīng)遵循的答復(fù)格式、扮演的角色等。
- user:用戶輸入的消息,包括提示詞和上下文信息。
- assistant:模型生成的回復(fù)內(nèi)容。
- tool:模型調(diào)用工具返回的信息。
messages.content
是
無
Str
- 當(dāng)role為system時:給AI模型設(shè)定的人設(shè)。
{"role": "system","content": "你是一個樂于助人的AI助手"} - 當(dāng)role為user時:用戶輸入的問題。
{"role": "user","content": "9.11和9.8哪個大?"} - 當(dāng)role為assistant時:AI模型輸出的答復(fù)內(nèi)容。
{"role": "assistant","content": "9.11大于9.8"} - 當(dāng)role為tool時:AI模型調(diào)用的工具響應(yīng)信息。
{"role": "tool", "content": "上海今天天氣晴,氣溫10度"}
stream_options
否
無
Object
該參數(shù)用于配置在流式輸出時是否展示使用的token數(shù)目。只有當(dāng)stream為True的時候該參數(shù)才會激活生效。如果您需要統(tǒng)計(jì)流式輸出模式下的token數(shù)目,可將該參數(shù)配置為stream_options={"include_usage":True}。
max_tokens
否
16
Int
當(dāng)前任務(wù)允許的生成Token數(shù)上限,包括模型輸出的Tokens和深度思考的Reasoning Tokens。
top_k
否
-1
Int
在生成過程中,候選集大小限定了采樣的范圍。以取值50為例,這意味著每一步僅會考慮得分排在前50位的Token構(gòu)成候選集進(jìn)行隨機(jī)抽樣。增大此值將提高輸出的隨機(jī)性,減小此值會增強(qiáng)輸出的確定性。
top_p
否
1.0
Float
模型核采樣(nucleus sampling)。僅保留累計(jì)概率剛好超過閾值p的那一部分詞,其余全部屏蔽,最后在這份候選詞里重新歸一化并采樣。
設(shè)置值越小,候選詞越少,模型輸出越集中和保守;設(shè)置值越大,候選詞越多,模型輸出越開放和多樣。
通常情況只建議調(diào)整temperature或top_p,不要同時修改兩個參數(shù)。
取值范圍:0~1,設(shè)置為“1”表示考慮所有Tokens。
temperature
否
0.6
Float
模型采樣溫度。設(shè)置的值越高,模型輸出越隨機(jī);設(shè)置的值越低,輸出越確定。
通常情況只建議調(diào)整temperature或top_p,不要同時修改兩個參數(shù)。
temperature取值建議:DeepSeek-R1、DeepSeek-V3、Qwen3系列建議值為0.6,Qwen2.5-VL系列建議值為0.2。
stop
否
None
None/Str/List
用于停止生成的字符串列表。返回的輸出將不包含停止字符串。
例如,設(shè)置為["你","好"]時,在生成文本過程中,遇到“你”或者“好”將停止文本生成。
stream
否
False
Bool
是否開啟流式推理。默認(rèn)為False,表示不開啟流式推理。
n
否
1
Int
為每個輸入的消息生成的響應(yīng)數(shù)。
- 不使用beam_search場景下,n取值建議為1≤n≤10。如果n>1時,必須確保不使用greedy_sample采樣,也就是top_k > 1,temperature > 0。
- 使用beam_search場景下,n取值建議為1<n≤10。如果n=1,會導(dǎo)致推理請求失敗。
說明:n建議取值不超過10,n值過大會導(dǎo)致性能劣化,顯存不足時,推理請求會失敗。
use_beam_search
否
False
Bool
是否使用beam_search替換采樣。
使用該參數(shù)時,如下參數(shù)必須按要求設(shè)置。
- n:大于1
- top_p:1.0
- top_k:-1
- temperature:0.0
presence_penalty
否
0.0
Float
presence_penalty表示會根據(jù)當(dāng)前生成的文本中新出現(xiàn)的詞語進(jìn)行獎懲。取值范圍[-2.0,2.0]。
frequency_penalty
否
0.0
Float
frequency_penalty會根據(jù)當(dāng)前生成的文本中各個詞語的出現(xiàn)頻率進(jìn)行獎懲。取值范圍[-2.0,2.0]。
length_penalty
否
1.0
Float
length_penalty表示在beam search過程中,對于較長的序列,模型會給予較大的懲罰。
使用該參數(shù)時,必須添加如下三個參數(shù),且必須按要求設(shè)置。
- top_k:-1
- use_beam_search:true
- best_of:大于1
- 普通requests包、OpenAI SDK、curl命令的返回示例如下所示:
{ "id": "cmpl-29f7a172056541449eb1f9d31c*****", "object": "chat.completion", "created": 17231*****, "model": "******", "choices": [ { "index": 0, "message": { "role": "assistant", "content": "你好!很高興能為你提供幫助。有什么問題我可以回答或幫你解決嗎?" }, "logprobs": null, "finish_reason": "stop", "stop_reason": null } ], "usage": { "prompt_tokens": 20, "total_tokens": 38, "completion_tokens": 18 } } - 思維鏈模型的返回示例如下所示:
messages = [{"role": "user", "content": "9.11 and 9.8, which is greater?"}] response = client.chat.completions.create(model=model, messages=messages) reasoning_content = response.choices[0].message.reasoning_content content = response.choices[0].message.content print("reasoning_content:", reasoning_content) print("content:", content)
表3 返回參數(shù)說明 參數(shù)
參數(shù)類型
描述
id
Str
請求ID。
object
Str
請求任務(wù)。
created
Int
請求生成的時間戳。
model
Str
調(diào)用的模型名。
choices
Array
模型生成內(nèi)容。
usage
Object
請求輸入長度、輸出長度和總長度。
- prompt_tokens:輸入Tokens數(shù)。
- completion_tokens:輸出Tokens數(shù)。
- total_tokens:總Tokens數(shù)。
總Tokens數(shù) = 輸入Tokens數(shù) + 輸出Tokens數(shù)
reasoning_content
Str
當(dāng)模型支持思維鏈時,模型的思考內(nèi)容。對于支持思維鏈的模型,開啟流式輸出時,會首先在reasoning_content字段輸出思考內(nèi)容,然后在content中輸出回答內(nèi)容。
content
Str
模型的回答內(nèi)容。
當(dāng)調(diào)用失敗時,可以根據(jù)錯誤碼調(diào)整腳本或運(yùn)行環(huán)境。表4 常見錯誤碼 錯誤碼
錯誤內(nèi)容
說明
400
Bad Request
請求包含語法錯誤。
403
Forbidden
服務(wù)器拒絕執(zhí)行。
404
Not Found
服務(wù)器找不到請求的網(wǎng)頁。
500
Internal Server Error
服務(wù)內(nèi)部錯誤。
- Rest API示例代碼如下所示:
內(nèi)容審核說明
- 流式請求
- 如果觸發(fā)內(nèi)容審核,則會返回錯誤:錯誤碼403。您可以通過錯誤碼ModelArts.81011來判斷。返回內(nèi)容如下:
{ "error_code": "ModelArts.81011", "error_msg": "May contain sensitive information, please try again." }圖1 報(bào)錯示例
- 如果未觸發(fā)內(nèi)容審核,則使用postman調(diào)用返回參考如下,返回碼200。
圖2 正常返回示例
- 如果輸出有敏感信息,則會在輸出流后面拼接如下數(shù)據(jù):
data: {"id":"chatcmpl-*********************","object":"chat.completion","created":1678067605,"model":"******","choices":[{"delta":{"content":"這是流式響應(yīng)的開始。"},"index":0}] data: {"id":"chatcmpl-*********************","object":"chat.completion","created":1678067605,"model":"******","choices":[{"delta":{"content":" 繼續(xù)輸出結(jié)果。"},"index":0}] data: {"id":"chatcmpl-*********************","object":"chat.completion","created":1678067605,"model":"******","choices":[{"finish_reason":"content_filter","index":0}]} data: [DONE]觸發(fā)內(nèi)容審核之后,"finish_reason"是"content_filter";正常的流式停止是 "finish_reason":"stop"。
- 如果觸發(fā)內(nèi)容審核,則會返回錯誤:錯誤碼403。您可以通過錯誤碼ModelArts.81011來判斷。返回內(nèi)容如下:
- 非流式請求
接口調(diào)用說明
假設(shè)API地址為https://example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06*****/{endpoint} ,其中{endpoint}僅支持如下接口:
- /v1/chat/completions
- /v1/models
注意:
- /v1/models使用GET方法不需要請求體,而/v1/chat/completions需要POST請求方式和對應(yīng)的JSON請求體。
- 通用請求頭為Authorization: Bearer YOUR_API_KEY,對于POST請求,還需包含Content-Type: application/json。
|
類型/接口 |
/v1/models |
/v1/chat/completions |
|---|---|---|
|
請求方法 |
GET |
POST |
|
用途 |
獲取當(dāng)前支持的模型列表。 |
用于聊天對話型生成調(diào)用。 |
|
請求體說明 |
無需請求體,僅需通過請求頭傳入認(rèn)證信息。 |
|
|
請求示例 |
GET https://example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06*****/v1/models HTTP/1.1 Authorization: Bearer YOUR_API_KEY |
POST https://example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06*****/v1/chat/completions HTTP/1.1
Content-Type: application/json
Authorization: Bearer YOUR_API_KEY
{
"model": "******",
"messages": [
{"role": "user", "content": "Hello, how are you?"}
],
"temperature": 0.7
} |
|
響應(yīng)示例 |
{
"data": [
{
"id": "******",
"description": "最新一代大模型"
},
{
"id": "******",
"description": "性價(jià)比較高的替代方案"
}
]
} |
{
"id": "******",
"object": "chat.completion",
"choices": [
{
"index": 0,
"message": {"role": "assistant", "content": "I'm doing well, thank you! How can I help you today?"}
}
],
"usage": {
"prompt_tokens": 15,
"completion_tokens": 25,
"total_tokens": 40
}
} |
常見問題
在ModelArts Studio(MaaS) 創(chuàng)建API Key后需要等待多久才能生效?
MaaS API Key在創(chuàng)建后不會立即生效,通常需要等待幾分鐘才能生效。
免費(fèi)的ai大模型接入常見問題
更多常見問題 >>-
盤古大模型致力于深耕行業(yè),打造金融、政務(wù)、制造、礦山、氣象、鐵路等領(lǐng)域行業(yè)大模型和能力集,將行業(yè)知識know-how與大模型能力相結(jié)合,重塑千行百業(yè),成為各組織、企業(yè)、個人的專家助手。
-
模型轉(zhuǎn)換,即將開源框架的網(wǎng)絡(luò)模型(如Caffe、TensorFlow等),通過ATC(Ascend Tensor Compiler)模型轉(zhuǎn)換工具,將其轉(zhuǎn)換成昇騰AI處理器支持的離線模型。
-
本次Serverless應(yīng)用中心上線文生圖應(yīng)用,用戶無需下載源代碼、了解各種安裝部署知識、安裝復(fù)雜的依賴,通過華為云Serverless應(yīng)用中心即可一鍵創(chuàng)建AI文生圖應(yīng)用,體驗(yàn) “0” 構(gòu)建門檻、“0” 資源閑置并具備極致彈性的Serverless AI繪圖能力。
-
在自然語言處理(NLP)領(lǐng)域中,使用語言模型預(yù)訓(xùn)練方法在多項(xiàng)NLP任務(wù)上都獲得了不錯的提升,廣泛受到了各界的關(guān)注。本課程將簡單介紹一下預(yù)訓(xùn)練的思想,幾個代表性模型和它們之間的關(guān)系。
-
華為云Serverless技術(shù)極大的優(yōu)化了AI應(yīng)用開發(fā)過程,一鍵部署AI應(yīng)用、提升開發(fā)團(tuán)隊(duì)工作效率。讓AI團(tuán)隊(duì)可以更關(guān)注業(yè)務(wù)實(shí)現(xiàn),而無需關(guān)注底層技術(shù)細(xì)節(jié)。
-
華為云CodeArts Snap是一款基于大模型技術(shù)打造的智能開發(fā)助手,旨在提高開發(fā)人員的生產(chǎn)力和代碼質(zhì)量,為開發(fā)者帶來全新的編程方式和體驗(yàn)。
免費(fèi)的ai大模型接入教程視頻
最佳實(shí)踐視頻幫助您快速了解搭建流程 了解更多
-
基于ModelArts的AI應(yīng)用開發(fā)調(diào)參模型優(yōu)化
精選視頻內(nèi)容,邀您觀看 -
06大規(guī)模并行模型訓(xùn)練
基于Atlas 900 AI集群和深度學(xué)習(xí)訓(xùn)練平臺進(jìn)行BERT網(wǎng)絡(luò)大規(guī)模并行模型訓(xùn)練。 -
NAIE模型訓(xùn)練服務(wù)演示
以數(shù)據(jù)中心PUE優(yōu)化為例進(jìn)行模型訓(xùn)練服務(wù)和數(shù)據(jù)中心PUE優(yōu)化模型生成服務(wù)操作演示,使開發(fā)者快速熟悉NAIE模型訓(xùn)練服務(wù)和數(shù)據(jù)中心PUE優(yōu)化模型生成服務(wù)。
更多相關(guān)專題
- 熱門產(chǎn)品
- 大模型即服務(wù)平臺 MaaS
- Flexus云服務(wù)
- 云服務(wù)器
- 盤古大模型
- SSL證書
- 華為云WeLink
- 實(shí)用工具
- 文字識別
- 漏洞掃描
- 華為云會議
- 云服務(wù)健康看板
增值電信業(yè)務(wù)經(jīng)營許可證:B1.B2-20200593 | 域名注冊服務(wù)機(jī)構(gòu)許可:黔D3-20230001 | 代理域名注冊服務(wù)機(jī)構(gòu):新網(wǎng)、西數(shù)
