檢測到您已登錄華為云國際站賬號(hào),為了您更好的體驗(yàn),建議您訪問國際站服務(wù)網(wǎng)站 http://m.cqfng.cn/intl/zh-cn
不再顯示此消息
實(shí)施步驟 創(chuàng)建HPC私有鏡像 創(chuàng)建彈性云服務(wù)器 配置節(jié)點(diǎn)互信 創(chuàng)建SFS Turbo 掛載共享目錄 通訊錄安裝 MPI安裝 STAR-CCM+安裝與運(yùn)行 父主題: 基于STAR-CCM+部署HPC集群
在HPC集群上運(yùn)行IB驅(qū)動(dòng)自帶的OpenMPI 操作場景 該任務(wù)指導(dǎo)用戶在已配置好的彈性云服務(wù)器上,運(yùn)行IB驅(qū)動(dòng)自帶的MPI應(yīng)用(3.0.0rc6版本)。 前提條件 已成功創(chuàng)建帶IB網(wǎng)卡的彈性云服務(wù)器,并綁定了彈性IP進(jìn)行登錄。 已使用私有鏡像創(chuàng)建多個(gè)彈性云服務(wù)器。 操作步驟 使
E有兩個(gè)協(xié)議版本,v1和v2。其中RoCE v1是一種鏈路層協(xié)議,允許在同一個(gè)廣播域下的任意兩臺(tái)主機(jī)直接訪問。而RoCE v2是一種Internet層協(xié)議,即可以實(shí)現(xiàn)路由功能。雖然RoCE協(xié)議這些好處都是基于融合以太網(wǎng)的特性,但是RoCE協(xié)議也可以使用在傳統(tǒng)以太網(wǎng)網(wǎng)絡(luò)或者非融合以太網(wǎng)絡(luò)中。
MPI安裝 Platform MPI安裝 PlatformMPI使用STAR-CCM+自帶的,不需要安裝。 OpenMPI安裝(可選) 若使用STAR-CCM+自帶的,可不用安裝。 cd /root tar zxvf openmpi-4.0.1.tar.gz cd openmpi-4
Direct Memory Access)是一種直接內(nèi)存訪問技術(shù),它將數(shù)據(jù)直接從一臺(tái)計(jì)算機(jī)的內(nèi)存?zhèn)鬏數(shù)搅硪慌_(tái)計(jì)算機(jī),無需尤其是面對(duì)高性能計(jì)算HPC、大數(shù)據(jù)分析和浪涌型IO高并發(fā)、低時(shí)延應(yīng)用,現(xiàn)有TCP/IP軟硬件架構(gòu)和應(yīng)用高CPU消耗的技術(shù)特征根本不能滿足應(yīng)用的需求。 RDMA優(yōu)勢 零復(fù)制:
集群創(chuàng)建任務(wù)提交失敗,提示“Insufficient EIP quota”怎么辦? 問題描述 集群創(chuàng)建任務(wù)提交失敗,提示“Insufficient EIP quota”。 處理方法 您可以選擇以下任一處理方法: EIP配額不足,創(chuàng)建集群時(shí)“彈性公網(wǎng)IP”可選擇“使用已有”項(xiàng)。 E
協(xié)議的網(wǎng)卡,而RoCE協(xié)議相比于普通的以太協(xié)議最大的優(yōu)勢在于時(shí)延極低,特別適合HPC場景低時(shí)延業(yè)務(wù)。 購買彈性云服務(wù)器 登錄管理控制臺(tái)。 單擊管理控制臺(tái)左上角的,選擇區(qū)域和項(xiàng)目。 單擊"",選擇“計(jì)算 > 彈性云服務(wù)器”。 單擊“購買彈性云服務(wù)器”,系統(tǒng)進(jìn)入購買頁后按圖1步驟進(jìn)行操作。
主要概念 RDMA RoCE 父主題: 附錄
彈性云服務(wù)器場景最佳實(shí)踐 HPC斷點(diǎn)續(xù)算計(jì)算方案 基于STAR-CCM+部署HPC集群
制作私有鏡像 操作場景 對(duì)于已完成HPC配置的彈性云服務(wù)器,您可以將其作為模板制作私有鏡像,便于快速創(chuàng)建集群。該任務(wù)指導(dǎo)用戶怎樣將Linux彈性云服務(wù)器轉(zhuǎn)化為私有鏡像,包括管理控制臺(tái)方式和基于HTTPS請(qǐng)求的API(Application programming interface)方式。
常見問題 RoCE網(wǎng)絡(luò)問題 STAR-CCM+啟動(dòng)相關(guān)問題 父主題: 附錄
在HPC集群上運(yùn)行MPI應(yīng)用(X86 BMS場景) 該任務(wù)指導(dǎo)以CentOS7.3的OS為例在集群上運(yùn)行MPI應(yīng)用。 IB驅(qū)動(dòng)自帶的OpenMPI 社區(qū)OpenMPI Spectrum MPI Intel MPI Platform MPI 父主題: 裸金屬服務(wù)器場景典型應(yīng)用
集群云服務(wù)器節(jié)點(diǎn)創(chuàng)建完成,但在部署過程中失敗了能否修復(fù)? 將集群刪除,不要勾選“刪除云服務(wù)器”,使用已有節(jié)點(diǎn)部署集群的方法重新部署集群。 父主題: 常見問題
安裝和使用MPICH 操作場景 該任務(wù)指導(dǎo)用戶在BMS集群上運(yùn)行MPICH應(yīng)用(mpich-3.3.2版本)。 前提條件 已配置BMS集群間互相免密登錄。 集群中所有的BMS,均已安裝MPICH。 操作步驟 關(guān)閉防火墻。 登錄集群中任意一臺(tái)BMS。 執(zhí)行以下命令,關(guān)閉BMS防火墻。
登錄集群中任意一臺(tái)BMS。 執(zhí)行以下命令,添加hosts配置文件。 # vi /etc/hosts 添加的內(nèi)容為集群中所有BMS的私網(wǎng)IP和主機(jī)名,例如: 192.168.0.1 bms-0004 192.168.0.2 bms-0005 ... 執(zhí)行以下命令,添加hostfile文件。
登錄集群中任意一臺(tái)BMS。 執(zhí)行以下命令,添加hosts配置文件。 # vi /etc/hosts 添加的內(nèi)容為集群中所有BMS的私網(wǎng)IP和主機(jī)名,例如: 192.168.0.1 bms-0004 192.168.0.2 bms-0005 ... 執(zhí)行以下命令,添加hostfile文件。
登錄集群中任意一臺(tái)BMS。 執(zhí)行以下命令,添加hosts配置文件。 # vi /etc/hosts 添加的內(nèi)容為集群中所有BMS的私網(wǎng)IP和主機(jī)名,例如: 192.168.0.1 bms-0004 192.168.0.2 bms-0005 ... 執(zhí)行以下命令,添加hostfile文件。
掛載共享目錄 安裝軟件 yum install nfs-utils 掛載SFS Turbo 將SFS Turbo掛載到/opt/Siemens目錄 mkdir /opt/Siemens # 在/etc/fstab中添加開啟自動(dòng)掛載 echo "192.168.0.15:/ /opt/Siemens
通訊錄安裝 Udapl安裝和測試 Udapl安裝 cd /root wget https://linux.mellanox.com/public/repo/mlnx_ofed/4.1-1.0.2.0/SRPMS/dapl-2.1.10mlnx-OFED.3.4.2.1.0.41102
配置節(jié)點(diǎn)互信 配置節(jié)點(diǎn)互信免密登錄 STAR-CCM+集群運(yùn)行時(shí)候需要跨節(jié)點(diǎn)運(yùn)行,推薦使用互信免密登錄。 # 生成ssh公鑰和私鑰 ssh-key-gen # 拷貝公鑰到指定主機(jī)的~/.ssh/authorized_key文件中 ssh-copy-id root@目標(biāo)主機(jī)IP 例如:ssh-copy-id