檢測到您已登錄華為云國際站賬號,為了您更好的體驗,建議您訪問國際站服務網(wǎng)站 http://m.cqfng.cn/intl/zh-cn
不再顯示此消息
掛載共享目錄 安裝軟件 yum install nfs-utils 掛載SFS Turbo 將SFS Turbo掛載到/opt/Siemens目錄 mkdir /opt/Siemens # 在/etc/fstab中添加開啟自動掛載 echo "192.168.0.15:/ /opt/Siemens
彈性云服務器場景典型應用 創(chuàng)建支持IB網(wǎng)卡的彈性云服務器 配置單個ECS免密登錄 安裝和使用MPI 制作私有鏡像 創(chuàng)建應用集群 配置ECS集群互相免密登錄 在HPC集群上運行MPI應用
【背景】HPC(High-performance computing,高性能計算)是能夠執(zhí)行一般電腦無法處理的大資料量與高速運算的并行計算系統(tǒng),將大規(guī)模運算任務拆分并分發(fā)到各個服務器上進行并行運算,再將計算結(jié)果匯總得到最終結(jié)果,從而實現(xiàn)強大的計算功能。HPC解決方案已經(jīng)廣泛應用于
安裝和使用社區(qū)OpenMPI 操作場景 該任務指導用戶在BMS集群上運行社區(qū)OpenMPI(以4.0.2版本為例))。 前提條件 已配置BMS集群間互相免密登錄。 集群中所有的BMS,均已安裝社區(qū)OpenMPI。 操作步驟 關(guān)閉防火墻。 登錄集群中任意一臺BMS。 執(zhí)行以下命令,關(guān)閉BMS防火墻。
裸金屬服務器場景典型應用 創(chuàng)建裸金屬服務器集群 配置BMS集群互相免密登錄 安裝和使用MPI(X86 BMS場景) 安裝和使用MPI(鯤鵬BMS場景) 在HPC集群上運行MPI應用(X86 BMS場景) 在HPC集群上運行MPI應用(鯤鵬BMS場景)
登錄集群中任意一臺BMS。 執(zhí)行以下命令,添加hosts配置文件。 # vi /etc/hosts 添加的內(nèi)容為集群中所有BMS的私網(wǎng)IP和主機名,例如: 192.168.0.1 bms-0004 192.168.0.2 bms-0005 ... 執(zhí)行以下命令,添加hostfile文件。
RoCE網(wǎng)絡(luò)問題 dtest或rping打流測試網(wǎng)絡(luò)雙向不通問題 問題現(xiàn)象: dtest/rping打流測試網(wǎng)絡(luò)雙向不通問題:A機器作為Server端,B機器作為Client端,dtest/rping測試RoCE網(wǎng)絡(luò)異常;調(diào)換A、B機器角色,B機器作為Server端,A機器作為C
在部署/創(chuàng)建集群過程中,如果出現(xiàn)某個節(jié)點未加入集群或節(jié)點不存在,那么集群將無法正常部署/創(chuàng)建。 處理方法 可刪除集群重新創(chuàng)建,選擇其中創(chuàng)建成功的計算節(jié)點手動綁定EIP,然后和其他計算節(jié)點重新創(chuàng)建集群。 刪除狀態(tài)異常的節(jié)點,從而使集群狀態(tài)恢復正常。 父主題: 常見問題
置文件中“AuthorizedKeysFile”添加了“/usr/local/.hpccluster/role/.ssh/authorized_keys”配置項。 檢查“/usr/local/.hpccluster/role/.ssh/”目錄下的文件,確保該目錄下“authorized_keys”該文件未被刪除。
下載地址:https://developer.nvidia.com/networking/hpc-x 安裝HPC-X工具套件。 將1中下載的HPC-X壓縮包上傳至運行MPI的彈性云服務器內(nèi)。 執(zhí)行以下命令,解壓HPC-X工具套件。 $ tar xvf hpcx-v2.0.0-gcc-MLNX_OFED_LINUX-4
STAR-CCM+使用OpenMPI啟動時,命令中有"-x"和"--mca"導致啟動失敗 問題現(xiàn)象: STAR-CCM+使用OpenMPI啟動時候命令中同時有"-x"和"--mca"會啟動失敗,OpenMPI不支持"-x"參數(shù)和"--mca"同時使用,報錯如下圖所示。 解決方案: 1
隱藏在云計算平臺背后的一種技術(shù)。除了這種技術(shù),云計算平臺還有REST技術(shù),多租戶技術(shù),應用服務器技術(shù)以及分布式緩存技術(shù)等,通過這些技術(shù)為我們提供各種我們想要的服務。 [*]開放性:開放性是云計算平臺區(qū)別于傳統(tǒng)平臺的一個重要特征,在云計算平臺運行中,由于有有不同類型應用、服務接入,
判斷系統(tǒng)是否開啟超線程。 通過查詢系統(tǒng)的物理核數(shù)和邏輯核數(shù)的關(guān)系可以判斷是否開啟多線程,如果:邏輯核數(shù) = 物理核數(shù),說明沒有開超線程;邏輯核數(shù) = 2*物理核數(shù),說明系統(tǒng)開啟了多線程。 Linux系統(tǒng)可以通過查詢/proc/cpuinfo文件得到和cpu相關(guān)的信息,所需要參數(shù)解釋如下: cat
安裝和使用IB驅(qū)動自帶的Open MPI 操作場景 該任務指導用戶在鯤鵬BMS集群上運行IB驅(qū)動自帶的MPI應用(以版本4.0.2a1為例)。 前提條件 已配置BMS集群間互相免密登錄。 集群中所有的BMS,均已安裝IB驅(qū)動自帶的OpenMPI。 操作步驟 關(guān)閉防火墻。 登錄集群中任意一臺BMS。
本節(jié)指導用戶安裝和使用社區(qū)OpenMPI(以3.1.1版本的OpenMPI為例)。 前提條件 已配置彈性云服務器免密登錄。 操作步驟 安裝HPC-X工具套件。 下載需要的HPC-X工具套件以及OpenMPI。 使用社區(qū)OpenMPI時,需要同時使用Mellanox的HPC-X 套件,HPC-X
該任務指導用戶使用制作的私有鏡像創(chuàng)建應用集群,包括管理控制臺方式和基于HTTPS請求的API(Application programming interface)方式。 管理控制臺方式 登錄管理控制臺。 選擇“計算 > 彈性云服務器”。 進入彈性云服務器信息頁面。 單擊“創(chuàng)建彈性云服務器”,開始創(chuàng)建應用集群。
鯤鵬處理器優(yōu)勢1.6胖瘦節(jié)點的區(qū)別和選擇在高性能計算中,有些任務可以進行多計算節(jié)點并行計算,比如用個多節(jié)點刀片,即為瘦節(jié)點;有些任務不能進行并行計算,只能單一節(jié)點計算,這就要用到胖節(jié)點,因此胖節(jié)點一般處理能力強,有強大的處理器和比普通節(jié)點更大的內(nèi)存,網(wǎng)絡(luò)來進行單一任務的計算。瘦節(jié)點一般選用2路CPU,如E9000
登錄集群中任意一臺BMS。 執(zhí)行以下命令,添加hosts配置文件。 # vi /etc/hosts 添加的內(nèi)容為集群中所有BMS的私網(wǎng)IP和主機名,例如: 192.168.0.1 bms-0004 192.168.0.2 bms-0005 ... 執(zhí)行以下命令,添加hostfile文件。
安裝和使用MPI(鯤鵬BMS場景) 該任務指導以CentOS 7.6的操作系統(tǒng)為例在單節(jié)點上運行MPI應用。 鯤鵬裸金屬服務器支持使用的MPI 安裝和使用IB驅(qū)動自帶的Open MPI 安裝和使用社區(qū)OpenMPI 安裝和使用MPICH 父主題: 裸金屬服務器場景典型應用
Intel MPI 操作場景 本節(jié)指導用戶在ECS上安裝和使用Intel MPI應用(以版本l_mpi_2018.0.128為例)。 前提條件 已配置彈性云服務器免密登錄。 操作步驟 安裝Intel MPI。 下載Intel MPI。 下載地址:https://software.intel