如何自行編譯 HPL-GPU 來測試 Benchmark
構建 NVIDIA CUDA Linpack 環境執行環境非常困難,網路上訊息非常少,然後linkpack測試更新版本已經有一段時間,記錄實作主要參考「Hybrid HPL(GPU版HPL)安装教程」與「AWS-GPUとスパコンを比較する方法-スパコン用ベンチマークソフトを動かしてみる」兩個文章教學,並嘗試運行現在環境支援的版本,部署過程記錄。
構建 NVIDIA CUDA Linpack 環境執行環境非常困難,網路上訊息非常少,然後linkpack測試更新版本已經有一段時間,記錄實作主要參考「Hybrid HPL(GPU版HPL)安装教程」與「AWS-GPUとスパコンを比較する方法-スパコン用ベンチマークソフトを動かしてみる」兩個文章教學,並嘗試運行現在環境支援的版本,部署過程記錄。
Kubeflow 是由 Google 與相關公司共同發起的開源專案,其目標是利用 Kubernetes 容器平台來簡化機器學習的建置與執行過程,使之更簡單、可重複的攜帶性與可擴展,並提供一套標準的雲原生(Cloud Native)機器學習解決方案,以幫助演算法科學家專注在模型開發本身,而由於 Kubeflow 以 Kubernetes 做基礎,因此只要有 Kubernetes 地方就能夠快速部署並執行。
此文章將記錄透過安裝 Microk8s ,在本地機器上輕鬆部署 kubernetes 集群,並且透過運行腳本讓 kubeflow 環境一起部署完成。最後您將擁有簡易的單節點 Kubernetes 集群以及在 Pod 中部署為服務的 Kubeflow 的所有默認核心組件。並且能訪問 JupyterHub 筆記本和 Kubeflow Dashboard,進行相關測試。