1. परिचय

पिछले अपडेट की तारीख: 05-05-2021
आपको क्या बनाना है
इस कोडलैब में, आपको Slurm जॉब शेड्यूलर की मदद से, Google Cloud पर अपने-आप स्केल होने वाला हाई परफ़ॉर्मेंस कंप्यूटिंग (एचपीसी) क्लस्टर डिप्लॉय करना है. आपको Terraform की मदद से डिप्लॉय किए गए किसी उदाहरण का इस्तेमाल करना होगा. यह उदाहरण, Spack के ज़रिए इंस्टॉल किए गए WRF® के साथ इस क्लस्टर को डिप्लॉय करता है. इसके बाद, इस इन्फ़्रास्ट्रक्चर का इस्तेमाल करके, CONUS 2.5 कि॰मी॰ बेंचमार्क या CONUS 12 कि॰मी॰ बेंचमार्क चलाया जाएगा.
आपको क्या सीखने को मिलेगा
- Google Cloud Platform पर एचपीसी क्लस्टर को ऑपरेट करने के लिए, Identity and Access Management (IAM) नीतियां कॉन्फ़िगर करने का तरीका
- Slurm जॉब शेड्यूलर के साथ क्लाउड-नेटिव एचपीसी क्लस्टर को डिप्लॉय करने का तरीका
- Slurm बैच जॉब का इस्तेमाल करके, Google Cloud पर WRF® को पैरलल में चलाने का तरीका
आपको इन चीज़ों की ज़रूरत होगी
- Gmail खाता, जिसमें एसएसएच कुंजी अटैच की गई हो या Google Workspace, Cloud Identity
- बिलिंग की सुविधा चालू वाला Google Cloud Platform प्रोजेक्ट
- आपके GCP प्रोजेक्ट पर मालिक की भूमिका
- Compute Engine का ज़रूरत के मुताबिक कोटा (480 c2 vCPU और 500 जीबी PD-Standard डिस्क)
2. कॉन्फ़िगरेशन
Google Cloud API चालू करना
Google Cloud के संसाधनों को बनाने और उनका इस्तेमाल करने के लिए, एपीआई चालू होने चाहिए.
gcloud services enable compute.googleapis.com
आईएएम नीतियां सेट करना
एचपीसी में, सिस्टम एडमिन और सिस्टम के उपयोगकर्ताओं के बीच अंतर साफ़ तौर पर बताया गया है. सिस्टम एडमिन के पास आम तौर पर "रूट ऐक्सेस" होता है. इससे वे कंप्यूट रिसोर्स को मैनेज और इस्तेमाल कर पाते हैं. सिस्टम के उपयोगकर्ता आम तौर पर शोधकर्ता, वैज्ञानिक, और ऐप्लिकेशन इंजीनियर होते हैं. इन्हें सिर्फ़ काम करने के लिए संसाधनों का इस्तेमाल करना होता है.
Google Cloud पर, OS Login API, Google Workspace, Cloud Identity, और Gmail खातों से POSIX उपयोगकर्ता की जानकारी उपलब्ध कराता है. इसके अलावा, ओएस लॉगिन को GCP के पहचान और ऐक्सेस मैनेजमेंट (IAM) सिस्टम के साथ इंटिग्रेट किया जाता है. इससे यह तय किया जाता है कि उपयोगकर्ताओं को Linux सिस्टम पर खास सुविधाएं इस्तेमाल करने की अनुमति दी जानी चाहिए या नहीं.
इस ट्यूटोरियल में, हम मानकर चल रहे हैं कि आपको सिस्टम एडमिन और Compute Engine एडमिन की भूमिकाएं दी गई हैं. हम IAM नीतियां कॉन्फ़िगर करेंगे, ताकि आपको ये टास्क पूरे करने के लिए ज़रूरी अनुमतियां मिल सकें
- Google Compute Engine (GCE) VM इंस्टेंस बनाना/मिटाना
- GCE वीएम इंस्टेंस में एसएसएच करना

इस ट्यूटोरियल को पूरा करने के लिए, Google Cloud Console में जाकर, खुद को ज़रूरी आईएएम भूमिकाएं असाइन करें:
- 'प्रॉडक्ट और सेवाएं' मेन्यू में, IAM और एडमिन > IAM पर जाएं.
- पेज पर सबसे ऊपर मौजूद, "+जोड़ें" पर क्लिक करें.
- "नए सदस्य" में जाकर, अपना Google Workspace खाता, Cloud Identity खाता या Gmail खाता डालें
- ये भूमिकाएं जोड़ें : Compute Admin, Compute OS Login, और Service Account User
- 'सेव करें' पर क्लिक करें
आपके लॉगिन के पास अब एचपीसी क्लस्टर बनाने के लिए ज़रूरी अनुमतियां हैं.
यह पुष्टि करने के लिए कि आपने सही भूमिकाएं असाइन की हैं, Cloud Shell खोलें और यहां दी गई कमांड चलाएं. साथ ही, YOUR_PROJECT और EMAIL_ADDRESS को अपने प्रोजेक्ट और ईमेल पते से बदलें.
$ gcloud projects get-iam-policy YOUR_PROJECT --flatten="bindings[].members" --format='table(bindings.role)' --filter="bindings.members=user:EMAIL_ADDRESS"
इस कमांड से यह आउटपुट मिलेगा:
ROLE roles/compute.osLogin roles/iam.serviceAccountUser roles/compute.admin
3. कम कोटा: Terraform की मदद से, ऑटो-स्केलिंग वाला एचपीसी क्लस्टर डिप्लॉय करना
इस सेक्शन में, आपको Slurm जॉब शेड्यूलर के साथ ऑटो-स्केलिंग वाला एचपीसी क्लस्टर डिप्लॉय करना होगा. यह विकल्प, ज़्यादा कोटा वाले विकल्प की तरह ही होता है. हालांकि, इसमें इस्तेमाल किया गया मशीन टाइप छोटा होता है और इस्तेमाल किए गए vCPU की संख्या भी कम होती है.
- GCP पर Cloud Shell खोलें.
- FluidNumerics/slurm-gcp रिपॉज़िटरी को क्लोन करें
cd ~ git clone https://github.com/FluidNumerics/slurm-gcp.git
- WRF डायरेक्ट्री पर जाएं:
cd ~/slurm-gcp/tf/examples/wrf
- टेराफ़ॉर्म प्लान बनाना और उसकी समीक्षा करना. अपने क्लस्टर, GCP प्रोजेक्ट, और उस ज़ोन का नाम तय करने के लिए, एनवायरमेंट वैरिएबल
WRF_NAME,WRF_PROJECT, औरWRF_ZONEसेट करें जहां आपको डिप्लॉय करना है.
export WRF_PROJECT=<PROJECT ID> export WRF_ZONE=<ZONE> export WRF_NAME="wrf-small"
- पहली बार Terraform चलाने के लिए, आपको
initकमांड चलानी होगी:
terraform init
- मेक कमांड की मदद से प्लान बनाएं. इससे
terraformचलेगा
make plan
- क्लस्टर डिप्लॉय करें. इसे इंस्टॉल और सेट अप करने में दो घंटे तक लग सकते हैं. डप्लॉयमेंट के दौरान, WRF और उसकी सभी डिपेंडेंसी इंस्टॉल की जाएंगी.
make apply
- पिछले चरण में बनाए गए login नोड से एसएसएच करें. आपको यह नोड पिछले चरण में दिखेगा. इसका नाम शायद wrf-small-login0 होगा. इसके लिए, कंसोल मेन्यू आइटम Compute Engine -> वीएम इंस्टेंस में जाकर, वीएम इंस्टेंस की सूची के बगल में मौजूद एसएसएच बटन पर क्लिक करें.
विकल्प: gcloud कमांड की यह जोड़ी, लॉगिन नोड का नाम पता करेगी और इसमें एसएसएच करेगी:
export CLUSTER_LOGIN_NODE=$(gcloud compute instances list --zones ${WRF_ZONE} --filter="name ~ .*login" --format="value(name)" | head -n1)
gcloud compute ssh ${CLUSTER_LOGIN_NODE} --zone ${WRF_ZONE}
- लॉगिन नोड से कनेक्ट होने के बाद, अपने क्लस्टर सेटअप की पुष्टि करने के लिए, देखें कि wrf मॉड्यूल उपलब्ध है या नहीं.
$ module load gcc && module load openmpi && module avail -------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/openmpi/4.0.5-eagetxh/gcc/9.2.0 -------------------------------------- hdf5/1.10.7 netcdf-c/4.7.4 netcdf-fortran/4.5.3 parallel-netcdf/1.12.1 wrf/4.2 ------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/gcc/9.2.0 ------------------------------------------------- hwloc/2.2.0 libiconv/1.16 libpng/1.6.37 nasm/2.15.05 openmpi/4.0.5 (L,D) time/1.9 zlib/1.2.11 jasper/2.0.16 libjpeg-turbo/2.0.4 libtirpc/1.2.6 ncurses/5.9.20130511 perl/5.16.3 util-macros/1.19.1 krb5/1.15.1 libpciaccess/0.16 libxml2/2.9.10 numactl/2.0.14 tcsh/6.22.02 xz/5.2.2 --------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/Core ---------------------------------------------------- gcc/9.2.0 (L) ---------------------------------------------------------------------- /apps/modulefiles ---------------------------------------------------------------------- openmpi/v4.1.x
- पुष्टि करें कि
/apps/share/conus-12kmमें यहां दिया गया कॉन्टेंट मौजूद है.
$ ls -1 /apps/share/conus-12km/ FILE:2018-06-17_00 FILE:2018-06-17_03 FILE:2018-06-17_06 FILE:2018-06-17_09 FILE:2018-06-17_12 geo_em.d01.nc geogrid.log met_em.d01.2018-06-17_00:00:00.nc met_em.d01.2018-06-17_03:00:00.nc met_em.d01.2018-06-17_06:00:00.nc met_em.d01.2018-06-17_09:00:00.nc met_em.d01.2018-06-17_12:00:00.nc metgrid.log namelist.input namelist.wps ungrib.log wrfbdy_d01 wrfinput_d01
4. CONUS 12 कि॰मी॰ का बेंचमार्क चलाएं
CONUS 12km बेंचमार्क को चलाने के लिए, आपको Slurm बैच जॉब सबमिट करना होगा. इस बेंचमार्क के लिए इनपुट डेक, wrf-gcp VM इमेज में /apps/share/benchmarks/conus-12km फ़ोल्डर में शामिल किए गए हैं.
इस सेक्शन के लिए, आपको क्लस्टर के login नोड से एसएसएच कनेक्ट करना होगा
- /apps/share से wrf-conus.sh बैच फ़ाइल का उदाहरण कॉपी करें
cp /apps/share/wrf-conus12.sh ~/
--partitionऔर--ntasksकी वैल्यू सही तरीके से सेट की गई हैं या नहीं, यह देखने के लिए टेक्स्ट एडिटर में wrf-conus.sh फ़ाइल खोलें. टास्क की संख्या, उतनी होनी चाहिए जितनी MPI रैंक का इस्तेमाल करके आपको जॉब लॉन्च करनी है. इस डेमो के लिए, टास्क की संख्या, जॉब के लिए इस्तेमाल किए गए vCPU की संख्या के बराबर है. यह आपके उपलब्ध कोटे से ज़्यादा नहीं होनी चाहिए.
#!/bin/bash
#SBATCH --partition=wrf
#SBATCH --ntasks=24
#SBATCH --ntasks-per-node=8
#SBATCH --mem-per-cpu=2g
#SBATCH --cpus-per-task=1
#SBATCH --account=default
#
# /////////////////////////////////////////////// #
WORK_PATH=${HOME}/wrf-benchmark/
SRUN_FLAGS="-n $SLURM_NTASKS --cpu-bind=threads"
. /apps/share/spack.sh
module load gcc/9.2.0
module load openmpi
module load hdf5 netcdf-c netcdf-fortran wrf
mkdir -p ${WORK_PATH}
cd ${WORK_PATH}
ln -s ${INSTALL_ROOT}/share/conus-12km/* .
ln -s $(spack location -i wrf)/run/* .
srun $MPI_FLAGS ./wrf.exe
- sbatch का इस्तेमाल करके, बैच जॉब सबमिट करें.
sbatch wrf-conus12.sh
- जॉब पूरा होने तक इंतज़ार करें. इस बेंचमार्क को छह घंटे के पूर्वानुमान के लिए कॉन्फ़िगर किया गया है. इसमें 24 रैंक के साथ, करीब तीन घंटे लगते हैं.
squeueकी मदद से, नौकरी के आवेदन की स्थिति देखी जा सकती है. - जब जॉब पूरा हो जाए, तब rsl.out.0000 के कॉन्टेंट की जांच करें. इससे यह पुष्टि की जा सकेगी कि आपको "wrf: SUCCESS COMPLETE WRF" स्टेटमेंट दिख रहा है. अगर आपने इस जॉब को एक से ज़्यादा बार चलाया है, तो संख्यात्मक सफ़िक्स अलग होगा. उदाहरण के लिए, आपने कॉन्फ़िगरेशन सेटिंग गलत तरीके से की है और आपको इसे फिर से चलाना पड़ा.
$ tail -n1 ${HOME}/wrf-benchmark/rsl.out.0000
d01 2018-06-17_06:00:00 wrf: SUCCESS COMPLETE WRF
5. ज़्यादा कोटा: Terraform की मदद से, ऑटो-स्केलिंग वाला एचपीसी क्लस्टर डिप्लॉय करना
इस सेक्शन में, आपको GCP में Slurm जॉब शेड्यूलर के साथ ऑटो-स्केलिंग वाला एचपीसी क्लस्टर डिप्लॉय करना होगा.
- GCP पर Cloud Shell खोलें.
- FluidNumerics/slurm-gcp रिपॉज़िटरी को क्लोन करें
cd ~ git clone https://github.com/FluidNumerics/slurm-gcp.git
- WRF डायरेक्ट्री पर जाएं:
cd ~/slurm-gcp/tf/examples/wrf
- टेराफ़ॉर्म प्लान बनाना और उसकी समीक्षा करना. अपने क्लस्टर का नाम, GCP प्रोजेक्ट, डिप्लॉय करने के लिए ज़ोन, नोड की ज़्यादा से ज़्यादा संख्या, और मशीन टाइप तय करने के लिए, एनवायरमेंट वैरिएबल
WRF_NAME,WRF_PROJECT,WRF_ZONE,WRF_MAX_NODE, औरWRF_MACHINE_TYPEसेट करें. CONUS 2.5 कि॰मी॰ के बेंचमार्क के लिए, हमारा सुझाव है कि कम से कम 8 नोड वाले c2-standard-60 इंस्टेंस का इस्तेमाल करें. इससे 480 MPI रैंक के साथ जॉब चलाए जा सकते हैं.
export WRF_PROJECT=<PROJECT ID> export WRF_ZONE=<ZONE> export WRF_NAME=wrf-large export WRF_MAX_NODE=5 export WRF_MACHINE_TYPE="c2-standard-60"
- अगर आपने ऊपर दिए गए तरीके से ऐसा नहीं किया है, तो terraform शुरू करने के लिए, आपको
terraform initचलाना होगा:
terraform init
- मेक कमांड की मदद से प्लान बनाएं.
make plan
- क्लस्टर डिप्लॉय करें. इसे इंस्टॉल और सेट अप करने में दो घंटे तक लग सकते हैं. डप्लॉयमेंट के दौरान, WRF और उसकी सभी डिपेंडेंसी इंस्टॉल की जाएंगी.
make apply
- पिछले चरण में बनाए गए login नोड से एसएसएच करें. आपको यह नोड पिछले चरण में दिखेगा. इसका नाम शायद wrf-large-login0 होगा. इसके लिए, कंसोल मेन्यू आइटम Compute Engine -> वीएम इंस्टेंस में जाकर, वीएम इंस्टेंस की सूची के बगल में मौजूद एसएसएच बटन पर क्लिक करें.
विकल्प: gcloud कमांड की यह जोड़ी, लॉगिन नोड का नाम पता करेगी और इसमें एसएसएच करेगी:
export CLUSTER_LOGIN_NODE=$(gcloud compute instances list --zones ${WRF_ZONE} --filter="name ~ .*login" --format="value(name)" | head -n1)
gcloud compute ssh ${CLUSTER_LOGIN_NODE} --zone ${WRF_ZONE}
दूसरे निर्देश से, आपको Slurm Login नोड से कनेक्ट होना चाहिए.
- लॉगिन नोड से कनेक्ट होने के बाद, अपने क्लस्टर सेटअप की पुष्टि करने के लिए, देखें कि wrf मॉड्यूल उपलब्ध है या नहीं.
$ module load gcc && module load openmpi && module avail -------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/openmpi/4.0.5-eagetxh/gcc/9.2.0 -------------------------------------- hdf5/1.10.7 netcdf-c/4.7.4 netcdf-fortran/4.5.3 parallel-netcdf/1.12.1 wrf/4.2 ------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/gcc/9.2.0 ------------------------------------------------- hwloc/2.2.0 libiconv/1.16 libpng/1.6.37 nasm/2.15.05 openmpi/4.0.5 (L,D) time/1.9 zlib/1.2.11 jasper/2.0.16 libjpeg-turbo/2.0.4 libtirpc/1.2.6 ncurses/5.9.20130511 perl/5.16.3 util-macros/1.19.1 krb5/1.15.1 libpciaccess/0.16 libxml2/2.9.10 numactl/2.0.14 tcsh/6.22.02 xz/5.2.2 --------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/Core ---------------------------------------------------- gcc/9.2.0 (L) ---------------------------------------------------------------------- /apps/modulefiles ---------------------------------------------------------------------- openmpi/v4.1.x
- पुष्टि करें कि
/apps/share/conus-2.5kmमें यहां दिया गया कॉन्टेंट मौजूद है.
$ ls -1 /apps/share/conus-2.5km FILE:2018-06-17_00 FILE:2018-06-17_03 FILE:2018-06-17_06 FILE:2018-06-17_09 FILE:2018-06-17_12 geo_em.d01.nc geogrid.log gfs.0p25.2018061700.f000.grib2 gfs.0p25.2018061700.f003.grib2 gfs.0p25.2018061700.f006.grib2 gfs.0p25.2018061700.f009.grib2 gfs.0p25.2018061700.f012.grib2 met_em.d01.2018-06-17_00:00:00.nc met_em.d01.2018-06-17_03:00:00.nc met_em.d01.2018-06-17_06:00:00.nc met_em.d01.2018-06-17_09:00:00.nc met_em.d01.2018-06-17_12:00:00.nc metgrid.log namelist.input namelist.wps ungrib.log wrfbdy_d01 wrfinput_d01
6. CONUS 2.5 कि॰मी॰ का बेंचमार्क चलाएं
CONUS 2.5km बेंचमार्क को चलाने के लिए, आपको Slurm बैच जॉब सबमिट करना होगा. इस बेंचमार्क के लिए इनपुट डेक, wrf-gcp VM इमेज में /apps/share/benchmarks/conus-2.5km के तहत शामिल किए गए हैं.
इस सेक्शन के लिए, आपको क्लस्टर के login नोड से एसएसएच कनेक्ट करना होगा
- /apps/share से wrf-conus.sh बैच फ़ाइल का उदाहरण कॉपी करें
cp /apps/share/wrf-conus2p5.sh ~/
--partitionऔर--ntasksकी वैल्यू सही तरीके से सेट की गई हैं या नहीं, यह देखने के लिए टेक्स्ट एडिटर में wrf-conus.sh फ़ाइल खोलें. पार्टिशन को c2-60 पर सेट किया जाना चाहिए. टास्क की संख्या, उतनी होनी चाहिए जितनी MPI रैंक का इस्तेमाल करके आपको जॉब लॉन्च करनी है. इस डेमो के लिए, टास्क की संख्या, नौकरी के लिए इस्तेमाल किए गए vCPU की संख्या के बराबर है. साथ ही, यह आपके उपलब्ध कोटे से ज़्यादा नहीं होनी चाहिए.
#!/bin/bash
#SBATCH --partition=c2-60
#SBATCH --ntasks=480
#SBATCH --ntasks-per-node=60
#SBATCH --mem-per-cpu=2g
#SBATCH --cpus-per-task=1
#SBATCH --account=default
#
# /////////////////////////////////////////////// #
WORK_PATH=${HOME}/wrf-benchmark/
SRUN_FLAGS="-n $SLURM_NTASKS --cpu-bind=threads"
. /apps/share/spack.sh
module load gcc/9.2.0
module load openmpi
module load hdf5 netcdf-c netcdf-fortran wrf
mkdir -p ${WORK_PATH}
cd ${WORK_PATH}
ln -s ${INSTALL_ROOT}/share/conus-2.5km/* .
ln -s $(spack location -i wrf)/run/* .
srun $MPI_FLAGS ./wrf.exe
- sbatch का इस्तेमाल करके, बैच जॉब सबमिट करें.
sbatch wrf-conus2p5.sh
- जॉब पूरा होने तक इंतज़ार करें. इस बेंचमार्क को छह घंटे के पूर्वानुमान के लिए कॉन्फ़िगर किया गया है. इसमें 480 रैंक के साथ, करीब एक घंटा लगता है.
squeueकी मदद से, नौकरी के आवेदन की स्थिति देखी जा सकती है. - जब जॉब पूरा हो जाए, तब rsl.out.0000 के कॉन्टेंट की जांच करें. इससे यह पुष्टि की जा सकेगी कि आपको "wrf: SUCCESS COMPLETE WRF" स्टेटमेंट दिख रहा है. अगर आपने नौकरी को एक से ज़्यादा बार चलाया है, तो संख्यात्मक प्रत्यय अलग होगा. उदाहरण के लिए, आपने कॉन्फ़िगरेशन सेटिंग गलत तरीके से की है और आपको इसे फिर से चलाना पड़ा.
$ tail -n1 ${HOME}/wrf-benchmark/rsl.out.0000
d01 2018-06-17_06:00:00 wrf: SUCCESS COMPLETE WRF
7. बधाई हो
इस कोडलैब में, आपने ऑटो-स्केलिंग की सुविधा वाला, क्लाउड-नेटिव एचपीसी क्लस्टर बनाया. साथ ही, Google Cloud Platform पर पैरलल WRF® सिमुलेशन चलाया!
स्टोरेज खाली करना
इस कोडलैब में इस्तेमाल किए गए संसाधनों के लिए, अपने Google Cloud Platform खाते से शुल्क न लिए जाने के लिए:
प्रोजेक्ट मिटाना
बिलिंग को बंद करने का सबसे आसान तरीका यह है कि आप उस प्रोजेक्ट को मिटा दें जिसे आपने कोडलैब के लिए बनाया था.
चेतावनी: किसी प्रोजेक्ट को मिटाने पर ये असर होते हैं:
- प्रोजेक्ट में मौजूद सभी आइटम मिट जाते हैं. अगर आपने इस कोडलैब के लिए किसी मौजूदा प्रोजेक्ट का इस्तेमाल किया है, तो उसे मिटाने पर, प्रोजेक्ट में किया गया आपका अन्य काम भी मिट जाएगा.
- कस्टम प्रोजेक्ट आईडी मिट जाते हैं. ऐसा हो सकता है कि आपने यह प्रोजेक्ट बनाते समय, कोई कस्टम प्रोजेक्ट आईडी बनाया हो और आपको उसे आने वाले समय में इस्तेमाल करना हो. प्रोजेक्ट आईडी का इस्तेमाल करने वाले यूआरएल को बनाए रखने के लिए, पूरे प्रोजेक्ट को मिटाने के बजाय, प्रोजेक्ट में मौजूद चुने गए संसाधनों को मिटाएं. जैसे, appspot.com यूआरएल.
अगर आपको कई कोडलैब और क्विकस्टार्ट आज़माने हैं, तो प्रोजेक्ट का दोबारा इस्तेमाल करने से, प्रोजेक्ट के कोटे की सीमाएं पार करने से बचा जा सकता है.
- Cloud Console में, संसाधन मैनेज करें पेज पर जाएं. संसाधन मैनेज करें पेज पर जाएं
- प्रोजेक्ट की सूची में, वह प्रोजेक्ट चुनें जिसे आपको मिटाना है. इसके बाद, मिटाएं
पर क्लिक करें. - डायलॉग बॉक्स में, प्रोजेक्ट आईडी टाइप करें. इसके बाद, प्रोजेक्ट मिटाने के लिए बंद करें पर क्लिक करें.
एक-एक करके संसाधन मिटाएं
- Cloud Shell खोलें और wrf उदाहरण डायरेक्ट्री पर जाएं
cd ~/slurm-gcp/tf/examples/wrf
- सभी संसाधनों को मिटाने के लिए, make destroy कमांड चलाएं.
make destroy