फ़्लुइड अंकों की मदद से WRF मौसम पूर्वानुमान मॉडल चलाएं' Slurm-GCP

1. परिचय

कॉन्टिनेंटल अमेरिका

पिछले अपडेट की तारीख: 05-05-2021

आपको क्या बनाना है

इस कोडलैब में, आपको Slurm जॉब शेड्यूलर की मदद से, Google Cloud पर अपने-आप स्केल होने वाला हाई परफ़ॉर्मेंस कंप्यूटिंग (एचपीसी) क्लस्टर डिप्लॉय करना है. आपको Terraform की मदद से डिप्लॉय किए गए किसी उदाहरण का इस्तेमाल करना होगा. यह उदाहरण, Spack के ज़रिए इंस्टॉल किए गए WRF® के साथ इस क्लस्टर को डिप्लॉय करता है. इसके बाद, इस इन्फ़्रास्ट्रक्चर का इस्तेमाल करके, CONUS 2.5 कि॰मी॰ बेंचमार्क या CONUS 12 कि॰मी॰ बेंचमार्क चलाया जाएगा.

आपको क्या सीखने को मिलेगा

  • Google Cloud Platform पर एचपीसी क्लस्टर को ऑपरेट करने के लिए, Identity and Access Management (IAM) नीतियां कॉन्फ़िगर करने का तरीका
  • Slurm जॉब शेड्यूलर के साथ क्लाउड-नेटिव एचपीसी क्लस्टर को डिप्लॉय करने का तरीका
  • Slurm बैच जॉब का इस्तेमाल करके, Google Cloud पर WRF® को पैरलल में चलाने का तरीका

आपको इन चीज़ों की ज़रूरत होगी

2. कॉन्फ़िगरेशन

Google Cloud API चालू करना

Google Cloud के संसाधनों को बनाने और उनका इस्तेमाल करने के लिए, एपीआई चालू होने चाहिए.

gcloud services enable compute.googleapis.com 

आईएएम नीतियां सेट करना

एचपीसी में, सिस्टम एडमिन और सिस्टम के उपयोगकर्ताओं के बीच अंतर साफ़ तौर पर बताया गया है. सिस्टम एडमिन के पास आम तौर पर "रूट ऐक्सेस" होता है. इससे वे कंप्यूट रिसोर्स को मैनेज और इस्तेमाल कर पाते हैं. सिस्टम के उपयोगकर्ता आम तौर पर शोधकर्ता, वैज्ञानिक, और ऐप्लिकेशन इंजीनियर होते हैं. इन्हें सिर्फ़ काम करने के लिए संसाधनों का इस्तेमाल करना होता है.

Google Cloud पर, OS Login API, Google Workspace, Cloud Identity, और Gmail खातों से POSIX उपयोगकर्ता की जानकारी उपलब्ध कराता है. इसके अलावा, ओएस लॉगिन को GCP के पहचान और ऐक्सेस मैनेजमेंट (IAM) सिस्टम के साथ इंटिग्रेट किया जाता है. इससे यह तय किया जाता है कि उपयोगकर्ताओं को Linux सिस्टम पर खास सुविधाएं इस्तेमाल करने की अनुमति दी जानी चाहिए या नहीं.

इस ट्यूटोरियल में, हम मानकर चल रहे हैं कि आपको सिस्टम एडमिन और Compute Engine एडमिन की भूमिकाएं दी गई हैं. हम IAM नीतियां कॉन्फ़िगर करेंगे, ताकि आपको ये टास्क पूरे करने के लिए ज़रूरी अनुमतियां मिल सकें

  • Google Compute Engine (GCE) VM इंस्टेंस बनाना/मिटाना
  • GCE वीएम इंस्टेंस में एसएसएच करना

57883cb8acc09653.png

इस ट्यूटोरियल को पूरा करने के लिए, Google Cloud Console में जाकर, खुद को ज़रूरी आईएएम भूमिकाएं असाइन करें:

  1. 'प्रॉडक्ट और सेवाएं' मेन्यू में, IAM और एडमिन > IAM पर जाएं.
  2. पेज पर सबसे ऊपर मौजूद, "+जोड़ें" पर क्लिक करें.
  3. "नए सदस्य" में जाकर, अपना Google Workspace खाता, Cloud Identity खाता या Gmail खाता डालें
  4. ये भूमिकाएं जोड़ें : Compute Admin, Compute OS Login, और Service Account User
  5. 'सेव करें' पर क्लिक करें

आपके लॉगिन के पास अब एचपीसी क्लस्टर बनाने के लिए ज़रूरी अनुमतियां हैं.

यह पुष्टि करने के लिए कि आपने सही भूमिकाएं असाइन की हैं, Cloud Shell खोलें और यहां दी गई कमांड चलाएं. साथ ही, YOUR_PROJECT और EMAIL_ADDRESS को अपने प्रोजेक्ट और ईमेल पते से बदलें.

$ gcloud projects get-iam-policy YOUR_PROJECT --flatten="bindings[].members" --format='table(bindings.role)' --filter="bindings.members=user:EMAIL_ADDRESS"

इस कमांड से यह आउटपुट मिलेगा:

ROLE
roles/compute.osLogin
roles/iam.serviceAccountUser
roles/compute.admin

3. कम कोटा: Terraform की मदद से, ऑटो-स्केलिंग वाला एचपीसी क्लस्टर डिप्लॉय करना

इस सेक्शन में, आपको Slurm जॉब शेड्यूलर के साथ ऑटो-स्केलिंग वाला एचपीसी क्लस्टर डिप्लॉय करना होगा. यह विकल्प, ज़्यादा कोटा वाले विकल्प की तरह ही होता है. हालांकि, इसमें इस्तेमाल किया गया मशीन टाइप छोटा होता है और इस्तेमाल किए गए vCPU की संख्या भी कम होती है.

  1. GCP पर Cloud Shell खोलें.
  2. FluidNumerics/slurm-gcp रिपॉज़िटरी को क्लोन करें
cd ~
git clone https://github.com/FluidNumerics/slurm-gcp.git
  1. WRF डायरेक्ट्री पर जाएं:
cd  ~/slurm-gcp/tf/examples/wrf
  1. टेराफ़ॉर्म प्लान बनाना और उसकी समीक्षा करना. अपने क्लस्टर, GCP प्रोजेक्ट, और उस ज़ोन का नाम तय करने के लिए, एनवायरमेंट वैरिएबल WRF_NAME, WRF_PROJECT, और WRF_ZONE सेट करें जहां आपको डिप्लॉय करना है.
export WRF_PROJECT=<PROJECT ID>
export WRF_ZONE=<ZONE>
export WRF_NAME="wrf-small"
  1. पहली बार Terraform चलाने के लिए, आपको init कमांड चलानी होगी:
terraform init
  1. मेक कमांड की मदद से प्लान बनाएं. इससे terraform चलेगा
make plan
  1. क्लस्टर डिप्लॉय करें. इसे इंस्टॉल और सेट अप करने में दो घंटे तक लग सकते हैं. डप्लॉयमेंट के दौरान, WRF और उसकी सभी डिपेंडेंसी इंस्टॉल की जाएंगी.
make apply
  1. पिछले चरण में बनाए गए login नोड से एसएसएच करें. आपको यह नोड पिछले चरण में दिखेगा. इसका नाम शायद wrf-small-login0 होगा. इसके लिए, कंसोल मेन्यू आइटम Compute Engine -> वीएम इंस्टेंस में जाकर, वीएम इंस्टेंस की सूची के बगल में मौजूद एसएसएच बटन पर क्लिक करें.

विकल्प: gcloud कमांड की यह जोड़ी, लॉगिन नोड का नाम पता करेगी और इसमें एसएसएच करेगी:

export CLUSTER_LOGIN_NODE=$(gcloud compute instances list --zones ${WRF_ZONE} --filter="name ~ .*login" --format="value(name)" | head -n1)

gcloud compute ssh ${CLUSTER_LOGIN_NODE} --zone ${WRF_ZONE}

  1. लॉगिन नोड से कनेक्ट होने के बाद, अपने क्लस्टर सेटअप की पुष्टि करने के लिए, देखें कि wrf मॉड्यूल उपलब्ध है या नहीं.
$ module load gcc && module load openmpi && module avail
-------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/openmpi/4.0.5-eagetxh/gcc/9.2.0 --------------------------------------
   hdf5/1.10.7    netcdf-c/4.7.4    netcdf-fortran/4.5.3    parallel-netcdf/1.12.1    wrf/4.2

------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/gcc/9.2.0 -------------------------------------------------
   hwloc/2.2.0      libiconv/1.16          libpng/1.6.37     nasm/2.15.05            openmpi/4.0.5 (L,D)    time/1.9              zlib/1.2.11
   jasper/2.0.16    libjpeg-turbo/2.0.4    libtirpc/1.2.6    ncurses/5.9.20130511    perl/5.16.3            util-macros/1.19.1
   krb5/1.15.1      libpciaccess/0.16      libxml2/2.9.10    numactl/2.0.14          tcsh/6.22.02           xz/5.2.2

--------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/Core ----------------------------------------------------
   gcc/9.2.0 (L)

---------------------------------------------------------------------- /apps/modulefiles ----------------------------------------------------------------------
   openmpi/v4.1.x
  1. पुष्टि करें कि /apps/share/conus-12km में यहां दिया गया कॉन्टेंट मौजूद है.
$  ls -1 /apps/share/conus-12km/
FILE:2018-06-17_00
FILE:2018-06-17_03
FILE:2018-06-17_06
FILE:2018-06-17_09
FILE:2018-06-17_12
geo_em.d01.nc
geogrid.log
met_em.d01.2018-06-17_00:00:00.nc
met_em.d01.2018-06-17_03:00:00.nc
met_em.d01.2018-06-17_06:00:00.nc
met_em.d01.2018-06-17_09:00:00.nc
met_em.d01.2018-06-17_12:00:00.nc
metgrid.log
namelist.input
namelist.wps
ungrib.log
wrfbdy_d01
wrfinput_d01

4. CONUS 12 कि॰मी॰ का बेंचमार्क चलाएं

CONUS 12km बेंचमार्क को चलाने के लिए, आपको Slurm बैच जॉब सबमिट करना होगा. इस बेंचमार्क के लिए इनपुट डेक, wrf-gcp VM इमेज में /apps/share/benchmarks/conus-12km फ़ोल्डर में शामिल किए गए हैं.

इस सेक्शन के लिए, आपको क्लस्टर के login नोड से एसएसएच कनेक्ट करना होगा

  1. /apps/share से wrf-conus.sh बैच फ़ाइल का उदाहरण कॉपी करें
cp /apps/share/wrf-conus12.sh ~/
  1. --partition और --ntasks की वैल्यू सही तरीके से सेट की गई हैं या नहीं, यह देखने के लिए टेक्स्ट एडिटर में wrf-conus.sh फ़ाइल खोलें. टास्क की संख्या, उतनी होनी चाहिए जितनी MPI रैंक का इस्तेमाल करके आपको जॉब लॉन्च करनी है. इस डेमो के लिए, टास्क की संख्या, जॉब के लिए इस्तेमाल किए गए vCPU की संख्या के बराबर है. यह आपके उपलब्ध कोटे से ज़्यादा नहीं होनी चाहिए.
#!/bin/bash
#SBATCH --partition=wrf
#SBATCH --ntasks=24
#SBATCH --ntasks-per-node=8
#SBATCH --mem-per-cpu=2g
#SBATCH --cpus-per-task=1
#SBATCH --account=default
#
# /////////////////////////////////////////////// #

WORK_PATH=${HOME}/wrf-benchmark/
SRUN_FLAGS="-n $SLURM_NTASKS --cpu-bind=threads"

. /apps/share/spack.sh
module load gcc/9.2.0
module load openmpi
module load hdf5 netcdf-c netcdf-fortran wrf

mkdir -p ${WORK_PATH}
cd ${WORK_PATH}
ln -s ${INSTALL_ROOT}/share/conus-12km/* .
ln -s $(spack location -i wrf)/run/* .

srun $MPI_FLAGS ./wrf.exe
  1. sbatch का इस्तेमाल करके, बैच जॉब सबमिट करें.
sbatch wrf-conus12.sh
  1. जॉब पूरा होने तक इंतज़ार करें. इस बेंचमार्क को छह घंटे के पूर्वानुमान के लिए कॉन्फ़िगर किया गया है. इसमें 24 रैंक के साथ, करीब तीन घंटे लगते हैं. squeue की मदद से, नौकरी के आवेदन की स्थिति देखी जा सकती है.
  2. जब जॉब पूरा हो जाए, तब rsl.out.0000 के कॉन्टेंट की जांच करें. इससे यह पुष्टि की जा सकेगी कि आपको "wrf: SUCCESS COMPLETE WRF" स्टेटमेंट दिख रहा है. अगर आपने इस जॉब को एक से ज़्यादा बार चलाया है, तो संख्यात्मक सफ़िक्स अलग होगा. उदाहरण के लिए, आपने कॉन्फ़िगरेशन सेटिंग गलत तरीके से की है और आपको इसे फिर से चलाना पड़ा.
$ tail -n1 ${HOME}/wrf-benchmark/rsl.out.0000
d01 2018-06-17_06:00:00 wrf: SUCCESS COMPLETE WRF

5. ज़्यादा कोटा: Terraform की मदद से, ऑटो-स्केलिंग वाला एचपीसी क्लस्टर डिप्लॉय करना

इस सेक्शन में, आपको GCP में Slurm जॉब शेड्यूलर के साथ ऑटो-स्केलिंग वाला एचपीसी क्लस्टर डिप्लॉय करना होगा.

  1. GCP पर Cloud Shell खोलें.
  2. FluidNumerics/slurm-gcp रिपॉज़िटरी को क्लोन करें
cd ~
git clone https://github.com/FluidNumerics/slurm-gcp.git
  1. WRF डायरेक्ट्री पर जाएं:
cd  ~/slurm-gcp/tf/examples/wrf
  1. टेराफ़ॉर्म प्लान बनाना और उसकी समीक्षा करना. अपने क्लस्टर का नाम, GCP प्रोजेक्ट, डिप्लॉय करने के लिए ज़ोन, नोड की ज़्यादा से ज़्यादा संख्या, और मशीन टाइप तय करने के लिए, एनवायरमेंट वैरिएबल WRF_NAME, WRF_PROJECT, WRF_ZONE, WRF_MAX_NODE, और WRF_MACHINE_TYPE सेट करें. CONUS 2.5 कि॰मी॰ के बेंचमार्क के लिए, हमारा सुझाव है कि कम से कम 8 नोड वाले c2-standard-60 इंस्टेंस का इस्तेमाल करें. इससे 480 MPI रैंक के साथ जॉब चलाए जा सकते हैं.
export WRF_PROJECT=<PROJECT ID>
export WRF_ZONE=<ZONE>
export WRF_NAME=wrf-large
export WRF_MAX_NODE=5
export WRF_MACHINE_TYPE="c2-standard-60"
  1. अगर आपने ऊपर दिए गए तरीके से ऐसा नहीं किया है, तो terraform शुरू करने के लिए, आपको terraform init चलाना होगा:
terraform init
  1. मेक कमांड की मदद से प्लान बनाएं.
make plan
  1. क्लस्टर डिप्लॉय करें. इसे इंस्टॉल और सेट अप करने में दो घंटे तक लग सकते हैं. डप्लॉयमेंट के दौरान, WRF और उसकी सभी डिपेंडेंसी इंस्टॉल की जाएंगी.
make apply
  1. पिछले चरण में बनाए गए login नोड से एसएसएच करें. आपको यह नोड पिछले चरण में दिखेगा. इसका नाम शायद wrf-large-login0 होगा. इसके लिए, कंसोल मेन्यू आइटम Compute Engine -> वीएम इंस्टेंस में जाकर, वीएम इंस्टेंस की सूची के बगल में मौजूद एसएसएच बटन पर क्लिक करें.

विकल्प: gcloud कमांड की यह जोड़ी, लॉगिन नोड का नाम पता करेगी और इसमें एसएसएच करेगी:

export CLUSTER_LOGIN_NODE=$(gcloud compute instances list --zones ${WRF_ZONE} --filter="name ~ .*login" --format="value(name)" | head -n1)

gcloud compute ssh ${CLUSTER_LOGIN_NODE} --zone ${WRF_ZONE}

दूसरे निर्देश से, आपको Slurm Login नोड से कनेक्ट होना चाहिए.

  1. लॉगिन नोड से कनेक्ट होने के बाद, अपने क्लस्टर सेटअप की पुष्टि करने के लिए, देखें कि wrf मॉड्यूल उपलब्ध है या नहीं.
$ module load gcc && module load openmpi && module avail
-------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/openmpi/4.0.5-eagetxh/gcc/9.2.0 --------------------------------------
   hdf5/1.10.7    netcdf-c/4.7.4    netcdf-fortran/4.5.3    parallel-netcdf/1.12.1    wrf/4.2

------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/gcc/9.2.0 -------------------------------------------------
   hwloc/2.2.0      libiconv/1.16          libpng/1.6.37     nasm/2.15.05            openmpi/4.0.5 (L,D)    time/1.9              zlib/1.2.11
   jasper/2.0.16    libjpeg-turbo/2.0.4    libtirpc/1.2.6    ncurses/5.9.20130511    perl/5.16.3            util-macros/1.19.1
   krb5/1.15.1      libpciaccess/0.16      libxml2/2.9.10    numactl/2.0.14          tcsh/6.22.02           xz/5.2.2

--------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/Core ----------------------------------------------------
   gcc/9.2.0 (L)

---------------------------------------------------------------------- /apps/modulefiles ----------------------------------------------------------------------
   openmpi/v4.1.x
  1. पुष्टि करें कि /apps/share/conus-2.5km में यहां दिया गया कॉन्टेंट मौजूद है.
$ ls -1 /apps/share/conus-2.5km
FILE:2018-06-17_00
FILE:2018-06-17_03
FILE:2018-06-17_06
FILE:2018-06-17_09
FILE:2018-06-17_12
geo_em.d01.nc
geogrid.log
gfs.0p25.2018061700.f000.grib2
gfs.0p25.2018061700.f003.grib2
gfs.0p25.2018061700.f006.grib2
gfs.0p25.2018061700.f009.grib2
gfs.0p25.2018061700.f012.grib2
met_em.d01.2018-06-17_00:00:00.nc
met_em.d01.2018-06-17_03:00:00.nc
met_em.d01.2018-06-17_06:00:00.nc
met_em.d01.2018-06-17_09:00:00.nc
met_em.d01.2018-06-17_12:00:00.nc
metgrid.log
namelist.input
namelist.wps
ungrib.log
wrfbdy_d01
wrfinput_d01

6. CONUS 2.5 कि॰मी॰ का बेंचमार्क चलाएं

CONUS 2.5km बेंचमार्क को चलाने के लिए, आपको Slurm बैच जॉब सबमिट करना होगा. इस बेंचमार्क के लिए इनपुट डेक, wrf-gcp VM इमेज में /apps/share/benchmarks/conus-2.5km के तहत शामिल किए गए हैं.

इस सेक्शन के लिए, आपको क्लस्टर के login नोड से एसएसएच कनेक्ट करना होगा

  1. /apps/share से wrf-conus.sh बैच फ़ाइल का उदाहरण कॉपी करें
cp /apps/share/wrf-conus2p5.sh ~/
  1. --partition और --ntasks की वैल्यू सही तरीके से सेट की गई हैं या नहीं, यह देखने के लिए टेक्स्ट एडिटर में wrf-conus.sh फ़ाइल खोलें. पार्टिशन को c2-60 पर सेट किया जाना चाहिए. टास्क की संख्या, उतनी होनी चाहिए जितनी MPI रैंक का इस्तेमाल करके आपको जॉब लॉन्च करनी है. इस डेमो के लिए, टास्क की संख्या, नौकरी के लिए इस्तेमाल किए गए vCPU की संख्या के बराबर है. साथ ही, यह आपके उपलब्ध कोटे से ज़्यादा नहीं होनी चाहिए.
#!/bin/bash
#SBATCH --partition=c2-60
#SBATCH --ntasks=480
#SBATCH --ntasks-per-node=60
#SBATCH --mem-per-cpu=2g
#SBATCH --cpus-per-task=1
#SBATCH --account=default
#
# /////////////////////////////////////////////// #

WORK_PATH=${HOME}/wrf-benchmark/
SRUN_FLAGS="-n $SLURM_NTASKS --cpu-bind=threads"

. /apps/share/spack.sh
module load gcc/9.2.0
module load openmpi
module load hdf5 netcdf-c netcdf-fortran wrf

mkdir -p ${WORK_PATH}
cd ${WORK_PATH}
ln -s ${INSTALL_ROOT}/share/conus-2.5km/* .
ln -s $(spack location -i wrf)/run/* .

srun $MPI_FLAGS ./wrf.exe
  1. sbatch का इस्तेमाल करके, बैच जॉब सबमिट करें.
sbatch wrf-conus2p5.sh
  1. जॉब पूरा होने तक इंतज़ार करें. इस बेंचमार्क को छह घंटे के पूर्वानुमान के लिए कॉन्फ़िगर किया गया है. इसमें 480 रैंक के साथ, करीब एक घंटा लगता है. squeue की मदद से, नौकरी के आवेदन की स्थिति देखी जा सकती है.
  2. जब जॉब पूरा हो जाए, तब rsl.out.0000 के कॉन्टेंट की जांच करें. इससे यह पुष्टि की जा सकेगी कि आपको "wrf: SUCCESS COMPLETE WRF" स्टेटमेंट दिख रहा है. अगर आपने नौकरी को एक से ज़्यादा बार चलाया है, तो संख्यात्मक प्रत्यय अलग होगा. उदाहरण के लिए, आपने कॉन्फ़िगरेशन सेटिंग गलत तरीके से की है और आपको इसे फिर से चलाना पड़ा.
$ tail -n1 ${HOME}/wrf-benchmark/rsl.out.0000
d01 2018-06-17_06:00:00 wrf: SUCCESS COMPLETE WRF

7. बधाई हो

इस कोडलैब में, आपने ऑटो-स्केलिंग की सुविधा वाला, क्लाउड-नेटिव एचपीसी क्लस्टर बनाया. साथ ही, Google Cloud Platform पर पैरलल WRF® सिमुलेशन चलाया!

स्टोरेज खाली करना

इस कोडलैब में इस्तेमाल किए गए संसाधनों के लिए, अपने Google Cloud Platform खाते से शुल्क न लिए जाने के लिए:

प्रोजेक्ट मिटाना

बिलिंग को बंद करने का सबसे आसान तरीका यह है कि आप उस प्रोजेक्ट को मिटा दें जिसे आपने कोडलैब के लिए बनाया था.

चेतावनी: किसी प्रोजेक्ट को मिटाने पर ये असर होते हैं:

  • प्रोजेक्ट में मौजूद सभी आइटम मिट जाते हैं. अगर आपने इस कोडलैब के लिए किसी मौजूदा प्रोजेक्ट का इस्तेमाल किया है, तो उसे मिटाने पर, प्रोजेक्ट में किया गया आपका अन्य काम भी मिट जाएगा.
  • कस्टम प्रोजेक्ट आईडी मिट जाते हैं. ऐसा हो सकता है कि आपने यह प्रोजेक्ट बनाते समय, कोई कस्टम प्रोजेक्ट आईडी बनाया हो और आपको उसे आने वाले समय में इस्तेमाल करना हो. प्रोजेक्ट आईडी का इस्तेमाल करने वाले यूआरएल को बनाए रखने के लिए, पूरे प्रोजेक्ट को मिटाने के बजाय, प्रोजेक्ट में मौजूद चुने गए संसाधनों को मिटाएं. जैसे, appspot.com यूआरएल.

अगर आपको कई कोडलैब और क्विकस्टार्ट आज़माने हैं, तो प्रोजेक्ट का दोबारा इस्तेमाल करने से, प्रोजेक्ट के कोटे की सीमाएं पार करने से बचा जा सकता है.

  1. Cloud Console में, संसाधन मैनेज करें पेज पर जाएं. संसाधन मैनेज करें पेज पर जाएं
  2. प्रोजेक्ट की सूची में, वह प्रोजेक्ट चुनें जिसे आपको मिटाना है. इसके बाद, मिटाएं dc096e8341a05fec.png पर क्लिक करें.
  3. डायलॉग बॉक्स में, प्रोजेक्ट आईडी टाइप करें. इसके बाद, प्रोजेक्ट मिटाने के लिए बंद करें पर क्लिक करें.

एक-एक करके संसाधन मिटाएं

  1. Cloud Shell खोलें और wrf उदाहरण डायरेक्ट्री पर जाएं
cd  ~/slurm-gcp/tf/examples/wrf
  1. सभी संसाधनों को मिटाने के लिए, make destroy कमांड चलाएं.
make destroy