फ़्लुइड अंकों की मदद से WRF मौसम पूर्वानुमान मॉडल चलाएं' Slurm-GCP

WRF मौसम पूर्वानुमान मॉडल को फ़्लूइड अंकों के साथ चलाएं' Slurm-GCP

इस कोडलैब (कोड बनाना सीखने के लिए ट्यूटोरियल) के बारे में जानकारी

subjectपिछली बार मई 9, 2022 को अपडेट किया गया
account_circleJoseph Schoonover, Ross Thomson, Wyatt Gorman ने लिखा

1. परिचय

कॉन्टिनेंटल अमेरिका

पिछली बार अपडेट किए जाने की तारीख: 05-05-2021

आपको क्या बनाना होगा

इस कोडलैब में, Google Cloud पर ऑटो-स्केलिंग हाई परफ़ॉर्मेंस कंप्यूटिंग (HPC) क्लस्टर का इस्तेमाल किया जा रहा है. यह क्लस्टर, Slumm जॉब शेड्यूलर के साथ काम करेगा. आपको एक उदाहरण Teraform डिप्लॉयमेंट का इस्तेमाल करना है जो Spack से इंस्टॉल किए गए WRF® क्लस्टर के साथ इस क्लस्टर को डिप्लॉय करता है. इसके बाद, CONUS 2.5 कि॰मी॰ के मानदंड या CONUS 12 कि॰मी॰ के मानदंड को चलाने के लिए, आपको इस इन्फ़्रास्ट्रक्चर का इस्तेमाल करना होगा.

आपको इनके बारे में जानकारी मिलेगी

  • Google Cloud Platform पर HPC क्लस्टर को ऑपरेट करने के लिए, आइडेंटिटी ऐंड ऐक्सेस मैनेजमेंट (आईएएम) की नीतियों को कॉन्फ़िगर करने का तरीका
  • Slumm जॉब शेड्यूलर के साथ क्लाउड-नेटिव HPC क्लस्टर को डिप्लॉय करने का तरीका
  • Slarm बैच जॉब का इस्तेमाल करके, Google Cloud के साथ-साथ WRF® को चलाने का तरीका

आपको इन चीज़ों की ज़रूरत होगी

2. कॉन्फ़िगरेशन

Google Cloud API चालू करें

Google Cloud के संसाधन बनाने और इस्तेमाल करने के लिए, एपीआई चालू होना चाहिए.

gcloud services enable compute.googleapis.com 

आईएएम नीतियां सेट करें

HPC में, सिस्टम एडमिन और सिस्टम उपयोगकर्ताओं के बीच साफ़ अंतर होता है. सिस्टम एडमिन के पास आम तौर पर "रूट ऐक्सेस" होता है इससे उन्हें कंप्यूट रिसॉर्स को मैनेज और ऑपरेट करने में मदद मिलती है. आम तौर पर, सिस्टम का इस्तेमाल करने वाले लोग शोधकर्ता, वैज्ञानिक, और ऐप्लिकेशन इंजीनियर होते हैं. इन्हें काम पूरा करने के लिए इन संसाधनों की ज़रूरत पड़ती है.

Google Cloud पर, OS लॉगिन एपीआई में Google Workspace, Cloud Identity, और Gmail खातों की POSIX उपयोगकर्ता की जानकारी का प्रावधान होता है. इसके अलावा, ओएस लॉगिन को GCP के Identity and Access Management (IAM) सिस्टम के साथ इंटिग्रेट करके यह तय किया जाता है कि उपयोगकर्ताओं को Linux सिस्टम पर खास अधिकारों की सूचना देने की अनुमति दी जानी चाहिए या नहीं.

इस ट्यूटोरियल में, हमें लगता है कि सिस्टम एडमिन और कंप्यूट इंजन एडमिन की भूमिकाएं पूरी की जा रही हैं. हम IAM नीतियों को कॉन्फ़िगर करेंगे, ताकि आपको नीचे दिए गए टास्क पूरे करने के लिए ज़रूरी अनुमतियां मिल सकें

  • Google Compute Engine (GCE) वाले वीएम इंस्टेंस बनाना या मिटाना
  • GCE (जीसीई) वीएम इंस्टेंस में एसएसएच

57883cb8acc09653.png

इस ट्यूटोरियल को पूरा करने के लिए, Google Cloud Console में जाकर खुद को ज़रूरी IAM भूमिकाएं देने के लिए:

  1. आईएएम और एडमिन > प्रॉडक्ट और सेवाएं मेन्यू में IAM.
  2. "+जोड़ें" पर क्लिक करें सबसे ऊपर वाले हिस्से को हाइलाइट करें.
  3. अपना Google Workspace खाता, Cloud Identity खाता या Gmail खाता, "नए सदस्य" सेक्शन में टाइप करें
  4. ये भूमिकाएं जोड़ें : Compute एडमिन, Compute OS लॉगिन, और सेवा खाते का उपयोगकर्ता
  5. 'सेव करें' पर क्लिक करें

अब आपके लॉगिन करने के बाद, एचपीसी क्लस्टर बनाने के लिए ज़रूरी अनुमतियां मिल गई हैं.

यह पुष्टि करने के लिए कि आपने सही भूमिकाएं असाइन की हैं, अपना Cloud Shell खोलें. इसके बाद, YOUR_PROJECT और EMAIL_ADDRESS को अपने प्रोजेक्ट और ईमेल पते से बदलें. इसके बाद, नीचे दिया गया कमांड चलाएं.

$ gcloud projects get-iam-policy YOUR_PROJECT --flatten="bindings[].members" --format='table(bindings.role)' --filter="bindings.members=user:EMAIL_ADDRESS"

इस निर्देश से यह आउटपुट मिलेगा:

ROLE
roles/compute.osLogin
roles/iam.serviceAccountUser
roles/compute.admin

3. कम कोटा: Taraform के साथ ऑटो-स्केलिंग एचपीसीसी क्लस्टर को डिप्लॉय करें

इस सेक्शन में, आपको ऑटो-स्केलिंग वाला एचपीसीसी क्लस्टर डिप्लॉय करना है. इसमें Slumm जॉब शेड्यूलर भी शामिल है. यह ज़्यादा कोटा वाले विकल्प की तरह है. हालांकि, इसमें इस्तेमाल किया गया मशीन टाइप और इस्तेमाल किए गए vCPU की संख्या कम है.

  1. जीसीपी पर अपना क्लाउड शेल खोलें.
  2. FluidNumerics/slurm-gcp रिपॉज़िटरी को क्लोन करना
cd ~
git clone https://github.com/FluidNumerics/slurm-gcp.git
  1. WRF डायरेक्ट्री में बदलाव करें:
cd  ~/slurm-gcp/tf/examples/wrf
  1. टेराफ़ॉर्म प्लान बनाएं और उसकी समीक्षा करें. अपने क्लस्टर का नाम, GCP प्रोजेक्ट, और जिस ज़ोन के लिए आपको डिप्लॉय करना है उसकी जानकारी देने के लिए, एनवायरमेंट वैरिएबल WRF_NAME, WRF_PROJECT, और WRF_ZONE सेट करें.
export WRF_PROJECT=<PROJECT ID>
export WRF_ZONE=<ZONE>
export WRF_NAME="wrf-small"
  1. पहली बार टेराफ़ॉर्म चलाते समय आपको init आदेश चलाना होगा:
terraform init
  1. बनाने के निर्देश की मदद से, वह प्लान बनाएं जो terraform को चलाएगा
make plan
  1. क्लस्टर को डिप्लॉय करें. सेटअप और इंस्टॉल होने में दो घंटे लग सकते हैं. डिप्लॉयमेंट के दौरान, WRF और इसकी सभी डिपेंडेंसी इंस्टॉल की जाएंगी.
make apply
  1. पिछले चरण में बनाए गए लॉगिन नोड में एसएसएच जोड़ें. इस नोड को पिछले चरण में देखा जा सकता है (इसे wrf-small-login0 कहा जाता है). इसके लिए, कंसोल मेन्यू आइटम Compute Engine -> में वीएम इंस्टेंस की सूची के बगल में मौजूद एसएसएच बटन पर क्लिक करें VM इंस्टेंस.

विकल्प: gcloud कमांड का यह जोड़ा इसमें लॉगिन नोड नाम और एसएसएच ढूंढेंगे:

export CLUSTER_LOGIN_NODE=$(gcloud compute instances list --zones ${WRF_ZONE} --filter="name ~ .*login" --format="value(name)" | head -n1)

gcloud compute ssh ${CLUSTER_LOGIN_NODE} --zone ${WRF_ZONE}

  1. लॉगिन नोड से कनेक्ट होने के बाद, अपने क्लस्टर के सेटअप की पुष्टि करने के लिए, देखें कि wrf मॉड्यूल उपलब्ध है या नहीं.
$ module load gcc && module load openmpi && module avail
-------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/openmpi/4.0.5-eagetxh/gcc/9.2.0 --------------------------------------
   hdf5/1.10.7    netcdf-c/4.7.4    netcdf-fortran/4.5.3    parallel-netcdf/1.12.1    wrf/4.2

------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/gcc/9.2.0 -------------------------------------------------
   hwloc/2.2.0      libiconv/1.16          libpng/1.6.37     nasm/2.15.05            openmpi/4.0.5 (L,D)    time/1.9              zlib/1.2.11
   jasper/2.0.16    libjpeg-turbo/2.0.4    libtirpc/1.2.6    ncurses/5.9.20130511    perl/5.16.3            util-macros/1.19.1
   krb5/1.15.1      libpciaccess/0.16      libxml2/2.9.10    numactl/2.0.14          tcsh/6.22.02           xz/5.2.2

--------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/Core ----------------------------------------------------
   gcc/9.2.0 (L)

---------------------------------------------------------------------- /apps/modulefiles ----------------------------------------------------------------------
   openmpi/v4.1.x
  1. पुष्टि करें कि /apps/share/conus-12km में यहां दिया गया कॉन्टेंट मौजूद है.
$  ls -1 /apps/share/conus-12km/
FILE:2018-06-17_00
FILE:2018-06-17_03
FILE:2018-06-17_06
FILE:2018-06-17_09
FILE:2018-06-17_12
geo_em.d01.nc
geogrid.log
met_em.d01.2018-06-17_00:00:00.nc
met_em.d01.2018-06-17_03:00:00.nc
met_em.d01.2018-06-17_06:00:00.nc
met_em.d01.2018-06-17_09:00:00.nc
met_em.d01.2018-06-17_12:00:00.nc
metgrid.log
namelist.input
namelist.wps
ungrib.log
wrfbdy_d01
wrfinput_d01

4. CONUS 12किमी बेंचमार्क रन करें

CONUS की 12 कि॰मी॰ की दूरी तय करने के लिए, आपको Slarm बैच जॉब सबमिट करना होगा. इस बेंचमार्क के लिए इनपुट डेक, /apps/share/benchmarks/conus-12km के तहत wrf-gcp वीएम इमेज में शामिल किए गए हैं.

इस सेक्शन के लिए, आपको क्लस्टर के login नोड से एसएसएच कनेक्ट होना चाहिए

  1. /apps/share से wrf-conus.sh बैच फ़ाइल का उदाहरण कॉपी करें
cp /apps/share/wrf-conus12.sh ~/
  1. यह पुष्टि करने के लिए कि --partition और --ntasks सही तरीके से सेट हैं, wrf-conus.sh को टेक्स्ट एडिटर में खोलें. टास्क की संख्या, उन एमपीआई रैंक के हिसाब से सेट होनी चाहिए जिनका इस्तेमाल आपको जॉब लॉन्च करने के लिए करना है. इसे समझाने के लिए, टास्क की संख्या, उस जॉब के लिए इस्तेमाल किए गए vCPU की संख्या के बराबर है. यह संख्या, आपके लिए उपलब्ध कोटे से ज़्यादा नहीं होनी चाहिए.
#!/bin/bash
#SBATCH --partition=wrf
#SBATCH --ntasks=24
#SBATCH --ntasks-per-node=8
#SBATCH --mem-per-cpu=2g
#SBATCH --cpus-per-task=1
#SBATCH --account=default
#
# /////////////////////////////////////////////// #

WORK_PATH=${HOME}/wrf-benchmark/
SRUN_FLAGS="-n $SLURM_NTASKS --cpu-bind=threads"

. /apps/share/spack.sh
module load gcc/9.2.0
module load openmpi
module load hdf5 netcdf-c netcdf-fortran wrf

mkdir -p ${WORK_PATH}
cd ${WORK_PATH}
ln -s ${INSTALL_ROOT}/share/conus-12km/* .
ln -s $(spack location -i wrf)/run/* .

srun $MPI_FLAGS ./wrf.exe
  1. sbatch का इस्तेमाल करके बैच जॉब सबमिट करें.
sbatch wrf-conus12.sh
  1. काम पूरा होने तक इंतज़ार करें. इस मानदंड को 6 घंटे के पूर्वानुमान के साथ काम करने के लिए कॉन्फ़िगर किया गया है, जिसमें 24 रैंक के साथ पूरा होने में करीब 3 घंटे लगते हैं. आप squeue के साथ नौकरी की स्थिति देख सकते हैं.
  2. काम पूरा हो जाने पर, rsl.out.0000 के कॉन्टेंट की जांच करके, यह पक्का करें कि आपको "wrf: लगेगा: मदद करने के लिए पूरा WRF" स्टेटमेंट दिख रहा है. अगर आपने काम को एक से ज़्यादा बार चलाया है, तो अंकों वाला सफ़िक्स अलग होगा. उदाहरण के लिए, आपकी कॉन्फ़िगरेशन सेटिंग गलत है और आपको उसे फिर से चलाना पड़ा.
$ tail -n1 ${HOME}/wrf-benchmark/rsl.out.0000
d01 2018-06-17_06:00:00 wrf: SUCCESS COMPLETE WRF

5. ज़्यादा कोटा: Turaform के साथ अपने-आप स्केलिंग एचपीसी क्लस्टर का डिप्लॉयमेंट करें

इस सेक्शन में, आपको GCP में Slumm जॉब शेड्यूलर के साथ-साथ, ऑटो-स्केलिंग HPC क्लस्टर को डिप्लॉय करना होगा.

  1. जीसीपी पर अपना क्लाउड शेल खोलें.
  2. FluidNumerics/slurm-gcp रिपॉज़िटरी को क्लोन करना
cd ~
git clone https://github.com/FluidNumerics/slurm-gcp.git
  1. WRF डायरेक्ट्री में बदलाव करें:
cd  ~/slurm-gcp/tf/examples/wrf
  1. टेराफ़ॉर्म प्लान बनाएं और उसकी समीक्षा करें. अपने क्लस्टर का नाम, GCP प्रोजेक्ट, जिस ज़ोन पर डिप्लॉय करना है, नोड की ज़्यादा से ज़्यादा संख्या, और मशीन टाइप का नाम बताने के लिए, एनवायरमेंट वैरिएबल WRF_NAME, WRF_PROJECT, WRF_ZONE, WRF_MAX_NODE, और WRF_MACHINE_TYPE सेट करें. CONUS 2.5 कि॰मी॰ के बेंचमार्क के लिए, हम c2-standard-60 इंस्टेंस का इस्तेमाल करने का सुझाव देते हैं, जिसमें कम से कम 8 नोड उपलब्ध हों और 480 एमपीआई रैंक वाले जॉब रन करें.
export WRF_PROJECT=<PROJECT ID>
export WRF_ZONE=<ZONE>
export WRF_NAME=wrf-large
export WRF_MAX_NODE=5
export WRF_MACHINE_TYPE="c2-standard-60"
  1. अगर आपने ऊपर यह नहीं किया, तो आपको टेराफ़ॉर्म शुरू करने के लिए terraform init चलाना होगा:
terraform init
  1. बनाने के निर्देश का इस्तेमाल करके प्लान बनाएं.
make plan
  1. क्लस्टर को डिप्लॉय करें. सेटअप और इंस्टॉल होने में दो घंटे लग सकते हैं. डिप्लॉयमेंट के दौरान, WRF और इसकी सभी डिपेंडेंसी इंस्टॉल की जाएंगी.
make apply
  1. पिछले चरण में बनाए गए लॉगिन नोड में एसएसएच जोड़ें. इस नोड को पिछले चरण में देखा जा सकता है (इसे wrf-large-login0 कहा जाता है). इसके लिए, कंसोल मेन्यू आइटम Compute Engine -> में वीएम इंस्टेंस की सूची के बगल में मौजूद एसएसएच बटन पर क्लिक करें VM इंस्टेंस.

विकल्प: gcloud कमांड का यह जोड़ा इसमें लॉगिन नोड नाम और एसएसएच ढूंढेंगे:

export CLUSTER_LOGIN_NODE=$(gcloud compute instances list --zones ${WRF_ZONE} --filter="name ~ .*login" --format="value(name)" | head -n1)

gcloud compute ssh ${CLUSTER_LOGIN_NODE} --zone ${WRF_ZONE}

दूसरे निर्देश से आपको Slumm लॉगिन नोड से कनेक्ट किया जाना चाहिए.

  1. लॉगिन नोड से कनेक्ट होने के बाद, अपने क्लस्टर के सेटअप की पुष्टि करने के लिए, देखें कि wrf मॉड्यूल उपलब्ध है या नहीं.
$ module load gcc && module load openmpi && module avail
-------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/openmpi/4.0.5-eagetxh/gcc/9.2.0 --------------------------------------
   hdf5/1.10.7    netcdf-c/4.7.4    netcdf-fortran/4.5.3    parallel-netcdf/1.12.1    wrf/4.2

------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/gcc/9.2.0 -------------------------------------------------
   hwloc/2.2.0      libiconv/1.16          libpng/1.6.37     nasm/2.15.05            openmpi/4.0.5 (L,D)    time/1.9              zlib/1.2.11
   jasper/2.0.16    libjpeg-turbo/2.0.4    libtirpc/1.2.6    ncurses/5.9.20130511    perl/5.16.3            util-macros/1.19.1
   krb5/1.15.1      libpciaccess/0.16      libxml2/2.9.10    numactl/2.0.14          tcsh/6.22.02           xz/5.2.2

--------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/Core ----------------------------------------------------
   gcc/9.2.0 (L)

---------------------------------------------------------------------- /apps/modulefiles ----------------------------------------------------------------------
   openmpi/v4.1.x
  1. पुष्टि करें कि /apps/share/conus-2.5km में यहां दिया गया कॉन्टेंट मौजूद है.
$ ls -1 /apps/share/conus-2.5km
FILE:2018-06-17_00
FILE:2018-06-17_03
FILE:2018-06-17_06
FILE:2018-06-17_09
FILE:2018-06-17_12
geo_em.d01.nc
geogrid.log
gfs.0p25.2018061700.f000.grib2
gfs.0p25.2018061700.f003.grib2
gfs.0p25.2018061700.f006.grib2
gfs.0p25.2018061700.f009.grib2
gfs.0p25.2018061700.f012.grib2
met_em.d01.2018-06-17_00:00:00.nc
met_em.d01.2018-06-17_03:00:00.nc
met_em.d01.2018-06-17_06:00:00.nc
met_em.d01.2018-06-17_09:00:00.nc
met_em.d01.2018-06-17_12:00:00.nc
metgrid.log
namelist.input
namelist.wps
ungrib.log
wrfbdy_d01
wrfinput_d01

6. CONUS 2.5 किमी का बेंचमार्क दौड़ें

CONUS की 2.5 कि॰मी॰ की दूरी तय करने के लिए, आपको Slarm बैच जॉब सबमिट करना होगा. इस बेंचमार्क के लिए इनपुट डेक, /apps/share/benchmarks/conus-2.5km के तहत wrf-gcp वीएम इमेज में शामिल किए गए हैं.

इस सेक्शन के लिए, आपको क्लस्टर के login नोड से एसएसएच कनेक्ट होना चाहिए

  1. /apps/share से wrf-conus.sh बैच फ़ाइल का उदाहरण कॉपी करें
cp /apps/share/wrf-conus2p5.sh ~/
  1. यह पुष्टि करने के लिए कि --partition और --ntasks सही तरीके से सेट हैं, wrf-conus.sh को टेक्स्ट एडिटर में खोलें. सेगमेंट को c2-60 पर सेट किया जाना चाहिए. टास्क की संख्या, उन एमपीआई रैंक के हिसाब से सेट होनी चाहिए जिनका इस्तेमाल आपको जॉब लॉन्च करने के लिए करना है. इसे समझाने के लिए, टास्क की संख्या, उस जॉब के लिए इस्तेमाल किए गए vCPU की संख्या के बराबर है. यह संख्या, आपके लिए उपलब्ध कोटे से ज़्यादा नहीं होनी चाहिए.
#!/bin/bash
#SBATCH --partition=c2-60
#SBATCH --ntasks=480
#SBATCH --ntasks-per-node=60
#SBATCH --mem-per-cpu=2g
#SBATCH --cpus-per-task=1
#SBATCH --account=default
#
# /////////////////////////////////////////////// #

WORK_PATH=${HOME}/wrf-benchmark/
SRUN_FLAGS="-n $SLURM_NTASKS --cpu-bind=threads"

. /apps/share/spack.sh
module load gcc/9.2.0
module load openmpi
module load hdf5 netcdf-c netcdf-fortran wrf

mkdir -p ${WORK_PATH}
cd ${WORK_PATH}
ln -s ${INSTALL_ROOT}/share/conus-2.5km/* .
ln -s $(spack location -i wrf)/run/* .

srun $MPI_FLAGS ./wrf.exe
  1. sbatch का इस्तेमाल करके बैच जॉब सबमिट करें.
sbatch wrf-conus2p5.sh
  1. काम पूरा होने तक इंतज़ार करें. इस मानदंड को 6 घंटे के पूर्वानुमान के साथ काम करने के लिए कॉन्फ़िगर किया गया है, जिसे 480 रैंक के साथ पूरा होने में करीब 1 घंटा लगता है. आप squeue के साथ नौकरी की स्थिति देख सकते हैं.
  2. काम पूरा हो जाने पर, rsl.out.0000 के कॉन्टेंट की जांच करके, यह पक्का करें कि आपको "wrf: लगेगा: मदद करने के लिए पूरा WRF" स्टेटमेंट दिख रहा है. अगर आपने काम को एक से ज़्यादा बार चलाया है, तो अंकों वाला सफ़िक्स अलग होगा. उदाहरण के लिए, आपकी कॉन्फ़िगरेशन सेटिंग गलत है और आपको उसे फिर से चलाना पड़ा.
$ tail -n1 ${HOME}/wrf-benchmark/rsl.out.0000
d01 2018-06-17_06:00:00 wrf: SUCCESS COMPLETE WRF

7. बधाई हो

इस कोडलैब में, आपने ऑटो-स्केलिंग, क्लाउड-नेटिव HPC क्लस्टर बनाया है. साथ ही, Google Cloud Platform पर, पैरलल WRF® सिम्युलेशन चलाया है!

साफ़ किया जा रहा है

इस कोडलैब में इस्तेमाल किए गए संसाधनों के लिए, आपके Google Cloud Platform खाते पर लगने वाले शुल्क से बचने के लिए:

प्रोजेक्ट मिटाएं

कोडलैब के लिए बनाया गया प्रोजेक्ट मिटाना, बिलिंग को आसानी से हटाने का सबसे आसान तरीका है.

चेतावनी: किसी प्रोजेक्ट को मिटाने से ये असर होते हैं:

  • प्रोजेक्ट में मौजूद पूरा कॉन्टेंट मिटा दिया जाता है. अगर आपने इस कोडलैब के लिए किसी मौजूदा प्रोजेक्ट का इस्तेमाल किया है, तो उसे मिटाने पर, प्रोजेक्ट में आपके किए गए अन्य काम भी मिट जाएंगे.
  • कस्टम प्रोजेक्ट आईडी मौजूद नहीं हैं. इस प्रोजेक्ट को बनाते समय, हो सकता है कि आपने ऐसा कस्टम प्रोजेक्ट आईडी बनाया हो जिसे आपको आने वाले समय में इस्तेमाल करना हो. प्रोजेक्ट आईडी का इस्तेमाल करने वाले यूआरएल, जैसे कि appspot.com के यूआरएल को सुरक्षित रखने के लिए, पूरा प्रोजेक्ट मिटाने के बजाय, प्रोजेक्ट में चुने गए रिसॉर्स मिटाएं.

अगर आपको एक से ज़्यादा कोडलैब और क्विकस्टार्ट को एक्सप्लोर करना है, तो प्रोजेक्ट का दोबारा इस्तेमाल करने से, आपको प्रोजेक्ट के लिए तय की गई सीमा पार करने से बचने में मदद मिल सकती है.

  1. Cloud Console में, संसाधन मैनेज करें पेज पर जाएं. 'संसाधन मैनेज करें' पेज पर जाएं
  2. प्रोजेक्ट की सूची में, वह प्रोजेक्ट चुनें जिसे मिटाना है. इसके बाद, मिटाएं dc096e8341a05fec.png पर क्लिक करें.
  3. डायलॉग बॉक्स में, प्रोजेक्ट आईडी टाइप करें. इसके बाद, प्रोजेक्ट मिटाने के लिए शट डाउन करें पर क्लिक करें.

अलग-अलग संसाधनों को मिटाएं

  1. अपना क्लाउड शेल खोलें और wrf के उदाहरण वाली डायरेक्ट्री पर जाएं
cd  ~/slurm-gcp/tf/examples/wrf
  1. सभी संसाधनों को मिटाने के लिए, Make delete चलाएं.
make destroy