इस कोडलैब (कोड बनाना सीखने के लिए ट्यूटोरियल) के बारे में जानकारी
1. परिचय
पिछली बार अपडेट किए जाने की तारीख: 05-05-2021
आपको क्या बनाना होगा
इस कोडलैब में, Google Cloud पर ऑटो-स्केलिंग हाई परफ़ॉर्मेंस कंप्यूटिंग (HPC) क्लस्टर का इस्तेमाल किया जा रहा है. यह क्लस्टर, Slumm जॉब शेड्यूलर के साथ काम करेगा. आपको एक उदाहरण Teraform डिप्लॉयमेंट का इस्तेमाल करना है जो Spack से इंस्टॉल किए गए WRF® क्लस्टर के साथ इस क्लस्टर को डिप्लॉय करता है. इसके बाद, CONUS 2.5 कि॰मी॰ के मानदंड या CONUS 12 कि॰मी॰ के मानदंड को चलाने के लिए, आपको इस इन्फ़्रास्ट्रक्चर का इस्तेमाल करना होगा.
आपको इनके बारे में जानकारी मिलेगी
- Google Cloud Platform पर HPC क्लस्टर को ऑपरेट करने के लिए, आइडेंटिटी ऐंड ऐक्सेस मैनेजमेंट (आईएएम) की नीतियों को कॉन्फ़िगर करने का तरीका
- Slumm जॉब शेड्यूलर के साथ क्लाउड-नेटिव HPC क्लस्टर को डिप्लॉय करने का तरीका
- Slarm बैच जॉब का इस्तेमाल करके, Google Cloud के साथ-साथ WRF® को चलाने का तरीका
आपको इन चीज़ों की ज़रूरत होगी
- Gmail खाता, जिसमें एसएसएच कुंजी अटैच हो या Google Workspace, Cloud Identity
- बिलिंग की सुविधा वाला Google Cloud Platform प्रोजेक्ट
- आपके GCP प्रोजेक्ट में प्रोजेक्ट के मालिक की भूमिका
- ज़रूरत के हिसाब से कंप्यूट इंजन कोटा (480 c2 vCPU और 500 जीबी पीडी-स्टैंडर्ड डिस्क)
2. कॉन्फ़िगरेशन
Google Cloud API चालू करें
Google Cloud के संसाधन बनाने और इस्तेमाल करने के लिए, एपीआई चालू होना चाहिए.
gcloud services enable compute.googleapis.com
आईएएम नीतियां सेट करें
HPC में, सिस्टम एडमिन और सिस्टम उपयोगकर्ताओं के बीच साफ़ अंतर होता है. सिस्टम एडमिन के पास आम तौर पर "रूट ऐक्सेस" होता है इससे उन्हें कंप्यूट रिसॉर्स को मैनेज और ऑपरेट करने में मदद मिलती है. आम तौर पर, सिस्टम का इस्तेमाल करने वाले लोग शोधकर्ता, वैज्ञानिक, और ऐप्लिकेशन इंजीनियर होते हैं. इन्हें काम पूरा करने के लिए इन संसाधनों की ज़रूरत पड़ती है.
Google Cloud पर, OS लॉगिन एपीआई में Google Workspace, Cloud Identity, और Gmail खातों की POSIX उपयोगकर्ता की जानकारी का प्रावधान होता है. इसके अलावा, ओएस लॉगिन को GCP के Identity and Access Management (IAM) सिस्टम के साथ इंटिग्रेट करके यह तय किया जाता है कि उपयोगकर्ताओं को Linux सिस्टम पर खास अधिकारों की सूचना देने की अनुमति दी जानी चाहिए या नहीं.
इस ट्यूटोरियल में, हमें लगता है कि सिस्टम एडमिन और कंप्यूट इंजन एडमिन की भूमिकाएं पूरी की जा रही हैं. हम IAM नीतियों को कॉन्फ़िगर करेंगे, ताकि आपको नीचे दिए गए टास्क पूरे करने के लिए ज़रूरी अनुमतियां मिल सकें
- Google Compute Engine (GCE) वाले वीएम इंस्टेंस बनाना या मिटाना
- GCE (जीसीई) वीएम इंस्टेंस में एसएसएच
इस ट्यूटोरियल को पूरा करने के लिए, Google Cloud Console में जाकर खुद को ज़रूरी IAM भूमिकाएं देने के लिए:
- आईएएम और एडमिन > प्रॉडक्ट और सेवाएं मेन्यू में IAM.
- "+जोड़ें" पर क्लिक करें सबसे ऊपर वाले हिस्से को हाइलाइट करें.
- अपना Google Workspace खाता, Cloud Identity खाता या Gmail खाता, "नए सदस्य" सेक्शन में टाइप करें
- ये भूमिकाएं जोड़ें : Compute एडमिन, Compute OS लॉगिन, और सेवा खाते का उपयोगकर्ता
- 'सेव करें' पर क्लिक करें
अब आपके लॉगिन करने के बाद, एचपीसी क्लस्टर बनाने के लिए ज़रूरी अनुमतियां मिल गई हैं.
यह पुष्टि करने के लिए कि आपने सही भूमिकाएं असाइन की हैं, अपना Cloud Shell खोलें. इसके बाद, YOUR_PROJECT
और EMAIL_ADDRESS
को अपने प्रोजेक्ट और ईमेल पते से बदलें. इसके बाद, नीचे दिया गया कमांड चलाएं.
$ gcloud projects get-iam-policy YOUR_PROJECT --flatten="bindings[].members" --format='table(bindings.role)' --filter="bindings.members=user:EMAIL_ADDRESS"
इस निर्देश से यह आउटपुट मिलेगा:
ROLE roles/compute.osLogin roles/iam.serviceAccountUser roles/compute.admin
3. कम कोटा: Taraform के साथ ऑटो-स्केलिंग एचपीसीसी क्लस्टर को डिप्लॉय करें
इस सेक्शन में, आपको ऑटो-स्केलिंग वाला एचपीसीसी क्लस्टर डिप्लॉय करना है. इसमें Slumm जॉब शेड्यूलर भी शामिल है. यह ज़्यादा कोटा वाले विकल्प की तरह है. हालांकि, इसमें इस्तेमाल किया गया मशीन टाइप और इस्तेमाल किए गए vCPU की संख्या कम है.
- जीसीपी पर अपना क्लाउड शेल खोलें.
- FluidNumerics/slurm-gcp रिपॉज़िटरी को क्लोन करना
cd ~ git clone https://github.com/FluidNumerics/slurm-gcp.git
- WRF डायरेक्ट्री में बदलाव करें:
cd ~/slurm-gcp/tf/examples/wrf
- टेराफ़ॉर्म प्लान बनाएं और उसकी समीक्षा करें. अपने क्लस्टर का नाम, GCP प्रोजेक्ट, और जिस ज़ोन के लिए आपको डिप्लॉय करना है उसकी जानकारी देने के लिए, एनवायरमेंट वैरिएबल
WRF_NAME
,WRF_PROJECT
, औरWRF_ZONE
सेट करें.
export WRF_PROJECT=<PROJECT ID> export WRF_ZONE=<ZONE> export WRF_NAME="wrf-small"
- पहली बार टेराफ़ॉर्म चलाते समय आपको
init
आदेश चलाना होगा:
terraform init
- बनाने के निर्देश की मदद से, वह प्लान बनाएं जो
terraform
को चलाएगा
make plan
- क्लस्टर को डिप्लॉय करें. सेटअप और इंस्टॉल होने में दो घंटे लग सकते हैं. डिप्लॉयमेंट के दौरान, WRF और इसकी सभी डिपेंडेंसी इंस्टॉल की जाएंगी.
make apply
- पिछले चरण में बनाए गए लॉगिन नोड में एसएसएच जोड़ें. इस नोड को पिछले चरण में देखा जा सकता है (इसे wrf-small-login0 कहा जाता है). इसके लिए, कंसोल मेन्यू आइटम Compute Engine -> में वीएम इंस्टेंस की सूची के बगल में मौजूद एसएसएच बटन पर क्लिक करें VM इंस्टेंस.
विकल्प: gcloud कमांड का यह जोड़ा इसमें लॉगिन नोड नाम और एसएसएच ढूंढेंगे:
export CLUSTER_LOGIN_NODE=$(gcloud compute instances list --zones ${WRF_ZONE} --filter="name ~ .*login" --format="value(name)" | head -n1) gcloud compute ssh ${CLUSTER_LOGIN_NODE} --zone ${WRF_ZONE}
- लॉगिन नोड से कनेक्ट होने के बाद, अपने क्लस्टर के सेटअप की पुष्टि करने के लिए, देखें कि wrf मॉड्यूल उपलब्ध है या नहीं.
$ module load gcc && module load openmpi && module avail -------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/openmpi/4.0.5-eagetxh/gcc/9.2.0 -------------------------------------- hdf5/1.10.7 netcdf-c/4.7.4 netcdf-fortran/4.5.3 parallel-netcdf/1.12.1 wrf/4.2 ------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/gcc/9.2.0 ------------------------------------------------- hwloc/2.2.0 libiconv/1.16 libpng/1.6.37 nasm/2.15.05 openmpi/4.0.5 (L,D) time/1.9 zlib/1.2.11 jasper/2.0.16 libjpeg-turbo/2.0.4 libtirpc/1.2.6 ncurses/5.9.20130511 perl/5.16.3 util-macros/1.19.1 krb5/1.15.1 libpciaccess/0.16 libxml2/2.9.10 numactl/2.0.14 tcsh/6.22.02 xz/5.2.2 --------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/Core ---------------------------------------------------- gcc/9.2.0 (L) ---------------------------------------------------------------------- /apps/modulefiles ---------------------------------------------------------------------- openmpi/v4.1.x
- पुष्टि करें कि
/apps/share/conus-12km
में यहां दिया गया कॉन्टेंट मौजूद है.
$ ls -1 /apps/share/conus-12km/ FILE:2018-06-17_00 FILE:2018-06-17_03 FILE:2018-06-17_06 FILE:2018-06-17_09 FILE:2018-06-17_12 geo_em.d01.nc geogrid.log met_em.d01.2018-06-17_00:00:00.nc met_em.d01.2018-06-17_03:00:00.nc met_em.d01.2018-06-17_06:00:00.nc met_em.d01.2018-06-17_09:00:00.nc met_em.d01.2018-06-17_12:00:00.nc metgrid.log namelist.input namelist.wps ungrib.log wrfbdy_d01 wrfinput_d01
4. CONUS 12किमी बेंचमार्क रन करें
CONUS की 12 कि॰मी॰ की दूरी तय करने के लिए, आपको Slarm बैच जॉब सबमिट करना होगा. इस बेंचमार्क के लिए इनपुट डेक, /apps/share/benchmarks/conus-12km के तहत wrf-gcp वीएम इमेज में शामिल किए गए हैं.
इस सेक्शन के लिए, आपको क्लस्टर के login नोड से एसएसएच कनेक्ट होना चाहिए
- /apps/share से wrf-conus.sh बैच फ़ाइल का उदाहरण कॉपी करें
cp /apps/share/wrf-conus12.sh ~/
- यह पुष्टि करने के लिए कि
--partition
और--ntasks
सही तरीके से सेट हैं, wrf-conus.sh को टेक्स्ट एडिटर में खोलें. टास्क की संख्या, उन एमपीआई रैंक के हिसाब से सेट होनी चाहिए जिनका इस्तेमाल आपको जॉब लॉन्च करने के लिए करना है. इसे समझाने के लिए, टास्क की संख्या, उस जॉब के लिए इस्तेमाल किए गए vCPU की संख्या के बराबर है. यह संख्या, आपके लिए उपलब्ध कोटे से ज़्यादा नहीं होनी चाहिए.
#!/bin/bash #SBATCH --partition=wrf #SBATCH --ntasks=24 #SBATCH --ntasks-per-node=8 #SBATCH --mem-per-cpu=2g #SBATCH --cpus-per-task=1 #SBATCH --account=default # # /////////////////////////////////////////////// # WORK_PATH=${HOME}/wrf-benchmark/ SRUN_FLAGS="-n $SLURM_NTASKS --cpu-bind=threads" . /apps/share/spack.sh module load gcc/9.2.0 module load openmpi module load hdf5 netcdf-c netcdf-fortran wrf mkdir -p ${WORK_PATH} cd ${WORK_PATH} ln -s ${INSTALL_ROOT}/share/conus-12km/* . ln -s $(spack location -i wrf)/run/* . srun $MPI_FLAGS ./wrf.exe
- sbatch का इस्तेमाल करके बैच जॉब सबमिट करें.
sbatch wrf-conus12.sh
- काम पूरा होने तक इंतज़ार करें. इस मानदंड को 6 घंटे के पूर्वानुमान के साथ काम करने के लिए कॉन्फ़िगर किया गया है, जिसमें 24 रैंक के साथ पूरा होने में करीब 3 घंटे लगते हैं. आप
squeue
के साथ नौकरी की स्थिति देख सकते हैं. - काम पूरा हो जाने पर, rsl.out.0000 के कॉन्टेंट की जांच करके, यह पक्का करें कि आपको "wrf: लगेगा: मदद करने के लिए पूरा WRF" स्टेटमेंट दिख रहा है. अगर आपने काम को एक से ज़्यादा बार चलाया है, तो अंकों वाला सफ़िक्स अलग होगा. उदाहरण के लिए, आपकी कॉन्फ़िगरेशन सेटिंग गलत है और आपको उसे फिर से चलाना पड़ा.
$ tail -n1 ${HOME}/wrf-benchmark/rsl.out.0000 d01 2018-06-17_06:00:00 wrf: SUCCESS COMPLETE WRF
5. ज़्यादा कोटा: Turaform के साथ अपने-आप स्केलिंग एचपीसी क्लस्टर का डिप्लॉयमेंट करें
इस सेक्शन में, आपको GCP में Slumm जॉब शेड्यूलर के साथ-साथ, ऑटो-स्केलिंग HPC क्लस्टर को डिप्लॉय करना होगा.
- जीसीपी पर अपना क्लाउड शेल खोलें.
- FluidNumerics/slurm-gcp रिपॉज़िटरी को क्लोन करना
cd ~ git clone https://github.com/FluidNumerics/slurm-gcp.git
- WRF डायरेक्ट्री में बदलाव करें:
cd ~/slurm-gcp/tf/examples/wrf
- टेराफ़ॉर्म प्लान बनाएं और उसकी समीक्षा करें. अपने क्लस्टर का नाम, GCP प्रोजेक्ट, जिस ज़ोन पर डिप्लॉय करना है, नोड की ज़्यादा से ज़्यादा संख्या, और मशीन टाइप का नाम बताने के लिए, एनवायरमेंट वैरिएबल
WRF_NAME
,WRF_PROJECT
,WRF_ZONE
,WRF_MAX_NODE
, औरWRF_MACHINE_TYPE
सेट करें. CONUS 2.5 कि॰मी॰ के बेंचमार्क के लिए, हम c2-standard-60 इंस्टेंस का इस्तेमाल करने का सुझाव देते हैं, जिसमें कम से कम 8 नोड उपलब्ध हों और 480 एमपीआई रैंक वाले जॉब रन करें.
export WRF_PROJECT=<PROJECT ID> export WRF_ZONE=<ZONE> export WRF_NAME=wrf-large export WRF_MAX_NODE=5 export WRF_MACHINE_TYPE="c2-standard-60"
- अगर आपने ऊपर यह नहीं किया, तो आपको टेराफ़ॉर्म शुरू करने के लिए
terraform init
चलाना होगा:
terraform init
- बनाने के निर्देश का इस्तेमाल करके प्लान बनाएं.
make plan
- क्लस्टर को डिप्लॉय करें. सेटअप और इंस्टॉल होने में दो घंटे लग सकते हैं. डिप्लॉयमेंट के दौरान, WRF और इसकी सभी डिपेंडेंसी इंस्टॉल की जाएंगी.
make apply
- पिछले चरण में बनाए गए लॉगिन नोड में एसएसएच जोड़ें. इस नोड को पिछले चरण में देखा जा सकता है (इसे wrf-large-login0 कहा जाता है). इसके लिए, कंसोल मेन्यू आइटम Compute Engine -> में वीएम इंस्टेंस की सूची के बगल में मौजूद एसएसएच बटन पर क्लिक करें VM इंस्टेंस.
विकल्प: gcloud कमांड का यह जोड़ा इसमें लॉगिन नोड नाम और एसएसएच ढूंढेंगे:
export CLUSTER_LOGIN_NODE=$(gcloud compute instances list --zones ${WRF_ZONE} --filter="name ~ .*login" --format="value(name)" | head -n1) gcloud compute ssh ${CLUSTER_LOGIN_NODE} --zone ${WRF_ZONE}
दूसरे निर्देश से आपको Slumm लॉगिन नोड से कनेक्ट किया जाना चाहिए.
- लॉगिन नोड से कनेक्ट होने के बाद, अपने क्लस्टर के सेटअप की पुष्टि करने के लिए, देखें कि wrf मॉड्यूल उपलब्ध है या नहीं.
$ module load gcc && module load openmpi && module avail -------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/openmpi/4.0.5-eagetxh/gcc/9.2.0 -------------------------------------- hdf5/1.10.7 netcdf-c/4.7.4 netcdf-fortran/4.5.3 parallel-netcdf/1.12.1 wrf/4.2 ------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/gcc/9.2.0 ------------------------------------------------- hwloc/2.2.0 libiconv/1.16 libpng/1.6.37 nasm/2.15.05 openmpi/4.0.5 (L,D) time/1.9 zlib/1.2.11 jasper/2.0.16 libjpeg-turbo/2.0.4 libtirpc/1.2.6 ncurses/5.9.20130511 perl/5.16.3 util-macros/1.19.1 krb5/1.15.1 libpciaccess/0.16 libxml2/2.9.10 numactl/2.0.14 tcsh/6.22.02 xz/5.2.2 --------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/Core ---------------------------------------------------- gcc/9.2.0 (L) ---------------------------------------------------------------------- /apps/modulefiles ---------------------------------------------------------------------- openmpi/v4.1.x
- पुष्टि करें कि
/apps/share/conus-2.5km
में यहां दिया गया कॉन्टेंट मौजूद है.
$ ls -1 /apps/share/conus-2.5km FILE:2018-06-17_00 FILE:2018-06-17_03 FILE:2018-06-17_06 FILE:2018-06-17_09 FILE:2018-06-17_12 geo_em.d01.nc geogrid.log gfs.0p25.2018061700.f000.grib2 gfs.0p25.2018061700.f003.grib2 gfs.0p25.2018061700.f006.grib2 gfs.0p25.2018061700.f009.grib2 gfs.0p25.2018061700.f012.grib2 met_em.d01.2018-06-17_00:00:00.nc met_em.d01.2018-06-17_03:00:00.nc met_em.d01.2018-06-17_06:00:00.nc met_em.d01.2018-06-17_09:00:00.nc met_em.d01.2018-06-17_12:00:00.nc metgrid.log namelist.input namelist.wps ungrib.log wrfbdy_d01 wrfinput_d01
6. CONUS 2.5 किमी का बेंचमार्क दौड़ें
CONUS की 2.5 कि॰मी॰ की दूरी तय करने के लिए, आपको Slarm बैच जॉब सबमिट करना होगा. इस बेंचमार्क के लिए इनपुट डेक, /apps/share/benchmarks/conus-2.5km के तहत wrf-gcp वीएम इमेज में शामिल किए गए हैं.
इस सेक्शन के लिए, आपको क्लस्टर के login नोड से एसएसएच कनेक्ट होना चाहिए
- /apps/share से wrf-conus.sh बैच फ़ाइल का उदाहरण कॉपी करें
cp /apps/share/wrf-conus2p5.sh ~/
- यह पुष्टि करने के लिए कि
--partition
और--ntasks
सही तरीके से सेट हैं, wrf-conus.sh को टेक्स्ट एडिटर में खोलें. सेगमेंट को c2-60 पर सेट किया जाना चाहिए. टास्क की संख्या, उन एमपीआई रैंक के हिसाब से सेट होनी चाहिए जिनका इस्तेमाल आपको जॉब लॉन्च करने के लिए करना है. इसे समझाने के लिए, टास्क की संख्या, उस जॉब के लिए इस्तेमाल किए गए vCPU की संख्या के बराबर है. यह संख्या, आपके लिए उपलब्ध कोटे से ज़्यादा नहीं होनी चाहिए.
#!/bin/bash #SBATCH --partition=c2-60 #SBATCH --ntasks=480 #SBATCH --ntasks-per-node=60 #SBATCH --mem-per-cpu=2g #SBATCH --cpus-per-task=1 #SBATCH --account=default # # /////////////////////////////////////////////// # WORK_PATH=${HOME}/wrf-benchmark/ SRUN_FLAGS="-n $SLURM_NTASKS --cpu-bind=threads" . /apps/share/spack.sh module load gcc/9.2.0 module load openmpi module load hdf5 netcdf-c netcdf-fortran wrf mkdir -p ${WORK_PATH} cd ${WORK_PATH} ln -s ${INSTALL_ROOT}/share/conus-2.5km/* . ln -s $(spack location -i wrf)/run/* . srun $MPI_FLAGS ./wrf.exe
- sbatch का इस्तेमाल करके बैच जॉब सबमिट करें.
sbatch wrf-conus2p5.sh
- काम पूरा होने तक इंतज़ार करें. इस मानदंड को 6 घंटे के पूर्वानुमान के साथ काम करने के लिए कॉन्फ़िगर किया गया है, जिसे 480 रैंक के साथ पूरा होने में करीब 1 घंटा लगता है. आप
squeue
के साथ नौकरी की स्थिति देख सकते हैं. - काम पूरा हो जाने पर, rsl.out.0000 के कॉन्टेंट की जांच करके, यह पक्का करें कि आपको "wrf: लगेगा: मदद करने के लिए पूरा WRF" स्टेटमेंट दिख रहा है. अगर आपने काम को एक से ज़्यादा बार चलाया है, तो अंकों वाला सफ़िक्स अलग होगा. उदाहरण के लिए, आपकी कॉन्फ़िगरेशन सेटिंग गलत है और आपको उसे फिर से चलाना पड़ा.
$ tail -n1 ${HOME}/wrf-benchmark/rsl.out.0000 d01 2018-06-17_06:00:00 wrf: SUCCESS COMPLETE WRF
7. बधाई हो
इस कोडलैब में, आपने ऑटो-स्केलिंग, क्लाउड-नेटिव HPC क्लस्टर बनाया है. साथ ही, Google Cloud Platform पर, पैरलल WRF® सिम्युलेशन चलाया है!
साफ़ किया जा रहा है
इस कोडलैब में इस्तेमाल किए गए संसाधनों के लिए, आपके Google Cloud Platform खाते पर लगने वाले शुल्क से बचने के लिए:
प्रोजेक्ट मिटाएं
कोडलैब के लिए बनाया गया प्रोजेक्ट मिटाना, बिलिंग को आसानी से हटाने का सबसे आसान तरीका है.
चेतावनी: किसी प्रोजेक्ट को मिटाने से ये असर होते हैं:
- प्रोजेक्ट में मौजूद पूरा कॉन्टेंट मिटा दिया जाता है. अगर आपने इस कोडलैब के लिए किसी मौजूदा प्रोजेक्ट का इस्तेमाल किया है, तो उसे मिटाने पर, प्रोजेक्ट में आपके किए गए अन्य काम भी मिट जाएंगे.
- कस्टम प्रोजेक्ट आईडी मौजूद नहीं हैं. इस प्रोजेक्ट को बनाते समय, हो सकता है कि आपने ऐसा कस्टम प्रोजेक्ट आईडी बनाया हो जिसे आपको आने वाले समय में इस्तेमाल करना हो. प्रोजेक्ट आईडी का इस्तेमाल करने वाले यूआरएल, जैसे कि appspot.com के यूआरएल को सुरक्षित रखने के लिए, पूरा प्रोजेक्ट मिटाने के बजाय, प्रोजेक्ट में चुने गए रिसॉर्स मिटाएं.
अगर आपको एक से ज़्यादा कोडलैब और क्विकस्टार्ट को एक्सप्लोर करना है, तो प्रोजेक्ट का दोबारा इस्तेमाल करने से, आपको प्रोजेक्ट के लिए तय की गई सीमा पार करने से बचने में मदद मिल सकती है.
- Cloud Console में, संसाधन मैनेज करें पेज पर जाएं. 'संसाधन मैनेज करें' पेज पर जाएं
- प्रोजेक्ट की सूची में, वह प्रोजेक्ट चुनें जिसे मिटाना है. इसके बाद, मिटाएं
पर क्लिक करें.
- डायलॉग बॉक्स में, प्रोजेक्ट आईडी टाइप करें. इसके बाद, प्रोजेक्ट मिटाने के लिए शट डाउन करें पर क्लिक करें.
अलग-अलग संसाधनों को मिटाएं
- अपना क्लाउड शेल खोलें और wrf के उदाहरण वाली डायरेक्ट्री पर जाएं
cd ~/slurm-gcp/tf/examples/wrf
- सभी संसाधनों को मिटाने के लिए, Make delete चलाएं.
make destroy