তরল সংখ্যার সাথে WRF আবহাওয়া পূর্বাভাস মডেল চালান' স্লার্ম-জিসিপি

1. ভূমিকা

মহাদেশীয় মার্কিন

শেষ আপডেট: 2021-05-05

যা আপনি নির্মাণ করবেন

এই কোডল্যাবে, আপনি স্লার্ম কাজের শিডিউলারের সাথে Google ক্লাউডে একটি অটো-স্কেলিং হাই পারফরম্যান্স কম্পিউটিং (HPC) ক্লাস্টার স্থাপন করতে যাচ্ছেন। আপনি একটি উদাহরণ টেরাফর্ম স্থাপনার ব্যবহার করবেন যা এই ক্লাস্টারটি স্প্যাকের মাধ্যমে ইনস্টল করা WRF® এর সাথে স্থাপন করে। তারপর, আপনি CONUS 2.5km বেঞ্চমার্ক বা CONUS 12km বেঞ্চমার্ক চালানোর জন্য এই পরিকাঠামো ব্যবহার করবেন।

যা শিখবেন

  • গুগল ক্লাউড প্ল্যাটফর্মে একটি HPC ক্লাস্টার পরিচালনার জন্য আইডেন্টিটি অ্যান্ড অ্যাক্সেস ম্যানেজমেন্ট (IAM) নীতিগুলি কীভাবে কনফিগার করবেন
  • স্লার্ম কাজের শিডিউলারের সাথে একটি ক্লাউড-নেটিভ HPC ক্লাস্টার কীভাবে স্থাপন করবেন
  • স্লর্ম ব্যাচের কাজ ব্যবহার করে Google ক্লাউডে সমান্তরালে কীভাবে WRF® চালাবেন

আপনি কি প্রয়োজন হবে

2. কনফিগারেশন

Google ক্লাউড API সক্ষম করুন৷

Google ক্লাউড রিসোর্স এপিআই তৈরি এবং ব্যবহার করতে সক্ষম হতে হবে।

gcloud services enable compute.googleapis.com 

IAM নীতি সেট করুন

এইচপিসি-তে, সিস্টেম অ্যাডমিনিস্ট্রেটর এবং সিস্টেম ব্যবহারকারীদের মধ্যে স্পষ্ট পার্থক্য রয়েছে। সিস্টেম অ্যাডমিনিস্ট্রেটরদের সাধারণত "রুট অ্যাক্সেস" থাকে যা তাদের গণনা সংস্থান পরিচালনা এবং পরিচালনা করতে সক্ষম করে। সিস্টেম ব্যবহারকারীরা সাধারণত গবেষক, বিজ্ঞানী এবং অ্যাপ্লিকেশন প্রকৌশলী যারা শুধুমাত্র কাজ সম্পাদন করার জন্য সম্পদ ব্যবহার করতে হবে।

Google ক্লাউডে, OS লগইন API Google Workspace, Cloud Identity এবং Gmail অ্যাকাউন্ট থেকে POSIX ব্যবহারকারীর তথ্য প্রদান করে। অতিরিক্তভাবে, OS লগইন GCP-এর আইডেন্টিটি অ্যান্ড অ্যাকসেস ম্যানেজমেন্ট (IAM) সিস্টেমের সাথে একীভূত করে তা নির্ধারণ করতে ব্যবহারকারীদেরকে Linux সিস্টেমে বিশেষাধিকার বাড়ানোর অনুমতি দেওয়া উচিত কিনা।

এই টিউটোরিয়ালে, আমরা ধরে নিচ্ছি আপনি সিস্টেম অ্যাডমিনিস্ট্রেটর এবং কম্পিউট ইঞ্জিন অ্যাডমিনিস্ট্রেটরের ভূমিকা পূরণ করছেন। নিম্নলিখিত কাজগুলি সম্পন্ন করার জন্য আপনাকে পর্যাপ্ত অনুমতি দেওয়ার জন্য আমরা IAM নীতিগুলি কনফিগার করব

  • Google Compute Engine (GCE) VM দৃষ্টান্ত তৈরি/মুছুন
  • GCE VM দৃষ্টান্তে SSH

57883cb8acc09653.png

Google ক্লাউড কনসোলে এই টিউটোরিয়ালটি সম্পূর্ণ করার জন্য নিজেকে প্রয়োজনীয় IAM ভূমিকা দিতে:

  1. পণ্য ও পরিষেবা মেনুতে IAM এবং অ্যাডমিন > IAM-এ নেভিগেট করুন।
  2. পৃষ্ঠার উপরের দিকে "+যোগ করুন" এ ক্লিক করুন।
  3. "নতুন সদস্য" এর অধীনে আপনার Google Workspace অ্যাকাউন্ট, ক্লাউড আইডেন্টিটি অ্যাকাউন্ট বা Gmail অ্যাকাউন্ট টাইপ করুন
  4. নিম্নলিখিত ভূমিকা যোগ করুন: কম্পিউট অ্যাডমিন, কম্পিউট ওএস লগইন, এবং পরিষেবা অ্যাকাউন্ট ব্যবহারকারী
  5. Save এ ক্লিক করুন

আপনার লগইনে এখন HPC ক্লাস্টার তৈরি শুরু করার জন্য প্রয়োজনীয় অনুমতি রয়েছে৷

আপনি সঠিক ভূমিকাগুলি নির্ধারণ করেছেন তা যাচাই করতে, আপনার ক্লাউড শেল খুলুন এবং আপনার প্রকল্প এবং ইমেল ঠিকানার সাথে YOUR_PROJECT এবং EMAIL_ADDRESS প্রতিস্থাপন করে নিম্নলিখিত কমান্ডটি চালান৷

$ gcloud projects get-iam-policy YOUR_PROJECT --flatten="bindings[].members" --format='table(bindings.role)' --filter="bindings.members=user:EMAIL_ADDRESS"

এই কমান্ডটি আউটপুট দেবে:

ROLE
roles/compute.osLogin
roles/iam.serviceAccountUser
roles/compute.admin

3. নিম্ন কোটা: Terraform এর সাথে একটি স্বয়ংক্রিয়-স্কেলিং HPC ক্লাস্টার স্থাপন করুন

এই বিভাগে, আপনি Slurm কাজের সময়সূচী সহ একটি স্বয়ংক্রিয়-স্কেলিং HPC ক্লাস্টার স্থাপন করবেন। এটি উচ্চ কোটা বিকল্পের সাথে অভিন্ন, ব্যবহৃত মেশিনের ধরন ছোট এবং ব্যবহৃত vCPU-র সংখ্যা কম।

  1. GCP-তে আপনার ক্লাউড শেল খুলুন।
  2. FluidNumerics/slurm-gcp সংগ্রহস্থল ক্লোন করুন
cd ~
git clone https://github.com/FluidNumerics/slurm-gcp.git
  1. WRF ডিরেক্টরিতে পরিবর্তন করুন:
cd  ~/slurm-gcp/tf/examples/wrf
  1. একটি টেরাফর্ম পরিকল্পনা তৈরি করুন এবং পর্যালোচনা করুন। আপনার ক্লাস্টারের নাম, আপনার GCP প্রকল্প এবং আপনি যে অঞ্চলে স্থাপন করতে চান তার নাম নির্দিষ্ট করতে WRF_NAME , WRF_PROJECT , এবং WRF_ZONE এনভায়রনমেন্ট ভেরিয়েবল সেট করুন৷
export WRF_PROJECT=<PROJECT ID>
export WRF_ZONE=<ZONE>
export WRF_NAME="wrf-small"
  1. প্রথমবার যখন আপনি টেরাফর্ম চালান তখন আপনাকে অবশ্যই init কমান্ড চালাতে হবে:
terraform init
  1. মেক কমান্ড দিয়ে পরিকল্পনা তৈরি করুন, যা terraform চালাবে
make plan
  1. ক্লাস্টার স্থাপন করুন। ইনস্টলেশন এবং সেটআপ প্রক্রিয়া 2 ঘন্টা পর্যন্ত সময় নিতে পারে। স্থাপনার সময়, WRF এবং এর সমস্ত নির্ভরতা ইনস্টল করা হবে।
make apply
  1. আগের ধাপে তৈরি লগইন নোডে SSH। আপনি পূর্ববর্তী ধাপে এই নোডটি দেখতে পারেন (সম্ভবত বলা হয় wrf-small-login0 ) আপনি কনসোল মেনু আইটেম Compute Engine -> VM দৃষ্টান্তে VM দৃষ্টান্তগুলির তালিকার পাশের SSH বোতামে ক্লিক করে এটি করতে পারেন৷

বিকল্প: gcloud কমান্ডের এই জোড়া লগইন নোডের নাম এবং এতে SSH বের করবে:

export CLUSTER_LOGIN_NODE=$(gcloud compute instances list --zones ${WRF_ZONE} --filter="name ~ .*login" --format="value(name)" | head -n1)

gcloud compute ssh ${CLUSTER_LOGIN_NODE} --zone ${WRF_ZONE}

  1. একবার আপনি লগইন নোডের সাথে সংযুক্ত হয়ে গেলে, আপনার ক্লাস্টার সেটআপ যাচাই করতে, wrf মডিউল উপলব্ধ আছে কিনা তা পরীক্ষা করুন।
$ module load gcc && module load openmpi && module avail
-------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/openmpi/4.0.5-eagetxh/gcc/9.2.0 --------------------------------------
   hdf5/1.10.7    netcdf-c/4.7.4    netcdf-fortran/4.5.3    parallel-netcdf/1.12.1    wrf/4.2

------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/gcc/9.2.0 -------------------------------------------------
   hwloc/2.2.0      libiconv/1.16          libpng/1.6.37     nasm/2.15.05            openmpi/4.0.5 (L,D)    time/1.9              zlib/1.2.11
   jasper/2.0.16    libjpeg-turbo/2.0.4    libtirpc/1.2.6    ncurses/5.9.20130511    perl/5.16.3            util-macros/1.19.1
   krb5/1.15.1      libpciaccess/0.16      libxml2/2.9.10    numactl/2.0.14          tcsh/6.22.02           xz/5.2.2

--------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/Core ----------------------------------------------------
   gcc/9.2.0 (L)

---------------------------------------------------------------------- /apps/modulefiles ----------------------------------------------------------------------
   openmpi/v4.1.x
  1. যাচাই করুন যে /apps/share/conus-12km নীচে তালিকাভুক্ত বিষয়বস্তু রয়েছে।
$  ls -1 /apps/share/conus-12km/
FILE:2018-06-17_00
FILE:2018-06-17_03
FILE:2018-06-17_06
FILE:2018-06-17_09
FILE:2018-06-17_12
geo_em.d01.nc
geogrid.log
met_em.d01.2018-06-17_00:00:00.nc
met_em.d01.2018-06-17_03:00:00.nc
met_em.d01.2018-06-17_06:00:00.nc
met_em.d01.2018-06-17_09:00:00.nc
met_em.d01.2018-06-17_12:00:00.nc
metgrid.log
namelist.input
namelist.wps
ungrib.log
wrfbdy_d01
wrfinput_d01

4. CONUS 12km বেঞ্চমার্ক চালান

CONUS 12km বেঞ্চমার্ক চালানোর জন্য, আপনি Slurm ব্যাচের কাজ জমা দেবেন। এই বেঞ্চমার্কের জন্য ইনপুট ডেকগুলি wrf-gcp VM ছবিতে /apps/share/benchmarks/conus-12km-এর অধীনে অন্তর্ভুক্ত করা হয়েছে।

এই বিভাগের জন্য, আপনাকে অবশ্যই ক্লাস্টারের লগইন নোডের সাথে SSH সংযুক্ত থাকতে হবে

  1. /apps/share থেকে wrf-conus.sh ব্যাচ ফাইলের উদাহরণ কপি করুন
cp /apps/share/wrf-conus12.sh ~/
  1. --partition এবং --ntasks সঠিকভাবে সেট করা আছে কিনা তা যাচাই করতে টেক্সট এডিটরে wrf-conus.sh খুলুন। আপনি কাজটি চালু করতে যে MPI র‌্যাঙ্কগুলি ব্যবহার করতে চান তার সংখ্যায় কাজের সংখ্যা সেট করা উচিত। এই প্রদর্শনের জন্য, কাজের সংখ্যাটি কাজের জন্য ব্যবহৃত vCPU-এর সংখ্যার সমতুল্য এবং আপনার উপলব্ধ কোটা অতিক্রম করা উচিত নয়।
#!/bin/bash
#SBATCH --partition=wrf
#SBATCH --ntasks=24
#SBATCH --ntasks-per-node=8
#SBATCH --mem-per-cpu=2g
#SBATCH --cpus-per-task=1
#SBATCH --account=default
#
# /////////////////////////////////////////////// #

WORK_PATH=${HOME}/wrf-benchmark/
SRUN_FLAGS="-n $SLURM_NTASKS --cpu-bind=threads"

. /apps/share/spack.sh
module load gcc/9.2.0
module load openmpi
module load hdf5 netcdf-c netcdf-fortran wrf

mkdir -p ${WORK_PATH}
cd ${WORK_PATH}
ln -s ${INSTALL_ROOT}/share/conus-12km/* .
ln -s $(spack location -i wrf)/run/* .

srun $MPI_FLAGS ./wrf.exe
  1. Sbatch ব্যবহার করে ব্যাচের কাজ জমা দিন।
sbatch wrf-conus12.sh
  1. কাজ শেষ হওয়ার জন্য অপেক্ষা করুন। এই বেঞ্চমার্কটি 6-ঘণ্টার পূর্বাভাস চালানোর জন্য কনফিগার করা হয়েছে, যা 24টি র‍্যাঙ্ক সহ সম্পূর্ণ হতে প্রায় 3 ঘন্টা সময় নেয়। আপনি squeue দিয়ে আপনার কাজের অবস্থা নিরীক্ষণ করতে পারেন।
  2. কাজ শেষ হলে, আপনি "wrf: SUCCESS COMPLETE WRF" বিবৃতিটি দেখতে পাচ্ছেন তা যাচাই করতে rsl.out.0000-এর বিষয়বস্তু পরীক্ষা করুন। সাংখ্যিক প্রত্যয়টি ভিন্ন হবে যদি আপনি কাজটি একাধিকবার চালান, যেমন, আপনি একটি কনফিগার সেটিং ভুল পেয়েছেন এবং এটি পুনরায় চালাতে হবে।
$ tail -n1 ${HOME}/wrf-benchmark/rsl.out.0000
d01 2018-06-17_06:00:00 wrf: SUCCESS COMPLETE WRF

5. উচ্চ কোটা: Terraform এর সাথে একটি স্বয়ংক্রিয়-স্কেলিং HPC ক্লাস্টার স্থাপন করুন

এই বিভাগে, আপনি GCP-তে Slurm কাজের সময়সূচী সহ একটি স্বয়ংক্রিয়-স্কেলিং HPC ক্লাস্টার স্থাপন করবেন।

  1. GCP-তে আপনার ক্লাউড শেল খুলুন।
  2. FluidNumerics/slurm-gcp সংগ্রহস্থল ক্লোন করুন
cd ~
git clone https://github.com/FluidNumerics/slurm-gcp.git
  1. WRF ডিরেক্টরিতে পরিবর্তন করুন:
cd  ~/slurm-gcp/tf/examples/wrf
  1. একটি টেরাফর্ম পরিকল্পনা তৈরি করুন এবং পর্যালোচনা করুন। আপনার ক্লাস্টারের নাম, আপনার GCP প্রকল্প, আপনি যে অঞ্চলে স্থাপন করতে চান, নোডের সর্বোচ্চ সংখ্যা এবং মেশিনের প্রকার উল্লেখ করতে পরিবেশের ভেরিয়েবল WRF_NAME , WRF_PROJECT , WRF_ZONE , WRF_MAX_NODE , এবং WRF_MACHINE_TYPE সেট করুন৷ CONUS 2.5km বেঞ্চমার্কের জন্য, আমরা 480 MPI র‌্যাঙ্ক সহ কমপক্ষে 8টি নোড উপলব্ধ চালিত চাকরি সহ c2-standard-60 উদাহরণ ব্যবহার করার পরামর্শ দিই।
export WRF_PROJECT=<PROJECT ID>
export WRF_ZONE=<ZONE>
export WRF_NAME=wrf-large
export WRF_MAX_NODE=5
export WRF_MACHINE_TYPE="c2-standard-60"
  1. আপনি যদি উপরে এটি না করে থাকেন, তাহলে আপনাকে অবশ্যই টেরাফর্ম শুরু করতে terraform init চালাতে হবে:
terraform init
  1. মেক কমান্ড দিয়ে পরিকল্পনা তৈরি করুন।
make plan
  1. ক্লাস্টার স্থাপন করুন। ইনস্টলেশন এবং সেটআপ প্রক্রিয়া 2 ঘন্টা পর্যন্ত সময় নিতে পারে। স্থাপনার সময়, WRF এবং এর সমস্ত নির্ভরতা ইনস্টল করা হবে।
make apply
  1. আগের ধাপে তৈরি লগইন নোডে SSH। আপনি আগের ধাপে এই নোডটি দেখতে পারেন (সম্ভবত wrf-large-login0 বলা হয়) আপনি কনসোল মেনু আইটেম Compute Engine -> VM দৃষ্টান্তে VM দৃষ্টান্তগুলির তালিকার পাশের SSH বোতামে ক্লিক করে এটি করতে পারেন৷

বিকল্প: gcloud কমান্ডের এই জোড়া লগইন নোডের নাম এবং এতে SSH বের করবে:

export CLUSTER_LOGIN_NODE=$(gcloud compute instances list --zones ${WRF_ZONE} --filter="name ~ .*login" --format="value(name)" | head -n1)

gcloud compute ssh ${CLUSTER_LOGIN_NODE} --zone ${WRF_ZONE}

দ্বিতীয় কমান্ডের ফলে আপনি স্লার্ম লগইন নোডের সাথে সংযুক্ত হবেন।

  1. একবার আপনি লগইন নোডের সাথে সংযুক্ত হয়ে গেলে, আপনার ক্লাস্টার সেটআপ যাচাই করতে, wrf মডিউল উপলব্ধ আছে কিনা তা পরীক্ষা করুন।
$ module load gcc && module load openmpi && module avail
-------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/openmpi/4.0.5-eagetxh/gcc/9.2.0 --------------------------------------
   hdf5/1.10.7    netcdf-c/4.7.4    netcdf-fortran/4.5.3    parallel-netcdf/1.12.1    wrf/4.2

------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/gcc/9.2.0 -------------------------------------------------
   hwloc/2.2.0      libiconv/1.16          libpng/1.6.37     nasm/2.15.05            openmpi/4.0.5 (L,D)    time/1.9              zlib/1.2.11
   jasper/2.0.16    libjpeg-turbo/2.0.4    libtirpc/1.2.6    ncurses/5.9.20130511    perl/5.16.3            util-macros/1.19.1
   krb5/1.15.1      libpciaccess/0.16      libxml2/2.9.10    numactl/2.0.14          tcsh/6.22.02           xz/5.2.2

--------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/Core ----------------------------------------------------
   gcc/9.2.0 (L)

---------------------------------------------------------------------- /apps/modulefiles ----------------------------------------------------------------------
   openmpi/v4.1.x
  1. যাচাই করুন যে /apps/share/conus-2.5km নীচে তালিকাভুক্ত বিষয়বস্তু রয়েছে।
$ ls -1 /apps/share/conus-2.5km
FILE:2018-06-17_00
FILE:2018-06-17_03
FILE:2018-06-17_06
FILE:2018-06-17_09
FILE:2018-06-17_12
geo_em.d01.nc
geogrid.log
gfs.0p25.2018061700.f000.grib2
gfs.0p25.2018061700.f003.grib2
gfs.0p25.2018061700.f006.grib2
gfs.0p25.2018061700.f009.grib2
gfs.0p25.2018061700.f012.grib2
met_em.d01.2018-06-17_00:00:00.nc
met_em.d01.2018-06-17_03:00:00.nc
met_em.d01.2018-06-17_06:00:00.nc
met_em.d01.2018-06-17_09:00:00.nc
met_em.d01.2018-06-17_12:00:00.nc
metgrid.log
namelist.input
namelist.wps
ungrib.log
wrfbdy_d01
wrfinput_d01

6. CONUS 2.5km বেঞ্চমার্ক চালান

CONUS 2.5km বেঞ্চমার্ক চালানোর জন্য, আপনি একটি Slurm ব্যাচের কাজ জমা দেবেন। এই বেঞ্চমার্কের জন্য ইনপুট ডেকগুলি /apps/share/benchmarks/conus-2.5km-এর অধীনে wrf-gcp VM ছবিতে অন্তর্ভুক্ত করা হয়েছে।

এই বিভাগের জন্য, আপনাকে অবশ্যই ক্লাস্টারের লগইন নোডের সাথে SSH সংযুক্ত থাকতে হবে

  1. /apps/share থেকে wrf-conus.sh ব্যাচ ফাইলের উদাহরণ কপি করুন
cp /apps/share/wrf-conus2p5.sh ~/
  1. --partition এবং --ntasks সঠিকভাবে সেট করা আছে কিনা তা যাচাই করতে টেক্সট এডিটরে wrf-conus.sh খুলুন। পার্টিশনটি c2-60 সেট করা উচিত। আপনি কাজটি চালু করতে যে MPI র‌্যাঙ্কগুলি ব্যবহার করতে চান তার সংখ্যায় কাজের সংখ্যা সেট করা উচিত। এই প্রদর্শনের জন্য, কাজের সংখ্যাটি কাজের জন্য ব্যবহৃত vCPU-এর সংখ্যার সমতুল্য এবং আপনার উপলব্ধ কোটা অতিক্রম করা উচিত নয়।
#!/bin/bash
#SBATCH --partition=c2-60
#SBATCH --ntasks=480
#SBATCH --ntasks-per-node=60
#SBATCH --mem-per-cpu=2g
#SBATCH --cpus-per-task=1
#SBATCH --account=default
#
# /////////////////////////////////////////////// #

WORK_PATH=${HOME}/wrf-benchmark/
SRUN_FLAGS="-n $SLURM_NTASKS --cpu-bind=threads"

. /apps/share/spack.sh
module load gcc/9.2.0
module load openmpi
module load hdf5 netcdf-c netcdf-fortran wrf

mkdir -p ${WORK_PATH}
cd ${WORK_PATH}
ln -s ${INSTALL_ROOT}/share/conus-2.5km/* .
ln -s $(spack location -i wrf)/run/* .

srun $MPI_FLAGS ./wrf.exe
  1. Sbatch ব্যবহার করে ব্যাচের কাজ জমা দিন।
sbatch wrf-conus2p5.sh
  1. কাজ শেষ হওয়ার জন্য অপেক্ষা করুন। এই বেঞ্চমার্কটি 6-ঘণ্টার পূর্বাভাস চালানোর জন্য কনফিগার করা হয়েছে, যা 480 র‌্যাঙ্ক সহ সম্পূর্ণ হতে প্রায় 1 ঘন্টা সময় নেয়। আপনি squeue দিয়ে আপনার কাজের অবস্থা নিরীক্ষণ করতে পারেন।
  2. কাজ শেষ হলে, আপনি "wrf: SUCCESS COMPLETE WRF" বিবৃতিটি দেখতে পাচ্ছেন তা যাচাই করতে rsl.out.0000-এর বিষয়বস্তু পরীক্ষা করুন। সাংখ্যিক প্রত্যয়টি ভিন্ন হবে যদি আপনি কাজটি একাধিকবার চালান, যেমন, আপনি একটি কনফিগার সেটিং ভুল পেয়েছেন এবং এটি পুনরায় চালাতে হবে।
$ tail -n1 ${HOME}/wrf-benchmark/rsl.out.0000
d01 2018-06-17_06:00:00 wrf: SUCCESS COMPLETE WRF

7. অভিনন্দন

এই কোডল্যাবে, আপনি একটি স্বয়ংক্রিয়-স্কেলিং, ক্লাউড-নেটিভ HPC ক্লাস্টার তৈরি করেছেন এবং Google ক্লাউড প্ল্যাটফর্মে একটি সমান্তরাল WRF® সিমুলেশন চালিয়েছেন!

পরিষ্কার করা হচ্ছে

এই কোডল্যাবে ব্যবহৃত সংস্থানগুলির জন্য আপনার Google ক্লাউড প্ল্যাটফর্ম অ্যাকাউন্টে চার্জ এড়াতে:

প্রকল্পটি মুছুন

বিলিং দূর করার সবচেয়ে সহজ উপায় হল কোডল্যাবের জন্য আপনার তৈরি করা প্রকল্পটি মুছে ফেলা।

সতর্কতা : একটি প্রকল্প মুছে ফেলার নিম্নলিখিত প্রভাব রয়েছে:

  • প্রকল্পের সবকিছু মুছে ফেলা হয়েছে। আপনি যদি এই কোডল্যাবের জন্য একটি বিদ্যমান প্রকল্প ব্যবহার করেন, আপনি এটি মুছে ফেললে, আপনি প্রকল্পে আপনার করা অন্য কোনো কাজও মুছে ফেলবেন।
  • কাস্টম প্রকল্প আইডি হারিয়ে গেছে। আপনি যখন এই প্রকল্পটি তৈরি করেছেন, আপনি হয়ত একটি কাস্টম প্রকল্প আইডি তৈরি করেছেন যা আপনি ভবিষ্যতে ব্যবহার করতে চান৷ একটি appspot.com ইউআরএলের মতো প্রোজেক্ট আইডি ব্যবহার করে এমন ইউআরএল সংরক্ষণ করতে, পুরো প্রোজেক্ট মুছে ফেলার পরিবর্তে প্রোজেক্টের মধ্যে নির্বাচিত রিসোর্স মুছে দিন।

আপনি যদি একাধিক কোডল্যাব এবং কুইকস্টার্ট অন্বেষণ করার পরিকল্পনা করেন, তাহলে প্রকল্পগুলি পুনঃব্যবহার করা আপনাকে প্রকল্পের কোটা সীমা অতিক্রম করা এড়াতে সাহায্য করতে পারে।

  1. ক্লাউড কনসোলে, সম্পদ পরিচালনা পৃষ্ঠাতে যান। সম্পদ পরিচালনা পৃষ্ঠাতে যান
  2. প্রকল্প তালিকায়, আপনি যে প্রকল্পটি মুছতে চান সেটি নির্বাচন করুন এবং তারপরে মুছুন ক্লিক করুন dc096e8341a05fec.png .
  3. ডায়ালগে, প্রকল্প আইডি টাইপ করুন এবং তারপরে প্রকল্পটি মুছে ফেলতে শাট ডাউন ক্লিক করুন।

পৃথক সম্পদ মুছুন

  1. আপনার ক্লাউড শেল খুলুন এবং wrf উদাহরণ ডিরেক্টরিতে নেভিগেট করুন
cd  ~/slurm-gcp/tf/examples/wrf
  1. সমস্ত সম্পদ মুছে ফেলতে মেক ধ্বংস চালান।
make destroy