1. ভূমিকা
শেষ আপডেট: 2021-05-05
যা আপনি নির্মাণ করবেন
এই কোডল্যাবে, আপনি স্লার্ম কাজের শিডিউলারের সাথে Google ক্লাউডে একটি অটো-স্কেলিং হাই পারফরম্যান্স কম্পিউটিং (HPC) ক্লাস্টার স্থাপন করতে যাচ্ছেন। আপনি একটি উদাহরণ টেরাফর্ম স্থাপনার ব্যবহার করবেন যা এই ক্লাস্টারটি স্প্যাকের মাধ্যমে ইনস্টল করা WRF® এর সাথে স্থাপন করে। তারপর, আপনি CONUS 2.5km বেঞ্চমার্ক বা CONUS 12km বেঞ্চমার্ক চালানোর জন্য এই পরিকাঠামো ব্যবহার করবেন।
যা শিখবেন
- গুগল ক্লাউড প্ল্যাটফর্মে একটি HPC ক্লাস্টার পরিচালনার জন্য আইডেন্টিটি অ্যান্ড অ্যাক্সেস ম্যানেজমেন্ট (IAM) নীতিগুলি কীভাবে কনফিগার করবেন
- স্লার্ম কাজের শিডিউলারের সাথে একটি ক্লাউড-নেটিভ HPC ক্লাস্টার কীভাবে স্থাপন করবেন
- স্লর্ম ব্যাচের কাজ ব্যবহার করে Google ক্লাউডে সমান্তরালে কীভাবে WRF® চালাবেন
আপনি কি প্রয়োজন হবে
- একটি SSH কী সংযুক্ত Gmail অ্যাকাউন্ট বা Google Workspace , ক্লাউড আইডেন্টিটি
- বিলিং সক্ষম সহ Google ক্লাউড প্ল্যাটফর্ম প্রকল্প৷
- আপনার GCP প্রকল্পে প্রকল্পের মালিকের ভূমিকা
- পর্যাপ্ত কম্পিউট ইঞ্জিন কোটা (480 c2 vCPUs এবং 500 GB PD-স্ট্যান্ডার্ড ডিস্ক)
2. কনফিগারেশন
Google ক্লাউড API সক্ষম করুন৷
Google ক্লাউড রিসোর্স এপিআই তৈরি এবং ব্যবহার করতে সক্ষম হতে হবে।
gcloud services enable compute.googleapis.com
IAM নীতি সেট করুন
এইচপিসি-তে, সিস্টেম অ্যাডমিনিস্ট্রেটর এবং সিস্টেম ব্যবহারকারীদের মধ্যে স্পষ্ট পার্থক্য রয়েছে। সিস্টেম অ্যাডমিনিস্ট্রেটরদের সাধারণত "রুট অ্যাক্সেস" থাকে যা তাদের গণনা সংস্থান পরিচালনা এবং পরিচালনা করতে সক্ষম করে। সিস্টেম ব্যবহারকারীরা সাধারণত গবেষক, বিজ্ঞানী এবং অ্যাপ্লিকেশন প্রকৌশলী যারা শুধুমাত্র কাজ সম্পাদন করার জন্য সম্পদ ব্যবহার করতে হবে।
Google ক্লাউডে, OS লগইন API Google Workspace, Cloud Identity এবং Gmail অ্যাকাউন্ট থেকে POSIX ব্যবহারকারীর তথ্য প্রদান করে। অতিরিক্তভাবে, OS লগইন GCP-এর আইডেন্টিটি অ্যান্ড অ্যাকসেস ম্যানেজমেন্ট (IAM) সিস্টেমের সাথে একীভূত করে তা নির্ধারণ করতে ব্যবহারকারীদেরকে Linux সিস্টেমে বিশেষাধিকার বাড়ানোর অনুমতি দেওয়া উচিত কিনা।
এই টিউটোরিয়ালে, আমরা ধরে নিচ্ছি আপনি সিস্টেম অ্যাডমিনিস্ট্রেটর এবং কম্পিউট ইঞ্জিন অ্যাডমিনিস্ট্রেটরের ভূমিকা পূরণ করছেন। নিম্নলিখিত কাজগুলি সম্পন্ন করার জন্য আপনাকে পর্যাপ্ত অনুমতি দেওয়ার জন্য আমরা IAM নীতিগুলি কনফিগার করব
- Google Compute Engine (GCE) VM দৃষ্টান্ত তৈরি/মুছুন
- GCE VM দৃষ্টান্তে SSH
Google ক্লাউড কনসোলে এই টিউটোরিয়ালটি সম্পূর্ণ করার জন্য নিজেকে প্রয়োজনীয় IAM ভূমিকা দিতে:
- পণ্য ও পরিষেবা মেনুতে IAM এবং অ্যাডমিন > IAM-এ নেভিগেট করুন।
- পৃষ্ঠার উপরের দিকে "+যোগ করুন" এ ক্লিক করুন।
- "নতুন সদস্য" এর অধীনে আপনার Google Workspace অ্যাকাউন্ট, ক্লাউড আইডেন্টিটি অ্যাকাউন্ট বা Gmail অ্যাকাউন্ট টাইপ করুন
- নিম্নলিখিত ভূমিকা যোগ করুন: কম্পিউট অ্যাডমিন, কম্পিউট ওএস লগইন, এবং পরিষেবা অ্যাকাউন্ট ব্যবহারকারী
- Save এ ক্লিক করুন
আপনার লগইনে এখন HPC ক্লাস্টার তৈরি শুরু করার জন্য প্রয়োজনীয় অনুমতি রয়েছে৷
আপনি সঠিক ভূমিকাগুলি নির্ধারণ করেছেন তা যাচাই করতে, আপনার ক্লাউড শেল খুলুন এবং আপনার প্রকল্প এবং ইমেল ঠিকানার সাথে YOUR_PROJECT
এবং EMAIL_ADDRESS
প্রতিস্থাপন করে নিম্নলিখিত কমান্ডটি চালান৷
$ gcloud projects get-iam-policy YOUR_PROJECT --flatten="bindings[].members" --format='table(bindings.role)' --filter="bindings.members=user:EMAIL_ADDRESS"
এই কমান্ডটি আউটপুট দেবে:
ROLE roles/compute.osLogin roles/iam.serviceAccountUser roles/compute.admin
3. নিম্ন কোটা: Terraform এর সাথে একটি স্বয়ংক্রিয়-স্কেলিং HPC ক্লাস্টার স্থাপন করুন
এই বিভাগে, আপনি Slurm কাজের সময়সূচী সহ একটি স্বয়ংক্রিয়-স্কেলিং HPC ক্লাস্টার স্থাপন করবেন। এটি উচ্চ কোটা বিকল্পের সাথে অভিন্ন, ব্যবহৃত মেশিনের ধরন ছোট এবং ব্যবহৃত vCPU-র সংখ্যা কম।
- GCP-তে আপনার ক্লাউড শেল খুলুন।
- FluidNumerics/slurm-gcp সংগ্রহস্থল ক্লোন করুন
cd ~ git clone https://github.com/FluidNumerics/slurm-gcp.git
- WRF ডিরেক্টরিতে পরিবর্তন করুন:
cd ~/slurm-gcp/tf/examples/wrf
- একটি টেরাফর্ম পরিকল্পনা তৈরি করুন এবং পর্যালোচনা করুন। আপনার ক্লাস্টারের নাম, আপনার GCP প্রকল্প এবং আপনি যে অঞ্চলে স্থাপন করতে চান তার নাম নির্দিষ্ট করতে
WRF_NAME
,WRF_PROJECT
, এবংWRF_ZONE
এনভায়রনমেন্ট ভেরিয়েবল সেট করুন৷
export WRF_PROJECT=<PROJECT ID> export WRF_ZONE=<ZONE> export WRF_NAME="wrf-small"
- প্রথমবার যখন আপনি টেরাফর্ম চালান তখন আপনাকে অবশ্যই
init
কমান্ড চালাতে হবে:
terraform init
- মেক কমান্ড দিয়ে পরিকল্পনা তৈরি করুন, যা
terraform
চালাবে
make plan
- ক্লাস্টার স্থাপন করুন। ইনস্টলেশন এবং সেটআপ প্রক্রিয়া 2 ঘন্টা পর্যন্ত সময় নিতে পারে। স্থাপনার সময়, WRF এবং এর সমস্ত নির্ভরতা ইনস্টল করা হবে।
make apply
- আগের ধাপে তৈরি লগইন নোডে SSH। আপনি পূর্ববর্তী ধাপে এই নোডটি দেখতে পারেন (সম্ভবত বলা হয় wrf-small-login0 ) । আপনি কনসোল মেনু আইটেম Compute Engine -> VM দৃষ্টান্তে VM দৃষ্টান্তগুলির তালিকার পাশের SSH বোতামে ক্লিক করে এটি করতে পারেন৷
বিকল্প: gcloud কমান্ডের এই জোড়া লগইন নোডের নাম এবং এতে SSH বের করবে:
export CLUSTER_LOGIN_NODE=$(gcloud compute instances list --zones ${WRF_ZONE} --filter="name ~ .*login" --format="value(name)" | head -n1) gcloud compute ssh ${CLUSTER_LOGIN_NODE} --zone ${WRF_ZONE}
- একবার আপনি লগইন নোডের সাথে সংযুক্ত হয়ে গেলে, আপনার ক্লাস্টার সেটআপ যাচাই করতে, wrf মডিউল উপলব্ধ আছে কিনা তা পরীক্ষা করুন।
$ module load gcc && module load openmpi && module avail -------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/openmpi/4.0.5-eagetxh/gcc/9.2.0 -------------------------------------- hdf5/1.10.7 netcdf-c/4.7.4 netcdf-fortran/4.5.3 parallel-netcdf/1.12.1 wrf/4.2 ------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/gcc/9.2.0 ------------------------------------------------- hwloc/2.2.0 libiconv/1.16 libpng/1.6.37 nasm/2.15.05 openmpi/4.0.5 (L,D) time/1.9 zlib/1.2.11 jasper/2.0.16 libjpeg-turbo/2.0.4 libtirpc/1.2.6 ncurses/5.9.20130511 perl/5.16.3 util-macros/1.19.1 krb5/1.15.1 libpciaccess/0.16 libxml2/2.9.10 numactl/2.0.14 tcsh/6.22.02 xz/5.2.2 --------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/Core ---------------------------------------------------- gcc/9.2.0 (L) ---------------------------------------------------------------------- /apps/modulefiles ---------------------------------------------------------------------- openmpi/v4.1.x
- যাচাই করুন যে
/apps/share/conus-12km
নীচে তালিকাভুক্ত বিষয়বস্তু রয়েছে।
$ ls -1 /apps/share/conus-12km/ FILE:2018-06-17_00 FILE:2018-06-17_03 FILE:2018-06-17_06 FILE:2018-06-17_09 FILE:2018-06-17_12 geo_em.d01.nc geogrid.log met_em.d01.2018-06-17_00:00:00.nc met_em.d01.2018-06-17_03:00:00.nc met_em.d01.2018-06-17_06:00:00.nc met_em.d01.2018-06-17_09:00:00.nc met_em.d01.2018-06-17_12:00:00.nc metgrid.log namelist.input namelist.wps ungrib.log wrfbdy_d01 wrfinput_d01
4. CONUS 12km বেঞ্চমার্ক চালান
CONUS 12km বেঞ্চমার্ক চালানোর জন্য, আপনি Slurm ব্যাচের কাজ জমা দেবেন। এই বেঞ্চমার্কের জন্য ইনপুট ডেকগুলি wrf-gcp VM ছবিতে /apps/share/benchmarks/conus-12km-এর অধীনে অন্তর্ভুক্ত করা হয়েছে।
এই বিভাগের জন্য, আপনাকে অবশ্যই ক্লাস্টারের লগইন নোডের সাথে SSH সংযুক্ত থাকতে হবে
- /apps/share থেকে wrf-conus.sh ব্যাচ ফাইলের উদাহরণ কপি করুন
cp /apps/share/wrf-conus12.sh ~/
-
--partition
এবং--ntasks
সঠিকভাবে সেট করা আছে কিনা তা যাচাই করতে টেক্সট এডিটরে wrf-conus.sh খুলুন। আপনি কাজটি চালু করতে যে MPI র্যাঙ্কগুলি ব্যবহার করতে চান তার সংখ্যায় কাজের সংখ্যা সেট করা উচিত। এই প্রদর্শনের জন্য, কাজের সংখ্যাটি কাজের জন্য ব্যবহৃত vCPU-এর সংখ্যার সমতুল্য এবং আপনার উপলব্ধ কোটা অতিক্রম করা উচিত নয়।
#!/bin/bash #SBATCH --partition=wrf #SBATCH --ntasks=24 #SBATCH --ntasks-per-node=8 #SBATCH --mem-per-cpu=2g #SBATCH --cpus-per-task=1 #SBATCH --account=default # # /////////////////////////////////////////////// # WORK_PATH=${HOME}/wrf-benchmark/ SRUN_FLAGS="-n $SLURM_NTASKS --cpu-bind=threads" . /apps/share/spack.sh module load gcc/9.2.0 module load openmpi module load hdf5 netcdf-c netcdf-fortran wrf mkdir -p ${WORK_PATH} cd ${WORK_PATH} ln -s ${INSTALL_ROOT}/share/conus-12km/* . ln -s $(spack location -i wrf)/run/* . srun $MPI_FLAGS ./wrf.exe
- Sbatch ব্যবহার করে ব্যাচের কাজ জমা দিন।
sbatch wrf-conus12.sh
- কাজ শেষ হওয়ার জন্য অপেক্ষা করুন। এই বেঞ্চমার্কটি 6-ঘণ্টার পূর্বাভাস চালানোর জন্য কনফিগার করা হয়েছে, যা 24টি র্যাঙ্ক সহ সম্পূর্ণ হতে প্রায় 3 ঘন্টা সময় নেয়। আপনি
squeue
দিয়ে আপনার কাজের অবস্থা নিরীক্ষণ করতে পারেন। - কাজ শেষ হলে, আপনি "wrf: SUCCESS COMPLETE WRF" বিবৃতিটি দেখতে পাচ্ছেন তা যাচাই করতে rsl.out.0000-এর বিষয়বস্তু পরীক্ষা করুন। সাংখ্যিক প্রত্যয়টি ভিন্ন হবে যদি আপনি কাজটি একাধিকবার চালান, যেমন, আপনি একটি কনফিগার সেটিং ভুল পেয়েছেন এবং এটি পুনরায় চালাতে হবে।
$ tail -n1 ${HOME}/wrf-benchmark/rsl.out.0000 d01 2018-06-17_06:00:00 wrf: SUCCESS COMPLETE WRF
5. উচ্চ কোটা: Terraform এর সাথে একটি স্বয়ংক্রিয়-স্কেলিং HPC ক্লাস্টার স্থাপন করুন
এই বিভাগে, আপনি GCP-তে Slurm কাজের সময়সূচী সহ একটি স্বয়ংক্রিয়-স্কেলিং HPC ক্লাস্টার স্থাপন করবেন।
- GCP-তে আপনার ক্লাউড শেল খুলুন।
- FluidNumerics/slurm-gcp সংগ্রহস্থল ক্লোন করুন
cd ~ git clone https://github.com/FluidNumerics/slurm-gcp.git
- WRF ডিরেক্টরিতে পরিবর্তন করুন:
cd ~/slurm-gcp/tf/examples/wrf
- একটি টেরাফর্ম পরিকল্পনা তৈরি করুন এবং পর্যালোচনা করুন। আপনার ক্লাস্টারের নাম, আপনার GCP প্রকল্প, আপনি যে অঞ্চলে স্থাপন করতে চান, নোডের সর্বোচ্চ সংখ্যা এবং মেশিনের প্রকার উল্লেখ করতে পরিবেশের ভেরিয়েবল
WRF_NAME
,WRF_PROJECT
,WRF_ZONE
,WRF_MAX_NODE
, এবংWRF_MACHINE_TYPE
সেট করুন৷ CONUS 2.5km বেঞ্চমার্কের জন্য, আমরা 480 MPI র্যাঙ্ক সহ কমপক্ষে 8টি নোড উপলব্ধ চালিত চাকরি সহ c2-standard-60 উদাহরণ ব্যবহার করার পরামর্শ দিই।
export WRF_PROJECT=<PROJECT ID> export WRF_ZONE=<ZONE> export WRF_NAME=wrf-large export WRF_MAX_NODE=5 export WRF_MACHINE_TYPE="c2-standard-60"
- আপনি যদি উপরে এটি না করে থাকেন, তাহলে আপনাকে অবশ্যই টেরাফর্ম শুরু করতে
terraform init
চালাতে হবে:
terraform init
- মেক কমান্ড দিয়ে পরিকল্পনা তৈরি করুন।
make plan
- ক্লাস্টার স্থাপন করুন। ইনস্টলেশন এবং সেটআপ প্রক্রিয়া 2 ঘন্টা পর্যন্ত সময় নিতে পারে। স্থাপনার সময়, WRF এবং এর সমস্ত নির্ভরতা ইনস্টল করা হবে।
make apply
- আগের ধাপে তৈরি লগইন নোডে SSH। আপনি আগের ধাপে এই নোডটি দেখতে পারেন (সম্ভবত wrf-large-login0 বলা হয়) । আপনি কনসোল মেনু আইটেম Compute Engine -> VM দৃষ্টান্তে VM দৃষ্টান্তগুলির তালিকার পাশের SSH বোতামে ক্লিক করে এটি করতে পারেন৷
বিকল্প: gcloud কমান্ডের এই জোড়া লগইন নোডের নাম এবং এতে SSH বের করবে:
export CLUSTER_LOGIN_NODE=$(gcloud compute instances list --zones ${WRF_ZONE} --filter="name ~ .*login" --format="value(name)" | head -n1) gcloud compute ssh ${CLUSTER_LOGIN_NODE} --zone ${WRF_ZONE}
দ্বিতীয় কমান্ডের ফলে আপনি স্লার্ম লগইন নোডের সাথে সংযুক্ত হবেন।
- একবার আপনি লগইন নোডের সাথে সংযুক্ত হয়ে গেলে, আপনার ক্লাস্টার সেটআপ যাচাই করতে, wrf মডিউল উপলব্ধ আছে কিনা তা পরীক্ষা করুন।
$ module load gcc && module load openmpi && module avail -------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/openmpi/4.0.5-eagetxh/gcc/9.2.0 -------------------------------------- hdf5/1.10.7 netcdf-c/4.7.4 netcdf-fortran/4.5.3 parallel-netcdf/1.12.1 wrf/4.2 ------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/gcc/9.2.0 ------------------------------------------------- hwloc/2.2.0 libiconv/1.16 libpng/1.6.37 nasm/2.15.05 openmpi/4.0.5 (L,D) time/1.9 zlib/1.2.11 jasper/2.0.16 libjpeg-turbo/2.0.4 libtirpc/1.2.6 ncurses/5.9.20130511 perl/5.16.3 util-macros/1.19.1 krb5/1.15.1 libpciaccess/0.16 libxml2/2.9.10 numactl/2.0.14 tcsh/6.22.02 xz/5.2.2 --------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/Core ---------------------------------------------------- gcc/9.2.0 (L) ---------------------------------------------------------------------- /apps/modulefiles ---------------------------------------------------------------------- openmpi/v4.1.x
- যাচাই করুন যে
/apps/share/conus-2.5km
নীচে তালিকাভুক্ত বিষয়বস্তু রয়েছে।
$ ls -1 /apps/share/conus-2.5km FILE:2018-06-17_00 FILE:2018-06-17_03 FILE:2018-06-17_06 FILE:2018-06-17_09 FILE:2018-06-17_12 geo_em.d01.nc geogrid.log gfs.0p25.2018061700.f000.grib2 gfs.0p25.2018061700.f003.grib2 gfs.0p25.2018061700.f006.grib2 gfs.0p25.2018061700.f009.grib2 gfs.0p25.2018061700.f012.grib2 met_em.d01.2018-06-17_00:00:00.nc met_em.d01.2018-06-17_03:00:00.nc met_em.d01.2018-06-17_06:00:00.nc met_em.d01.2018-06-17_09:00:00.nc met_em.d01.2018-06-17_12:00:00.nc metgrid.log namelist.input namelist.wps ungrib.log wrfbdy_d01 wrfinput_d01
6. CONUS 2.5km বেঞ্চমার্ক চালান
CONUS 2.5km বেঞ্চমার্ক চালানোর জন্য, আপনি একটি Slurm ব্যাচের কাজ জমা দেবেন। এই বেঞ্চমার্কের জন্য ইনপুট ডেকগুলি /apps/share/benchmarks/conus-2.5km-এর অধীনে wrf-gcp VM ছবিতে অন্তর্ভুক্ত করা হয়েছে।
এই বিভাগের জন্য, আপনাকে অবশ্যই ক্লাস্টারের লগইন নোডের সাথে SSH সংযুক্ত থাকতে হবে
- /apps/share থেকে wrf-conus.sh ব্যাচ ফাইলের উদাহরণ কপি করুন
cp /apps/share/wrf-conus2p5.sh ~/
-
--partition
এবং--ntasks
সঠিকভাবে সেট করা আছে কিনা তা যাচাই করতে টেক্সট এডিটরে wrf-conus.sh খুলুন। পার্টিশনটি c2-60 সেট করা উচিত। আপনি কাজটি চালু করতে যে MPI র্যাঙ্কগুলি ব্যবহার করতে চান তার সংখ্যায় কাজের সংখ্যা সেট করা উচিত। এই প্রদর্শনের জন্য, কাজের সংখ্যাটি কাজের জন্য ব্যবহৃত vCPU-এর সংখ্যার সমতুল্য এবং আপনার উপলব্ধ কোটা অতিক্রম করা উচিত নয়।
#!/bin/bash #SBATCH --partition=c2-60 #SBATCH --ntasks=480 #SBATCH --ntasks-per-node=60 #SBATCH --mem-per-cpu=2g #SBATCH --cpus-per-task=1 #SBATCH --account=default # # /////////////////////////////////////////////// # WORK_PATH=${HOME}/wrf-benchmark/ SRUN_FLAGS="-n $SLURM_NTASKS --cpu-bind=threads" . /apps/share/spack.sh module load gcc/9.2.0 module load openmpi module load hdf5 netcdf-c netcdf-fortran wrf mkdir -p ${WORK_PATH} cd ${WORK_PATH} ln -s ${INSTALL_ROOT}/share/conus-2.5km/* . ln -s $(spack location -i wrf)/run/* . srun $MPI_FLAGS ./wrf.exe
- Sbatch ব্যবহার করে ব্যাচের কাজ জমা দিন।
sbatch wrf-conus2p5.sh
- কাজ শেষ হওয়ার জন্য অপেক্ষা করুন। এই বেঞ্চমার্কটি 6-ঘণ্টার পূর্বাভাস চালানোর জন্য কনফিগার করা হয়েছে, যা 480 র্যাঙ্ক সহ সম্পূর্ণ হতে প্রায় 1 ঘন্টা সময় নেয়। আপনি
squeue
দিয়ে আপনার কাজের অবস্থা নিরীক্ষণ করতে পারেন। - কাজ শেষ হলে, আপনি "wrf: SUCCESS COMPLETE WRF" বিবৃতিটি দেখতে পাচ্ছেন তা যাচাই করতে rsl.out.0000-এর বিষয়বস্তু পরীক্ষা করুন। সাংখ্যিক প্রত্যয়টি ভিন্ন হবে যদি আপনি কাজটি একাধিকবার চালান, যেমন, আপনি একটি কনফিগার সেটিং ভুল পেয়েছেন এবং এটি পুনরায় চালাতে হবে।
$ tail -n1 ${HOME}/wrf-benchmark/rsl.out.0000 d01 2018-06-17_06:00:00 wrf: SUCCESS COMPLETE WRF
7. অভিনন্দন
এই কোডল্যাবে, আপনি একটি স্বয়ংক্রিয়-স্কেলিং, ক্লাউড-নেটিভ HPC ক্লাস্টার তৈরি করেছেন এবং Google ক্লাউড প্ল্যাটফর্মে একটি সমান্তরাল WRF® সিমুলেশন চালিয়েছেন!
পরিষ্কার করা হচ্ছে
এই কোডল্যাবে ব্যবহৃত সংস্থানগুলির জন্য আপনার Google ক্লাউড প্ল্যাটফর্ম অ্যাকাউন্টে চার্জ এড়াতে:
প্রকল্পটি মুছুন
বিলিং দূর করার সবচেয়ে সহজ উপায় হল কোডল্যাবের জন্য আপনার তৈরি করা প্রকল্পটি মুছে ফেলা।
সতর্কতা : একটি প্রকল্প মুছে ফেলার নিম্নলিখিত প্রভাব রয়েছে:
- প্রকল্পের সবকিছু মুছে ফেলা হয়েছে। আপনি যদি এই কোডল্যাবের জন্য একটি বিদ্যমান প্রকল্প ব্যবহার করেন, আপনি এটি মুছে ফেললে, আপনি প্রকল্পে আপনার করা অন্য কোনো কাজও মুছে ফেলবেন।
- কাস্টম প্রকল্প আইডি হারিয়ে গেছে। আপনি যখন এই প্রকল্পটি তৈরি করেছেন, আপনি হয়ত একটি কাস্টম প্রকল্প আইডি তৈরি করেছেন যা আপনি ভবিষ্যতে ব্যবহার করতে চান৷ একটি appspot.com ইউআরএলের মতো প্রোজেক্ট আইডি ব্যবহার করে এমন ইউআরএল সংরক্ষণ করতে, পুরো প্রোজেক্ট মুছে ফেলার পরিবর্তে প্রোজেক্টের মধ্যে নির্বাচিত রিসোর্স মুছে দিন।
আপনি যদি একাধিক কোডল্যাব এবং কুইকস্টার্ট অন্বেষণ করার পরিকল্পনা করেন, তাহলে প্রকল্পগুলি পুনঃব্যবহার করা আপনাকে প্রকল্পের কোটা সীমা অতিক্রম করা এড়াতে সাহায্য করতে পারে।
- ক্লাউড কনসোলে, সম্পদ পরিচালনা পৃষ্ঠাতে যান। সম্পদ পরিচালনা পৃষ্ঠাতে যান
- প্রকল্প তালিকায়, আপনি যে প্রকল্পটি মুছতে চান সেটি নির্বাচন করুন এবং তারপরে মুছুন ক্লিক করুন .
- ডায়ালগে, প্রকল্প আইডি টাইপ করুন এবং তারপরে প্রকল্পটি মুছে ফেলতে শাট ডাউন ক্লিক করুন।
পৃথক সম্পদ মুছুন
- আপনার ক্লাউড শেল খুলুন এবং wrf উদাহরণ ডিরেক্টরিতে নেভিগেট করুন
cd ~/slurm-gcp/tf/examples/wrf
- সমস্ত সম্পদ মুছে ফেলতে মেক ধ্বংস চালান।
make destroy