১. ভূমিকা

সর্বশেষ হালনাগাদ: ২০২১-০৫-০৫
আপনি যা তৈরি করবেন
এই কোডল্যাবে, আপনি স্লার্ম (Slurm) জব শিডিউলার ব্যবহার করে গুগল ক্লাউডে একটি অটো-স্কেলিং হাই পারফরম্যান্স কম্পিউটিং (HPC) ক্লাস্টার ডেপ্লয় করবেন। আপনি একটি উদাহরণ টেরাফর্ম ডেপ্লয়মেন্ট ব্যবহার করবেন, যা স্প্যাক (Spack) এর মাধ্যমে WRF® ইনস্টল করে এই ক্লাস্টারটি ডেপ্লয় করে। এরপর, আপনি এই ইনফ্রাস্ট্রাকচারটি ব্যবহার করে CONUS 2.5km বেঞ্চমার্ক অথবা CONUS 12km বেঞ্চমার্ক চালাবেন।
আপনি যা শিখবেন
- গুগল ক্লাউড প্ল্যাটফর্মে একটি এইচপিসি ক্লাস্টার পরিচালনার জন্য আইডেন্টিটি অ্যান্ড অ্যাক্সেস ম্যানেজমেন্ট (আইএএম) পলিসি কীভাবে কনফিগার করবেন
- স্লার্ম জব শিডিউলার ব্যবহার করে কীভাবে একটি ক্লাউড-নেটিভ এইচপিসি ক্লাস্টার স্থাপন করবেন
- স্লার্ম ব্যাচ জব ব্যবহার করে গুগল ক্লাউডে WRF® সমান্তরালভাবে কীভাবে চালানো যায়
আপনার যা যা প্রয়োজন হবে
- SSH কী সংযুক্ত Gmail অ্যাকাউন্ট , অথবা Google Workspace , ক্লাউড আইডেন্টিটি
- বিলিং সক্ষম গুগল ক্লাউড প্ল্যাটফর্ম প্রজেক্ট
- আপনার GCP প্রজেক্টে প্রজেক্ট ওনারের ভূমিকা
- পর্যাপ্ত কম্পিউট ইঞ্জিন কোটা (৪৮০টি সি২ ভিসিপিইউ এবং ৫০০ জিবি পিডি-স্ট্যান্ডার্ড ডিস্ক)
২. কনফিগারেশন
গুগল ক্লাউড এপিআই সক্রিয় করুন
গুগল ক্লাউড রিসোর্স তৈরি ও ব্যবহার করার জন্য এপিআইগুলো সক্রিয় থাকতে হবে।
gcloud services enable compute.googleapis.com
IAM নীতিমালা নির্ধারণ করুন
এইচপিসি-তে সিস্টেম অ্যাডমিনিস্ট্রেটর এবং সিস্টেম ইউজারদের মধ্যে সুস্পষ্ট পার্থক্য রয়েছে। সিস্টেম অ্যাডমিনিস্ট্রেটরদের সাধারণত "রুট অ্যাক্সেস" থাকে, যা তাদেরকে কম্পিউট রিসোর্স পরিচালনা ও ব্যবহারে সক্ষম করে। সিস্টেম ইউজাররা হলেন সাধারণত গবেষক, বিজ্ঞানী এবং অ্যাপ্লিকেশন ইঞ্জিনিয়ার, যাদের শুধুমাত্র কাজ সম্পাদনের জন্য রিসোর্সগুলো ব্যবহার করার প্রয়োজন হয়।
গুগল ক্লাউডে, ওএস লগইন এপিআই গুগল ওয়ার্কস্পেস, ক্লাউড আইডেন্টিটি এবং জিমেইল অ্যাকাউন্ট থেকে POSIX ব্যবহারকারীর তথ্য সরবরাহ করে। এছাড়াও, লিনাক্স সিস্টেমে ব্যবহারকারীদের বিশেষাধিকার বৃদ্ধির অনুমতি দেওয়া উচিত কিনা তা নির্ধারণ করতে ওএস লগইন জিসিপি-র আইডেন্টিটি অ্যান্ড অ্যাক্সেস ম্যানেজমেন্ট (IAM) সিস্টেমের সাথে সমন্বিত হয়।
এই টিউটোরিয়ালে, আমরা ধরে নিচ্ছি যে আপনি সিস্টেম অ্যাডমিনিস্ট্রেটর এবং কম্পিউট ইঞ্জিন অ্যাডমিনিস্ট্রেটর-এর দায়িত্ব পালন করছেন। নিম্নলিখিত কাজগুলো সম্পন্ন করার জন্য আপনাকে পর্যাপ্ত অনুমতি দিতে আমরা IAM পলিসি কনফিগার করব।
- গুগল কম্পিউট ইঞ্জিন (GCE) ভিএম ইনস্ট্যান্স তৈরি/মুছে ফেলুন
- GCE VM ইনস্ট্যান্সগুলিতে SSH করুন

এই টিউটোরিয়ালটি সম্পন্ন করার জন্য নিজেকে প্রয়োজনীয় IAM রোলগুলো দিতে, গুগল ক্লাউড কনসোলে:
- Products and Services মেনুতে থাকা IAM & Admin > IAM-এ যান।
- পৃষ্ঠার উপরের দিকে থাকা "+Add" বোতামে ক্লিক করুন।
- "নতুন সদস্য" অংশে আপনার Google Workspace অ্যাকাউন্ট, Cloud Identity অ্যাকাউন্ট বা Gmail অ্যাকাউন্ট টাইপ করুন।
- নিম্নলিখিত রোলগুলি যোগ করুন: কম্পিউট অ্যাডমিন, কম্পিউট ওএস লগইন, এবং সার্ভিস অ্যাকাউন্ট ইউজার
- সংরক্ষণ করুন ক্লিক করুন
আপনার লগইনের এখন এইচপিসি ক্লাস্টার তৈরি শুরু করার জন্য প্রয়োজনীয় অনুমতি রয়েছে।
আপনি সঠিক ভূমিকা (role) বরাদ্দ করেছেন কিনা তা যাচাই করতে, আপনার ক্লাউড শেল (Cloud Shell) খুলুন এবং নিম্নলিখিত কমান্ডটি চালান, যেখানে YOUR_PROJECT এবং EMAIL_ADDRESS জায়গায় আপনার প্রজেক্ট এবং ইমেল ঠিকানা বসান।
$ gcloud projects get-iam-policy YOUR_PROJECT --flatten="bindings[].members" --format='table(bindings.role)' --filter="bindings.members=user:EMAIL_ADDRESS"
এই কমান্ডটি নিম্নলিখিত আউটপুট দেবে:
ROLE roles/compute.osLogin roles/iam.serviceAccountUser roles/compute.admin
৩. স্বল্প কোটা: Terraform ব্যবহার করে একটি অটো-স্কেলিং HPC ক্লাস্টার স্থাপন করুন
এই অংশে, আপনি স্লার্ম জব শিডিউলার সহ একটি অটো-স্কেলিং এইচপিসি ক্লাস্টার স্থাপন করবেন। এটি হাই কোটা অপশনের অনুরূপ, তবে এক্ষেত্রে ব্যবহৃত মেশিনের ধরন এবং ব্যবহৃত vCPU-এর সংখ্যা কম থাকে।
- GCP-তে আপনার ক্লাউড শেল খুলুন।
- FluidNumerics/slurm-gcp রিপোজিটরিটি ক্লোন করুন
cd ~ git clone https://github.com/FluidNumerics/slurm-gcp.git
- WRF ডিরেক্টরিতে পরিবর্তন করুন:
cd ~/slurm-gcp/tf/examples/wrf
- একটি টেরাফর্ম প্ল্যান তৈরি ও পর্যালোচনা করুন। আপনার ক্লাস্টারের নাম, আপনার GCP প্রজেক্ট এবং যে জোনে আপনি ডেপ্লয় করতে চান তা নির্দিষ্ট করতে
WRF_NAME,WRF_PROJECTএবংWRF_ZONEএনভায়রনমেন্ট ভেরিয়েবলগুলো সেট করুন।
export WRF_PROJECT=<PROJECT ID> export WRF_ZONE=<ZONE> export WRF_NAME="wrf-small"
- প্রথমবার টেরাফর্ম চালানোর সময় আপনাকে অবশ্যই
initকমান্ডটি চালাতে হবে:
terraform init
- make কমান্ড দিয়ে প্ল্যানটি তৈরি করুন, যা
terraformচালাবে।
make plan
- ক্লাস্টারটি স্থাপন করুন। ইনস্টলেশন এবং সেটআপ প্রক্রিয়াটিতে ২ ঘন্টা পর্যন্ত সময় লাগতে পারে। স্থাপনের সময়, WRF এবং এর সমস্ত নির্ভরশীলতা ইনস্টল করা হবে।
make apply
- পূর্ববর্তী ধাপে তৈরি করা লগইন নোডটিতে SSH করুন। আপনি এই নোডটি পূর্ববর্তী ধাপে দেখতে পাবেন (সম্ভবত এর নাম wrf-small-login0 ) । কনসোল মেনু আইটেম Compute Engine -> VM instance- এ VM Instance-এর তালিকার পাশে থাকা SSH বোতামে ক্লিক করে আপনি এটি করতে পারেন।
বিকল্প: এই জোড়া gcloud কমান্ড লগইন নোডের নাম খুঁজে বের করবে এবং তাতে SSH করবে:
export CLUSTER_LOGIN_NODE=$(gcloud compute instances list --zones ${WRF_ZONE} --filter="name ~ .*login" --format="value(name)" | head -n1)
gcloud compute ssh ${CLUSTER_LOGIN_NODE} --zone ${WRF_ZONE}
- লগইন নোডের সাথে সংযুক্ত হওয়ার পর, আপনার ক্লাস্টার সেটআপ যাচাই করতে, wrf মডিউলটি উপলব্ধ আছে কিনা তা পরীক্ষা করুন।
$ module load gcc && module load openmpi && module avail -------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/openmpi/4.0.5-eagetxh/gcc/9.2.0 -------------------------------------- hdf5/1.10.7 netcdf-c/4.7.4 netcdf-fortran/4.5.3 parallel-netcdf/1.12.1 wrf/4.2 ------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/gcc/9.2.0 ------------------------------------------------- hwloc/2.2.0 libiconv/1.16 libpng/1.6.37 nasm/2.15.05 openmpi/4.0.5 (L,D) time/1.9 zlib/1.2.11 jasper/2.0.16 libjpeg-turbo/2.0.4 libtirpc/1.2.6 ncurses/5.9.20130511 perl/5.16.3 util-macros/1.19.1 krb5/1.15.1 libpciaccess/0.16 libxml2/2.9.10 numactl/2.0.14 tcsh/6.22.02 xz/5.2.2 --------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/Core ---------------------------------------------------- gcc/9.2.0 (L) ---------------------------------------------------------------------- /apps/modulefiles ---------------------------------------------------------------------- openmpi/v4.1.x
- যাচাই করুন যে
/apps/share/conus-12kmনিচে তালিকাভুক্ত বিষয়বস্তু রয়েছে।
$ ls -1 /apps/share/conus-12km/ FILE:2018-06-17_00 FILE:2018-06-17_03 FILE:2018-06-17_06 FILE:2018-06-17_09 FILE:2018-06-17_12 geo_em.d01.nc geogrid.log met_em.d01.2018-06-17_00:00:00.nc met_em.d01.2018-06-17_03:00:00.nc met_em.d01.2018-06-17_06:00:00.nc met_em.d01.2018-06-17_09:00:00.nc met_em.d01.2018-06-17_12:00:00.nc metgrid.log namelist.input namelist.wps ungrib.log wrfbdy_d01 wrfinput_d01
৪. CONUS ১২ কিমি বেঞ্চমার্ক দৌড়ান।
CONUS 12km বেঞ্চমার্কটি চালানোর জন্য, আপনাকে একটি Slurm ব্যাচ জব সাবমিট করতে হবে। এই বেঞ্চমার্কের জন্য ইনপুট ডেকগুলো /apps/share/benchmarks/conus-12km-এর অধীনে wrf-gcp VM ইমেজে অন্তর্ভুক্ত রয়েছে।
এই অংশের জন্য, আপনাকে অবশ্যই ক্লাস্টারের লগইন নোডের সাথে SSH-এর মাধ্যমে সংযুক্ত থাকতে হবে।
- /apps/share থেকে উদাহরণ wrf-conus.sh ব্যাচ ফাইলটি কপি করুন।
cp /apps/share/wrf-conus12.sh ~/
-
--partitionএবং--ntasksসঠিকভাবে সেট করা আছে কিনা তা যাচাই করতে একটি টেক্সট এডিটরে wrf-conus.sh ফাইলটি খুলুন। জবটি চালু করার জন্য আপনি যতগুলো MPI র্যাঙ্ক ব্যবহার করতে চান, টাস্কের সংখ্যা সেই সংখ্যার সমান করে সেট করতে হবে। এই প্রদর্শনের জন্য, টাস্কের সংখ্যা জবটির জন্য ব্যবহৃত vCPU-এর সংখ্যার সমান, এবং এটি আপনার উপলব্ধ কোটা অতিক্রম করবে না।
#!/bin/bash
#SBATCH --partition=wrf
#SBATCH --ntasks=24
#SBATCH --ntasks-per-node=8
#SBATCH --mem-per-cpu=2g
#SBATCH --cpus-per-task=1
#SBATCH --account=default
#
# /////////////////////////////////////////////// #
WORK_PATH=${HOME}/wrf-benchmark/
SRUN_FLAGS="-n $SLURM_NTASKS --cpu-bind=threads"
. /apps/share/spack.sh
module load gcc/9.2.0
module load openmpi
module load hdf5 netcdf-c netcdf-fortran wrf
mkdir -p ${WORK_PATH}
cd ${WORK_PATH}
ln -s ${INSTALL_ROOT}/share/conus-12km/* .
ln -s $(spack location -i wrf)/run/* .
srun $MPI_FLAGS ./wrf.exe
- sbatch ব্যবহার করে ব্যাচ জবটি জমা দিন।
sbatch wrf-conus12.sh
- কাজটি সম্পূর্ণ হওয়ার জন্য অপেক্ষা করুন। এই বেঞ্চমার্কটি একটি ৬-ঘণ্টার পূর্বাভাস চালানোর জন্য কনফিগার করা হয়েছে, যা ২৪টি র্যাঙ্ক সহ সম্পূর্ণ হতে প্রায় ৩ ঘণ্টা সময় নেয়। আপনি
squeueব্যবহার করে আপনার কাজের অবস্থা পর্যবেক্ষণ করতে পারেন। - কাজটি সম্পন্ন হলে, rsl.out.0000 ফাইলের বিষয়বস্তু পরীক্ষা করে দেখুন যে আপনি "wrf: SUCCESS COMPLETE WRF" লেখাটি দেখতে পাচ্ছেন কিনা। আপনি যদি কাজটি একাধিকবার চালিয়ে থাকেন, যেমন—কোনো কনফিগারেশন সেটিং ভুল করার কারণে আপনাকে এটি পুনরায় চালাতে হয়েছে, তাহলে সাংখ্যিক সাফিক্সটি ভিন্ন হবে।
$ tail -n1 ${HOME}/wrf-benchmark/rsl.out.0000
d01 2018-06-17_06:00:00 wrf: SUCCESS COMPLETE WRF
৫. উচ্চ কোটা: Terraform ব্যবহার করে একটি অটো-স্কেলিং HPC ক্লাস্টার স্থাপন করুন।
এই অংশে, আপনি GCP-তে Slurm জব শিডিউলার সহ একটি অটো-স্কেলিং HPC ক্লাস্টার স্থাপন করবেন।
- GCP-তে আপনার ক্লাউড শেল খুলুন।
- FluidNumerics/slurm-gcp রিপোজিটরিটি ক্লোন করুন
cd ~ git clone https://github.com/FluidNumerics/slurm-gcp.git
- WRF ডিরেক্টরিতে পরিবর্তন করুন:
cd ~/slurm-gcp/tf/examples/wrf
- একটি টেরাফর্ম প্ল্যান তৈরি ও পর্যালোচনা করুন। আপনার ক্লাস্টারের নাম, আপনার GCP প্রজেক্ট, যে জোনে আপনি ডেপ্লয় করতে চান, নোডের সর্বোচ্চ সংখ্যা এবং মেশিনের ধরন নির্দিষ্ট করতে
WRF_NAME,WRF_PROJECT,WRF_ZONE,WRF_MAX_NODEএবংWRF_MACHINE_TYPEএনভায়রনমেন্ট ভ্যারিয়েবলগুলো সেট করুন। CONUS 2.5km বেঞ্চমার্কের জন্য, আমরা কমপক্ষে ৮টি নোড সহ c2-standard-60 ইনস্ট্যান্স ব্যবহার করার এবং 480 MPI র্যাঙ্কের জব চালানোর পরামর্শ দিই।
export WRF_PROJECT=<PROJECT ID> export WRF_ZONE=<ZONE> export WRF_NAME=wrf-large export WRF_MAX_NODE=5 export WRF_MACHINE_TYPE="c2-standard-60"
- যদি আপনি উপরে এটি না করে থাকেন, তবে টেরাফর্ম চালু করার জন্য আপনাকে অবশ্যই
terraform initরান করতে হবে:
terraform init
- make কমান্ড ব্যবহার করে প্ল্যানটি তৈরি করুন।
make plan
- ক্লাস্টারটি স্থাপন করুন। ইনস্টলেশন এবং সেটআপ প্রক্রিয়াটিতে ২ ঘন্টা পর্যন্ত সময় লাগতে পারে। স্থাপনের সময়, WRF এবং এর সমস্ত নির্ভরশীলতা ইনস্টল করা হবে।
make apply
- পূর্ববর্তী ধাপে তৈরি করা লগইন নোডটিতে SSH করুন। আপনি এই নোডটি পূর্ববর্তী ধাপে দেখতে পাবেন (সম্ভবত এর নাম wrf-large-login0 ) । কনসোল মেনু আইটেম Compute Engine -> VM instance- এ VM Instance-এর তালিকার পাশে থাকা SSH বোতামে ক্লিক করে আপনি এটি করতে পারেন।
বিকল্প: এই জোড়া gcloud কমান্ড লগইন নোডের নাম খুঁজে বের করবে এবং তাতে SSH করবে:
export CLUSTER_LOGIN_NODE=$(gcloud compute instances list --zones ${WRF_ZONE} --filter="name ~ .*login" --format="value(name)" | head -n1)
gcloud compute ssh ${CLUSTER_LOGIN_NODE} --zone ${WRF_ZONE}
দ্বিতীয় কমান্ডটির ফলে আপনি স্লার্ম লগইন নোডের সাথে সংযুক্ত হবেন।
- লগইন নোডের সাথে সংযুক্ত হওয়ার পর, আপনার ক্লাস্টার সেটআপ যাচাই করতে, wrf মডিউলটি উপলব্ধ আছে কিনা তা পরীক্ষা করুন।
$ module load gcc && module load openmpi && module avail -------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/openmpi/4.0.5-eagetxh/gcc/9.2.0 -------------------------------------- hdf5/1.10.7 netcdf-c/4.7.4 netcdf-fortran/4.5.3 parallel-netcdf/1.12.1 wrf/4.2 ------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/gcc/9.2.0 ------------------------------------------------- hwloc/2.2.0 libiconv/1.16 libpng/1.6.37 nasm/2.15.05 openmpi/4.0.5 (L,D) time/1.9 zlib/1.2.11 jasper/2.0.16 libjpeg-turbo/2.0.4 libtirpc/1.2.6 ncurses/5.9.20130511 perl/5.16.3 util-macros/1.19.1 krb5/1.15.1 libpciaccess/0.16 libxml2/2.9.10 numactl/2.0.14 tcsh/6.22.02 xz/5.2.2 --------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/Core ---------------------------------------------------- gcc/9.2.0 (L) ---------------------------------------------------------------------- /apps/modulefiles ---------------------------------------------------------------------- openmpi/v4.1.x
- যাচাই করুন যে
/apps/share/conus-2.5kmনিচে তালিকাভুক্ত বিষয়বস্তু রয়েছে।
$ ls -1 /apps/share/conus-2.5km FILE:2018-06-17_00 FILE:2018-06-17_03 FILE:2018-06-17_06 FILE:2018-06-17_09 FILE:2018-06-17_12 geo_em.d01.nc geogrid.log gfs.0p25.2018061700.f000.grib2 gfs.0p25.2018061700.f003.grib2 gfs.0p25.2018061700.f006.grib2 gfs.0p25.2018061700.f009.grib2 gfs.0p25.2018061700.f012.grib2 met_em.d01.2018-06-17_00:00:00.nc met_em.d01.2018-06-17_03:00:00.nc met_em.d01.2018-06-17_06:00:00.nc met_em.d01.2018-06-17_09:00:00.nc met_em.d01.2018-06-17_12:00:00.nc metgrid.log namelist.input namelist.wps ungrib.log wrfbdy_d01 wrfinput_d01
৬. CONUS-এর ২.৫ কিমি বেঞ্চমার্ক দৌড়ান।
CONUS 2.5km বেঞ্চমার্কটি চালানোর জন্য, আপনাকে একটি Slurm ব্যাচ জব সাবমিট করতে হবে। এই বেঞ্চমার্কের জন্য ইনপুট ডেকগুলো /apps/share/benchmarks/conus-2.5km-এর অধীনে wrf-gcp VM ইমেজে অন্তর্ভুক্ত রয়েছে।
এই অংশের জন্য, আপনাকে অবশ্যই ক্লাস্টারের লগইন নোডের সাথে SSH-এর মাধ্যমে সংযুক্ত থাকতে হবে।
- /apps/share থেকে উদাহরণ wrf-conus.sh ব্যাচ ফাইলটি কপি করুন।
cp /apps/share/wrf-conus2p5.sh ~/
-
--partitionএবং--ntasksসঠিকভাবে সেট করা আছে কিনা তা যাচাই করতে একটি টেক্সট এডিটরে wrf-conus.sh ফাইলটি খুলুন। পার্টিশনটি c2-60-তে সেট করতে হবে। জবটি চালু করার জন্য আপনি যতগুলো MPI র্যাঙ্ক ব্যবহার করতে চান, টাস্কের সংখ্যা সেই সংখ্যার সমান করে সেট করতে হবে। এই প্রদর্শনের জন্য, টাস্কের সংখ্যা জবটির জন্য ব্যবহৃত vCPU-এর সংখ্যার সমান, এবং এটি আপনার উপলব্ধ কোটা অতিক্রম করবে না।
#!/bin/bash
#SBATCH --partition=c2-60
#SBATCH --ntasks=480
#SBATCH --ntasks-per-node=60
#SBATCH --mem-per-cpu=2g
#SBATCH --cpus-per-task=1
#SBATCH --account=default
#
# /////////////////////////////////////////////// #
WORK_PATH=${HOME}/wrf-benchmark/
SRUN_FLAGS="-n $SLURM_NTASKS --cpu-bind=threads"
. /apps/share/spack.sh
module load gcc/9.2.0
module load openmpi
module load hdf5 netcdf-c netcdf-fortran wrf
mkdir -p ${WORK_PATH}
cd ${WORK_PATH}
ln -s ${INSTALL_ROOT}/share/conus-2.5km/* .
ln -s $(spack location -i wrf)/run/* .
srun $MPI_FLAGS ./wrf.exe
- sbatch ব্যবহার করে ব্যাচ জবটি জমা দিন।
sbatch wrf-conus2p5.sh
- কাজটি সম্পূর্ণ হওয়ার জন্য অপেক্ষা করুন। এই বেঞ্চমার্কটি একটি ৬-ঘণ্টার পূর্বাভাস চালানোর জন্য কনফিগার করা হয়েছে, যা ৪৮০টি র্যাঙ্ক সহ সম্পূর্ণ হতে প্রায় ১ ঘণ্টা সময় নেয়। আপনি
squeueব্যবহার করে আপনার কাজের অবস্থা পর্যবেক্ষণ করতে পারেন। - কাজটি সম্পন্ন হলে, rsl.out.0000 ফাইলের বিষয়বস্তু পরীক্ষা করে দেখুন যে আপনি "wrf: SUCCESS COMPLETE WRF" লেখাটি দেখতে পাচ্ছেন কিনা। আপনি যদি কাজটি একাধিকবার চালিয়ে থাকেন, যেমন—কোনো কনফিগারেশন সেটিং ভুল করার কারণে আপনাকে এটি পুনরায় চালাতে হয়েছে, তাহলে সাংখ্যিক সাফিক্সটি ভিন্ন হবে।
$ tail -n1 ${HOME}/wrf-benchmark/rsl.out.0000
d01 2018-06-17_06:00:00 wrf: SUCCESS COMPLETE WRF
৭. অভিনন্দন
এই কোডল্যাবে, আপনি একটি অটো-স্কেলিং, ক্লাউড-নেটিভ এইচপিসি ক্লাস্টার তৈরি করেছেন এবং গুগল ক্লাউড প্ল্যাটফর্মে একটি প্যারালাল WRF® সিমুলেশন চালিয়েছেন!
পরিষ্কার করা
এই কোডল্যাবে ব্যবহৃত রিসোর্সগুলির জন্য আপনার গুগল ক্লাউড প্ল্যাটফর্ম অ্যাকাউন্টে চার্জ হওয়া এড়াতে:
প্রকল্পটি মুছে ফেলুন
বিলিং বন্ধ করার সবচেয়ে সহজ উপায় হলো কোডল্যাবের জন্য তৈরি করা প্রজেক্টটি ডিলিট করে দেওয়া।
সতর্কতা : একটি প্রজেক্ট মুছে ফেলার নিম্নলিখিত প্রভাব রয়েছে:
- প্রজেক্টের সবকিছু মুছে ফেলা হবে। আপনি যদি এই কোডল্যাবের জন্য কোনো বিদ্যমান প্রজেক্ট ব্যবহার করে থাকেন, তবে সেটি মুছে ফেলার সময় প্রজেক্টটিতে করা আপনার অন্য সব কাজও মুছে যাবে।
- কাস্টম প্রজেক্ট আইডি হারিয়ে গেছে। এই প্রজেক্টটি তৈরি করার সময়, আপনি হয়তো একটি কাস্টম প্রজেক্ট আইডি তৈরি করেছিলেন যা আপনি ভবিষ্যতে ব্যবহার করতে চান। প্রজেক্ট আইডি ব্যবহার করে এমন URL-গুলো, যেমন appspot.com URL, সংরক্ষণ করতে, পুরো প্রজেক্টটি মুছে ফেলার পরিবর্তে প্রজেক্টের ভেতর থেকে নির্বাচিত রিসোর্সগুলো মুছে ফেলুন।
আপনি যদি একাধিক কোডল্যাব ও কুইকস্টার্ট অন্বেষণ করার পরিকল্পনা করেন, তবে প্রজেক্ট পুনঃব্যবহার আপনাকে প্রজেক্ট কোটার সীমা অতিক্রম করা এড়াতে সাহায্য করতে পারে।
- ক্লাউড কনসোলে, ম্যানেজ রিসোর্সেস পেজে যান। ম্যানেজ রিসোর্সেস পেজে যান
- প্রজেক্ট তালিকা থেকে, আপনি যে প্রজেক্টটি মুছতে চান সেটি নির্বাচন করুন এবং তারপর ডিলিট-এ ক্লিক করুন।
. - ডায়ালগ বক্সে প্রজেক্ট আইডি টাইপ করুন এবং তারপর প্রজেক্টটি মুছে ফেলার জন্য 'শাট ডাউন'-এ ক্লিক করুন।
স্বতন্ত্র সম্পদগুলি মুছে ফেলুন
- আপনার ক্লাউড শেল খুলুন এবং wrf example ডিরেক্টরিতে যান।
cd ~/slurm-gcp/tf/examples/wrf
- সমস্ত রিসোর্স মুছে ফেলার জন্য `make destroy` কমান্ডটি চালান।
make destroy