তরল সংখ্যার সাথে WRF আবহাওয়া পূর্বাভাস মডেল চালান' স্লার্ম-জিসিপি

১. ভূমিকা

মহাদেশীয় মার্কিন যুক্তরাষ্ট্র

সর্বশেষ হালনাগাদ: ২০২১-০৫-০৫

আপনি যা তৈরি করবেন

এই কোডল্যাবে, আপনি স্লার্ম (Slurm) জব শিডিউলার ব্যবহার করে গুগল ক্লাউডে একটি অটো-স্কেলিং হাই পারফরম্যান্স কম্পিউটিং (HPC) ক্লাস্টার ডেপ্লয় করবেন। আপনি একটি উদাহরণ টেরাফর্ম ডেপ্লয়মেন্ট ব্যবহার করবেন, যা স্প্যাক (Spack) এর মাধ্যমে WRF® ইনস্টল করে এই ক্লাস্টারটি ডেপ্লয় করে। এরপর, আপনি এই ইনফ্রাস্ট্রাকচারটি ব্যবহার করে CONUS 2.5km বেঞ্চমার্ক অথবা CONUS 12km বেঞ্চমার্ক চালাবেন।

আপনি যা শিখবেন

  • গুগল ক্লাউড প্ল্যাটফর্মে একটি এইচপিসি ক্লাস্টার পরিচালনার জন্য আইডেন্টিটি অ্যান্ড অ্যাক্সেস ম্যানেজমেন্ট (আইএএম) পলিসি কীভাবে কনফিগার করবেন
  • স্লার্ম জব শিডিউলার ব্যবহার করে কীভাবে একটি ক্লাউড-নেটিভ এইচপিসি ক্লাস্টার স্থাপন করবেন
  • স্লার্ম ব্যাচ জব ব্যবহার করে গুগল ক্লাউডে WRF® সমান্তরালভাবে কীভাবে চালানো যায়

আপনার যা যা প্রয়োজন হবে

২. কনফিগারেশন

গুগল ক্লাউড এপিআই সক্রিয় করুন

গুগল ক্লাউড রিসোর্স তৈরি ও ব্যবহার করার জন্য এপিআইগুলো সক্রিয় থাকতে হবে।

gcloud services enable compute.googleapis.com 

IAM নীতিমালা নির্ধারণ করুন

এইচপিসি-তে সিস্টেম অ্যাডমিনিস্ট্রেটর এবং সিস্টেম ইউজারদের মধ্যে সুস্পষ্ট পার্থক্য রয়েছে। সিস্টেম অ্যাডমিনিস্ট্রেটরদের সাধারণত "রুট অ্যাক্সেস" থাকে, যা তাদেরকে কম্পিউট রিসোর্স পরিচালনা ও ব্যবহারে সক্ষম করে। সিস্টেম ইউজাররা হলেন সাধারণত গবেষক, বিজ্ঞানী এবং অ্যাপ্লিকেশন ইঞ্জিনিয়ার, যাদের শুধুমাত্র কাজ সম্পাদনের জন্য রিসোর্সগুলো ব্যবহার করার প্রয়োজন হয়।

গুগল ক্লাউডে, ওএস লগইন এপিআই গুগল ওয়ার্কস্পেস, ক্লাউড আইডেন্টিটি এবং জিমেইল অ্যাকাউন্ট থেকে POSIX ব্যবহারকারীর তথ্য সরবরাহ করে। এছাড়াও, লিনাক্স সিস্টেমে ব্যবহারকারীদের বিশেষাধিকার বৃদ্ধির অনুমতি দেওয়া উচিত কিনা তা নির্ধারণ করতে ওএস লগইন জিসিপি-র আইডেন্টিটি অ্যান্ড অ্যাক্সেস ম্যানেজমেন্ট (IAM) সিস্টেমের সাথে সমন্বিত হয়।

এই টিউটোরিয়ালে, আমরা ধরে নিচ্ছি যে আপনি সিস্টেম অ্যাডমিনিস্ট্রেটর এবং কম্পিউট ইঞ্জিন অ্যাডমিনিস্ট্রেটর-এর দায়িত্ব পালন করছেন। নিম্নলিখিত কাজগুলো সম্পন্ন করার জন্য আপনাকে পর্যাপ্ত অনুমতি দিতে আমরা IAM পলিসি কনফিগার করব।

  • গুগল কম্পিউট ইঞ্জিন (GCE) ভিএম ইনস্ট্যান্স তৈরি/মুছে ফেলুন
  • GCE VM ইনস্ট্যান্সগুলিতে SSH করুন

57883cb8acc09653.png

এই টিউটোরিয়ালটি সম্পন্ন করার জন্য নিজেকে প্রয়োজনীয় IAM রোলগুলো দিতে, গুগল ক্লাউড কনসোলে:

  1. Products and Services মেনুতে থাকা IAM & Admin > IAM-এ যান।
  2. পৃষ্ঠার উপরের দিকে থাকা "+Add" বোতামে ক্লিক করুন।
  3. "নতুন সদস্য" অংশে আপনার Google Workspace অ্যাকাউন্ট, Cloud Identity অ্যাকাউন্ট বা Gmail অ্যাকাউন্ট টাইপ করুন।
  4. নিম্নলিখিত রোলগুলি যোগ করুন: কম্পিউট অ্যাডমিন, কম্পিউট ওএস লগইন, এবং সার্ভিস অ্যাকাউন্ট ইউজার
  5. সংরক্ষণ করুন ক্লিক করুন

আপনার লগইনের এখন এইচপিসি ক্লাস্টার তৈরি শুরু করার জন্য প্রয়োজনীয় অনুমতি রয়েছে।

আপনি সঠিক ভূমিকা (role) বরাদ্দ করেছেন কিনা তা যাচাই করতে, আপনার ক্লাউড শেল (Cloud Shell) খুলুন এবং নিম্নলিখিত কমান্ডটি চালান, যেখানে YOUR_PROJECT এবং EMAIL_ADDRESS জায়গায় আপনার প্রজেক্ট এবং ইমেল ঠিকানা বসান।

$ gcloud projects get-iam-policy YOUR_PROJECT --flatten="bindings[].members" --format='table(bindings.role)' --filter="bindings.members=user:EMAIL_ADDRESS"

এই কমান্ডটি নিম্নলিখিত আউটপুট দেবে:

ROLE
roles/compute.osLogin
roles/iam.serviceAccountUser
roles/compute.admin

৩. স্বল্প কোটা: Terraform ব্যবহার করে একটি অটো-স্কেলিং HPC ক্লাস্টার স্থাপন করুন

এই অংশে, আপনি স্লার্ম জব শিডিউলার সহ একটি অটো-স্কেলিং এইচপিসি ক্লাস্টার স্থাপন করবেন। এটি হাই কোটা অপশনের অনুরূপ, তবে এক্ষেত্রে ব্যবহৃত মেশিনের ধরন এবং ব্যবহৃত vCPU-এর সংখ্যা কম থাকে।

  1. GCP-তে আপনার ক্লাউড শেল খুলুন।
  2. FluidNumerics/slurm-gcp রিপোজিটরিটি ক্লোন করুন
cd ~
git clone https://github.com/FluidNumerics/slurm-gcp.git
  1. WRF ডিরেক্টরিতে পরিবর্তন করুন:
cd  ~/slurm-gcp/tf/examples/wrf
  1. একটি টেরাফর্ম প্ল্যান তৈরি ও পর্যালোচনা করুন। আপনার ক্লাস্টারের নাম, আপনার GCP প্রজেক্ট এবং যে জোনে আপনি ডেপ্লয় করতে চান তা নির্দিষ্ট করতে WRF_NAME , WRF_PROJECT এবং WRF_ZONE এনভায়রনমেন্ট ভেরিয়েবলগুলো সেট করুন।
export WRF_PROJECT=<PROJECT ID>
export WRF_ZONE=<ZONE>
export WRF_NAME="wrf-small"
  1. প্রথমবার টেরাফর্ম চালানোর সময় আপনাকে অবশ্যই init কমান্ডটি চালাতে হবে:
terraform init
  1. make কমান্ড দিয়ে প্ল্যানটি তৈরি করুন, যা terraform চালাবে।
make plan
  1. ক্লাস্টারটি স্থাপন করুন। ইনস্টলেশন এবং সেটআপ প্রক্রিয়াটিতে ২ ঘন্টা পর্যন্ত সময় লাগতে পারে। স্থাপনের সময়, WRF এবং এর সমস্ত নির্ভরশীলতা ইনস্টল করা হবে।
make apply
  1. পূর্ববর্তী ধাপে তৈরি করা লগইন নোডটিতে SSH করুন। আপনি এই নোডটি পূর্ববর্তী ধাপে দেখতে পাবেন (সম্ভবত এর নাম wrf-small-login0 ) কনসোল মেনু আইটেম Compute Engine -> VM instance- এ VM Instance-এর তালিকার পাশে থাকা SSH বোতামে ক্লিক করে আপনি এটি করতে পারেন।

বিকল্প: এই জোড়া gcloud কমান্ড লগইন নোডের নাম খুঁজে বের করবে এবং তাতে SSH করবে:

export CLUSTER_LOGIN_NODE=$(gcloud compute instances list --zones ${WRF_ZONE} --filter="name ~ .*login" --format="value(name)" | head -n1)

gcloud compute ssh ${CLUSTER_LOGIN_NODE} --zone ${WRF_ZONE}

  1. লগইন নোডের সাথে সংযুক্ত হওয়ার পর, আপনার ক্লাস্টার সেটআপ যাচাই করতে, wrf মডিউলটি উপলব্ধ আছে কিনা তা পরীক্ষা করুন।
$ module load gcc && module load openmpi && module avail
-------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/openmpi/4.0.5-eagetxh/gcc/9.2.0 --------------------------------------
   hdf5/1.10.7    netcdf-c/4.7.4    netcdf-fortran/4.5.3    parallel-netcdf/1.12.1    wrf/4.2

------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/gcc/9.2.0 -------------------------------------------------
   hwloc/2.2.0      libiconv/1.16          libpng/1.6.37     nasm/2.15.05            openmpi/4.0.5 (L,D)    time/1.9              zlib/1.2.11
   jasper/2.0.16    libjpeg-turbo/2.0.4    libtirpc/1.2.6    ncurses/5.9.20130511    perl/5.16.3            util-macros/1.19.1
   krb5/1.15.1      libpciaccess/0.16      libxml2/2.9.10    numactl/2.0.14          tcsh/6.22.02           xz/5.2.2

--------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/Core ----------------------------------------------------
   gcc/9.2.0 (L)

---------------------------------------------------------------------- /apps/modulefiles ----------------------------------------------------------------------
   openmpi/v4.1.x
  1. যাচাই করুন যে /apps/share/conus-12km নিচে তালিকাভুক্ত বিষয়বস্তু রয়েছে।
$  ls -1 /apps/share/conus-12km/
FILE:2018-06-17_00
FILE:2018-06-17_03
FILE:2018-06-17_06
FILE:2018-06-17_09
FILE:2018-06-17_12
geo_em.d01.nc
geogrid.log
met_em.d01.2018-06-17_00:00:00.nc
met_em.d01.2018-06-17_03:00:00.nc
met_em.d01.2018-06-17_06:00:00.nc
met_em.d01.2018-06-17_09:00:00.nc
met_em.d01.2018-06-17_12:00:00.nc
metgrid.log
namelist.input
namelist.wps
ungrib.log
wrfbdy_d01
wrfinput_d01

৪. CONUS ১২ কিমি বেঞ্চমার্ক দৌড়ান।

CONUS 12km বেঞ্চমার্কটি চালানোর জন্য, আপনাকে একটি Slurm ব্যাচ জব সাবমিট করতে হবে। এই বেঞ্চমার্কের জন্য ইনপুট ডেকগুলো /apps/share/benchmarks/conus-12km-এর অধীনে wrf-gcp VM ইমেজে অন্তর্ভুক্ত রয়েছে।

এই অংশের জন্য, আপনাকে অবশ্যই ক্লাস্টারের লগইন নোডের সাথে SSH-এর মাধ্যমে সংযুক্ত থাকতে হবে।

  1. /apps/share থেকে উদাহরণ wrf-conus.sh ব্যাচ ফাইলটি কপি করুন।
cp /apps/share/wrf-conus12.sh ~/
  1. --partition এবং --ntasks সঠিকভাবে সেট করা আছে কিনা তা যাচাই করতে একটি টেক্সট এডিটরে wrf-conus.sh ফাইলটি খুলুন। জবটি চালু করার জন্য আপনি যতগুলো MPI র‍্যাঙ্ক ব্যবহার করতে চান, টাস্কের সংখ্যা সেই সংখ্যার সমান করে সেট করতে হবে। এই প্রদর্শনের জন্য, টাস্কের সংখ্যা জবটির জন্য ব্যবহৃত vCPU-এর সংখ্যার সমান, এবং এটি আপনার উপলব্ধ কোটা অতিক্রম করবে না।
#!/bin/bash
#SBATCH --partition=wrf
#SBATCH --ntasks=24
#SBATCH --ntasks-per-node=8
#SBATCH --mem-per-cpu=2g
#SBATCH --cpus-per-task=1
#SBATCH --account=default
#
# /////////////////////////////////////////////// #

WORK_PATH=${HOME}/wrf-benchmark/
SRUN_FLAGS="-n $SLURM_NTASKS --cpu-bind=threads"

. /apps/share/spack.sh
module load gcc/9.2.0
module load openmpi
module load hdf5 netcdf-c netcdf-fortran wrf

mkdir -p ${WORK_PATH}
cd ${WORK_PATH}
ln -s ${INSTALL_ROOT}/share/conus-12km/* .
ln -s $(spack location -i wrf)/run/* .

srun $MPI_FLAGS ./wrf.exe
  1. sbatch ব্যবহার করে ব্যাচ জবটি জমা দিন।
sbatch wrf-conus12.sh
  1. কাজটি সম্পূর্ণ হওয়ার জন্য অপেক্ষা করুন। এই বেঞ্চমার্কটি একটি ৬-ঘণ্টার পূর্বাভাস চালানোর জন্য কনফিগার করা হয়েছে, যা ২৪টি র‍্যাঙ্ক সহ সম্পূর্ণ হতে প্রায় ৩ ঘণ্টা সময় নেয়। আপনি squeue ব্যবহার করে আপনার কাজের অবস্থা পর্যবেক্ষণ করতে পারেন।
  2. কাজটি সম্পন্ন হলে, rsl.out.0000 ফাইলের বিষয়বস্তু পরীক্ষা করে দেখুন যে আপনি "wrf: SUCCESS COMPLETE WRF" লেখাটি দেখতে পাচ্ছেন কিনা। আপনি যদি কাজটি একাধিকবার চালিয়ে থাকেন, যেমন—কোনো কনফিগারেশন সেটিং ভুল করার কারণে আপনাকে এটি পুনরায় চালাতে হয়েছে, তাহলে সাংখ্যিক সাফিক্সটি ভিন্ন হবে।
$ tail -n1 ${HOME}/wrf-benchmark/rsl.out.0000
d01 2018-06-17_06:00:00 wrf: SUCCESS COMPLETE WRF

৫. উচ্চ কোটা: Terraform ব্যবহার করে একটি অটো-স্কেলিং HPC ক্লাস্টার স্থাপন করুন।

এই অংশে, আপনি GCP-তে Slurm জব শিডিউলার সহ একটি অটো-স্কেলিং HPC ক্লাস্টার স্থাপন করবেন।

  1. GCP-তে আপনার ক্লাউড শেল খুলুন।
  2. FluidNumerics/slurm-gcp রিপোজিটরিটি ক্লোন করুন
cd ~
git clone https://github.com/FluidNumerics/slurm-gcp.git
  1. WRF ডিরেক্টরিতে পরিবর্তন করুন:
cd  ~/slurm-gcp/tf/examples/wrf
  1. একটি টেরাফর্ম প্ল্যান তৈরি ও পর্যালোচনা করুন। আপনার ক্লাস্টারের নাম, আপনার GCP প্রজেক্ট, যে জোনে আপনি ডেপ্লয় করতে চান, নোডের সর্বোচ্চ সংখ্যা এবং মেশিনের ধরন নির্দিষ্ট করতে WRF_NAME , WRF_PROJECT , WRF_ZONE , WRF_MAX_NODE এবং WRF_MACHINE_TYPE এনভায়রনমেন্ট ভ্যারিয়েবলগুলো সেট করুন। CONUS 2.5km বেঞ্চমার্কের জন্য, আমরা কমপক্ষে ৮টি নোড সহ c2-standard-60 ইনস্ট্যান্স ব্যবহার করার এবং 480 MPI র‍্যাঙ্কের জব চালানোর পরামর্শ দিই।
export WRF_PROJECT=<PROJECT ID>
export WRF_ZONE=<ZONE>
export WRF_NAME=wrf-large
export WRF_MAX_NODE=5
export WRF_MACHINE_TYPE="c2-standard-60"
  1. যদি আপনি উপরে এটি না করে থাকেন, তবে টেরাফর্ম চালু করার জন্য আপনাকে অবশ্যই terraform init রান করতে হবে:
terraform init
  1. make কমান্ড ব্যবহার করে প্ল্যানটি তৈরি করুন।
make plan
  1. ক্লাস্টারটি স্থাপন করুন। ইনস্টলেশন এবং সেটআপ প্রক্রিয়াটিতে ২ ঘন্টা পর্যন্ত সময় লাগতে পারে। স্থাপনের সময়, WRF এবং এর সমস্ত নির্ভরশীলতা ইনস্টল করা হবে।
make apply
  1. পূর্ববর্তী ধাপে তৈরি করা লগইন নোডটিতে SSH করুন। আপনি এই নোডটি পূর্ববর্তী ধাপে দেখতে পাবেন (সম্ভবত এর নাম wrf-large-login0 ) কনসোল মেনু আইটেম Compute Engine -> VM instance- এ VM Instance-এর তালিকার পাশে থাকা SSH বোতামে ক্লিক করে আপনি এটি করতে পারেন।

বিকল্প: এই জোড়া gcloud কমান্ড লগইন নোডের নাম খুঁজে বের করবে এবং তাতে SSH করবে:

export CLUSTER_LOGIN_NODE=$(gcloud compute instances list --zones ${WRF_ZONE} --filter="name ~ .*login" --format="value(name)" | head -n1)

gcloud compute ssh ${CLUSTER_LOGIN_NODE} --zone ${WRF_ZONE}

দ্বিতীয় কমান্ডটির ফলে আপনি স্লার্ম লগইন নোডের সাথে সংযুক্ত হবেন।

  1. লগইন নোডের সাথে সংযুক্ত হওয়ার পর, আপনার ক্লাস্টার সেটআপ যাচাই করতে, wrf মডিউলটি উপলব্ধ আছে কিনা তা পরীক্ষা করুন।
$ module load gcc && module load openmpi && module avail
-------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/openmpi/4.0.5-eagetxh/gcc/9.2.0 --------------------------------------
   hdf5/1.10.7    netcdf-c/4.7.4    netcdf-fortran/4.5.3    parallel-netcdf/1.12.1    wrf/4.2

------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/gcc/9.2.0 -------------------------------------------------
   hwloc/2.2.0      libiconv/1.16          libpng/1.6.37     nasm/2.15.05            openmpi/4.0.5 (L,D)    time/1.9              zlib/1.2.11
   jasper/2.0.16    libjpeg-turbo/2.0.4    libtirpc/1.2.6    ncurses/5.9.20130511    perl/5.16.3            util-macros/1.19.1
   krb5/1.15.1      libpciaccess/0.16      libxml2/2.9.10    numactl/2.0.14          tcsh/6.22.02           xz/5.2.2

--------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/Core ----------------------------------------------------
   gcc/9.2.0 (L)

---------------------------------------------------------------------- /apps/modulefiles ----------------------------------------------------------------------
   openmpi/v4.1.x
  1. যাচাই করুন যে /apps/share/conus-2.5km নিচে তালিকাভুক্ত বিষয়বস্তু রয়েছে।
$ ls -1 /apps/share/conus-2.5km
FILE:2018-06-17_00
FILE:2018-06-17_03
FILE:2018-06-17_06
FILE:2018-06-17_09
FILE:2018-06-17_12
geo_em.d01.nc
geogrid.log
gfs.0p25.2018061700.f000.grib2
gfs.0p25.2018061700.f003.grib2
gfs.0p25.2018061700.f006.grib2
gfs.0p25.2018061700.f009.grib2
gfs.0p25.2018061700.f012.grib2
met_em.d01.2018-06-17_00:00:00.nc
met_em.d01.2018-06-17_03:00:00.nc
met_em.d01.2018-06-17_06:00:00.nc
met_em.d01.2018-06-17_09:00:00.nc
met_em.d01.2018-06-17_12:00:00.nc
metgrid.log
namelist.input
namelist.wps
ungrib.log
wrfbdy_d01
wrfinput_d01

৬. CONUS-এর ২.৫ কিমি বেঞ্চমার্ক দৌড়ান।

CONUS 2.5km বেঞ্চমার্কটি চালানোর জন্য, আপনাকে একটি Slurm ব্যাচ জব সাবমিট করতে হবে। এই বেঞ্চমার্কের জন্য ইনপুট ডেকগুলো /apps/share/benchmarks/conus-2.5km-এর অধীনে wrf-gcp VM ইমেজে অন্তর্ভুক্ত রয়েছে।

এই অংশের জন্য, আপনাকে অবশ্যই ক্লাস্টারের লগইন নোডের সাথে SSH-এর মাধ্যমে সংযুক্ত থাকতে হবে।

  1. /apps/share থেকে উদাহরণ wrf-conus.sh ব্যাচ ফাইলটি কপি করুন।
cp /apps/share/wrf-conus2p5.sh ~/
  1. --partition এবং --ntasks সঠিকভাবে সেট করা আছে কিনা তা যাচাই করতে একটি টেক্সট এডিটরে wrf-conus.sh ফাইলটি খুলুন। পার্টিশনটি c2-60-তে সেট করতে হবে। জবটি চালু করার জন্য আপনি যতগুলো MPI র‍্যাঙ্ক ব্যবহার করতে চান, টাস্কের সংখ্যা সেই সংখ্যার সমান করে সেট করতে হবে। এই প্রদর্শনের জন্য, টাস্কের সংখ্যা জবটির জন্য ব্যবহৃত vCPU-এর সংখ্যার সমান, এবং এটি আপনার উপলব্ধ কোটা অতিক্রম করবে না।
#!/bin/bash
#SBATCH --partition=c2-60
#SBATCH --ntasks=480
#SBATCH --ntasks-per-node=60
#SBATCH --mem-per-cpu=2g
#SBATCH --cpus-per-task=1
#SBATCH --account=default
#
# /////////////////////////////////////////////// #

WORK_PATH=${HOME}/wrf-benchmark/
SRUN_FLAGS="-n $SLURM_NTASKS --cpu-bind=threads"

. /apps/share/spack.sh
module load gcc/9.2.0
module load openmpi
module load hdf5 netcdf-c netcdf-fortran wrf

mkdir -p ${WORK_PATH}
cd ${WORK_PATH}
ln -s ${INSTALL_ROOT}/share/conus-2.5km/* .
ln -s $(spack location -i wrf)/run/* .

srun $MPI_FLAGS ./wrf.exe
  1. sbatch ব্যবহার করে ব্যাচ জবটি জমা দিন।
sbatch wrf-conus2p5.sh
  1. কাজটি সম্পূর্ণ হওয়ার জন্য অপেক্ষা করুন। এই বেঞ্চমার্কটি একটি ৬-ঘণ্টার পূর্বাভাস চালানোর জন্য কনফিগার করা হয়েছে, যা ৪৮০টি র‍্যাঙ্ক সহ সম্পূর্ণ হতে প্রায় ১ ঘণ্টা সময় নেয়। আপনি squeue ব্যবহার করে আপনার কাজের অবস্থা পর্যবেক্ষণ করতে পারেন।
  2. কাজটি সম্পন্ন হলে, rsl.out.0000 ফাইলের বিষয়বস্তু পরীক্ষা করে দেখুন যে আপনি "wrf: SUCCESS COMPLETE WRF" লেখাটি দেখতে পাচ্ছেন কিনা। আপনি যদি কাজটি একাধিকবার চালিয়ে থাকেন, যেমন—কোনো কনফিগারেশন সেটিং ভুল করার কারণে আপনাকে এটি পুনরায় চালাতে হয়েছে, তাহলে সাংখ্যিক সাফিক্সটি ভিন্ন হবে।
$ tail -n1 ${HOME}/wrf-benchmark/rsl.out.0000
d01 2018-06-17_06:00:00 wrf: SUCCESS COMPLETE WRF

৭. অভিনন্দন

এই কোডল্যাবে, আপনি একটি অটো-স্কেলিং, ক্লাউড-নেটিভ এইচপিসি ক্লাস্টার তৈরি করেছেন এবং গুগল ক্লাউড প্ল্যাটফর্মে একটি প্যারালাল WRF® সিমুলেশন চালিয়েছেন!

পরিষ্কার করা

এই কোডল্যাবে ব্যবহৃত রিসোর্সগুলির জন্য আপনার গুগল ক্লাউড প্ল্যাটফর্ম অ্যাকাউন্টে চার্জ হওয়া এড়াতে:

প্রকল্পটি মুছে ফেলুন

বিলিং বন্ধ করার সবচেয়ে সহজ উপায় হলো কোডল্যাবের জন্য তৈরি করা প্রজেক্টটি ডিলিট করে দেওয়া।

সতর্কতা : একটি প্রজেক্ট মুছে ফেলার নিম্নলিখিত প্রভাব রয়েছে:

  • প্রজেক্টের সবকিছু মুছে ফেলা হবে। আপনি যদি এই কোডল্যাবের জন্য কোনো বিদ্যমান প্রজেক্ট ব্যবহার করে থাকেন, তবে সেটি মুছে ফেলার সময় প্রজেক্টটিতে করা আপনার অন্য সব কাজও মুছে যাবে।
  • কাস্টম প্রজেক্ট আইডি হারিয়ে গেছে। এই প্রজেক্টটি তৈরি করার সময়, আপনি হয়তো একটি কাস্টম প্রজেক্ট আইডি তৈরি করেছিলেন যা আপনি ভবিষ্যতে ব্যবহার করতে চান। প্রজেক্ট আইডি ব্যবহার করে এমন URL-গুলো, যেমন appspot.com URL, সংরক্ষণ করতে, পুরো প্রজেক্টটি মুছে ফেলার পরিবর্তে প্রজেক্টের ভেতর থেকে নির্বাচিত রিসোর্সগুলো মুছে ফেলুন।

আপনি যদি একাধিক কোডল্যাব ও কুইকস্টার্ট অন্বেষণ করার পরিকল্পনা করেন, তবে প্রজেক্ট পুনঃব্যবহার আপনাকে প্রজেক্ট কোটার সীমা অতিক্রম করা এড়াতে সাহায্য করতে পারে।

  1. ক্লাউড কনসোলে, ম্যানেজ রিসোর্সেস পেজে যান। ম্যানেজ রিসোর্সেস পেজে যান
  2. প্রজেক্ট তালিকা থেকে, আপনি যে প্রজেক্টটি মুছতে চান সেটি নির্বাচন করুন এবং তারপর ডিলিট-এ ক্লিক করুন। dc096e8341a05fec.png .
  3. ডায়ালগ বক্সে প্রজেক্ট আইডি টাইপ করুন এবং তারপর প্রজেক্টটি মুছে ফেলার জন্য 'শাট ডাউন'-এ ক্লিক করুন।

স্বতন্ত্র সম্পদগুলি মুছে ফেলুন

  1. আপনার ক্লাউড শেল খুলুন এবং wrf example ডিরেক্টরিতে যান।
cd  ~/slurm-gcp/tf/examples/wrf
  1. সমস্ত রিসোর্স মুছে ফেলার জন্য `make destroy` কমান্ডটি চালান।
make destroy