เรียกใช้โมเดลการพยากรณ์สภาพอากาศ WRF ด้วยตัวเลขแบบไหล Slurm-GCP

1. บทนำ

ทวีปอเมริกาเหนือ

อัปเดตล่าสุด:05-05-2021

สิ่งที่คุณจะสร้าง

ใน Codelab นี้ คุณกำลังจะทำให้คลัสเตอร์ High Performance Computing (HPC) ที่ปรับขนาดอัตโนมัติใช้งานได้บน Google Cloud ด้วยเครื่องจัดตารางเวลางาน Slurm คุณจะใช้ตัวอย่างการทำให้ Terraform ใช้งานได้ซึ่งจะทำให้คลัสเตอร์นี้ใช้งานได้ซึ่งติดตั้ง WRF® ผ่าน Spack จากนั้น ให้ใช้โครงสร้างพื้นฐานนี้เพื่อทำเกณฑ์มาตรฐาน CONUS 2.5 กม. หรือการเปรียบเทียบ CONUS 12 กม.

สิ่งที่คุณจะได้เรียนรู้

  • วิธีกำหนดค่านโยบาย Identity and Access Management (IAM) สำหรับการดำเนินการคลัสเตอร์ HPC บน Google Cloud Platform
  • วิธีทำให้คลัสเตอร์ HPC ที่ดำเนินการบนระบบคลาวด์ใช้งานได้ด้วยเครื่องจัดตารางเวลางาน Slurm
  • วิธีเรียกใช้ WRF® พร้อมกันบน Google Cloud โดยใช้งานกลุ่ม Slurm

สิ่งที่คุณต้องมี

2. การกำหนดค่า

เปิดใช้ Google Cloud APIs

หากต้องการสร้างและใช้ API ทรัพยากรของ Google Cloud จะต้องเปิดใช้งาน

gcloud services enable compute.googleapis.com 

กำหนดนโยบาย IAM

ใน HPC ผู้ดูแลระบบและผู้ใช้ระบบมีความแตกต่างกันอย่างชัดเจน โดยทั่วไปผู้ดูแลระบบจะมี "การเข้าถึงระดับรูท" ซึ่งช่วยให้จัดการและดำเนินการกับทรัพยากรการประมวลผลได้ ผู้ใช้ระบบโดยทั่วไปคือนักวิจัย นักวิทยาศาสตร์ และวิศวกรแอปพลิเคชันที่จำเป็นต้องใช้ทรัพยากรเพื่อดำเนินงานเท่านั้น

ใน Google Cloud นั้น OS Login API จะจัดสรรข้อมูลผู้ใช้ POSIX จากบัญชี Google Workspace, Cloud Identity และ Gmail นอกจากนี้ การเข้าสู่ระบบปฏิบัติการยังผสานรวมกับระบบ Identity and Access Management (IAM) ของ GCP เพื่อกำหนดว่าผู้ใช้ควรได้รับอนุญาตให้ส่งต่อสิทธิ์ในระบบ Linux หรือไม่

ในบทแนะนำนี้ เราจะถือว่าคุณมีบทบาทเป็นผู้ดูแลระบบและผู้ดูแลระบบ Compute Engine เราจะกำหนดค่านโยบาย IAM เพื่อให้สิทธิ์ที่เพียงพอแก่คุณในการทำงานต่อไปนี้

  • สร้าง/ลบอินสแตนซ์ VM ของ Google Compute Engine (GCE)
  • SSH ไปยังอินสแตนซ์ VM ใน GCE

57883cb8acc09653.png

หากต้องการมอบบทบาท IAM ที่จำเป็นในการทำบทแนะนำนี้ให้ตัวเองใน Google Cloud Console ให้ทำดังนี้

  1. ไปที่ IAM และ ผู้ดูแลระบบ > IAM ในเมนูผลิตภัณฑ์และบริการ
  2. คลิก "+เพิ่ม" ใกล้ด้านบนของหน้า
  3. พิมพ์บัญชี Google Workspace, บัญชี Cloud Identity หรือบัญชี Gmail ในส่วน "สมาชิกใหม่"
  4. เพิ่มบทบาทต่อไปนี้ : ผู้ดูแลระบบ Compute, เข้าสู่ระบบ OS ของ Compute และผู้ใช้บัญชีบริการ
  5. คลิก "บันทึก"

ตอนนี้การเข้าสู่ระบบของคุณมีสิทธิ์ที่จำเป็นในการเริ่มต้นการสร้างคลัสเตอร์ HPC

หากต้องการยืนยันว่าคุณได้กำหนดบทบาทที่ถูกต้องแล้ว ให้เปิด Cloud Shell แล้วเรียกใช้คำสั่งต่อไปนี้ โดยแทนที่ YOUR_PROJECT และ EMAIL_ADDRESS ด้วยโปรเจ็กต์และอีเมลของคุณ

$ gcloud projects get-iam-policy YOUR_PROJECT --flatten="bindings[].members" --format='table(bindings.role)' --filter="bindings.members=user:EMAIL_ADDRESS"

คำสั่งนี้จะแสดงเอาต์พุต ดังนี้

ROLE
roles/compute.osLogin
roles/iam.serviceAccountUser
roles/compute.admin

3. โควต้าต่ำ: ทำให้คลัสเตอร์ HPC ที่ปรับขนาดอัตโนมัติใช้งานได้ด้วย Terraform

ในส่วนนี้ คุณจะได้ทำให้คลัสเตอร์ HPC ที่ปรับขนาดอัตโนมัติ รวมถึงเครื่องจัดตารางเวลางาน Slurm ด้วย ตัวเลือกนี้เหมือนกับตัวเลือกโควต้าสูง ยกเว้นว่าประเภทเครื่องที่ใช้มีขนาดเล็กกว่าและจำนวน vCPU ที่ใช้น้อยกว่า

  1. เปิด Cloud Shell ใน GCP
  2. โคลนที่เก็บ FluidNumerics/slurm-gcp
cd ~
git clone https://github.com/FluidNumerics/slurm-gcp.git
  1. เปลี่ยนเป็นไดเรกทอรี WRF:
cd  ~/slurm-gcp/tf/examples/wrf
  1. สร้างและตรวจสอบแผน Terraform ตั้งค่าตัวแปรสภาพแวดล้อม WRF_NAME, WRF_PROJECT และ WRF_ZONE เพื่อระบุชื่อของคลัสเตอร์ โปรเจ็กต์ GCP และโซนที่ต้องการทำให้ใช้งานได้
export WRF_PROJECT=<PROJECT ID>
export WRF_ZONE=<ZONE>
export WRF_NAME="wrf-small"
  1. ครั้งแรกที่เรียกใช้ terraform คุณต้องเรียกใช้คำสั่ง init:
terraform init
  1. สร้างแผนด้วยคำสั่งสร้าง ซึ่งจะเรียกใช้ terraform
make plan
  1. ทำให้คลัสเตอร์ใช้งานได้ ขั้นตอนการติดตั้งและตั้งค่าอาจใช้เวลาถึง 2 ชั่วโมง ในระหว่างการทำให้ใช้งานได้ ระบบจะติดตั้ง WRF และทรัพยากร Dependency ทั้งหมด
make apply
  1. SSH ไปยังโหนด login ที่สร้างขึ้นในขั้นตอนก่อนหน้า คุณดูโหนดนี้ในขั้นตอนก่อนหน้า (อาจเรียกว่า wrf-small-login0) คุณสามารถดำเนินการดังกล่าวได้โดยคลิกปุ่ม SSH ข้างรายการอินสแตนซ์ VM ในรายการเมนูคอนโซล Compute Engine -> อินสแตนซ์ VM

ตัวเลือก: คำสั่ง gcloud คู่นี้จะระบุชื่อโหนดการเข้าสู่ระบบและ SSH เอาไว้

export CLUSTER_LOGIN_NODE=$(gcloud compute instances list --zones ${WRF_ZONE} --filter="name ~ .*login" --format="value(name)" | head -n1)

gcloud compute ssh ${CLUSTER_LOGIN_NODE} --zone ${WRF_ZONE}

  1. เมื่อคุณเชื่อมต่อกับโหนดการเข้าสู่ระบบแล้ว ให้ตรวจสอบว่ามีโมดูล wrf อยู่เพื่อยืนยันการตั้งค่าคลัสเตอร์
$ module load gcc && module load openmpi && module avail
-------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/openmpi/4.0.5-eagetxh/gcc/9.2.0 --------------------------------------
   hdf5/1.10.7    netcdf-c/4.7.4    netcdf-fortran/4.5.3    parallel-netcdf/1.12.1    wrf/4.2

------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/gcc/9.2.0 -------------------------------------------------
   hwloc/2.2.0      libiconv/1.16          libpng/1.6.37     nasm/2.15.05            openmpi/4.0.5 (L,D)    time/1.9              zlib/1.2.11
   jasper/2.0.16    libjpeg-turbo/2.0.4    libtirpc/1.2.6    ncurses/5.9.20130511    perl/5.16.3            util-macros/1.19.1
   krb5/1.15.1      libpciaccess/0.16      libxml2/2.9.10    numactl/2.0.14          tcsh/6.22.02           xz/5.2.2

--------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/Core ----------------------------------------------------
   gcc/9.2.0 (L)

---------------------------------------------------------------------- /apps/modulefiles ----------------------------------------------------------------------
   openmpi/v4.1.x
  1. ตรวจสอบว่า /apps/share/conus-12km มีเนื้อหาตามที่ระบุไว้ด้านล่าง
$  ls -1 /apps/share/conus-12km/
FILE:2018-06-17_00
FILE:2018-06-17_03
FILE:2018-06-17_06
FILE:2018-06-17_09
FILE:2018-06-17_12
geo_em.d01.nc
geogrid.log
met_em.d01.2018-06-17_00:00:00.nc
met_em.d01.2018-06-17_03:00:00.nc
met_em.d01.2018-06-17_06:00:00.nc
met_em.d01.2018-06-17_09:00:00.nc
met_em.d01.2018-06-17_12:00:00.nc
metgrid.log
namelist.input
namelist.wps
ungrib.log
wrfbdy_d01
wrfinput_d01

4. เรียกใช้การเปรียบเทียบ CONUS 12 กม.

หากต้องการทำการเปรียบเทียบ CONUS 12 กม. คุณจะต้องส่งงานแบบกลุ่มของ Slurm ชุดสไลด์อินพุตสำหรับการเปรียบเทียบนี้รวมอยู่ในรูปภาพ VM wrf-gcp ใต้ /apps/share/benchmarks/conus-12km

สำหรับส่วนนี้ คุณต้องเป็น SSH ที่เชื่อมต่อกับโหนด login ของคลัสเตอร์

  1. คัดลอกตัวอย่างไฟล์กลุ่ม wrf-conus.sh จาก /apps/share
cp /apps/share/wrf-conus12.sh ~/
  1. เปิด wrf-conus.sh ในเครื่องมือแก้ไขข้อความเพื่อยืนยันว่าตั้งค่า --partition และ --ntasks อย่างถูกต้องแล้ว ควรกำหนดจำนวนงานตามจำนวนของอันดับ MPI ที่ต้องการใช้เพื่อเปิดงาน สำหรับการสาธิตนี้ จำนวนงานเทียบเท่ากับจำนวน vCPU ที่ใช้สำหรับงาน และไม่ควรเกินโควต้าที่มีอยู่ของคุณ
#!/bin/bash
#SBATCH --partition=wrf
#SBATCH --ntasks=24
#SBATCH --ntasks-per-node=8
#SBATCH --mem-per-cpu=2g
#SBATCH --cpus-per-task=1
#SBATCH --account=default
#
# /////////////////////////////////////////////// #

WORK_PATH=${HOME}/wrf-benchmark/
SRUN_FLAGS="-n $SLURM_NTASKS --cpu-bind=threads"

. /apps/share/spack.sh
module load gcc/9.2.0
module load openmpi
module load hdf5 netcdf-c netcdf-fortran wrf

mkdir -p ${WORK_PATH}
cd ${WORK_PATH}
ln -s ${INSTALL_ROOT}/share/conus-12km/* .
ln -s $(spack location -i wrf)/run/* .

srun $MPI_FLAGS ./wrf.exe
  1. ส่งงานแบบกลุ่มโดยใช้ sbatch
sbatch wrf-conus12.sh
  1. รอให้งานเสร็จสมบูรณ์ การเปรียบเทียบนี้ได้รับการกำหนดค่าให้เรียกใช้การคาดการณ์ 6 ชั่วโมง ซึ่งใช้เวลาประมาณ 3 ชั่วโมงจึงจะเสร็จสมบูรณ์โดยมี 24 อันดับ คุณสามารถตรวจสอบสถานะของงานได้ด้วย squeue
  2. เมื่องานเสร็จสมบูรณ์ ให้ตรวจสอบเนื้อหาของ rsl.out.0000 เพื่อดูว่าคุณเห็นข้อความ "wrf: สำเร็จ COMPLETE WRF" หรือไม่ ส่วนต่อท้ายที่เป็นตัวเลขจะแตกต่างกันหากคุณเรียกใช้งานมากกว่า 1 ครั้ง เช่น คุณตั้งค่าการกำหนดค่าไม่ถูกต้องและต้องเรียกใช้ใหม่
$ tail -n1 ${HOME}/wrf-benchmark/rsl.out.0000
d01 2018-06-17_06:00:00 wrf: SUCCESS COMPLETE WRF

5. โควต้าสูง: ทำให้คลัสเตอร์ HPC ที่ปรับขนาดอัตโนมัติใช้งานได้ด้วย Terraform

ในส่วนนี้ คุณจะได้ทำให้คลัสเตอร์ HPC ที่ปรับขนาดอัตโนมัติ รวมถึงเครื่องจัดตารางเวลางาน Slurm ใน GCP ใช้งานได้

  1. เปิด Cloud Shell ใน GCP
  2. โคลนที่เก็บ FluidNumerics/slurm-gcp
cd ~
git clone https://github.com/FluidNumerics/slurm-gcp.git
  1. เปลี่ยนเป็นไดเรกทอรี WRF:
cd  ~/slurm-gcp/tf/examples/wrf
  1. สร้างและตรวจสอบแผน Terraform ตั้งค่าตัวแปรสภาพแวดล้อม WRF_NAME, WRF_PROJECT, WRF_ZONE, WRF_MAX_NODE และ WRF_MACHINE_TYPE เพื่อระบุชื่อของคลัสเตอร์, โปรเจ็กต์ GCP, โซนที่คุณต้องการทำให้ใช้งานได้ จำนวนโหนดสูงสุด และประเภทเครื่อง สำหรับการเปรียบเทียบ CONUS 2.5 กม. เราขอแนะนำให้ใช้อินสแตนซ์ c2-standard-60 ที่มีการเรียกใช้งานโหนดอย่างน้อย 8 โหนดที่มีอันดับ MPI 480 MP
export WRF_PROJECT=<PROJECT ID>
export WRF_ZONE=<ZONE>
export WRF_NAME=wrf-large
export WRF_MAX_NODE=5
export WRF_MACHINE_TYPE="c2-standard-60"
  1. หากไม่ได้ดำเนินการข้างต้น คุณต้องเรียกใช้ terraform init เพื่อเริ่มต้น terraform:
terraform init
  1. สร้างแผนด้วยคำสั่งทำ
make plan
  1. ทำให้คลัสเตอร์ใช้งานได้ ขั้นตอนการติดตั้งและตั้งค่าอาจใช้เวลาถึง 2 ชั่วโมง ในระหว่างการทำให้ใช้งานได้ ระบบจะติดตั้ง WRF และทรัพยากร Dependency ทั้งหมด
make apply
  1. SSH ไปยังโหนด login ที่สร้างขึ้นในขั้นตอนก่อนหน้า คุณดูโหนดนี้ในขั้นตอนก่อนหน้า (อาจเรียกว่า wrf-large-login0) คุณสามารถดำเนินการดังกล่าวได้โดยคลิกปุ่ม SSH ข้างรายการอินสแตนซ์ VM ในรายการเมนูคอนโซล Compute Engine -> อินสแตนซ์ VM

ตัวเลือก: คำสั่ง gcloud คู่นี้จะระบุชื่อโหนดการเข้าสู่ระบบและ SSH เอาไว้

export CLUSTER_LOGIN_NODE=$(gcloud compute instances list --zones ${WRF_ZONE} --filter="name ~ .*login" --format="value(name)" | head -n1)

gcloud compute ssh ${CLUSTER_LOGIN_NODE} --zone ${WRF_ZONE}

คำสั่งที่สองควรจะส่งผลให้คุณเชื่อมต่อกับโหนดการเข้าสู่ระบบของ Slurm

  1. เมื่อคุณเชื่อมต่อกับโหนดการเข้าสู่ระบบแล้ว ให้ตรวจสอบว่ามีโมดูล wrf อยู่เพื่อยืนยันการตั้งค่าคลัสเตอร์
$ module load gcc && module load openmpi && module avail
-------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/openmpi/4.0.5-eagetxh/gcc/9.2.0 --------------------------------------
   hdf5/1.10.7    netcdf-c/4.7.4    netcdf-fortran/4.5.3    parallel-netcdf/1.12.1    wrf/4.2

------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/gcc/9.2.0 -------------------------------------------------
   hwloc/2.2.0      libiconv/1.16          libpng/1.6.37     nasm/2.15.05            openmpi/4.0.5 (L,D)    time/1.9              zlib/1.2.11
   jasper/2.0.16    libjpeg-turbo/2.0.4    libtirpc/1.2.6    ncurses/5.9.20130511    perl/5.16.3            util-macros/1.19.1
   krb5/1.15.1      libpciaccess/0.16      libxml2/2.9.10    numactl/2.0.14          tcsh/6.22.02           xz/5.2.2

--------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/Core ----------------------------------------------------
   gcc/9.2.0 (L)

---------------------------------------------------------------------- /apps/modulefiles ----------------------------------------------------------------------
   openmpi/v4.1.x
  1. ตรวจสอบว่า /apps/share/conus-2.5km มีเนื้อหาตามที่ระบุไว้ด้านล่าง
$ ls -1 /apps/share/conus-2.5km
FILE:2018-06-17_00
FILE:2018-06-17_03
FILE:2018-06-17_06
FILE:2018-06-17_09
FILE:2018-06-17_12
geo_em.d01.nc
geogrid.log
gfs.0p25.2018061700.f000.grib2
gfs.0p25.2018061700.f003.grib2
gfs.0p25.2018061700.f006.grib2
gfs.0p25.2018061700.f009.grib2
gfs.0p25.2018061700.f012.grib2
met_em.d01.2018-06-17_00:00:00.nc
met_em.d01.2018-06-17_03:00:00.nc
met_em.d01.2018-06-17_06:00:00.nc
met_em.d01.2018-06-17_09:00:00.nc
met_em.d01.2018-06-17_12:00:00.nc
metgrid.log
namelist.input
namelist.wps
ungrib.log
wrfbdy_d01
wrfinput_d01

6. ทำการเปรียบเทียบ CONUS 2.5 กม.

หากต้องการทำการเปรียบเทียบ CONUS 2.5 กม. คุณจะต้องส่งงานแบบกลุ่มของ Slurm ชุดสไลด์อินพุตสำหรับการเปรียบเทียบนี้รวมอยู่ในรูปภาพ VM wrf-gcp ใต้ /apps/share/benchmarks/conus-2.5km

สำหรับส่วนนี้ คุณต้องเป็น SSH ที่เชื่อมต่อกับโหนด login ของคลัสเตอร์

  1. คัดลอกตัวอย่างไฟล์กลุ่ม wrf-conus.sh จาก /apps/share
cp /apps/share/wrf-conus2p5.sh ~/
  1. เปิด wrf-conus.sh ในเครื่องมือแก้ไขข้อความเพื่อยืนยันว่าตั้งค่า --partition และ --ntasks อย่างถูกต้องแล้ว ควรตั้งค่าพาร์ติชันเป็น c2-60 ควรกำหนดจำนวนงานตามจำนวนของอันดับ MPI ที่ต้องการใช้เพื่อเปิดงาน สำหรับการสาธิตนี้ จำนวนงานเทียบเท่ากับจำนวน vCPU ที่ใช้สำหรับงาน และไม่ควรเกินโควต้าที่มีอยู่ของคุณ
#!/bin/bash
#SBATCH --partition=c2-60
#SBATCH --ntasks=480
#SBATCH --ntasks-per-node=60
#SBATCH --mem-per-cpu=2g
#SBATCH --cpus-per-task=1
#SBATCH --account=default
#
# /////////////////////////////////////////////// #

WORK_PATH=${HOME}/wrf-benchmark/
SRUN_FLAGS="-n $SLURM_NTASKS --cpu-bind=threads"

. /apps/share/spack.sh
module load gcc/9.2.0
module load openmpi
module load hdf5 netcdf-c netcdf-fortran wrf

mkdir -p ${WORK_PATH}
cd ${WORK_PATH}
ln -s ${INSTALL_ROOT}/share/conus-2.5km/* .
ln -s $(spack location -i wrf)/run/* .

srun $MPI_FLAGS ./wrf.exe
  1. ส่งงานแบบกลุ่มโดยใช้ sbatch
sbatch wrf-conus2p5.sh
  1. รอให้งานเสร็จสมบูรณ์ การเปรียบเทียบนี้ได้รับการกำหนดค่าให้เรียกใช้การคาดการณ์ 6 ชั่วโมง ซึ่งใช้เวลาประมาณ 1 ชั่วโมงจึงจะเสร็จสมบูรณ์ด้วยอันดับ 480 คุณสามารถตรวจสอบสถานะของงานได้ด้วย squeue
  2. เมื่องานเสร็จสมบูรณ์ ให้ตรวจสอบเนื้อหาของ rsl.out.0000 เพื่อดูว่าคุณเห็นข้อความ "wrf: สำเร็จ COMPLETE WRF" หรือไม่ ส่วนต่อท้ายที่เป็นตัวเลขจะแตกต่างกันหากคุณเรียกใช้งานมากกว่า 1 ครั้ง เช่น คุณตั้งค่าการกำหนดค่าไม่ถูกต้องและต้องเรียกใช้ใหม่
$ tail -n1 ${HOME}/wrf-benchmark/rsl.out.0000
d01 2018-06-17_06:00:00 wrf: SUCCESS COMPLETE WRF

7. ขอแสดงความยินดี

ใน Codelab นี้ คุณได้สร้างคลัสเตอร์ HPC ที่ดำเนินการบนระบบคลาวด์และมีการปรับขนาดอัตโนมัติ และเรียกใช้การจำลอง WRF® พร้อมกันบน Google Cloud Platform

กำลังล้างข้อมูล

โปรดดำเนินการต่อไปนี้เพื่อเลี่ยงไม่ให้เกิดการเรียกเก็บเงินกับบัญชี Google Cloud Platform สำหรับทรัพยากรที่ใช้ใน Codelab นี้

ลบโปรเจ็กต์

วิธีที่ง่ายที่สุดในการยกเลิกการเรียกเก็บเงินคือการลบโปรเจ็กต์ที่คุณสร้างสำหรับ Codelab

ข้อควรระวัง: การลบโครงการจะมีผลกระทบดังต่อไปนี้

  • ทุกอย่างในโปรเจ็กต์จะถูกลบ หากคุณใช้โปรเจ็กต์ที่มีอยู่สำหรับ Codelab นี้ เมื่อคุณลบโปรเจ็กต์ดังกล่าว คุณจะลบงานอื่นๆ ที่ทำในโปรเจ็กต์ดังกล่าวด้วย
  • รหัสโปรเจ็กต์ที่กำหนดเองสูญหาย เมื่อสร้างโปรเจ็กต์นี้ คุณอาจสร้างรหัสโปรเจ็กต์ที่กําหนดเองที่ต้องการใช้ในอนาคต หากต้องการเก็บ URL ที่ใช้รหัสโปรเจ็กต์ไว้ เช่น URL ของ appspot.com ให้ลบทรัพยากรที่เลือกภายในโปรเจ็กต์แทนการลบทั้งโปรเจ็กต์

หากคุณวางแผนที่จะสำรวจ Codelab และการเริ่มต้นใช้งานอย่างรวดเร็วหลายรายการ การใช้โปรเจ็กต์ซ้ำจะช่วยให้คุณหลีกเลี่ยงไม่ให้เกินขีดจำกัดโควต้าของโปรเจ็กต์

  1. ใน Cloud Console ให้ไปที่หน้าจัดการทรัพยากร ไปที่หน้าจัดการทรัพยากร
  2. ในรายการโปรเจ็กต์ ให้เลือกโปรเจ็กต์ที่ต้องการลบ แล้วคลิกลบ dc096e8341a05fec.png
  3. ในกล่องโต้ตอบ ให้พิมพ์รหัสโปรเจ็กต์แล้วคลิกปิดเครื่องเพื่อลบโปรเจ็กต์

ลบทรัพยากรแต่ละรายการ

  1. เปิด Cloud Shell และไปที่ไดเรกทอรีตัวอย่าง wrf
cd  ~/slurm-gcp/tf/examples/wrf
  1. เรียกใช้ "ทำลาย" เพื่อลบทรัพยากรทั้งหมด
make destroy