1. บทนำ
อัปเดตล่าสุด:05-05-2021
สิ่งที่คุณจะสร้าง
ใน Codelab นี้ คุณกำลังจะทำให้คลัสเตอร์ High Performance Computing (HPC) ที่ปรับขนาดอัตโนมัติใช้งานได้บน Google Cloud ด้วยเครื่องจัดตารางเวลางาน Slurm คุณจะใช้ตัวอย่างการทำให้ Terraform ใช้งานได้ซึ่งจะทำให้คลัสเตอร์นี้ใช้งานได้ซึ่งติดตั้ง WRF® ผ่าน Spack จากนั้น ให้ใช้โครงสร้างพื้นฐานนี้เพื่อทำเกณฑ์มาตรฐาน CONUS 2.5 กม. หรือการเปรียบเทียบ CONUS 12 กม.
สิ่งที่คุณจะได้เรียนรู้
- วิธีกำหนดค่านโยบาย Identity and Access Management (IAM) สำหรับการดำเนินการคลัสเตอร์ HPC บน Google Cloud Platform
- วิธีทำให้คลัสเตอร์ HPC ที่ดำเนินการบนระบบคลาวด์ใช้งานได้ด้วยเครื่องจัดตารางเวลางาน Slurm
- วิธีเรียกใช้ WRF® พร้อมกันบน Google Cloud โดยใช้งานกลุ่ม Slurm
สิ่งที่คุณต้องมี
- บัญชี Gmail ที่มีคีย์ SSH แนบ หรือ Google Workspace, Cloud Identity
- โปรเจ็กต์ Google Cloud Platform ที่เปิดใช้การเรียกเก็บเงิน
- บทบาทเจ้าของโปรเจ็กต์ในโปรเจ็กต์ GCP ของคุณ
- โควต้า Compute Engine ที่เพียงพอ (vCPU 480 c2 และดิสก์มาตรฐาน PD ขนาด 500 GB)
2. การกำหนดค่า
เปิดใช้ Google Cloud APIs
หากต้องการสร้างและใช้ API ทรัพยากรของ Google Cloud จะต้องเปิดใช้งาน
gcloud services enable compute.googleapis.com
กำหนดนโยบาย IAM
ใน HPC ผู้ดูแลระบบและผู้ใช้ระบบมีความแตกต่างกันอย่างชัดเจน โดยทั่วไปผู้ดูแลระบบจะมี "การเข้าถึงระดับรูท" ซึ่งช่วยให้จัดการและดำเนินการกับทรัพยากรการประมวลผลได้ ผู้ใช้ระบบโดยทั่วไปคือนักวิจัย นักวิทยาศาสตร์ และวิศวกรแอปพลิเคชันที่จำเป็นต้องใช้ทรัพยากรเพื่อดำเนินงานเท่านั้น
ใน Google Cloud นั้น OS Login API จะจัดสรรข้อมูลผู้ใช้ POSIX จากบัญชี Google Workspace, Cloud Identity และ Gmail นอกจากนี้ การเข้าสู่ระบบปฏิบัติการยังผสานรวมกับระบบ Identity and Access Management (IAM) ของ GCP เพื่อกำหนดว่าผู้ใช้ควรได้รับอนุญาตให้ส่งต่อสิทธิ์ในระบบ Linux หรือไม่
ในบทแนะนำนี้ เราจะถือว่าคุณมีบทบาทเป็นผู้ดูแลระบบและผู้ดูแลระบบ Compute Engine เราจะกำหนดค่านโยบาย IAM เพื่อให้สิทธิ์ที่เพียงพอแก่คุณในการทำงานต่อไปนี้
- สร้าง/ลบอินสแตนซ์ VM ของ Google Compute Engine (GCE)
- SSH ไปยังอินสแตนซ์ VM ใน GCE
หากต้องการมอบบทบาท IAM ที่จำเป็นในการทำบทแนะนำนี้ให้ตัวเองใน Google Cloud Console ให้ทำดังนี้
- ไปที่ IAM และ ผู้ดูแลระบบ > IAM ในเมนูผลิตภัณฑ์และบริการ
- คลิก "+เพิ่ม" ใกล้ด้านบนของหน้า
- พิมพ์บัญชี Google Workspace, บัญชี Cloud Identity หรือบัญชี Gmail ในส่วน "สมาชิกใหม่"
- เพิ่มบทบาทต่อไปนี้ : ผู้ดูแลระบบ Compute, เข้าสู่ระบบ OS ของ Compute และผู้ใช้บัญชีบริการ
- คลิก "บันทึก"
ตอนนี้การเข้าสู่ระบบของคุณมีสิทธิ์ที่จำเป็นในการเริ่มต้นการสร้างคลัสเตอร์ HPC
หากต้องการยืนยันว่าคุณได้กำหนดบทบาทที่ถูกต้องแล้ว ให้เปิด Cloud Shell แล้วเรียกใช้คำสั่งต่อไปนี้ โดยแทนที่ YOUR_PROJECT
และ EMAIL_ADDRESS
ด้วยโปรเจ็กต์และอีเมลของคุณ
$ gcloud projects get-iam-policy YOUR_PROJECT --flatten="bindings[].members" --format='table(bindings.role)' --filter="bindings.members=user:EMAIL_ADDRESS"
คำสั่งนี้จะแสดงเอาต์พุต ดังนี้
ROLE roles/compute.osLogin roles/iam.serviceAccountUser roles/compute.admin
3. โควต้าต่ำ: ทำให้คลัสเตอร์ HPC ที่ปรับขนาดอัตโนมัติใช้งานได้ด้วย Terraform
ในส่วนนี้ คุณจะได้ทำให้คลัสเตอร์ HPC ที่ปรับขนาดอัตโนมัติ รวมถึงเครื่องจัดตารางเวลางาน Slurm ด้วย ตัวเลือกนี้เหมือนกับตัวเลือกโควต้าสูง ยกเว้นว่าประเภทเครื่องที่ใช้มีขนาดเล็กกว่าและจำนวน vCPU ที่ใช้น้อยกว่า
- เปิด Cloud Shell ใน GCP
- โคลนที่เก็บ FluidNumerics/slurm-gcp
cd ~ git clone https://github.com/FluidNumerics/slurm-gcp.git
- เปลี่ยนเป็นไดเรกทอรี WRF:
cd ~/slurm-gcp/tf/examples/wrf
- สร้างและตรวจสอบแผน Terraform ตั้งค่าตัวแปรสภาพแวดล้อม
WRF_NAME
,WRF_PROJECT
และWRF_ZONE
เพื่อระบุชื่อของคลัสเตอร์ โปรเจ็กต์ GCP และโซนที่ต้องการทำให้ใช้งานได้
export WRF_PROJECT=<PROJECT ID> export WRF_ZONE=<ZONE> export WRF_NAME="wrf-small"
- ครั้งแรกที่เรียกใช้ terraform คุณต้องเรียกใช้คำสั่ง
init
:
terraform init
- สร้างแผนด้วยคำสั่งสร้าง ซึ่งจะเรียกใช้
terraform
make plan
- ทำให้คลัสเตอร์ใช้งานได้ ขั้นตอนการติดตั้งและตั้งค่าอาจใช้เวลาถึง 2 ชั่วโมง ในระหว่างการทำให้ใช้งานได้ ระบบจะติดตั้ง WRF และทรัพยากร Dependency ทั้งหมด
make apply
- SSH ไปยังโหนด login ที่สร้างขึ้นในขั้นตอนก่อนหน้า คุณดูโหนดนี้ในขั้นตอนก่อนหน้า (อาจเรียกว่า wrf-small-login0) คุณสามารถดำเนินการดังกล่าวได้โดยคลิกปุ่ม SSH ข้างรายการอินสแตนซ์ VM ในรายการเมนูคอนโซล Compute Engine -> อินสแตนซ์ VM
ตัวเลือก: คำสั่ง gcloud คู่นี้จะระบุชื่อโหนดการเข้าสู่ระบบและ SSH เอาไว้
export CLUSTER_LOGIN_NODE=$(gcloud compute instances list --zones ${WRF_ZONE} --filter="name ~ .*login" --format="value(name)" | head -n1) gcloud compute ssh ${CLUSTER_LOGIN_NODE} --zone ${WRF_ZONE}
- เมื่อคุณเชื่อมต่อกับโหนดการเข้าสู่ระบบแล้ว ให้ตรวจสอบว่ามีโมดูล wrf อยู่เพื่อยืนยันการตั้งค่าคลัสเตอร์
$ module load gcc && module load openmpi && module avail -------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/openmpi/4.0.5-eagetxh/gcc/9.2.0 -------------------------------------- hdf5/1.10.7 netcdf-c/4.7.4 netcdf-fortran/4.5.3 parallel-netcdf/1.12.1 wrf/4.2 ------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/gcc/9.2.0 ------------------------------------------------- hwloc/2.2.0 libiconv/1.16 libpng/1.6.37 nasm/2.15.05 openmpi/4.0.5 (L,D) time/1.9 zlib/1.2.11 jasper/2.0.16 libjpeg-turbo/2.0.4 libtirpc/1.2.6 ncurses/5.9.20130511 perl/5.16.3 util-macros/1.19.1 krb5/1.15.1 libpciaccess/0.16 libxml2/2.9.10 numactl/2.0.14 tcsh/6.22.02 xz/5.2.2 --------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/Core ---------------------------------------------------- gcc/9.2.0 (L) ---------------------------------------------------------------------- /apps/modulefiles ---------------------------------------------------------------------- openmpi/v4.1.x
- ตรวจสอบว่า
/apps/share/conus-12km
มีเนื้อหาตามที่ระบุไว้ด้านล่าง
$ ls -1 /apps/share/conus-12km/ FILE:2018-06-17_00 FILE:2018-06-17_03 FILE:2018-06-17_06 FILE:2018-06-17_09 FILE:2018-06-17_12 geo_em.d01.nc geogrid.log met_em.d01.2018-06-17_00:00:00.nc met_em.d01.2018-06-17_03:00:00.nc met_em.d01.2018-06-17_06:00:00.nc met_em.d01.2018-06-17_09:00:00.nc met_em.d01.2018-06-17_12:00:00.nc metgrid.log namelist.input namelist.wps ungrib.log wrfbdy_d01 wrfinput_d01
4. เรียกใช้การเปรียบเทียบ CONUS 12 กม.
หากต้องการทำการเปรียบเทียบ CONUS 12 กม. คุณจะต้องส่งงานแบบกลุ่มของ Slurm ชุดสไลด์อินพุตสำหรับการเปรียบเทียบนี้รวมอยู่ในรูปภาพ VM wrf-gcp ใต้ /apps/share/benchmarks/conus-12km
สำหรับส่วนนี้ คุณต้องเป็น SSH ที่เชื่อมต่อกับโหนด login ของคลัสเตอร์
- คัดลอกตัวอย่างไฟล์กลุ่ม wrf-conus.sh จาก /apps/share
cp /apps/share/wrf-conus12.sh ~/
- เปิด wrf-conus.sh ในเครื่องมือแก้ไขข้อความเพื่อยืนยันว่าตั้งค่า
--partition
และ--ntasks
อย่างถูกต้องแล้ว ควรกำหนดจำนวนงานตามจำนวนของอันดับ MPI ที่ต้องการใช้เพื่อเปิดงาน สำหรับการสาธิตนี้ จำนวนงานเทียบเท่ากับจำนวน vCPU ที่ใช้สำหรับงาน และไม่ควรเกินโควต้าที่มีอยู่ของคุณ
#!/bin/bash #SBATCH --partition=wrf #SBATCH --ntasks=24 #SBATCH --ntasks-per-node=8 #SBATCH --mem-per-cpu=2g #SBATCH --cpus-per-task=1 #SBATCH --account=default # # /////////////////////////////////////////////// # WORK_PATH=${HOME}/wrf-benchmark/ SRUN_FLAGS="-n $SLURM_NTASKS --cpu-bind=threads" . /apps/share/spack.sh module load gcc/9.2.0 module load openmpi module load hdf5 netcdf-c netcdf-fortran wrf mkdir -p ${WORK_PATH} cd ${WORK_PATH} ln -s ${INSTALL_ROOT}/share/conus-12km/* . ln -s $(spack location -i wrf)/run/* . srun $MPI_FLAGS ./wrf.exe
- ส่งงานแบบกลุ่มโดยใช้ sbatch
sbatch wrf-conus12.sh
- รอให้งานเสร็จสมบูรณ์ การเปรียบเทียบนี้ได้รับการกำหนดค่าให้เรียกใช้การคาดการณ์ 6 ชั่วโมง ซึ่งใช้เวลาประมาณ 3 ชั่วโมงจึงจะเสร็จสมบูรณ์โดยมี 24 อันดับ คุณสามารถตรวจสอบสถานะของงานได้ด้วย
squeue
- เมื่องานเสร็จสมบูรณ์ ให้ตรวจสอบเนื้อหาของ rsl.out.0000 เพื่อดูว่าคุณเห็นข้อความ "wrf: สำเร็จ COMPLETE WRF" หรือไม่ ส่วนต่อท้ายที่เป็นตัวเลขจะแตกต่างกันหากคุณเรียกใช้งานมากกว่า 1 ครั้ง เช่น คุณตั้งค่าการกำหนดค่าไม่ถูกต้องและต้องเรียกใช้ใหม่
$ tail -n1 ${HOME}/wrf-benchmark/rsl.out.0000 d01 2018-06-17_06:00:00 wrf: SUCCESS COMPLETE WRF
5. โควต้าสูง: ทำให้คลัสเตอร์ HPC ที่ปรับขนาดอัตโนมัติใช้งานได้ด้วย Terraform
ในส่วนนี้ คุณจะได้ทำให้คลัสเตอร์ HPC ที่ปรับขนาดอัตโนมัติ รวมถึงเครื่องจัดตารางเวลางาน Slurm ใน GCP ใช้งานได้
- เปิด Cloud Shell ใน GCP
- โคลนที่เก็บ FluidNumerics/slurm-gcp
cd ~ git clone https://github.com/FluidNumerics/slurm-gcp.git
- เปลี่ยนเป็นไดเรกทอรี WRF:
cd ~/slurm-gcp/tf/examples/wrf
- สร้างและตรวจสอบแผน Terraform ตั้งค่าตัวแปรสภาพแวดล้อม
WRF_NAME
,WRF_PROJECT
,WRF_ZONE
,WRF_MAX_NODE
และWRF_MACHINE_TYPE
เพื่อระบุชื่อของคลัสเตอร์, โปรเจ็กต์ GCP, โซนที่คุณต้องการทำให้ใช้งานได้ จำนวนโหนดสูงสุด และประเภทเครื่อง สำหรับการเปรียบเทียบ CONUS 2.5 กม. เราขอแนะนำให้ใช้อินสแตนซ์ c2-standard-60 ที่มีการเรียกใช้งานโหนดอย่างน้อย 8 โหนดที่มีอันดับ MPI 480 MP
export WRF_PROJECT=<PROJECT ID> export WRF_ZONE=<ZONE> export WRF_NAME=wrf-large export WRF_MAX_NODE=5 export WRF_MACHINE_TYPE="c2-standard-60"
- หากไม่ได้ดำเนินการข้างต้น คุณต้องเรียกใช้
terraform init
เพื่อเริ่มต้น terraform:
terraform init
- สร้างแผนด้วยคำสั่งทำ
make plan
- ทำให้คลัสเตอร์ใช้งานได้ ขั้นตอนการติดตั้งและตั้งค่าอาจใช้เวลาถึง 2 ชั่วโมง ในระหว่างการทำให้ใช้งานได้ ระบบจะติดตั้ง WRF และทรัพยากร Dependency ทั้งหมด
make apply
- SSH ไปยังโหนด login ที่สร้างขึ้นในขั้นตอนก่อนหน้า คุณดูโหนดนี้ในขั้นตอนก่อนหน้า (อาจเรียกว่า wrf-large-login0) คุณสามารถดำเนินการดังกล่าวได้โดยคลิกปุ่ม SSH ข้างรายการอินสแตนซ์ VM ในรายการเมนูคอนโซล Compute Engine -> อินสแตนซ์ VM
ตัวเลือก: คำสั่ง gcloud คู่นี้จะระบุชื่อโหนดการเข้าสู่ระบบและ SSH เอาไว้
export CLUSTER_LOGIN_NODE=$(gcloud compute instances list --zones ${WRF_ZONE} --filter="name ~ .*login" --format="value(name)" | head -n1) gcloud compute ssh ${CLUSTER_LOGIN_NODE} --zone ${WRF_ZONE}
คำสั่งที่สองควรจะส่งผลให้คุณเชื่อมต่อกับโหนดการเข้าสู่ระบบของ Slurm
- เมื่อคุณเชื่อมต่อกับโหนดการเข้าสู่ระบบแล้ว ให้ตรวจสอบว่ามีโมดูล wrf อยู่เพื่อยืนยันการตั้งค่าคลัสเตอร์
$ module load gcc && module load openmpi && module avail -------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/openmpi/4.0.5-eagetxh/gcc/9.2.0 -------------------------------------- hdf5/1.10.7 netcdf-c/4.7.4 netcdf-fortran/4.5.3 parallel-netcdf/1.12.1 wrf/4.2 ------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/gcc/9.2.0 ------------------------------------------------- hwloc/2.2.0 libiconv/1.16 libpng/1.6.37 nasm/2.15.05 openmpi/4.0.5 (L,D) time/1.9 zlib/1.2.11 jasper/2.0.16 libjpeg-turbo/2.0.4 libtirpc/1.2.6 ncurses/5.9.20130511 perl/5.16.3 util-macros/1.19.1 krb5/1.15.1 libpciaccess/0.16 libxml2/2.9.10 numactl/2.0.14 tcsh/6.22.02 xz/5.2.2 --------------------------------------------------- /apps/spack/share/spack/lmod/linux-centos7-x86_64/Core ---------------------------------------------------- gcc/9.2.0 (L) ---------------------------------------------------------------------- /apps/modulefiles ---------------------------------------------------------------------- openmpi/v4.1.x
- ตรวจสอบว่า
/apps/share/conus-2.5km
มีเนื้อหาตามที่ระบุไว้ด้านล่าง
$ ls -1 /apps/share/conus-2.5km FILE:2018-06-17_00 FILE:2018-06-17_03 FILE:2018-06-17_06 FILE:2018-06-17_09 FILE:2018-06-17_12 geo_em.d01.nc geogrid.log gfs.0p25.2018061700.f000.grib2 gfs.0p25.2018061700.f003.grib2 gfs.0p25.2018061700.f006.grib2 gfs.0p25.2018061700.f009.grib2 gfs.0p25.2018061700.f012.grib2 met_em.d01.2018-06-17_00:00:00.nc met_em.d01.2018-06-17_03:00:00.nc met_em.d01.2018-06-17_06:00:00.nc met_em.d01.2018-06-17_09:00:00.nc met_em.d01.2018-06-17_12:00:00.nc metgrid.log namelist.input namelist.wps ungrib.log wrfbdy_d01 wrfinput_d01
6. ทำการเปรียบเทียบ CONUS 2.5 กม.
หากต้องการทำการเปรียบเทียบ CONUS 2.5 กม. คุณจะต้องส่งงานแบบกลุ่มของ Slurm ชุดสไลด์อินพุตสำหรับการเปรียบเทียบนี้รวมอยู่ในรูปภาพ VM wrf-gcp ใต้ /apps/share/benchmarks/conus-2.5km
สำหรับส่วนนี้ คุณต้องเป็น SSH ที่เชื่อมต่อกับโหนด login ของคลัสเตอร์
- คัดลอกตัวอย่างไฟล์กลุ่ม wrf-conus.sh จาก /apps/share
cp /apps/share/wrf-conus2p5.sh ~/
- เปิด wrf-conus.sh ในเครื่องมือแก้ไขข้อความเพื่อยืนยันว่าตั้งค่า
--partition
และ--ntasks
อย่างถูกต้องแล้ว ควรตั้งค่าพาร์ติชันเป็น c2-60 ควรกำหนดจำนวนงานตามจำนวนของอันดับ MPI ที่ต้องการใช้เพื่อเปิดงาน สำหรับการสาธิตนี้ จำนวนงานเทียบเท่ากับจำนวน vCPU ที่ใช้สำหรับงาน และไม่ควรเกินโควต้าที่มีอยู่ของคุณ
#!/bin/bash #SBATCH --partition=c2-60 #SBATCH --ntasks=480 #SBATCH --ntasks-per-node=60 #SBATCH --mem-per-cpu=2g #SBATCH --cpus-per-task=1 #SBATCH --account=default # # /////////////////////////////////////////////// # WORK_PATH=${HOME}/wrf-benchmark/ SRUN_FLAGS="-n $SLURM_NTASKS --cpu-bind=threads" . /apps/share/spack.sh module load gcc/9.2.0 module load openmpi module load hdf5 netcdf-c netcdf-fortran wrf mkdir -p ${WORK_PATH} cd ${WORK_PATH} ln -s ${INSTALL_ROOT}/share/conus-2.5km/* . ln -s $(spack location -i wrf)/run/* . srun $MPI_FLAGS ./wrf.exe
- ส่งงานแบบกลุ่มโดยใช้ sbatch
sbatch wrf-conus2p5.sh
- รอให้งานเสร็จสมบูรณ์ การเปรียบเทียบนี้ได้รับการกำหนดค่าให้เรียกใช้การคาดการณ์ 6 ชั่วโมง ซึ่งใช้เวลาประมาณ 1 ชั่วโมงจึงจะเสร็จสมบูรณ์ด้วยอันดับ 480 คุณสามารถตรวจสอบสถานะของงานได้ด้วย
squeue
- เมื่องานเสร็จสมบูรณ์ ให้ตรวจสอบเนื้อหาของ rsl.out.0000 เพื่อดูว่าคุณเห็นข้อความ "wrf: สำเร็จ COMPLETE WRF" หรือไม่ ส่วนต่อท้ายที่เป็นตัวเลขจะแตกต่างกันหากคุณเรียกใช้งานมากกว่า 1 ครั้ง เช่น คุณตั้งค่าการกำหนดค่าไม่ถูกต้องและต้องเรียกใช้ใหม่
$ tail -n1 ${HOME}/wrf-benchmark/rsl.out.0000 d01 2018-06-17_06:00:00 wrf: SUCCESS COMPLETE WRF
7. ขอแสดงความยินดี
ใน Codelab นี้ คุณได้สร้างคลัสเตอร์ HPC ที่ดำเนินการบนระบบคลาวด์และมีการปรับขนาดอัตโนมัติ และเรียกใช้การจำลอง WRF® พร้อมกันบน Google Cloud Platform
กำลังล้างข้อมูล
โปรดดำเนินการต่อไปนี้เพื่อเลี่ยงไม่ให้เกิดการเรียกเก็บเงินกับบัญชี Google Cloud Platform สำหรับทรัพยากรที่ใช้ใน Codelab นี้
ลบโปรเจ็กต์
วิธีที่ง่ายที่สุดในการยกเลิกการเรียกเก็บเงินคือการลบโปรเจ็กต์ที่คุณสร้างสำหรับ Codelab
ข้อควรระวัง: การลบโครงการจะมีผลกระทบดังต่อไปนี้
- ทุกอย่างในโปรเจ็กต์จะถูกลบ หากคุณใช้โปรเจ็กต์ที่มีอยู่สำหรับ Codelab นี้ เมื่อคุณลบโปรเจ็กต์ดังกล่าว คุณจะลบงานอื่นๆ ที่ทำในโปรเจ็กต์ดังกล่าวด้วย
- รหัสโปรเจ็กต์ที่กำหนดเองสูญหาย เมื่อสร้างโปรเจ็กต์นี้ คุณอาจสร้างรหัสโปรเจ็กต์ที่กําหนดเองที่ต้องการใช้ในอนาคต หากต้องการเก็บ URL ที่ใช้รหัสโปรเจ็กต์ไว้ เช่น URL ของ appspot.com ให้ลบทรัพยากรที่เลือกภายในโปรเจ็กต์แทนการลบทั้งโปรเจ็กต์
หากคุณวางแผนที่จะสำรวจ Codelab และการเริ่มต้นใช้งานอย่างรวดเร็วหลายรายการ การใช้โปรเจ็กต์ซ้ำจะช่วยให้คุณหลีกเลี่ยงไม่ให้เกินขีดจำกัดโควต้าของโปรเจ็กต์
- ใน Cloud Console ให้ไปที่หน้าจัดการทรัพยากร ไปที่หน้าจัดการทรัพยากร
- ในรายการโปรเจ็กต์ ให้เลือกโปรเจ็กต์ที่ต้องการลบ แล้วคลิกลบ
- ในกล่องโต้ตอบ ให้พิมพ์รหัสโปรเจ็กต์แล้วคลิกปิดเครื่องเพื่อลบโปรเจ็กต์
ลบทรัพยากรแต่ละรายการ
- เปิด Cloud Shell และไปที่ไดเรกทอรีตัวอย่าง wrf
cd ~/slurm-gcp/tf/examples/wrf
- เรียกใช้ "ทำลาย" เพื่อลบทรัพยากรทั้งหมด
make destroy