Private Service Connect ที่มีการกำหนดค่า DNS อัตโนมัติ

1. บทนำ

Private Service Connect ที่มีการกำหนดค่า DNS อัตโนมัติจะใช้ Service Directory และ Cloud DNS เพื่อสร้างระเบียน DNS ที่วางโปรแกรมด้วยที่อยู่ IP ปลายทางของ Private Service Connect ของผู้บริโภคโดยอัตโนมัติ

สิ่งที่คุณจะสร้าง

ใน Codelab นี้ คุณจะสร้างสถาปัตยกรรม Private Service Connect ที่ครอบคลุม ซึ่งแสดงภาพการใช้ DNS อัตโนมัติดังที่แสดงในรูปที่ 1

DNS อัตโนมัติเกิดขึ้นได้ด้วยสิ่งต่อไปนี้

  1. ไฟล์แนบบริการของ Producer จะสร้าง DNS อัตโนมัติโดยใส่ "– domain-names" ของโดเมนสาธารณะที่เป็นเจ้าของ แจ้งเมื่อสร้างไฟล์แนบของบริการ Private Service Connect
  2. ผู้บริโภคเป็นผู้กําหนดชื่อปลายทาง
  3. DNS อัตโนมัติจะสร้างทั้ง DNS Zone goog-psc-default-us-central1 และ ชื่อ DNS cosmopup.net นอกเหนือจากรายการ Service Directory ที่ประกอบด้วยชื่อปลายทางของผู้บริโภค

ประโยชน์ของ DNS อัตโนมัติแสดงอยู่ใน (4) ที่ผู้ใช้ปลายทางสามารถสื่อสารกับปลายทางของผู้บริโภคผ่าน DNS ซึ่งก็คือ FQDN stargazer.cosmopup.net

รูปที่ 1

5e26a358454d1336.png

สิ่งที่คุณจะได้เรียนรู้

  • วิธีสร้างตัวจัดสรรภาระงาน HTTP(S) ภายใน
  • วิธีสร้างไฟล์แนบบริการด้วย DNS อัตโนมัติ
  • วิธีสร้างบริการ Private Service Connect Producer
  • วิธีเข้าถึงปลายทางของผู้ใช้โดยใช้ DNS อัตโนมัติ

สิ่งที่คุณต้องมี

  • โปรเจ็กต์ Google Cloud
  • สาธารณสมบัติที่คุณเป็นเจ้าของ

2. ก่อนเริ่มต้น

อัปเดตโปรเจ็กต์เพื่อรองรับ Codelab

Codelab นี้ใช้ $variables เพื่อช่วยในการติดตั้งใช้งานการกำหนดค่า gcloud ใน Cloud Shell

ภายใน Cloud Shell ให้ดำเนินการต่อไปนี้

gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=YOUR-PROJECT-NAME
echo $projectname

3. การตั้งค่าผู้ผลิต

สร้าง VPC ผู้ผลิต

ภายใน Cloud Shell ให้ดำเนินการต่อไปนี้

gcloud compute networks create producer-vpc --project=$projectname --subnet-mode=custom

สร้างซับเน็ตผู้ผลิต

ภายใน Cloud Shell ให้ดำเนินการต่อไปนี้

gcloud compute networks subnets create gce-subnet --project=$projectname --range=172.16.20.0/28 --network=producer-vpc --region=us-central1

ภายใน Cloud Shell ให้ดำเนินการต่อไปนี้

gcloud compute networks subnets create load-balancer-subnet --project=$projectname --range=172.16.10.0/28 --network=producer-vpc --region=us-central1

สำรองที่อยู่ IP สำหรับตัวจัดสรรภาระงานภายใน

ภายใน Cloud Shell ให้ดำเนินการต่อไปนี้

gcloud compute addresses create lb-ip \
    --region=us-central1 \
    --subnet=load-balancer-subnet \
    --purpose=GCE_ENDPOINT

ดูที่อยู่ IP ที่จัดสรร

ใช้คำสั่งอธิบายที่อยู่ประมวลผลเพื่อดูที่อยู่ IP ที่จัดสรร

gcloud compute addresses describe lb-ip  --region=us-central1 | grep address:

สร้างซับเน็ตของพร็อกซีระดับภูมิภาค

การจัดสรรพร็อกซีจะอยู่ที่ระดับเครือข่าย VPC ไม่ใช่ระดับตัวจัดสรรภาระงาน คุณต้องสร้างซับเน็ตเฉพาะพร็อกซี 1 รายการในแต่ละภูมิภาคของเครือข่ายเสมือน (VPC) ที่คุณใช้ตัวจัดสรรภาระงานที่อิงตาม Envoy หากคุณติดตั้งใช้งานตัวจัดสรรภาระงานหลายรายการในภูมิภาคและเครือข่าย VPC เดียวกัน ตัวจัดสรรภาระงานดังกล่าวจะใช้ซับเน็ตเฉพาะพร็อกซีเดียวกันสำหรับการจัดสรรภาระงาน

  1. ไคลเอ็นต์จะเชื่อมต่อกับที่อยู่ IP และพอร์ตของกฎการส่งต่อของตัวจัดสรรภาระงาน
  2. พร็อกซีแต่ละรายการจะรอฟังที่อยู่ IP และพอร์ตที่ระบุโดยกฎการส่งต่อของตัวจัดสรรภาระงานที่เกี่ยวข้อง พร็อกซีรายการใดรายการหนึ่งได้รับและสิ้นสุดการเชื่อมต่อเครือข่ายของไคลเอ็นต์
  3. พร็อกซีจะสร้างการเชื่อมต่อกับ VM แบ็กเอนด์ที่เหมาะสมซึ่งกำหนดโดยแมป URL และบริการแบ็กเอนด์ของตัวจัดสรรภาระงาน

คุณต้องสร้างซับเน็ตเฉพาะพร็อกซี ไม่ว่าเครือข่าย VPC ของคุณจะเป็นโหมดอัตโนมัติหรือโหมดที่กำหนดเองก็ตาม ซับเน็ตเฉพาะพร็อกซีต้องระบุที่อยู่ IP อย่างน้อย 64 รายการ ซึ่งสอดคล้องกับความยาวของคำนำหน้า /26 หรือสั้นกว่า ขนาดซับเน็ตที่แนะนำคือ /23 (ที่อยู่เฉพาะพร็อกซี 512)

ภายใน Cloud Shell ให้ดำเนินการต่อไปนี้

gcloud compute networks subnets create proxy-subnet-us-central \
  --purpose=REGIONAL_MANAGED_PROXY \
  --role=ACTIVE \
  --region=us-central1 \
  --network=producer-vpc \
  --range=172.16.0.0/23

สร้างซับเน็ต NAT ของ Private Service Connect

สร้างซับเน็ตเฉพาะอย่างน้อย 1 รายการเพื่อใช้กับ Private Service Connect หากใช้ Google Cloud Console เพื่อเผยแพร่บริการ คุณจะสร้างซับเน็ตได้ในระหว่างกระบวนการนี้ สร้างซับเน็ตในภูมิภาคเดียวกันกับตัวจัดสรรภาระงานของบริการ คุณแปลงซับเน็ตปกติเป็นซับเน็ตของ Private Service Connect ไม่ได้

ภายใน Cloud Shell ให้ดำเนินการต่อไปนี้

gcloud compute networks subnets create psc-nat-subnet \
    --project $projectname \
    --network producer-vpc \
    --region us-central1 \
    --range 100.100.10.0/24 \
    --purpose PRIVATE_SERVICE_CONNECT

สร้างกฎไฟร์วอลล์ของผู้ผลิต

กำหนดค่า กฎไฟร์วอลล์เพื่ออนุญาตการรับส่งข้อมูลระหว่างซับเน็ต Private Service Connect NAT และซับเน็ตเฉพาะพร็อกซี ILB

ภายใน Cloud Shell ให้ดำเนินการต่อไปนี้

gcloud compute --project=$projectname firewall-rules create allow-to-ingress-nat-subnet --direction=INGRESS --priority=1000 --network=producer-vpc --action=ALLOW --rules=all --source-ranges=100.100.10.0/24

ใน Cloud Shell ให้สร้างกฎไฟร์วอลล์สำหรับการตรวจสอบประสิทธิภาพการทำงาน (fw-allow-health-check) เพื่ออนุญาตให้การตรวจสอบประสิทธิภาพการทำงานของ Google Cloud เข้าถึงบริการของผู้ผลิต (บริการแบ็กเอนด์) บนพอร์ต TCP 80

gcloud compute firewall-rules create fw-allow-health-check \
    --network=producer-vpc \
    --action=allow \
    --direction=ingress \
    --source-ranges=130.211.0.0/22,35.191.0.0/16 \
    --rules=tcp:80

สร้างกฎไฟร์วอลล์ที่อนุญาตข้อมูลขาเข้าสำหรับซับเน็ตเฉพาะพร็อกซีเพื่อให้ตัวจัดสรรภาระงานสื่อสารกับอินสแตนซ์แบ็กเอนด์บนพอร์ต TCP 80 ได้

gcloud compute firewall-rules create fw-allow-proxy-only-subnet \
    --network=producer-vpc \
    --action=allow \
    --direction=ingress \
    --source-ranges=172.16.0.0/23 \
    --rules=tcp:80

การกำหนดค่า Cloud Router และ NAT

มีการใช้ Cloud NAT ใน Codelab สำหรับการติดตั้งแพ็กเกจซอฟต์แวร์เนื่องจากอินสแตนซ์ VM ไม่มีที่อยู่ IP ภายนอก

สร้างเราเตอร์ระบบคลาวด์ใน Cloud Shell

gcloud compute routers create cloud-router-for-nat --network producer-vpc --region us-central1

สร้างเกตเวย์ NAT ภายใน Cloud Shell

gcloud compute routers nats create cloud-nat-us-central1 --router=cloud-router-for-nat --auto-allocate-nat-external-ips --nat-all-subnet-ip-ranges --region us-central1

การกำหนดค่ากลุ่มอินสแตนซ์

ในส่วนต่อไปนี้ คุณจะต้องสร้างอินสแตนซ์ Compute Engine และ อินสแตนซ์ที่ไม่มีการจัดการ ในขั้นตอนหลังจากนี้ ระบบจะใช้อินสแตนซ์เป็นบริการแบ็กเอนด์ของตัวจัดสรรภาระงาน

ภายใน Cloud Shell ให้สร้างการตรวจสอบประสิทธิภาพการทำงานระดับภูมิภาคที่ส่งไปยังบริการของผู้ผลิต

gcloud compute instances create app-server-1 \
    --project=$projectname \
    --machine-type=e2-micro \
    --image-family debian-10 \
    --no-address \
    --image-project debian-cloud \
    --zone us-central1-a \
    --subnet=gce-subnet \
    --metadata startup-script="#! /bin/bash
      sudo apt-get update
      sudo apt-get install apache2 -y
      sudo service apache2 restart
      echo 'Welcome to App-Server-1 !!' | tee /var/www/html/index.html
      EOF"

สร้างกลุ่มอินสแตนซ์ที่ไม่มีการจัดการใน Cloud Shell

gcloud compute instance-groups unmanaged create psc-instance-group --zone=us-central1-a

gcloud compute instance-groups unmanaged set-named-ports psc-instance-group --project=$projectname --zone=us-central1-a --named-ports=http:80

gcloud compute instance-groups unmanaged add-instances psc-instance-group --zone=us-central1-a --instances=app-server-1

กำหนดค่าตัวจัดสรรภาระงาน

ในขั้นตอนต่อไปนี้ คุณจะต้องกำหนดค่า ตัวจัดสรรภาระงาน HTTP ภายในซึ่งจะเผยแพร่เป็นไฟล์แนบบริการในขั้นตอนถัดไป

สร้างการตรวจสอบประสิทธิภาพการทำงานระดับภูมิภาคภายใน Cloud Shell

gcloud compute health-checks create http http-health-check \
    --region=us-central1 \
    --use-serving-port

สร้างบริการแบ็กเอนด์ภายใน Cloud Shell

 gcloud compute backend-services create l7-ilb-backend-service \
      --load-balancing-scheme=INTERNAL_MANAGED \
      --protocol=HTTP \
      --health-checks=http-health-check \
      --health-checks-region=us-central1 \
      --region=us-central1

เพิ่มแบ็กเอนด์ไปยังบริการแบ็กเอนด์ภายใน Cloud Shell

gcloud compute backend-services add-backend l7-ilb-backend-service \
  --balancing-mode=UTILIZATION \
  --instance-group=psc-instance-group \
  --instance-group-zone=us-central1-a \
  --region=us-central1

ภายใน Cloud Shell ให้สร้างแมป URL เพื่อกำหนดเส้นทางคำขอขาเข้าไปยังบริการแบ็กเอนด์

gcloud compute url-maps create l7-ilb-map \
    --default-service l7-ilb-backend-service \
    --region=us-central1

สร้างพร็อกซีเป้าหมาย HTTP

gcloud compute target-http-proxies create l7-ilb-proxy\
    --url-map=l7-ilb-map \
    --url-map-region=us-central1 \
    --region=us-central1

สร้างกฎการส่งต่อเพื่อกำหนดเส้นทางคำขอขาเข้าไปยังพร็อกซี อย่าใช้ซับเน็ตเฉพาะพร็อกซีเพื่อสร้างกฎการส่งต่อ

 gcloud compute forwarding-rules create l7-ilb-forwarding-rule \
      --load-balancing-scheme=INTERNAL_MANAGED \
      --network=producer-vpc \
      --subnet=load-balancer-subnet \
      --address=lb-ip \
      --ports=80 \
      --region=us-central1 \
      --target-http-proxy=l7-ilb-proxy \
      --target-http-proxy-region=us-central1

4. ตรวจสอบตัวจัดสรรภาระงาน

จาก Cloud Console ให้ไปที่บริการเครือข่าย → การจัดสรรภาระงาน → ตัวจัดสรรภาระงาน บันทึกการตรวจสอบประสิทธิภาพการทำงานที่สำเร็จกับบริการแบ็กเอนด์

881567cc11627009.png

การเลือก "l7-ilb-map" จะแสดงที่อยู่ IP ฟรอนท์เอนด์ ซึ่งควรตรงกับที่อยู่ IP ที่คุณ grep ไว้ในขั้นตอนก่อนหน้า และระบุบริการแบ็กเอนด์

bab89b0a7b4f95e9.png

5. สร้างไฟล์แนบของบริการ Private Service Connect

สร้างไฟล์แนบของบริการ

สร้างไฟล์แนบบริการใน Cloud Shell ตรวจสอบว่าได้เพิ่ม "." ที่อยู่ท้ายชื่อโดเมน

gcloud compute service-attachments create published-service --region=us-central1 --producer-forwarding-rule=l7-ilb-forwarding-rule --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=psc-nat-subnet --domain-names=cosmopup.net.

ไม่บังคับ: หากใช้ VPC ที่แชร์ ให้สร้างไฟล์แนบบริการในโปรเจ็กต์บริการ

gcloud compute service-attachments create published-service --region=us-central1 --producer-forwarding-rule=l7-ilb-forwarding-rule --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=projects/<hostproject>/regions/us-central1/subnetworks/psc-nat-subnet --domain-names=cosmopup.net.

ไปที่บริการเครือข่าย → Private Service Connect เพื่อดูไฟล์แนบของบริการที่สร้างขึ้นใหม่

d27fee9073dbbe2.png

การเลือกpublished-serviceจะให้รายละเอียดเพิ่มเติม ซึ่งรวมถึง URI ไฟล์แนบของบริการที่ผู้บริโภคใช้เพื่อสร้างการเชื่อมต่อบริการส่วนตัวและ ชื่อโดเมน

503df63730c62df2.png

รายละเอียดไฟล์แนบของบริการ:

โปรเจ็กต์/<ชื่อโปรเจ็กต์>/region/us-central1/serviceattachs/published-service

6. การตั้งค่าผู้บริโภค

เปิดใช้ API สำหรับผู้บริโภค

Shell ใน Inside Cloud จะดำเนินการต่อไปนี้

gcloud services enable dns.googleapis.com
gcloud services enable servicedirectory.googleapis.com

สร้างเครือข่าย VPC สำหรับผู้บริโภค

ภายใน Cloud Shell ให้ดำเนินการต่อไปนี้

gcloud compute networks create consumer-vpc --project=$projectname --subnet-mode=custom

สร้างซับเน็ตของผู้บริโภค

สร้างซับเน็ตสำหรับอินสแตนซ์ทดสอบภายใน Cloud Shell

gcloud compute networks subnets create db1-subnet --project=$projectname --range=10.20.0.0/28 --network=consumer-vpc --region=us-central1

สร้างซับเน็ตสำหรับปลายทางของผู้บริโภคใน Cloud Shell

gcloud compute networks subnets create consumer-ep-subnet --project=$projectname --range=10.10.0.0/28 --network=consumer-vpc --region=us-central1

สร้างปลายทางสำหรับผู้บริโภค (กฎการส่งต่อ)

สร้างที่อยู่ IP แบบคงที่ที่ใช้สำหรับปลายทางของผู้บริโภคใน Cloud Shell

gcloud compute addresses create psc-consumer-ip-1 --region=us-central1 --subnet=consumer-ep-subnet --addresses 10.10.0.10

เราใช้ URI ไฟล์แนบของบริการที่สร้างขึ้นก่อนหน้านี้เพื่อสร้างปลายทางของผู้บริโภค

สร้างปลายทางของผู้บริโภคใน Cloud Shell

gcloud compute forwarding-rules create stargazer --region=us-central1 --network=consumer-vpc --address=psc-consumer-ip-1 --target-service-attachment=projects/$projectname/regions/us-central1/serviceAttachments/published-service

7. ตรวจสอบการเชื่อมต่อในเครือข่าย VPC ของผู้บริโภค

จากเครือข่าย VPC ของผู้บริโภค ให้ตรวจสอบการเชื่อมต่อบริการส่วนตัวที่สำเร็จโดยไปที่บริการเครือข่าย → Private Service Connect → ปลายทางที่เชื่อมต่อ ดูการเชื่อมต่อ Stargazer และที่อยู่ IP ที่เกี่ยวข้องซึ่งเราได้สร้างไว้ก่อนหน้านี้

c60812433c3e1676.png

เมื่อเลือก psc-consumer-1 จะมีรายละเอียดรวมถึง URI ไฟล์แนบของบริการ

14d3e3b1e0aee3c2.png

8. ตรวจสอบการเชื่อมต่อในเครือข่าย VPC ของผู้ผลิต

จากเครือข่าย VPC ของผู้ผลิต ให้ยืนยันว่าการเชื่อมต่อบริการส่วนตัวสำเร็จหรือไม่ โดยไปที่บริการเครือข่าย → Private Service Connect → บริการที่เผยแพร่ โปรดทราบว่าตอนนี้การเชื่อมต่อบริการที่เผยแพร่จะระบุกฎการส่งต่อ 1 รายการ (ปลายทางการเชื่อมต่อ)

911dbd7421bcfd3a.png

9. ตรวจสอบการกำหนดค่า DNS อัตโนมัติ

เรามาประเมินการกำหนดค่า DNS และ Service Directory กัน

การกำหนดค่า Cloud DNS

ไปที่บริการเครือข่าย → Cloud DNS → โซน ระบบจะสร้างโซน goog-psc-default-us-central และชื่อ DNS cosmopup.net. โดยอัตโนมัติ

4395e7b33fc42faa.png

ดูการกำหนดค่า DNS และ Service Directory

การเลือกชื่อโซนจะช่วยให้เราดูว่า Service Directory ผสานรวมกับ Cloud DNS อย่างไร

e4fe44d945b20451.png

การกำหนดค่า Service Directory

ไปที่บริการเครือข่าย → Service Directory

จำชื่อปลายทางของผู้บริโภคว่า "stargazer" หรือไม่ มีการตั้งโปรแกรมโดยอัตโนมัติใน Service Directory ช่วยให้เราเข้าถึงปลายทางสำหรับผู้บริโภคได้โดยใช้ FQDN stargazer.goog-psc-default–us-central1

602deab65b5ac315.png

10. ตรวจสอบสิทธิ์เข้าถึงบริการของผู้ผลิต

เราจะสร้าง VM จากเครือข่าย VPC ของผู้บริโภคเพื่อทดสอบการเชื่อมต่อของบริการที่เผยแพร่โดยเข้าถึงปลายทางของผู้บริโภค stargazer.cosmopup.net

ภายใน Cloud Shell สร้างอินสแตนซ์ทดสอบใน VPC ของผู้บริโภค

gcloud compute instances create db1 \
    --zone=us-central1-a \
    --image-family=debian-10 \
    --image-project=debian-cloud \
    --subnet=db1-subnet \
    --no-address

หากต้องการอนุญาตให้ IAP เชื่อมต่อกับอินสแตนซ์ VM ให้สร้างกฎของไฟร์วอลล์ที่มีลักษณะดังนี้

  • ใช้กับอินสแตนซ์ VM ทั้งหมดที่คุณต้องการให้เข้าถึงได้โดยใช้ IAP
  • อนุญาตการรับส่งข้อมูลขาเข้าจากช่วง IP 35.235.240.0/20 ช่วงนี้ประกอบด้วยที่อยู่ IP ทั้งหมดที่ IAP ใช้สำหรับการส่งต่อ TCP

สร้างกฎไฟร์วอลล์ IAP ใน Cloud Shell

gcloud compute firewall-rules create ssh-iap-consumer \
    --network consumer-vpc \
    --allow tcp:22 \
    --source-ranges=35.235.240.0/20

ลงชื่อเข้าสู่ระบบ Consumer-Vm โดยใช้ IAP ใน Cloud Shell เพื่อตรวจสอบการเชื่อมต่อกับบริการผู้ผลิตด้วยการใช้ curl โปรดลองอีกครั้งหากหมดเวลา

gcloud compute ssh db1 --project=$projectname --zone=us-central1-a --tunnel-through-iap

ดำเนินการตรวจสอบความถูกต้องของการเชื่อมต่อกับบริการผู้ผลิต เมื่อออกจาก VM ที่ผ่านการตรวจสอบแล้วขณะกลับไปยังข้อความแจ้งของ Cloud Shell

Inside Cloud Shell จะดำเนินการกับโดเมนที่กำหนดเอง เช่น stargazer.[custom-domain.com] ในเอาต์พุตด้านล่าง มีการใช้ Curl กับ stargazer.cosmopup.net

user@db1:~$ curl -v stargazer.cosmopup.net
*   Trying 10.10.0.10...
* TCP_NODELAY set
* Expire in 200 ms for 4 (transfer 0x55d3aa8190f0)
* Connected to stargazer.cosmopup.net (10.10.0.10) port 80 (#0)
> GET / HTTP/1.1
> Host: stargazer.cosmopup.net
> User-Agent: curl/7.64.0
> Accept: */*
> 
< HTTP/1.1 200 OK
< date: Thu, 22 Dec 2022 00:16:25 GMT
< server: Apache/2.4.38 (Debian)
< last-modified: Wed, 21 Dec 2022 20:26:32 GMT
< etag: "1b-5f05c5e43a083"
< accept-ranges: bytes
< content-length: 27
< content-type: text/html
< via: 1.1 google
< 
Welcome to App-Server-1 !!

ออกจาก VM ที่กลับไปยังข้อความแจ้ง Cloud Shell เพื่อเริ่มงานการล้างข้อมูล

11. ล้างข้อมูล

ลบคอมโพเนนต์ Codelab จาก Cloud Shell

gcloud compute forwarding-rules delete stargazer --region=us-central1 --quiet

gcloud compute instances delete db1 --zone=us-central1-a --quiet 

gcloud compute addresses delete psc-consumer-ip-1 --region=us-central1 --quiet 

gcloud compute networks subnets delete consumer-ep-subnet db1-subnet --region=us-central1 --quiet 

gcloud compute firewall-rules delete ssh-iap-consumer --quiet 

gcloud compute networks delete consumer-vpc --quiet 

gcloud compute service-attachments delete published-service --region=us-central1 --quiet 

gcloud compute forwarding-rules delete l7-ilb-forwarding-rule --region=us-central1 --quiet 

gcloud compute target-http-proxies delete l7-ilb-proxy --region=us-central1 --quiet 
 
gcloud compute url-maps delete l7-ilb-map --region=us-central1 --quiet 
 
gcloud compute backend-services delete l7-ilb-backend-service --region=us-central1 --quiet
 
gcloud compute instance-groups unmanaged delete psc-instance-group --zone=us-central1-a --quiet
 
gcloud compute instances delete app-server-1 --zone=us-central1-a --quiet 
 
gcloud compute firewall-rules delete allow-to-ingress-nat-subnet fw-allow-health-check fw-allow-proxy-only-subnet --quiet 
 
gcloud compute addresses delete lb-ip --region=us-central1 --quiet 
 
gcloud compute networks subnets delete gce-subnet load-balancer-subnet psc-nat-subnet proxy-subnet-us-central --region=us-central1 --quiet 
 
gcloud compute routers delete cloud-router-for-nat --region=us-central1 --quiet 
 
gcloud compute networks delete producer-vpc --quiet 

12. ขอแสดงความยินดี

ขอแสดงความยินดี คุณกำหนดค่าและตรวจสอบปลายทาง Private Service Connect ด้วยการกำหนดค่า DNS อัตโนมัติสำเร็จแล้ว

คุณได้สร้างโครงสร้างพื้นฐานของผู้ผลิต และคุณได้เพิ่มไฟล์แนบบริการที่มีการจดทะเบียนสาธารณสมบัติ คุณได้เรียนรู้วิธีสร้างปลายทางของผู้บริโภคในเครือข่าย VPC ของผู้บริโภคที่อนุญาตให้เชื่อมต่อกับบริการภายในองค์กรโดยใช้ DNS ที่สร้างขึ้นโดยอัตโนมัติแล้ว

Cosmopup คิดว่า Codelab ยอดเยี่ยมมาก!!

8c2a10eb841f7b01.jpeg

สิ่งที่ต้องทำต่อไป

ลองดู Codelab เหล่านี้...

อ่านเพิ่มเติมและ วิดีโอ

เอกสารอ้างอิง