Private Service Connect ที่มีการกำหนดค่า DNS อัตโนมัติ

1. บทนำ

Private Service Connect ที่มีการกำหนดค่า DNS โดยอัตโนมัติจะใช้ Service Directory และ Cloud DNS เพื่อสร้างระเบียน DNS โดยอัตโนมัติซึ่งตั้งโปรแกรมไว้ด้วยที่อยู่ IP ของปลายทาง Private Service Connect ของผู้บริโภค

สิ่งที่คุณจะสร้าง

ในโค้ดแล็บนี้ คุณจะได้สร้างสถาปัตยกรรม Private Service Connect ที่ครอบคลุมซึ่งแสดงการใช้ DNS อัตโนมัติดังที่แสดงในรูปที่ 1

DNS อัตโนมัติเกิดขึ้นได้จากปัจจัยต่อไปนี้

  1. ไฟล์แนบบริการของผู้ผลิตจะสร้าง DNS โดยอัตโนมัติโดยการระบุโดเมนสาธารณะที่เป็นของเจ้าของพร้อมด้วย Flag "– domain-names" เมื่อสร้างไฟล์แนบบริการ Private Service Connect
  2. ผู้บริโภคกําหนดชื่อปลายทาง
  3. DNS อัตโนมัติจะสร้างทั้งโซน DNS goog-psc-default-us-central1 และชื่อ DNS cosmopup.net นอกเหนือจากรายการในไดเรกทอรีบริการที่มีชื่อปลายทางของผู้บริโภค

ประโยชน์ของ DNS อัตโนมัติแสดงอยู่ใน (4) ซึ่งผู้ใช้ปลายทางสามารถสื่อสารกับอุปกรณ์ปลายทางของผู้บริโภคผ่าน DNS, FQDN stargazer.cosmopup.net

รูปที่ 1

5e26a358454d1336.png

สิ่งที่คุณจะได้เรียนรู้

  • วิธีสร้างตัวจัดสรรภาระงาน HTTP(S) ภายใน
  • วิธีสร้างไฟล์แนบบริการที่มี DNS อัตโนมัติ
  • วิธีสร้างบริการ Private Service Connect Producer
  • วิธีเข้าถึงอุปกรณ์ปลายทางของผู้บริโภคโดยใช้ DNS อัตโนมัติ

สิ่งที่ต้องมี

  • โปรเจ็กต์ Google Cloud
  • เนื้อหาที่เป็นสาธารณสมบัติที่คุณเป็นเจ้าของ

2. ก่อนเริ่มต้น

อัปเดตโปรเจ็กต์ให้รองรับ Codelab

Codelab นี้ใช้ตัวแปร $เพื่อช่วยให้การติดตั้งใช้งานการกําหนดค่า gcloud ใน Cloud Shell ง่ายขึ้น

ใน Cloud Shell ให้ทําดังนี้

gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=YOUR-PROJECT-NAME
echo $projectname

3. การตั้งค่า Producer

สร้าง VPC ของผู้ผลิต

ใน Cloud Shell ให้ทําดังนี้

gcloud compute networks create producer-vpc --project=$projectname --subnet-mode=custom

สร้างซับเน็ตของผู้ผลิต

ใน Cloud Shell ให้ทําดังนี้

gcloud compute networks subnets create gce-subnet --project=$projectname --range=172.16.20.0/28 --network=producer-vpc --region=us-central1

ใน Cloud Shell ให้ทําดังนี้

gcloud compute networks subnets create load-balancer-subnet --project=$projectname --range=172.16.10.0/28 --network=producer-vpc --region=us-central1

จองที่อยู่ IP สำหรับตัวจัดสรรภาระงานภายใน

ใน Cloud Shell ให้ทําดังนี้

gcloud compute addresses create lb-ip \
    --region=us-central1 \
    --subnet=load-balancer-subnet \
    --purpose=GCE_ENDPOINT

ดูที่อยู่ IP ที่จัดสรร

ใช้คําสั่งอธิบายที่อยู่ของ Compute เพื่อดูที่อยู่ IP ที่จัดสรร

gcloud compute addresses describe lb-ip  --region=us-central1 | grep address:

สร้างซับเน็ตพร็อกซีระดับภูมิภาค

การจัดสรรพร็อกซีอยู่ที่ระดับเครือข่าย VPC ไม่ใช่ระดับโหลดบาลานซ์ คุณต้องสร้างซับเน็ตเฉพาะพร็อกซี 1 รายการในแต่ละภูมิภาคของเครือข่ายเสมือน (VPC) ที่คุณใช้ตัวจัดสรรภาระงานที่ใช้ Envoy หากคุณติดตั้งใช้งานตัวจัดสรรภาระงานหลายตัวในภูมิภาคเดียวกันและเครือข่าย VPC เดียวกัน ตัวจัดสรรภาระงานเหล่านั้นจะใช้ซับเน็ตเฉพาะพร็อกซีเดียวกันสำหรับการจัดสรรภาระงาน

  1. ไคลเอ็นต์เชื่อมต่อกับที่อยู่ IP และพอร์ตของกฎการส่งต่อของตัวจัดสรรภาระงาน
  2. พ็อกเก็ตพร็อกซีแต่ละรายการจะรอรับการเชื่อมต่อที่ที่อยู่ IP และพอร์ตที่ระบุโดยกฎการส่งต่อของตัวจัดสรรภาระงานที่เกี่ยวข้อง พร็อกซีตัวใดตัวหนึ่งจะรับและสิ้นสุดการเชื่อมต่อเครือข่ายของลูกค้า
  3. พร็อกซีจะสร้างการเชื่อมต่อกับ VM แบ็กเอนด์ที่เหมาะสมซึ่งกำหนดโดยแมป URL และบริการแบ็กเอนด์ของตัวจัดสรรภาระงาน

คุณต้องสร้างซับเน็ตเฉพาะพร็อกซี ไม่ว่าเครือข่าย VPC จะเป็นโหมดอัตโนมัติหรือโหมดที่กำหนดเอง ซับเน็ตเฉพาะพร็อกซีต้องระบุที่อยู่ IP อย่างน้อย 64 รายการ ซึ่งสอดคล้องกับความยาวของคํานําหน้าที่ /26 หรือสั้นกว่า ขนาดซับเน็ตที่แนะนำคือ /23 (ที่อยู่เฉพาะพร็อกซี 512 รายการ)

ใน Cloud Shell ให้ทําดังนี้

gcloud compute networks subnets create proxy-subnet-us-central \
  --purpose=REGIONAL_MANAGED_PROXY \
  --role=ACTIVE \
  --region=us-central1 \
  --network=producer-vpc \
  --range=172.16.0.0/23

สร้างซับเน็ต NAT ของ Private Service Connect

สร้างซับเน็ตเฉพาะอย่างน้อย 1 รายการเพื่อใช้กับ Private Service Connect หากคุณใช้คอนโซล Google Cloud เพื่อเผยแพร่บริการ คุณสามารถสร้างซับเน็ตในระหว่างกระบวนการดังกล่าว สร้างซับเน็ตในภูมิภาคเดียวกับตัวจัดสรรภาระงานของบริการ คุณแปลงซับเน็ตปกติเป็นซับเน็ต Private Service Connect ไม่ได้

ใน Cloud Shell ให้ทําดังนี้

gcloud compute networks subnets create psc-nat-subnet \
    --project $projectname \
    --network producer-vpc \
    --region us-central1 \
    --range 100.100.10.0/24 \
    --purpose PRIVATE_SERVICE_CONNECT

สร้างกฎไฟร์วอลล์ของผู้ผลิต

กําหนดค่า กฎไฟร์วอลล์เพื่ออนุญาตการรับส่งข้อมูลระหว่างซับเน็ต NAT ของ Private Service Connect กับซับเน็ตเฉพาะพร็อกซีของ ILB

ใน Cloud Shell ให้ทําดังนี้

gcloud compute --project=$projectname firewall-rules create allow-to-ingress-nat-subnet --direction=INGRESS --priority=1000 --network=producer-vpc --action=ALLOW --rules=all --source-ranges=100.100.10.0/24

ใน Cloud Shell ให้สร้างกฎไฟร์วอลล์ fw-allow-health-check เพื่ออนุญาตให้การตรวจสอบประสิทธิภาพการทํางานของ Google Cloud เข้าถึงบริการของผู้ผลิต (บริการแบ็กเอนด์) ในพอร์ต TCP 80

gcloud compute firewall-rules create fw-allow-health-check \
    --network=producer-vpc \
    --action=allow \
    --direction=ingress \
    --source-ranges=130.211.0.0/22,35.191.0.0/16 \
    --rules=tcp:80

สร้างกฎไฟร์วอลล์ที่อนุญาตข้อมูลขาเข้าสำหรับซับเน็ตเฉพาะพร็อกซีเพื่ออนุญาตให้ตัวจัดสรรภาระงานสื่อสารกับอินสแตนซ์แบ็กเอนด์บนพอร์ต TCP 80

gcloud compute firewall-rules create fw-allow-proxy-only-subnet \
    --network=producer-vpc \
    --action=allow \
    --direction=ingress \
    --source-ranges=172.16.0.0/23 \
    --rules=tcp:80

การกำหนดค่า Cloud Router และ NAT

ระบบใช้ Cloud NAT ในโค้ดแล็บสำหรับการติดตั้งแพ็กเกจซอฟต์แวร์เนื่องจากอินสแตนซ์ VM ไม่มีที่อยู่ IP ภายนอก

สร้าง Cloud Router ใน Cloud Shell

gcloud compute routers create cloud-router-for-nat --network producer-vpc --region us-central1

สร้างเกตเวย์ NAT ใน Cloud Shell

gcloud compute routers nats create cloud-nat-us-central1 --router=cloud-router-for-nat --auto-allocate-nat-external-ips --nat-all-subnet-ip-ranges --region us-central1

การกำหนดค่ากลุ่มอินสแตนซ์

ในส่วนต่อไปนี้ คุณจะต้องสร้างอินสแตนซ์ Compute Engine และกลุ่มอินสแตนซ์ที่ไม่มีการจัดการ ในขั้นตอนต่อๆ ไป ระบบจะใช้กลุ่มอินสแตนซ์เป็นบริการแบ็กเอนด์ของตัวจัดสรรภาระงาน

ใน Cloud Shell ให้สร้างการตรวจสอบประสิทธิภาพการทำงานระดับภูมิภาคที่ส่งไปยังบริการของผู้ผลิต

gcloud compute instances create app-server-1 \
    --project=$projectname \
    --machine-type=e2-micro \
    --image-family debian-10 \
    --no-address \
    --image-project debian-cloud \
    --zone us-central1-a \
    --subnet=gce-subnet \
    --metadata startup-script="#! /bin/bash
      sudo apt-get update
      sudo apt-get install apache2 -y
      sudo service apache2 restart
      echo 'Welcome to App-Server-1 !!' | tee /var/www/html/index.html
      EOF"

สร้างกลุ่มอินสแตนซ์ที่ไม่มีการจัดการใน Cloud Shell

gcloud compute instance-groups unmanaged create psc-instance-group --zone=us-central1-a

gcloud compute instance-groups unmanaged set-named-ports psc-instance-group --project=$projectname --zone=us-central1-a --named-ports=http:80

gcloud compute instance-groups unmanaged add-instances psc-instance-group --zone=us-central1-a --instances=app-server-1

กําหนดค่าตัวจัดสรรภาระงาน

ในขั้นตอนต่อไปนี้ คุณจะต้องกำหนดค่า ตัวจัดสรรภาระงาน HTTP ภายในที่จะเผยแพร่เป็นไฟล์แนบบริการในขั้นตอนถัดไป

สร้างการตรวจสอบประสิทธิภาพการทำงานระดับภูมิภาคใน Cloud Shell

gcloud compute health-checks create http http-health-check \
    --region=us-central1 \
    --use-serving-port

สร้างบริการแบ็กเอนด์ใน Cloud Shell

 gcloud compute backend-services create l7-ilb-backend-service \
      --load-balancing-scheme=INTERNAL_MANAGED \
      --protocol=HTTP \
      --health-checks=http-health-check \
      --health-checks-region=us-central1 \
      --region=us-central1

ใน Cloud Shell ให้เพิ่มแบ็กเอนด์ลงในบริการแบ็กเอนด์

gcloud compute backend-services add-backend l7-ilb-backend-service \
  --balancing-mode=UTILIZATION \
  --instance-group=psc-instance-group \
  --instance-group-zone=us-central1-a \
  --region=us-central1

ใน Cloud Shell ให้สร้างแมป URL เพื่อกำหนดเส้นทางคำขอขาเข้าไปยังบริการแบ็กเอนด์

gcloud compute url-maps create l7-ilb-map \
    --default-service l7-ilb-backend-service \
    --region=us-central1

สร้างพร็อกซีเป้าหมาย HTTP

gcloud compute target-http-proxies create l7-ilb-proxy\
    --url-map=l7-ilb-map \
    --url-map-region=us-central1 \
    --region=us-central1

สร้างกฎการส่งต่อเพื่อกำหนดเส้นทางคำขอขาเข้าไปยังพร็อกซี อย่าใช้ซับเน็ตเฉพาะพร็อกซีเพื่อสร้างกฎการส่งต่อ

 gcloud compute forwarding-rules create l7-ilb-forwarding-rule \
      --load-balancing-scheme=INTERNAL_MANAGED \
      --network=producer-vpc \
      --subnet=load-balancer-subnet \
      --address=lb-ip \
      --ports=80 \
      --region=us-central1 \
      --target-http-proxy=l7-ilb-proxy \
      --target-http-proxy-region=us-central1

4. ตรวจสอบตัวจัดสรรภาระงาน

จาก Cloud Console ให้ไปที่บริการเครือข่าย → การจัดสรรภาระงาน → ตัวจัดสรรภาระงาน บันทึกการตรวจสอบประสิทธิภาพการทำงานที่ประสบความสำเร็จของบริการแบ็กเอนด์

881567cc11627009.png

การเลือก ‘l7-ilb-map' จะแสดงที่อยู่ IP ของฟรอนต์เอนด์ ซึ่งควรตรงกับที่อยู่ IP ที่คุณ grep ในขั้นตอนก่อนหน้า และระบุบริการแบ็กเอนด์

bab89b0a7b4f95e9.png

5. สร้างไฟล์แนบบริการ Private Service Connect

สร้างไฟล์แนบของบริการ

สร้างไฟล์แนบบริการใน Cloud Shell อย่าลืมใส่ "." ต่อท้ายชื่อโดเมน

gcloud compute service-attachments create published-service --region=us-central1 --producer-forwarding-rule=l7-ilb-forwarding-rule --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=psc-nat-subnet --domain-names=cosmopup.net.

ไม่บังคับ: หากใช้ VPC ที่แชร์ ให้สร้างไฟล์แนบบริการในโปรเจ็กต์บริการ

gcloud compute service-attachments create published-service --region=us-central1 --producer-forwarding-rule=l7-ilb-forwarding-rule --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=projects/<hostproject>/regions/us-central1/subnetworks/psc-nat-subnet --domain-names=cosmopup.net.

ไปที่บริการเครือข่าย → Private Service Connect เพื่อดูไฟล์แนบบริการที่สร้างขึ้นใหม่

d27fee9073dbbe2.png

การเลือก published-service จะแสดงรายละเอียดเพิ่มเติม รวมถึง URI ของไฟล์แนบบริการที่ผู้บริโภคใช้เพื่อสร้างการเชื่อมต่อบริการส่วนตัวและชื่อโดเมน

503df63730c62df2.png

รายละเอียดไฟล์แนบของบริการ:

projects/<project name>/regions/us-central1/serviceAttachments/published-service

6. การตั้งค่าสำหรับผู้บริโภค

เปิดใช้ API สําหรับผู้บริโภค

ใน Cloud Shell ให้ทำดังนี้

gcloud services enable dns.googleapis.com
gcloud services enable servicedirectory.googleapis.com

สร้างเครือข่าย VPC ของผู้บริโภค

ใน Cloud Shell ให้ทําดังนี้

gcloud compute networks create consumer-vpc --project=$projectname --subnet-mode=custom

สร้างซับเน็ตของผู้บริโภค

สร้างเครือข่ายย่อยสําหรับอินสแตนซ์ทดสอบใน Cloud Shell

gcloud compute networks subnets create db1-subnet --project=$projectname --range=10.20.0.0/28 --network=consumer-vpc --region=us-central1

สร้างซับเน็ตสำหรับปลายทางของผู้บริโภคใน Cloud Shell

gcloud compute networks subnets create consumer-ep-subnet --project=$projectname --range=10.10.0.0/28 --network=consumer-vpc --region=us-central1

สร้างปลายทางของผู้บริโภค (กฎการส่งต่อ)

ใน Cloud Shell ให้สร้างที่อยู่ IP แบบคงที่จะใช้สำหรับปลายทางของผู้บริโภค

gcloud compute addresses create psc-consumer-ip-1 --region=us-central1 --subnet=consumer-ep-subnet --addresses 10.10.0.10

เราจะใช้ URI ไฟล์แนบบริการที่สร้างขึ้นก่อนหน้านี้เพื่อสร้างปลายทางสำหรับผู้บริโภค

สร้างปลายทางสำหรับผู้บริโภคใน Cloud Shell

gcloud compute forwarding-rules create stargazer --region=us-central1 --network=consumer-vpc --address=psc-consumer-ip-1 --target-service-attachment=projects/$projectname/regions/us-central1/serviceAttachments/published-service

7. ตรวจสอบการเชื่อมต่อในเครือข่าย VPC ของผู้บริโภค

จากเครือข่าย VPC ของผู้บริโภค ให้ตรวจสอบการเชื่อมต่อบริการส่วนตัวที่สำเร็จโดยไปที่บริการเครือข่าย → Private Service Connect → ปลายทางที่เชื่อมต่อ จดบันทึกการเชื่อมต่อ Stargazer ที่สร้างไว้และที่อยู่ IP ที่เกี่ยวข้องซึ่งเราได้สร้างไว้ก่อนหน้านี้

c60812433c3e1676.png

เมื่อเลือก psc-consumer-1 ระบบจะแสดงรายละเอียด รวมถึง URI ของไฟล์แนบบริการ

14d3e3b1e0aee3c2.png

8. ตรวจสอบการเชื่อมต่อในเครือข่าย VPC ของผู้ผลิต

จากเครือข่าย VPC ของผู้ผลิต ให้ตรวจสอบการเชื่อมต่อบริการส่วนตัวที่สำเร็จโดยไปที่บริการเครือข่าย → Private Service Connect → บริการที่เผยแพร่ โปรดทราบว่าตอนนี้การเชื่อมต่อบริการที่เผยแพร่จะแสดงกฎการส่งต่อ 1 รายการ (ปลายทางการเชื่อมต่อ)

911dbd7421bcfd3a.png

9. ตรวจสอบการกำหนดค่า DNS อัตโนมัติ

มาประเมินการกำหนดค่า DNS และไดเรกทอรีบริการกัน

การกำหนดค่า Cloud DNS

ไปที่บริการเครือข่าย → Cloud DNS → โซน ระบบจะสร้างโซน goog-psc-default-us-central & ชื่อ DNS cosmopup.net โดยอัตโนมัติ

4395e7b33fc42faa.png

ดูการกำหนดค่า DNS และไดเรกทอรีบริการ

การเลือกชื่อโซนจะช่วยให้เราเห็นว่า Service Directory ผสานรวมกับ Cloud DNS อย่างไร

e4fe44d945b20451.png

การกําหนดค่า Service Directory

ไปที่ Network Services → Service Directory

จำชื่อปลายทางของผู้บริโภค "stargazer" ได้ไหม ระบบจะตั้งโปรแกรมโดยอัตโนมัติใน Service Directory ซึ่งช่วยให้เราเข้าถึงอุปกรณ์ปลายทางของผู้บริโภคได้โดยใช้ FQDN stargazer.goog-psc-default–us-central1

602deab65b5ac315.png

10. ตรวจสอบสิทธิ์การเข้าถึงบริการของผู้ผลิตสำหรับผู้บริโภค

จากเครือข่าย VPC ของผู้บริโภค เราจะสร้าง VM เพื่อทดสอบการเชื่อมต่อบริการที่เผยแพร่โดยการเข้าถึงปลายทางของผู้บริโภค stargazer.cosmopup.net

สร้างอินสแตนซ์ทดสอบใน VPC ของผู้บริโภคภายใน Cloud Shell

gcloud compute instances create db1 \
    --zone=us-central1-a \
    --image-family=debian-10 \
    --image-project=debian-cloud \
    --subnet=db1-subnet \
    --no-address

หากต้องการอนุญาตให้ IAP เชื่อมต่อกับอินสแตนซ์ VM ให้สร้างกฎไฟร์วอลล์ที่มีลักษณะดังนี้

  • มีผลกับอินสแตนซ์ VM ทั้งหมดที่คุณต้องการเข้าถึงโดยใช้ IAP
  • อนุญาตการรับส่งข้อมูลขาเข้าจากช่วง IP 35.235.240.0/20 ช่วงนี้มีที่อยู่ IP ทั้งหมดที่ IAP ใช้สำหรับการส่งต่อ TCP

สร้างกฎไฟร์วอลล์ IAP ใน Cloud Shell

gcloud compute firewall-rules create ssh-iap-consumer \
    --network consumer-vpc \
    --allow tcp:22 \
    --source-ranges=35.235.240.0/20

เข้าสู่ระบบ consumer-vm โดยใช้ IAP ใน Cloud Shell เพื่อตรวจสอบการเชื่อมต่อกับบริการของผู้ผลิตโดยดำเนินการกับ curl ลองอีกครั้งหากหมดเวลา

gcloud compute ssh db1 --project=$projectname --zone=us-central1-a --tunnel-through-iap

ดำเนินการตรวจสอบการเชื่อมต่อกับบริการของผู้ผลิตด้วย curl เมื่อตรวจสอบแล้ว ให้ออกจาก VM เพื่อกลับไปที่พรอมต์ Cloud Shell

ใน Cloud Shell ให้ใช้ curl กับโดเมนที่กำหนดเอง เช่น stargazer.[custom-domain.com] ในเอาต์พุตด้านล่าง ระบบจะเรียกใช้ curl กับ stargazer.cosmopup.net

user@db1:~$ curl -v stargazer.cosmopup.net
*   Trying 10.10.0.10...
* TCP_NODELAY set
* Expire in 200 ms for 4 (transfer 0x55d3aa8190f0)
* Connected to stargazer.cosmopup.net (10.10.0.10) port 80 (#0)
> GET / HTTP/1.1
> Host: stargazer.cosmopup.net
> User-Agent: curl/7.64.0
> Accept: */*
> 
< HTTP/1.1 200 OK
< date: Thu, 22 Dec 2022 00:16:25 GMT
< server: Apache/2.4.38 (Debian)
< last-modified: Wed, 21 Dec 2022 20:26:32 GMT
< etag: "1b-5f05c5e43a083"
< accept-ranges: bytes
< content-length: 27
< content-type: text/html
< via: 1.1 google
< 
Welcome to App-Server-1 !!

ออกจาก VM เพื่อกลับไปที่พรอมต์ Cloud Shell เพื่อเริ่มงานล้างข้อมูล

11. ล้างข้อมูล

ลบคอมโพเนนต์ของ Codelab จาก Cloud Shell

gcloud compute forwarding-rules delete stargazer --region=us-central1 --quiet

gcloud compute instances delete db1 --zone=us-central1-a --quiet 

gcloud compute addresses delete psc-consumer-ip-1 --region=us-central1 --quiet 

gcloud compute networks subnets delete consumer-ep-subnet db1-subnet --region=us-central1 --quiet 

gcloud compute firewall-rules delete ssh-iap-consumer --quiet 

gcloud compute networks delete consumer-vpc --quiet 

gcloud compute service-attachments delete published-service --region=us-central1 --quiet 

gcloud compute forwarding-rules delete l7-ilb-forwarding-rule --region=us-central1 --quiet 

gcloud compute target-http-proxies delete l7-ilb-proxy --region=us-central1 --quiet 
 
gcloud compute url-maps delete l7-ilb-map --region=us-central1 --quiet 
 
gcloud compute backend-services delete l7-ilb-backend-service --region=us-central1 --quiet
 
gcloud compute instance-groups unmanaged delete psc-instance-group --zone=us-central1-a --quiet
 
gcloud compute instances delete app-server-1 --zone=us-central1-a --quiet 
 
gcloud compute firewall-rules delete allow-to-ingress-nat-subnet fw-allow-health-check fw-allow-proxy-only-subnet --quiet 
 
gcloud compute addresses delete lb-ip --region=us-central1 --quiet 
 
gcloud compute networks subnets delete gce-subnet load-balancer-subnet psc-nat-subnet proxy-subnet-us-central --region=us-central1 --quiet 
 
gcloud compute routers delete cloud-router-for-nat --region=us-central1 --quiet 
 
gcloud compute networks delete producer-vpc --quiet 

12. ขอแสดงความยินดี

ยินดีด้วย คุณได้กําหนดค่าและตรวจสอบปลายทาง Private Service Connect ด้วยการกำหนดค่า DNS อัตโนมัติเรียบร้อยแล้ว

คุณได้สร้างโครงสร้างพื้นฐานของโปรดิวเซอร์และเพิ่มไฟล์แนบบริการที่มีการจดทะเบียนโดเมนสาธารณะแล้ว คุณได้เรียนรู้วิธีสร้างปลายทางของผู้บริโภคในเครือข่าย VPC ของผู้บริโภคที่อนุญาตให้เชื่อมต่อกับบริการในสถานที่โดยใช้ DNS ที่สร้างขึ้นโดยอัตโนมัติ

Cosmopup คิดว่า Codelab เจ๋งสุดๆ

8c2a10eb841f7b01.jpeg

ขั้นตอนถัดไป

ลองดู Codelab เหล่านี้...

การอ่านเพิ่มเติมและวิดีโอ

เอกสารอ้างอิง