Private Service Connect ที่มีการกำหนดค่า DNS อัตโนมัติ

1. บทนำ

Private Service Connect ที่มีการกำหนดค่า DNS อัตโนมัติจะใช้ Service Directory และ Cloud DNS เพื่อสร้างระเบียน DNS โดยอัตโนมัติซึ่งได้รับการตั้งโปรแกรมด้วยที่อยู่ IP ของปลายทาง Private Service Connect ของผู้ใช้

สิ่งที่คุณจะสร้าง

ใน Codelab นี้ คุณจะได้สร้างสถาปัตยกรรม Private Service Connect ที่ครอบคลุมซึ่งแสดงให้เห็นการใช้ DNS อัตโนมัติตามที่แสดงในรูปที่ 1

DNS อัตโนมัติทำงานได้ด้วยสิ่งต่อไปนี้

  1. ไฟล์แนบเกี่ยวกับบริการของผู้ผลิตจะสร้าง DNS อัตโนมัติโดยการระบุโดเมนสาธารณะที่เป็นเจ้าของพร้อมกับแฟล็ก "--domain-names" เมื่อสร้างไฟล์แนบเกี่ยวกับบริการ Private Service Connect
  2. ผู้ใช้กำหนดชื่อปลายทาง
  3. DNS อัตโนมัติจะสร้างทั้งโซน DNS goog-psc-default-us-central1 และชื่อ DNS cosmopup.net รวมถึงรายการ Service Directory ที่ประกอบด้วยชื่อปลายทางของผู้ใช้

ประโยชน์ของ DNS อัตโนมัติแสดงอยู่ใน (4) ซึ่งผู้ใช้ปลายทางสามารถสื่อสารกับปลายทางของผู้บริโภคผ่าน DNS, FQDN stargazer.cosmopup.net

รูปที่ 1

5e26a358454d1336.png

สิ่งที่คุณจะได้เรียนรู้

  • วิธีสร้างตัวจัดสรรภาระงาน HTTP(S) ภายใน
  • วิธีสร้างการเชื่อมต่อบริการด้วย DNS อัตโนมัติ
  • วิธีสร้างบริการของผู้ผลิต Private Service Connect
  • วิธีเข้าถึงอุปกรณ์ปลายทางของผู้บริโภคโดยใช้ DNS อัตโนมัติ

สิ่งที่คุณต้องมี

  • โปรเจ็กต์ Google Cloud
  • สาธารณสมบัติที่คุณเป็นเจ้าของ

2. ก่อนเริ่มต้น

อัปเดตโปรเจ็กต์เพื่อรองรับ Codelab

Codelab นี้ใช้ $variables เพื่อช่วยในการติดตั้งใช้งานการกำหนดค่า gcloud ใน Cloud Shell

ใน Cloud Shell ให้ทำดังนี้

gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=YOUR-PROJECT-NAME
echo $projectname

3. การตั้งค่า Producer

สร้าง VPC ของผู้ผลิต

ใน Cloud Shell ให้ทำดังนี้

gcloud compute networks create producer-vpc --project=$projectname --subnet-mode=custom

สร้างซับเน็ตของโปรดิวเซอร์

ใน Cloud Shell ให้ทำดังนี้

gcloud compute networks subnets create gce-subnet --project=$projectname --range=172.16.20.0/28 --network=producer-vpc --region=us-central1

ใน Cloud Shell ให้ทำดังนี้

gcloud compute networks subnets create load-balancer-subnet --project=$projectname --range=172.16.10.0/28 --network=producer-vpc --region=us-central1

สำรองที่อยู่ IP สำหรับตัวจัดสรรภาระงานภายใน

ใน Cloud Shell ให้ทำดังนี้

gcloud compute addresses create lb-ip \
    --region=us-central1 \
    --subnet=load-balancer-subnet \
    --purpose=GCE_ENDPOINT

ดูที่อยู่ IP ที่จัดสรร

ใช้คำสั่ง compute addresses describe เพื่อดูที่อยู่ IP ที่จัดสรร

gcloud compute addresses describe lb-ip  --region=us-central1 | grep address:

สร้างซับเน็ตพร็อกซีระดับภูมิภาค

การจัดสรรพร็อกซีจะอยู่ที่ระดับเครือข่าย VPC ไม่ใช่ระดับตัวจัดสรรภาระงาน คุณต้องสร้างซับเน็ตเฉพาะพร็อกซี 1 รายการในแต่ละภูมิภาคของเครือข่ายเสมือน (VPC) ที่คุณใช้ตัวจัดสรรภาระงานที่อิงตาม Envoy หากคุณทำให้ใช้งานได้ตัวจัดสรรภาระงานหลายตัวในภูมิภาคและเครือข่าย VPC เดียวกัน ตัวจัดสรรภาระงานเหล่านั้นจะใช้ซับเน็ตเฉพาะพร็อกซีเดียวกันสำหรับการจัดสรรภาระงาน

  1. ไคลเอ็นต์สร้างการเชื่อมต่อกับที่อยู่ IP และพอร์ตของกฎการส่งต่อของตัวจัดสรรภาระงาน
  2. พร็อกซีแต่ละรายการจะรับฟังที่อยู่ IP และพอร์ตที่ระบุโดยกฎการส่งต่อของตัวจัดสรรภาระงานที่เกี่ยวข้อง พร็อกซีตัวใดตัวหนึ่งจะรับและสิ้นสุดการเชื่อมต่อเครือข่ายของไคลเอ็นต์
  3. พร็อกซีจะสร้างการเชื่อมต่อไปยัง VM แบ็กเอนด์ที่เหมาะสมซึ่งกำหนดโดยแผนที่ URL และบริการแบ็กเอนด์ของตัวจัดสรรภาระงาน

คุณต้องสร้างซับเน็ตเฉพาะพร็อกซีไม่ว่าเครือข่าย VPC จะอยู่ในโหมดอัตโนมัติหรือโหมดที่กำหนดเองก็ตาม ซับเน็ตเฉพาะพร็อกซีต้องระบุที่อยู่ IP อย่างน้อย 64 รายการ ซึ่งสอดคล้องกับความยาวของคำนำหน้า /26 หรือสั้นกว่า ขนาดซับเน็ตที่แนะนำคือ /23 (ที่อยู่เฉพาะพร็อกซี 512 รายการ)

ใน Cloud Shell ให้ทำดังนี้

gcloud compute networks subnets create proxy-subnet-us-central \
  --purpose=REGIONAL_MANAGED_PROXY \
  --role=ACTIVE \
  --region=us-central1 \
  --network=producer-vpc \
  --range=172.16.0.0/23

สร้างซับเน็ต NAT ของ Private Service Connect

สร้างซับเน็ตเฉพาะอย่างน้อย 1 รายการเพื่อใช้กับ Private Service Connect หากใช้คอนโซล Google Cloud เพื่อเผยแพร่บริการ คุณจะสร้างเครือข่ายย่อยได้ในระหว่างกระบวนการดังกล่าว สร้างซับเน็ตในภูมิภาคเดียวกับตัวจัดสรรภาระงานของบริการ คุณไม่สามารถแปลงซับเน็ตปกติเป็นซับเน็ต Private Service Connect ได้

ใน Cloud Shell ให้ทำดังนี้

gcloud compute networks subnets create psc-nat-subnet \
    --project $projectname \
    --network producer-vpc \
    --region us-central1 \
    --range 100.100.10.0/24 \
    --purpose PRIVATE_SERVICE_CONNECT

สร้างกฎไฟร์วอลล์ของผู้ผลิต

กำหนดค่า กฎไฟร์วอลล์เพื่ออนุญาตการรับส่งข้อมูลระหว่างซับเน็ต NAT ของ Private Service Connect กับซับเน็ตเฉพาะพร็อกซี ILB

ใน Cloud Shell ให้ทำดังนี้

gcloud compute --project=$projectname firewall-rules create allow-to-ingress-nat-subnet --direction=INGRESS --priority=1000 --network=producer-vpc --action=ALLOW --rules=all --source-ranges=100.100.10.0/24

ใน Cloud Shell ให้สร้างกฎไฟร์วอลล์ fw-allow-health-check เพื่ออนุญาตให้การตรวจสอบสถานะของ Google Cloud เข้าถึงบริการของผู้ผลิต (บริการแบ็กเอนด์) ในพอร์ต TCP 80

gcloud compute firewall-rules create fw-allow-health-check \
    --network=producer-vpc \
    --action=allow \
    --direction=ingress \
    --source-ranges=130.211.0.0/22,35.191.0.0/16 \
    --rules=tcp:80

สร้างกฎไฟร์วอลล์ที่อนุญาตให้เข้าสำหรับซับเน็ตเฉพาะพร็อกซีเพื่อให้ตัวจัดสรรภาระงานสื่อสารกับอินสแตนซ์แบ็กเอนด์ในพอร์ต TCP 80 ได้

gcloud compute firewall-rules create fw-allow-proxy-only-subnet \
    --network=producer-vpc \
    --action=allow \
    --direction=ingress \
    --source-ranges=172.16.0.0/23 \
    --rules=tcp:80

การกำหนดค่า Cloud Router และ NAT

Cloud NAT ใช้ใน Codelab สำหรับการติดตั้งแพ็กเกจซอฟต์แวร์เนื่องจากอินสแตนซ์ VM ไม่มีที่อยู่ IP ภายนอก

สร้าง Cloud Router ภายใน Cloud Shell

gcloud compute routers create cloud-router-for-nat --network producer-vpc --region us-central1

สร้างเกตเวย์ NAT ภายใน Cloud Shell

gcloud compute routers nats create cloud-nat-us-central1 --router=cloud-router-for-nat --auto-allocate-nat-external-ips --nat-all-subnet-ip-ranges --region us-central1

การกำหนดค่ากลุ่มอินสแตนซ์

ในส่วนต่อไปนี้ คุณจะสร้างอินสแตนซ์ Compute Engine และกลุ่มอินสแตนซ์ที่ไม่มีการจัดการ ในขั้นตอนต่อๆ ไป ระบบจะใช้กลุ่มอินสแตนซ์เป็นบริการแบ็กเอนด์ของตัวจัดสรรภาระงาน

ใน Cloud Shell ให้สร้างการตรวจสอบประสิทธิภาพการทำงานระดับภูมิภาคที่ส่งไปยังบริการของผู้ผลิต

gcloud compute instances create app-server-1 \
    --project=$projectname \
    --machine-type=e2-micro \
    --image-family debian-10 \
    --no-address \
    --image-project debian-cloud \
    --zone us-central1-a \
    --subnet=gce-subnet \
    --metadata startup-script="#! /bin/bash
      sudo apt-get update
      sudo apt-get install apache2 -y
      sudo service apache2 restart
      echo 'Welcome to App-Server-1 !!' | tee /var/www/html/index.html
      EOF"

สร้างกลุ่มอินสแตนซ์ที่ไม่มีการจัดการภายใน Cloud Shell

gcloud compute instance-groups unmanaged create psc-instance-group --zone=us-central1-a

gcloud compute instance-groups unmanaged set-named-ports psc-instance-group --project=$projectname --zone=us-central1-a --named-ports=http:80

gcloud compute instance-groups unmanaged add-instances psc-instance-group --zone=us-central1-a --instances=app-server-1

กำหนดค่าตัวจัดสรรภาระงาน

ในขั้นตอนต่อไปนี้ คุณจะกำหนดค่า ตัวจัดสรรภาระงาน HTTP ภายในที่จะเผยแพร่เป็นไฟล์แนบบริการในขั้นตอนต่อๆ ไป

สร้างการตรวจสอบประสิทธิภาพการทำงานระดับภูมิภาคภายใน Cloud Shell

gcloud compute health-checks create http http-health-check \
    --region=us-central1 \
    --use-serving-port

สร้างบริการแบ็กเอนด์ใน Cloud Shell

 gcloud compute backend-services create l7-ilb-backend-service \
      --load-balancing-scheme=INTERNAL_MANAGED \
      --protocol=HTTP \
      --health-checks=http-health-check \
      --health-checks-region=us-central1 \
      --region=us-central1

ใน Cloud Shell ให้เพิ่มแบ็กเอนด์ลงในบริการแบ็กเอนด์

gcloud compute backend-services add-backend l7-ilb-backend-service \
  --balancing-mode=UTILIZATION \
  --instance-group=psc-instance-group \
  --instance-group-zone=us-central1-a \
  --region=us-central1

สร้างแมป URL ภายใน Cloud Shell เพื่อกำหนดเส้นทางคำขอขาเข้าไปยังบริการแบ็กเอนด์

gcloud compute url-maps create l7-ilb-map \
    --default-service l7-ilb-backend-service \
    --region=us-central1

สร้างพร็อกซี HTTP เป้าหมาย

gcloud compute target-http-proxies create l7-ilb-proxy\
    --url-map=l7-ilb-map \
    --url-map-region=us-central1 \
    --region=us-central1

สร้างกฎการส่งต่อเพื่อกำหนดเส้นทางคำขอขาเข้าไปยังพร็อกซี อย่าใช้ซับเน็ตเฉพาะพร็อกซีเพื่อสร้างกฎการส่งต่อ

 gcloud compute forwarding-rules create l7-ilb-forwarding-rule \
      --load-balancing-scheme=INTERNAL_MANAGED \
      --network=producer-vpc \
      --subnet=load-balancer-subnet \
      --address=lb-ip \
      --ports=80 \
      --region=us-central1 \
      --target-http-proxy=l7-ilb-proxy \
      --target-http-proxy-region=us-central1

4. ตรวจสอบตัวจัดสรรภาระงาน

จาก Cloud Console ให้ไปที่บริการเครือข่าย → การจัดสรรภาระงาน → ตัวจัดสรรภาระงาน บันทึกการตรวจสอบประสิทธิภาพการทำงานที่สำเร็จไปยังบริการแบ็กเอนด์

881567cc11627009.png

การเลือก "l7-ilb-map" จะแสดงที่อยู่ IP ของฟรอนท์เอนด์ ซึ่งควรตรงกับที่อยู่ IP ที่คุณใช้คำสั่ง grep ในขั้นตอนก่อนหน้า และระบุบริการแบ็กเอนด์

bab89b0a7b4f95e9.png

5. สร้างไฟล์แนบบริการ Private Service Connect

สร้างการเชื่อมต่อบริการ

สร้างไฟล์แนบบริการภายใน Cloud Shell อย่าลืมใส่ "." ต่อท้ายชื่อโดเมน

gcloud compute service-attachments create published-service --region=us-central1 --producer-forwarding-rule=l7-ilb-forwarding-rule --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=psc-nat-subnet --domain-names=cosmopup.net.

ไม่บังคับ: หากใช้ VPC ที่แชร์ ให้สร้างการเชื่อมต่อบริการในโปรเจ็กต์บริการ

gcloud compute service-attachments create published-service --region=us-central1 --producer-forwarding-rule=l7-ilb-forwarding-rule --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=projects/<hostproject>/regions/us-central1/subnetworks/psc-nat-subnet --domain-names=cosmopup.net.

ไปที่บริการเครือข่าย → Private Service Connect เพื่อดูไฟล์แนบบริการที่สร้างขึ้นใหม่

d27fee9073dbbe2.png

การเลือก published-service จะให้รายละเอียดเพิ่มเติม รวมถึง URI ของไฟล์แนบบริการที่ผู้ใช้ใช้เพื่อสร้างการเชื่อมต่อบริการส่วนตัวและชื่อโดเมน

503df63730c62df2.png

รายละเอียดการแนบบริการ:

projects/<ชื่อโปรเจ็กต์>/regions/us-central1/serviceAttachments/published-service

6. การตั้งค่าสำหรับผู้บริโภค

เปิดใช้ API สำหรับผู้บริโภค

ใน Cloud Shell ให้ทำดังนี้

gcloud services enable dns.googleapis.com
gcloud services enable servicedirectory.googleapis.com

สร้างเครือข่าย VPC ของผู้ใช้บริการ

ใน Cloud Shell ให้ทำดังนี้

gcloud compute networks create consumer-vpc --project=$projectname --subnet-mode=custom

สร้างซับเน็ตของผู้บริโภค

สร้างเครือข่ายย่อยสำหรับอินสแตนซ์ทดสอบภายใน Cloud Shell

gcloud compute networks subnets create db1-subnet --project=$projectname --range=10.20.0.0/28 --network=consumer-vpc --region=us-central1

สร้างซับเน็ตสำหรับปลายทางของผู้ใช้ภายใน Cloud Shell

gcloud compute networks subnets create consumer-ep-subnet --project=$projectname --range=10.10.0.0/28 --network=consumer-vpc --region=us-central1

สร้างปลายทางผู้บริโภค (กฎการส่งต่อ)

สร้างที่อยู่ IP แบบคงที่ที่จะใช้สำหรับปลายทางผู้ใช้ภายใน Cloud Shell

gcloud compute addresses create psc-consumer-ip-1 --region=us-central1 --subnet=consumer-ep-subnet --addresses 10.10.0.10

เราใช้ URI ของการเชื่อมต่อบริการที่สร้างไว้ก่อนหน้านี้เพื่อสร้างปลายทางผู้ใช้

สร้างปลายทางของผู้บริโภคภายใน Cloud Shell

gcloud compute forwarding-rules create stargazer --region=us-central1 --network=consumer-vpc --address=psc-consumer-ip-1 --target-service-attachment=projects/$projectname/regions/us-central1/serviceAttachments/published-service

7. ตรวจสอบการเชื่อมต่อในเครือข่าย VPC ของผู้บริโภค

จากเครือข่าย VPC ของผู้ใช้ ให้ตรวจสอบการเชื่อมต่อบริการส่วนตัวที่สำเร็จโดยไปที่บริการเครือข่าย → Private Service Connect → ปลายทางที่เชื่อมต่อ จดบันทึกการเชื่อมต่อ Stargazer ที่สร้างขึ้นและที่อยู่ IP ที่เกี่ยวข้องที่เราสร้างไว้ก่อนหน้านี้

c60812433c3e1676.png

เมื่อเลือกรายละเอียด psc-consumer-1 จะมีการระบุรายละเอียด รวมถึง URI ของการเชื่อมต่อบริการ

14d3e3b1e0aee3c2.png

8. ตรวจสอบการเชื่อมต่อในเครือข่าย VPC ของผู้ผลิต

จากเครือข่าย VPC ของผู้ผลิต ให้ตรวจสอบการเชื่อมต่อบริการส่วนตัวที่สำเร็จโดยไปที่บริการเครือข่าย → Private Service Connect → บริการที่เผยแพร่ โปรดทราบว่าการเชื่อมต่อบริการที่เผยแพร่แล้วจะระบุว่ามีกฎการส่งต่อ 1 รายการ (ปลายทางการเชื่อมต่อ)

911dbd7421bcfd3a.png

9. ตรวจสอบการกำหนดค่า DNS อัตโนมัติ

มาประเมินการกำหนดค่า DNS และ Service Directory กัน

การกำหนดค่า Cloud DNS

ไปที่บริการเครือข่าย → Cloud DNS → โซน ระบบจะสร้างโซน goog-psc-default-us-central & และชื่อ DNS cosmopup.net. โดยอัตโนมัติ

4395e7b33fc42faa.png

ดูการกำหนดค่า DNS และ Service Directory

การเลือกชื่อโซนจะช่วยให้เราเห็นว่า Service Directory ผสานรวมกับ Cloud DNS อย่างไร

e4fe44d945b20451.png

การกำหนดค่า Service Directory

ไปที่บริการเครือข่าย → Service Directory

คุณจำชื่อปลายทางของผู้บริโภค "stargazer" ได้ไหม ระบบจะตั้งโปรแกรมโดยอัตโนมัติใน Service Directory ซึ่งช่วยให้เราเข้าถึงปลายทางของผู้บริโภคได้โดยใช้ FQDN stargazer.goog-psc-default–us-central1

602deab65b5ac315.png

10. ตรวจสอบสิทธิ์เข้าถึงบริการของผู้ผลิตของผู้บริโภค

จากเครือข่าย VPC ของผู้ใช้ เราจะสร้าง VM เพื่อทดสอบการเชื่อมต่อบริการที่เผยแพร่โดยการเข้าถึงปลายทางของผู้ใช้ stargazer.cosmopup.net

สร้างอินสแตนซ์ทดสอบใน VPC ของผู้บริโภคภายใน Cloud Shell

gcloud compute instances create db1 \
    --zone=us-central1-a \
    --image-family=debian-10 \
    --image-project=debian-cloud \
    --subnet=db1-subnet \
    --no-address

หากต้องการอนุญาตให้ IAP เชื่อมต่อกับอินสแตนซ์ VM ให้สร้างกฎไฟร์วอลล์ที่มีลักษณะดังนี้

  • มีผลกับอินสแตนซ์ VM ทั้งหมดที่คุณต้องการให้เข้าถึงได้โดยใช้ IAP
  • อนุญาตการรับส่งข้อมูลขาเข้าจากช่วง IP 35.235.240.0/20 ช่วงนี้มีที่อยู่ IP ทั้งหมดที่ IAP ใช้สำหรับการส่งต่อ TCP

สร้างกฎไฟร์วอลล์ IAP ภายใน Cloud Shell

gcloud compute firewall-rules create ssh-iap-consumer \
    --network consumer-vpc \
    --allow tcp:22 \
    --source-ranges=35.235.240.0/20

เข้าสู่ระบบ consumer-vm โดยใช้ IAP ใน Cloud Shell เพื่อตรวจสอบการเชื่อมต่อกับบริการของผู้ผลิตโดยใช้ curl ลองอีกครั้งหากหมดเวลา

gcloud compute ssh db1 --project=$projectname --zone=us-central1-a --tunnel-through-iap

เรียกใช้ curl เพื่อตรวจสอบการเชื่อมต่อกับบริการของผู้ผลิต เมื่อตรวจสอบแล้ว ให้ออกจาก VM เพื่อกลับไปที่พรอมต์ของ Cloud Shell

ใน Cloud Shell ให้เรียกใช้ curl กับโดเมนที่กำหนดเอง เช่น stargazer.[custom-domain.com]. ในเอาต์พุตด้านล่าง curl จะดำเนินการกับ stargazer.cosmopup.net

user@db1:~$ curl -v stargazer.cosmopup.net
*   Trying 10.10.0.10...
* TCP_NODELAY set
* Expire in 200 ms for 4 (transfer 0x55d3aa8190f0)
* Connected to stargazer.cosmopup.net (10.10.0.10) port 80 (#0)
> GET / HTTP/1.1
> Host: stargazer.cosmopup.net
> User-Agent: curl/7.64.0
> Accept: */*
> 
< HTTP/1.1 200 OK
< date: Thu, 22 Dec 2022 00:16:25 GMT
< server: Apache/2.4.38 (Debian)
< last-modified: Wed, 21 Dec 2022 20:26:32 GMT
< etag: "1b-5f05c5e43a083"
< accept-ranges: bytes
< content-length: 27
< content-type: text/html
< via: 1.1 google
< 
Welcome to App-Server-1 !!

ออกจาก VM โดยกลับไปที่พรอมต์ของ Cloud Shell เพื่อเริ่มงานล้างข้อมูล

11. ล้างข้อมูล

ลบคอมโพเนนต์ของ Codelab จาก Cloud Shell

gcloud compute forwarding-rules delete stargazer --region=us-central1 --quiet

gcloud compute instances delete db1 --zone=us-central1-a --quiet 

gcloud compute addresses delete psc-consumer-ip-1 --region=us-central1 --quiet 

gcloud compute networks subnets delete consumer-ep-subnet db1-subnet --region=us-central1 --quiet 

gcloud compute firewall-rules delete ssh-iap-consumer --quiet 

gcloud compute networks delete consumer-vpc --quiet 

gcloud compute service-attachments delete published-service --region=us-central1 --quiet 

gcloud compute forwarding-rules delete l7-ilb-forwarding-rule --region=us-central1 --quiet 

gcloud compute target-http-proxies delete l7-ilb-proxy --region=us-central1 --quiet 
 
gcloud compute url-maps delete l7-ilb-map --region=us-central1 --quiet 
 
gcloud compute backend-services delete l7-ilb-backend-service --region=us-central1 --quiet
 
gcloud compute instance-groups unmanaged delete psc-instance-group --zone=us-central1-a --quiet
 
gcloud compute instances delete app-server-1 --zone=us-central1-a --quiet 
 
gcloud compute firewall-rules delete allow-to-ingress-nat-subnet fw-allow-health-check fw-allow-proxy-only-subnet --quiet 
 
gcloud compute addresses delete lb-ip --region=us-central1 --quiet 
 
gcloud compute networks subnets delete gce-subnet load-balancer-subnet psc-nat-subnet proxy-subnet-us-central --region=us-central1 --quiet 
 
gcloud compute routers delete cloud-router-for-nat --region=us-central1 --quiet 
 
gcloud compute networks delete producer-vpc --quiet 

12. ขอแสดงความยินดี

ขอแสดงความยินดี คุณกำหนดค่าและตรวจสอบความถูกต้องของปลายทาง Private Service Connect ที่มีการกำหนดค่า DNS อัตโนมัติเรียบร้อยแล้ว

คุณสร้างโครงสร้างพื้นฐานของผู้ผลิต และเพิ่มการเชื่อมต่อบริการด้วยการจดทะเบียนโดเมนสาธารณะ คุณได้เรียนรู้วิธีสร้างปลายทางผู้ใช้ในเครือข่าย VPC ของผู้ใช้ที่อนุญาตการเชื่อมต่อกับบริการภายในองค์กรโดยใช้ DNS ที่สร้างขึ้นโดยอัตโนมัติ

Cosmopup คิดว่า Codelab นั้นยอดเยี่ยม!!

8c2a10eb841f7b01.jpeg

สิ่งต่อไปที่ควรทำ

ลองใช้ Codelab เหล่านี้

อ่านเพิ่มเติมและวิดีโอ

เอกสารอ้างอิง