1. บทนำ
Private Service Connect ที่มีการกำหนดค่า DNS อัตโนมัติจะใช้ Service Directory และ Cloud DNS เพื่อสร้างระเบียน DNS โดยอัตโนมัติซึ่งได้รับการตั้งโปรแกรมด้วยที่อยู่ IP ของปลายทาง Private Service Connect ของผู้ใช้
สิ่งที่คุณจะสร้าง
ใน Codelab นี้ คุณจะได้สร้างสถาปัตยกรรม Private Service Connect ที่ครอบคลุมซึ่งแสดงให้เห็นการใช้ DNS อัตโนมัติตามที่แสดงในรูปที่ 1
DNS อัตโนมัติทำงานได้ด้วยสิ่งต่อไปนี้
- ไฟล์แนบเกี่ยวกับบริการของผู้ผลิตจะสร้าง DNS อัตโนมัติโดยการระบุโดเมนสาธารณะที่เป็นเจ้าของพร้อมกับแฟล็ก "--domain-names" เมื่อสร้างไฟล์แนบเกี่ยวกับบริการ Private Service Connect
- ผู้ใช้กำหนดชื่อปลายทาง
- DNS อัตโนมัติจะสร้างทั้งโซน DNS goog-psc-default-us-central1 และชื่อ DNS cosmopup.net รวมถึงรายการ Service Directory ที่ประกอบด้วยชื่อปลายทางของผู้ใช้
ประโยชน์ของ DNS อัตโนมัติแสดงอยู่ใน (4) ซึ่งผู้ใช้ปลายทางสามารถสื่อสารกับปลายทางของผู้บริโภคผ่าน DNS, FQDN stargazer.cosmopup.net
รูปที่ 1

สิ่งที่คุณจะได้เรียนรู้
- วิธีสร้างตัวจัดสรรภาระงาน HTTP(S) ภายใน
- วิธีสร้างการเชื่อมต่อบริการด้วย DNS อัตโนมัติ
- วิธีสร้างบริการของผู้ผลิต Private Service Connect
- วิธีเข้าถึงอุปกรณ์ปลายทางของผู้บริโภคโดยใช้ DNS อัตโนมัติ
สิ่งที่คุณต้องมี
- โปรเจ็กต์ Google Cloud
- สาธารณสมบัติที่คุณเป็นเจ้าของ
2. ก่อนเริ่มต้น
อัปเดตโปรเจ็กต์เพื่อรองรับ Codelab
Codelab นี้ใช้ $variables เพื่อช่วยในการติดตั้งใช้งานการกำหนดค่า gcloud ใน Cloud Shell
ใน Cloud Shell ให้ทำดังนี้
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=YOUR-PROJECT-NAME
echo $projectname
3. การตั้งค่า Producer
สร้าง VPC ของผู้ผลิต
ใน Cloud Shell ให้ทำดังนี้
gcloud compute networks create producer-vpc --project=$projectname --subnet-mode=custom
สร้างซับเน็ตของโปรดิวเซอร์
ใน Cloud Shell ให้ทำดังนี้
gcloud compute networks subnets create gce-subnet --project=$projectname --range=172.16.20.0/28 --network=producer-vpc --region=us-central1
ใน Cloud Shell ให้ทำดังนี้
gcloud compute networks subnets create load-balancer-subnet --project=$projectname --range=172.16.10.0/28 --network=producer-vpc --region=us-central1
สำรองที่อยู่ IP สำหรับตัวจัดสรรภาระงานภายใน
ใน Cloud Shell ให้ทำดังนี้
gcloud compute addresses create lb-ip \
--region=us-central1 \
--subnet=load-balancer-subnet \
--purpose=GCE_ENDPOINT
ดูที่อยู่ IP ที่จัดสรร
ใช้คำสั่ง compute addresses describe เพื่อดูที่อยู่ IP ที่จัดสรร
gcloud compute addresses describe lb-ip --region=us-central1 | grep address:
สร้างซับเน็ตพร็อกซีระดับภูมิภาค
การจัดสรรพร็อกซีจะอยู่ที่ระดับเครือข่าย VPC ไม่ใช่ระดับตัวจัดสรรภาระงาน คุณต้องสร้างซับเน็ตเฉพาะพร็อกซี 1 รายการในแต่ละภูมิภาคของเครือข่ายเสมือน (VPC) ที่คุณใช้ตัวจัดสรรภาระงานที่อิงตาม Envoy หากคุณทำให้ใช้งานได้ตัวจัดสรรภาระงานหลายตัวในภูมิภาคและเครือข่าย VPC เดียวกัน ตัวจัดสรรภาระงานเหล่านั้นจะใช้ซับเน็ตเฉพาะพร็อกซีเดียวกันสำหรับการจัดสรรภาระงาน
- ไคลเอ็นต์สร้างการเชื่อมต่อกับที่อยู่ IP และพอร์ตของกฎการส่งต่อของตัวจัดสรรภาระงาน
- พร็อกซีแต่ละรายการจะรับฟังที่อยู่ IP และพอร์ตที่ระบุโดยกฎการส่งต่อของตัวจัดสรรภาระงานที่เกี่ยวข้อง พร็อกซีตัวใดตัวหนึ่งจะรับและสิ้นสุดการเชื่อมต่อเครือข่ายของไคลเอ็นต์
- พร็อกซีจะสร้างการเชื่อมต่อไปยัง VM แบ็กเอนด์ที่เหมาะสมซึ่งกำหนดโดยแผนที่ URL และบริการแบ็กเอนด์ของตัวจัดสรรภาระงาน
คุณต้องสร้างซับเน็ตเฉพาะพร็อกซีไม่ว่าเครือข่าย VPC จะอยู่ในโหมดอัตโนมัติหรือโหมดที่กำหนดเองก็ตาม ซับเน็ตเฉพาะพร็อกซีต้องระบุที่อยู่ IP อย่างน้อย 64 รายการ ซึ่งสอดคล้องกับความยาวของคำนำหน้า /26 หรือสั้นกว่า ขนาดซับเน็ตที่แนะนำคือ /23 (ที่อยู่เฉพาะพร็อกซี 512 รายการ)
ใน Cloud Shell ให้ทำดังนี้
gcloud compute networks subnets create proxy-subnet-us-central \
--purpose=REGIONAL_MANAGED_PROXY \
--role=ACTIVE \
--region=us-central1 \
--network=producer-vpc \
--range=172.16.0.0/23
สร้างซับเน็ต NAT ของ Private Service Connect
สร้างซับเน็ตเฉพาะอย่างน้อย 1 รายการเพื่อใช้กับ Private Service Connect หากใช้คอนโซล Google Cloud เพื่อเผยแพร่บริการ คุณจะสร้างเครือข่ายย่อยได้ในระหว่างกระบวนการดังกล่าว สร้างซับเน็ตในภูมิภาคเดียวกับตัวจัดสรรภาระงานของบริการ คุณไม่สามารถแปลงซับเน็ตปกติเป็นซับเน็ต Private Service Connect ได้
ใน Cloud Shell ให้ทำดังนี้
gcloud compute networks subnets create psc-nat-subnet \
--project $projectname \
--network producer-vpc \
--region us-central1 \
--range 100.100.10.0/24 \
--purpose PRIVATE_SERVICE_CONNECT
สร้างกฎไฟร์วอลล์ของผู้ผลิต
กำหนดค่า กฎไฟร์วอลล์เพื่ออนุญาตการรับส่งข้อมูลระหว่างซับเน็ต NAT ของ Private Service Connect กับซับเน็ตเฉพาะพร็อกซี ILB
ใน Cloud Shell ให้ทำดังนี้
gcloud compute --project=$projectname firewall-rules create allow-to-ingress-nat-subnet --direction=INGRESS --priority=1000 --network=producer-vpc --action=ALLOW --rules=all --source-ranges=100.100.10.0/24
ใน Cloud Shell ให้สร้างกฎไฟร์วอลล์ fw-allow-health-check เพื่ออนุญาตให้การตรวจสอบสถานะของ Google Cloud เข้าถึงบริการของผู้ผลิต (บริการแบ็กเอนด์) ในพอร์ต TCP 80
gcloud compute firewall-rules create fw-allow-health-check \
--network=producer-vpc \
--action=allow \
--direction=ingress \
--source-ranges=130.211.0.0/22,35.191.0.0/16 \
--rules=tcp:80
สร้างกฎไฟร์วอลล์ที่อนุญาตให้เข้าสำหรับซับเน็ตเฉพาะพร็อกซีเพื่อให้ตัวจัดสรรภาระงานสื่อสารกับอินสแตนซ์แบ็กเอนด์ในพอร์ต TCP 80 ได้
gcloud compute firewall-rules create fw-allow-proxy-only-subnet \
--network=producer-vpc \
--action=allow \
--direction=ingress \
--source-ranges=172.16.0.0/23 \
--rules=tcp:80
การกำหนดค่า Cloud Router และ NAT
Cloud NAT ใช้ใน Codelab สำหรับการติดตั้งแพ็กเกจซอฟต์แวร์เนื่องจากอินสแตนซ์ VM ไม่มีที่อยู่ IP ภายนอก
สร้าง Cloud Router ภายใน Cloud Shell
gcloud compute routers create cloud-router-for-nat --network producer-vpc --region us-central1
สร้างเกตเวย์ NAT ภายใน Cloud Shell
gcloud compute routers nats create cloud-nat-us-central1 --router=cloud-router-for-nat --auto-allocate-nat-external-ips --nat-all-subnet-ip-ranges --region us-central1
การกำหนดค่ากลุ่มอินสแตนซ์
ในส่วนต่อไปนี้ คุณจะสร้างอินสแตนซ์ Compute Engine และกลุ่มอินสแตนซ์ที่ไม่มีการจัดการ ในขั้นตอนต่อๆ ไป ระบบจะใช้กลุ่มอินสแตนซ์เป็นบริการแบ็กเอนด์ของตัวจัดสรรภาระงาน
ใน Cloud Shell ให้สร้างการตรวจสอบประสิทธิภาพการทำงานระดับภูมิภาคที่ส่งไปยังบริการของผู้ผลิต
gcloud compute instances create app-server-1 \
--project=$projectname \
--machine-type=e2-micro \
--image-family debian-10 \
--no-address \
--image-project debian-cloud \
--zone us-central1-a \
--subnet=gce-subnet \
--metadata startup-script="#! /bin/bash
sudo apt-get update
sudo apt-get install apache2 -y
sudo service apache2 restart
echo 'Welcome to App-Server-1 !!' | tee /var/www/html/index.html
EOF"
สร้างกลุ่มอินสแตนซ์ที่ไม่มีการจัดการภายใน Cloud Shell
gcloud compute instance-groups unmanaged create psc-instance-group --zone=us-central1-a
gcloud compute instance-groups unmanaged set-named-ports psc-instance-group --project=$projectname --zone=us-central1-a --named-ports=http:80
gcloud compute instance-groups unmanaged add-instances psc-instance-group --zone=us-central1-a --instances=app-server-1
กำหนดค่าตัวจัดสรรภาระงาน
ในขั้นตอนต่อไปนี้ คุณจะกำหนดค่า ตัวจัดสรรภาระงาน HTTP ภายในที่จะเผยแพร่เป็นไฟล์แนบบริการในขั้นตอนต่อๆ ไป
สร้างการตรวจสอบประสิทธิภาพการทำงานระดับภูมิภาคภายใน Cloud Shell
gcloud compute health-checks create http http-health-check \
--region=us-central1 \
--use-serving-port
สร้างบริการแบ็กเอนด์ใน Cloud Shell
gcloud compute backend-services create l7-ilb-backend-service \
--load-balancing-scheme=INTERNAL_MANAGED \
--protocol=HTTP \
--health-checks=http-health-check \
--health-checks-region=us-central1 \
--region=us-central1
ใน Cloud Shell ให้เพิ่มแบ็กเอนด์ลงในบริการแบ็กเอนด์
gcloud compute backend-services add-backend l7-ilb-backend-service \
--balancing-mode=UTILIZATION \
--instance-group=psc-instance-group \
--instance-group-zone=us-central1-a \
--region=us-central1
สร้างแมป URL ภายใน Cloud Shell เพื่อกำหนดเส้นทางคำขอขาเข้าไปยังบริการแบ็กเอนด์
gcloud compute url-maps create l7-ilb-map \
--default-service l7-ilb-backend-service \
--region=us-central1
สร้างพร็อกซี HTTP เป้าหมาย
gcloud compute target-http-proxies create l7-ilb-proxy\
--url-map=l7-ilb-map \
--url-map-region=us-central1 \
--region=us-central1
สร้างกฎการส่งต่อเพื่อกำหนดเส้นทางคำขอขาเข้าไปยังพร็อกซี อย่าใช้ซับเน็ตเฉพาะพร็อกซีเพื่อสร้างกฎการส่งต่อ
gcloud compute forwarding-rules create l7-ilb-forwarding-rule \
--load-balancing-scheme=INTERNAL_MANAGED \
--network=producer-vpc \
--subnet=load-balancer-subnet \
--address=lb-ip \
--ports=80 \
--region=us-central1 \
--target-http-proxy=l7-ilb-proxy \
--target-http-proxy-region=us-central1
4. ตรวจสอบตัวจัดสรรภาระงาน
จาก Cloud Console ให้ไปที่บริการเครือข่าย → การจัดสรรภาระงาน → ตัวจัดสรรภาระงาน บันทึกการตรวจสอบประสิทธิภาพการทำงานที่สำเร็จไปยังบริการแบ็กเอนด์

การเลือก "l7-ilb-map" จะแสดงที่อยู่ IP ของฟรอนท์เอนด์ ซึ่งควรตรงกับที่อยู่ IP ที่คุณใช้คำสั่ง grep ในขั้นตอนก่อนหน้า และระบุบริการแบ็กเอนด์

5. สร้างไฟล์แนบบริการ Private Service Connect
สร้างการเชื่อมต่อบริการ
สร้างไฟล์แนบบริการภายใน Cloud Shell อย่าลืมใส่ "." ต่อท้ายชื่อโดเมน
gcloud compute service-attachments create published-service --region=us-central1 --producer-forwarding-rule=l7-ilb-forwarding-rule --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=psc-nat-subnet --domain-names=cosmopup.net.
ไม่บังคับ: หากใช้ VPC ที่แชร์ ให้สร้างการเชื่อมต่อบริการในโปรเจ็กต์บริการ
gcloud compute service-attachments create published-service --region=us-central1 --producer-forwarding-rule=l7-ilb-forwarding-rule --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=projects/<hostproject>/regions/us-central1/subnetworks/psc-nat-subnet --domain-names=cosmopup.net.
ไปที่บริการเครือข่าย → Private Service Connect เพื่อดูไฟล์แนบบริการที่สร้างขึ้นใหม่

การเลือก published-service จะให้รายละเอียดเพิ่มเติม รวมถึง URI ของไฟล์แนบบริการที่ผู้ใช้ใช้เพื่อสร้างการเชื่อมต่อบริการส่วนตัวและชื่อโดเมน

รายละเอียดการแนบบริการ:
projects/<ชื่อโปรเจ็กต์>/regions/us-central1/serviceAttachments/published-service
6. การตั้งค่าสำหรับผู้บริโภค
เปิดใช้ API สำหรับผู้บริโภค
ใน Cloud Shell ให้ทำดังนี้
gcloud services enable dns.googleapis.com
gcloud services enable servicedirectory.googleapis.com
สร้างเครือข่าย VPC ของผู้ใช้บริการ
ใน Cloud Shell ให้ทำดังนี้
gcloud compute networks create consumer-vpc --project=$projectname --subnet-mode=custom
สร้างซับเน็ตของผู้บริโภค
สร้างเครือข่ายย่อยสำหรับอินสแตนซ์ทดสอบภายใน Cloud Shell
gcloud compute networks subnets create db1-subnet --project=$projectname --range=10.20.0.0/28 --network=consumer-vpc --region=us-central1
สร้างซับเน็ตสำหรับปลายทางของผู้ใช้ภายใน Cloud Shell
gcloud compute networks subnets create consumer-ep-subnet --project=$projectname --range=10.10.0.0/28 --network=consumer-vpc --region=us-central1
สร้างปลายทางผู้บริโภค (กฎการส่งต่อ)
สร้างที่อยู่ IP แบบคงที่ที่จะใช้สำหรับปลายทางผู้ใช้ภายใน Cloud Shell
gcloud compute addresses create psc-consumer-ip-1 --region=us-central1 --subnet=consumer-ep-subnet --addresses 10.10.0.10
เราใช้ URI ของการเชื่อมต่อบริการที่สร้างไว้ก่อนหน้านี้เพื่อสร้างปลายทางผู้ใช้
สร้างปลายทางของผู้บริโภคภายใน Cloud Shell
gcloud compute forwarding-rules create stargazer --region=us-central1 --network=consumer-vpc --address=psc-consumer-ip-1 --target-service-attachment=projects/$projectname/regions/us-central1/serviceAttachments/published-service
7. ตรวจสอบการเชื่อมต่อในเครือข่าย VPC ของผู้บริโภค
จากเครือข่าย VPC ของผู้ใช้ ให้ตรวจสอบการเชื่อมต่อบริการส่วนตัวที่สำเร็จโดยไปที่บริการเครือข่าย → Private Service Connect → ปลายทางที่เชื่อมต่อ จดบันทึกการเชื่อมต่อ Stargazer ที่สร้างขึ้นและที่อยู่ IP ที่เกี่ยวข้องที่เราสร้างไว้ก่อนหน้านี้

เมื่อเลือกรายละเอียด psc-consumer-1 จะมีการระบุรายละเอียด รวมถึง URI ของการเชื่อมต่อบริการ

8. ตรวจสอบการเชื่อมต่อในเครือข่าย VPC ของผู้ผลิต
จากเครือข่าย VPC ของผู้ผลิต ให้ตรวจสอบการเชื่อมต่อบริการส่วนตัวที่สำเร็จโดยไปที่บริการเครือข่าย → Private Service Connect → บริการที่เผยแพร่ โปรดทราบว่าการเชื่อมต่อบริการที่เผยแพร่แล้วจะระบุว่ามีกฎการส่งต่อ 1 รายการ (ปลายทางการเชื่อมต่อ)

9. ตรวจสอบการกำหนดค่า DNS อัตโนมัติ
มาประเมินการกำหนดค่า DNS และ Service Directory กัน
การกำหนดค่า Cloud DNS
ไปที่บริการเครือข่าย → Cloud DNS → โซน ระบบจะสร้างโซน goog-psc-default-us-central & และชื่อ DNS cosmopup.net. โดยอัตโนมัติ

ดูการกำหนดค่า DNS และ Service Directory
การเลือกชื่อโซนจะช่วยให้เราเห็นว่า Service Directory ผสานรวมกับ Cloud DNS อย่างไร

การกำหนดค่า Service Directory
ไปที่บริการเครือข่าย → Service Directory
คุณจำชื่อปลายทางของผู้บริโภค "stargazer" ได้ไหม ระบบจะตั้งโปรแกรมโดยอัตโนมัติใน Service Directory ซึ่งช่วยให้เราเข้าถึงปลายทางของผู้บริโภคได้โดยใช้ FQDN stargazer.goog-psc-default–us-central1

10. ตรวจสอบสิทธิ์เข้าถึงบริการของผู้ผลิตของผู้บริโภค
จากเครือข่าย VPC ของผู้ใช้ เราจะสร้าง VM เพื่อทดสอบการเชื่อมต่อบริการที่เผยแพร่โดยการเข้าถึงปลายทางของผู้ใช้ stargazer.cosmopup.net
สร้างอินสแตนซ์ทดสอบใน VPC ของผู้บริโภคภายใน Cloud Shell
gcloud compute instances create db1 \
--zone=us-central1-a \
--image-family=debian-10 \
--image-project=debian-cloud \
--subnet=db1-subnet \
--no-address
หากต้องการอนุญาตให้ IAP เชื่อมต่อกับอินสแตนซ์ VM ให้สร้างกฎไฟร์วอลล์ที่มีลักษณะดังนี้
- มีผลกับอินสแตนซ์ VM ทั้งหมดที่คุณต้องการให้เข้าถึงได้โดยใช้ IAP
- อนุญาตการรับส่งข้อมูลขาเข้าจากช่วง IP 35.235.240.0/20 ช่วงนี้มีที่อยู่ IP ทั้งหมดที่ IAP ใช้สำหรับการส่งต่อ TCP
สร้างกฎไฟร์วอลล์ IAP ภายใน Cloud Shell
gcloud compute firewall-rules create ssh-iap-consumer \
--network consumer-vpc \
--allow tcp:22 \
--source-ranges=35.235.240.0/20
เข้าสู่ระบบ consumer-vm โดยใช้ IAP ใน Cloud Shell เพื่อตรวจสอบการเชื่อมต่อกับบริการของผู้ผลิตโดยใช้ curl ลองอีกครั้งหากหมดเวลา
gcloud compute ssh db1 --project=$projectname --zone=us-central1-a --tunnel-through-iap
เรียกใช้ curl เพื่อตรวจสอบการเชื่อมต่อกับบริการของผู้ผลิต เมื่อตรวจสอบแล้ว ให้ออกจาก VM เพื่อกลับไปที่พรอมต์ของ Cloud Shell
ใน Cloud Shell ให้เรียกใช้ curl กับโดเมนที่กำหนดเอง เช่น stargazer.[custom-domain.com]. ในเอาต์พุตด้านล่าง curl จะดำเนินการกับ stargazer.cosmopup.net
user@db1:~$ curl -v stargazer.cosmopup.net
* Trying 10.10.0.10...
* TCP_NODELAY set
* Expire in 200 ms for 4 (transfer 0x55d3aa8190f0)
* Connected to stargazer.cosmopup.net (10.10.0.10) port 80 (#0)
> GET / HTTP/1.1
> Host: stargazer.cosmopup.net
> User-Agent: curl/7.64.0
> Accept: */*
>
< HTTP/1.1 200 OK
< date: Thu, 22 Dec 2022 00:16:25 GMT
< server: Apache/2.4.38 (Debian)
< last-modified: Wed, 21 Dec 2022 20:26:32 GMT
< etag: "1b-5f05c5e43a083"
< accept-ranges: bytes
< content-length: 27
< content-type: text/html
< via: 1.1 google
<
Welcome to App-Server-1 !!
ออกจาก VM โดยกลับไปที่พรอมต์ของ Cloud Shell เพื่อเริ่มงานล้างข้อมูล
11. ล้างข้อมูล
ลบคอมโพเนนต์ของ Codelab จาก Cloud Shell
gcloud compute forwarding-rules delete stargazer --region=us-central1 --quiet
gcloud compute instances delete db1 --zone=us-central1-a --quiet
gcloud compute addresses delete psc-consumer-ip-1 --region=us-central1 --quiet
gcloud compute networks subnets delete consumer-ep-subnet db1-subnet --region=us-central1 --quiet
gcloud compute firewall-rules delete ssh-iap-consumer --quiet
gcloud compute networks delete consumer-vpc --quiet
gcloud compute service-attachments delete published-service --region=us-central1 --quiet
gcloud compute forwarding-rules delete l7-ilb-forwarding-rule --region=us-central1 --quiet
gcloud compute target-http-proxies delete l7-ilb-proxy --region=us-central1 --quiet
gcloud compute url-maps delete l7-ilb-map --region=us-central1 --quiet
gcloud compute backend-services delete l7-ilb-backend-service --region=us-central1 --quiet
gcloud compute instance-groups unmanaged delete psc-instance-group --zone=us-central1-a --quiet
gcloud compute instances delete app-server-1 --zone=us-central1-a --quiet
gcloud compute firewall-rules delete allow-to-ingress-nat-subnet fw-allow-health-check fw-allow-proxy-only-subnet --quiet
gcloud compute addresses delete lb-ip --region=us-central1 --quiet
gcloud compute networks subnets delete gce-subnet load-balancer-subnet psc-nat-subnet proxy-subnet-us-central --region=us-central1 --quiet
gcloud compute routers delete cloud-router-for-nat --region=us-central1 --quiet
gcloud compute networks delete producer-vpc --quiet
12. ขอแสดงความยินดี
ขอแสดงความยินดี คุณกำหนดค่าและตรวจสอบความถูกต้องของปลายทาง Private Service Connect ที่มีการกำหนดค่า DNS อัตโนมัติเรียบร้อยแล้ว
คุณสร้างโครงสร้างพื้นฐานของผู้ผลิต และเพิ่มการเชื่อมต่อบริการด้วยการจดทะเบียนโดเมนสาธารณะ คุณได้เรียนรู้วิธีสร้างปลายทางผู้ใช้ในเครือข่าย VPC ของผู้ใช้ที่อนุญาตการเชื่อมต่อกับบริการภายในองค์กรโดยใช้ DNS ที่สร้างขึ้นโดยอัตโนมัติ
Cosmopup คิดว่า Codelab นั้นยอดเยี่ยม!!

สิ่งต่อไปที่ควรทำ
ลองใช้ Codelab เหล่านี้
- การใช้ Private Service Connect เพื่อเผยแพร่และใช้บริการกับ GKE
- การใช้ Private Service Connect เพื่อเผยแพร่และใช้บริการ
- เชื่อมต่อกับบริการภายในองค์กรผ่านระบบเครือข่ายแบบไฮบริดโดยใช้ Private Service Connect และตัวจัดสรรภาระงาน TCP Proxy ภายใน