1. บทนำ
Private Service Connect ที่มีการกำหนดค่า DNS อัตโนมัติจะใช้ Service Directory และ Cloud DNS เพื่อสร้างระเบียน DNS ที่วางโปรแกรมด้วยที่อยู่ IP ปลายทางของ Private Service Connect ของผู้บริโภคโดยอัตโนมัติ
สิ่งที่คุณจะสร้าง
ใน Codelab นี้ คุณจะสร้างสถาปัตยกรรม Private Service Connect ที่ครอบคลุม ซึ่งแสดงภาพการใช้ DNS อัตโนมัติดังที่แสดงในรูปที่ 1
DNS อัตโนมัติเกิดขึ้นได้ด้วยสิ่งต่อไปนี้
- ไฟล์แนบบริการของ Producer จะสร้าง DNS อัตโนมัติโดยใส่ "– domain-names" ของโดเมนสาธารณะที่เป็นเจ้าของ แจ้งเมื่อสร้างไฟล์แนบของบริการ Private Service Connect
- ผู้บริโภคเป็นผู้กําหนดชื่อปลายทาง
- DNS อัตโนมัติจะสร้างทั้ง DNS Zone goog-psc-default-us-central1 และ ชื่อ DNS cosmopup.net นอกเหนือจากรายการ Service Directory ที่ประกอบด้วยชื่อปลายทางของผู้บริโภค
ประโยชน์ของ DNS อัตโนมัติแสดงอยู่ใน (4) ที่ผู้ใช้ปลายทางสามารถสื่อสารกับปลายทางของผู้บริโภคผ่าน DNS ซึ่งก็คือ FQDN stargazer.cosmopup.net
รูปที่ 1
สิ่งที่คุณจะได้เรียนรู้
- วิธีสร้างตัวจัดสรรภาระงาน HTTP(S) ภายใน
- วิธีสร้างไฟล์แนบบริการด้วย DNS อัตโนมัติ
- วิธีสร้างบริการ Private Service Connect Producer
- วิธีเข้าถึงปลายทางของผู้ใช้โดยใช้ DNS อัตโนมัติ
สิ่งที่คุณต้องมี
- โปรเจ็กต์ Google Cloud
- สาธารณสมบัติที่คุณเป็นเจ้าของ
2. ก่อนเริ่มต้น
อัปเดตโปรเจ็กต์เพื่อรองรับ Codelab
Codelab นี้ใช้ $variables เพื่อช่วยในการติดตั้งใช้งานการกำหนดค่า gcloud ใน Cloud Shell
ภายใน Cloud Shell ให้ดำเนินการต่อไปนี้
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=YOUR-PROJECT-NAME
echo $projectname
3. การตั้งค่าผู้ผลิต
สร้าง VPC ผู้ผลิต
ภายใน Cloud Shell ให้ดำเนินการต่อไปนี้
gcloud compute networks create producer-vpc --project=$projectname --subnet-mode=custom
สร้างซับเน็ตผู้ผลิต
ภายใน Cloud Shell ให้ดำเนินการต่อไปนี้
gcloud compute networks subnets create gce-subnet --project=$projectname --range=172.16.20.0/28 --network=producer-vpc --region=us-central1
ภายใน Cloud Shell ให้ดำเนินการต่อไปนี้
gcloud compute networks subnets create load-balancer-subnet --project=$projectname --range=172.16.10.0/28 --network=producer-vpc --region=us-central1
สำรองที่อยู่ IP สำหรับตัวจัดสรรภาระงานภายใน
ภายใน Cloud Shell ให้ดำเนินการต่อไปนี้
gcloud compute addresses create lb-ip \
--region=us-central1 \
--subnet=load-balancer-subnet \
--purpose=GCE_ENDPOINT
ดูที่อยู่ IP ที่จัดสรร
ใช้คำสั่งอธิบายที่อยู่ประมวลผลเพื่อดูที่อยู่ IP ที่จัดสรร
gcloud compute addresses describe lb-ip --region=us-central1 | grep address:
สร้างซับเน็ตของพร็อกซีระดับภูมิภาค
การจัดสรรพร็อกซีจะอยู่ที่ระดับเครือข่าย VPC ไม่ใช่ระดับตัวจัดสรรภาระงาน คุณต้องสร้างซับเน็ตเฉพาะพร็อกซี 1 รายการในแต่ละภูมิภาคของเครือข่ายเสมือน (VPC) ที่คุณใช้ตัวจัดสรรภาระงานที่อิงตาม Envoy หากคุณทำให้ตัวจัดสรรภาระงานหลายรายการใช้งานได้ในภูมิภาคและเครือข่าย VPC เดียวกัน ตัวจัดสรรภาระงานดังกล่าวจะแชร์ซับเน็ตเฉพาะพร็อกซีเดียวกันสำหรับการจัดสรรภาระงาน
- ไคลเอ็นต์จะเชื่อมต่อกับที่อยู่ IP และพอร์ตของกฎการส่งต่อของตัวจัดสรรภาระงาน
- พร็อกซีแต่ละรายการจะรอฟังที่อยู่ IP และพอร์ตที่ระบุโดยกฎการส่งต่อของตัวจัดสรรภาระงานที่เกี่ยวข้อง พร็อกซีรายการใดรายการหนึ่งได้รับและสิ้นสุดการเชื่อมต่อเครือข่ายของไคลเอ็นต์
- พร็อกซีจะสร้างการเชื่อมต่อกับ VM แบ็กเอนด์ที่เหมาะสมซึ่งกำหนดโดยแมป URL และบริการแบ็กเอนด์ของตัวจัดสรรภาระงาน
คุณต้องสร้างซับเน็ตเฉพาะพร็อกซี ไม่ว่าเครือข่าย VPC ของคุณจะเป็นโหมดอัตโนมัติหรือโหมดที่กำหนดเองก็ตาม ซับเน็ตเฉพาะพร็อกซีต้องระบุที่อยู่ IP อย่างน้อย 64 รายการ ซึ่งสอดคล้องกับความยาวของคำนำหน้า /26 หรือสั้นกว่า ขนาดซับเน็ตที่แนะนำคือ /23 (ที่อยู่เฉพาะพร็อกซี 512)
ภายใน Cloud Shell ให้ดำเนินการต่อไปนี้
gcloud compute networks subnets create proxy-subnet-us-central \
--purpose=REGIONAL_MANAGED_PROXY \
--role=ACTIVE \
--region=us-central1 \
--network=producer-vpc \
--range=172.16.0.0/23
สร้างซับเน็ต NAT ของ Private Service Connect
สร้างซับเน็ตเฉพาะอย่างน้อย 1 รายการเพื่อใช้กับ Private Service Connect หากใช้ Google Cloud Console เพื่อเผยแพร่บริการ คุณจะสร้างซับเน็ตได้ในระหว่างกระบวนการนี้ สร้างซับเน็ตในภูมิภาคเดียวกันกับตัวจัดสรรภาระงานของบริการ คุณแปลงซับเน็ตปกติเป็นซับเน็ตของ Private Service Connect ไม่ได้
ภายใน Cloud Shell ให้ดำเนินการต่อไปนี้
gcloud compute networks subnets create psc-nat-subnet \
--project $projectname \
--network producer-vpc \
--region us-central1 \
--range 100.100.10.0/24 \
--purpose PRIVATE_SERVICE_CONNECT
สร้างกฎไฟร์วอลล์ของผู้ผลิต
กำหนดค่า กฎไฟร์วอลล์เพื่ออนุญาตการรับส่งข้อมูลระหว่างซับเน็ต Private Service Connect NAT และซับเน็ตเฉพาะพร็อกซี ILB
ภายใน Cloud Shell ให้ดำเนินการต่อไปนี้
gcloud compute --project=$projectname firewall-rules create allow-to-ingress-nat-subnet --direction=INGRESS --priority=1000 --network=producer-vpc --action=ALLOW --rules=all --source-ranges=100.100.10.0/24
ใน Cloud Shell ให้สร้างกฎไฟร์วอลล์สำหรับการตรวจสอบประสิทธิภาพการทำงาน (fw-allow-health-check) เพื่ออนุญาตให้การตรวจสอบประสิทธิภาพการทำงานของ Google Cloud เข้าถึงบริการของผู้ผลิต (บริการแบ็กเอนด์) บนพอร์ต TCP 80
gcloud compute firewall-rules create fw-allow-health-check \
--network=producer-vpc \
--action=allow \
--direction=ingress \
--source-ranges=130.211.0.0/22,35.191.0.0/16 \
--rules=tcp:80
สร้างกฎไฟร์วอลล์ที่อนุญาตข้อมูลขาเข้าสำหรับซับเน็ตเฉพาะพร็อกซีเพื่อให้ตัวจัดสรรภาระงานสื่อสารกับอินสแตนซ์แบ็กเอนด์บนพอร์ต TCP 80 ได้
gcloud compute firewall-rules create fw-allow-proxy-only-subnet \
--network=producer-vpc \
--action=allow \
--direction=ingress \
--source-ranges=172.16.0.0/23 \
--rules=tcp:80
การกำหนดค่า Cloud Router และ NAT
มีการใช้ Cloud NAT ใน Codelab สำหรับการติดตั้งแพ็กเกจซอฟต์แวร์เนื่องจากอินสแตนซ์ VM ไม่มีที่อยู่ IP ภายนอก
สร้างเราเตอร์ระบบคลาวด์ใน Cloud Shell
gcloud compute routers create cloud-router-for-nat --network producer-vpc --region us-central1
สร้างเกตเวย์ NAT ภายใน Cloud Shell
gcloud compute routers nats create cloud-nat-us-central1 --router=cloud-router-for-nat --auto-allocate-nat-external-ips --nat-all-subnet-ip-ranges --region us-central1
การกำหนดค่ากลุ่มอินสแตนซ์
ในส่วนต่อไปนี้ คุณจะต้องสร้างอินสแตนซ์ Compute Engine และ อินสแตนซ์ที่ไม่มีการจัดการ ในขั้นตอนหลังจากนี้ ระบบจะใช้อินสแตนซ์เป็นบริการแบ็กเอนด์ของตัวจัดสรรภาระงาน
ภายใน Cloud Shell ให้สร้างการตรวจสอบประสิทธิภาพการทำงานระดับภูมิภาคที่ส่งไปยังบริการของผู้ผลิต
gcloud compute instances create app-server-1 \
--project=$projectname \
--machine-type=e2-micro \
--image-family debian-10 \
--no-address \
--image-project debian-cloud \
--zone us-central1-a \
--subnet=gce-subnet \
--metadata startup-script="#! /bin/bash
sudo apt-get update
sudo apt-get install apache2 -y
sudo service apache2 restart
echo 'Welcome to App-Server-1 !!' | tee /var/www/html/index.html
EOF"
สร้างกลุ่มอินสแตนซ์ที่ไม่มีการจัดการใน Cloud Shell
gcloud compute instance-groups unmanaged create psc-instance-group --zone=us-central1-a
gcloud compute instance-groups unmanaged set-named-ports psc-instance-group --project=$projectname --zone=us-central1-a --named-ports=http:80
gcloud compute instance-groups unmanaged add-instances psc-instance-group --zone=us-central1-a --instances=app-server-1
กำหนดค่าตัวจัดสรรภาระงาน
ในขั้นตอนต่อไปนี้ คุณจะต้องกำหนดค่า ตัวจัดสรรภาระงาน HTTP ภายในที่จะเผยแพร่เป็นไฟล์แนบบริการในขั้นตอนถัดไป
สร้างการตรวจสอบประสิทธิภาพการทำงานระดับภูมิภาคภายใน Cloud Shell
gcloud compute health-checks create http http-health-check \
--region=us-central1 \
--use-serving-port
สร้างบริการแบ็กเอนด์ภายใน Cloud Shell
gcloud compute backend-services create l7-ilb-backend-service \
--load-balancing-scheme=INTERNAL_MANAGED \
--protocol=HTTP \
--health-checks=http-health-check \
--health-checks-region=us-central1 \
--region=us-central1
เพิ่มแบ็กเอนด์ไปยังบริการแบ็กเอนด์ภายใน Cloud Shell
gcloud compute backend-services add-backend l7-ilb-backend-service \
--balancing-mode=UTILIZATION \
--instance-group=psc-instance-group \
--instance-group-zone=us-central1-a \
--region=us-central1
ภายใน Cloud Shell ให้สร้างแมป URL เพื่อกำหนดเส้นทางคำขอขาเข้าไปยังบริการแบ็กเอนด์
gcloud compute url-maps create l7-ilb-map \
--default-service l7-ilb-backend-service \
--region=us-central1
สร้างพร็อกซีเป้าหมาย HTTP
gcloud compute target-http-proxies create l7-ilb-proxy\
--url-map=l7-ilb-map \
--url-map-region=us-central1 \
--region=us-central1
สร้างกฎการส่งต่อเพื่อกำหนดเส้นทางคำขอขาเข้าไปยังพร็อกซี อย่าใช้ซับเน็ตเฉพาะพร็อกซีเพื่อสร้างกฎการส่งต่อ
gcloud compute forwarding-rules create l7-ilb-forwarding-rule \
--load-balancing-scheme=INTERNAL_MANAGED \
--network=producer-vpc \
--subnet=load-balancer-subnet \
--address=lb-ip \
--ports=80 \
--region=us-central1 \
--target-http-proxy=l7-ilb-proxy \
--target-http-proxy-region=us-central1
4. ตรวจสอบตัวจัดสรรภาระงาน
จาก Cloud Console ให้ไปที่บริการเครือข่าย → การจัดสรรภาระงาน → ตัวจัดสรรภาระงาน บันทึกการตรวจสอบประสิทธิภาพการทำงานที่สำเร็จกับบริการแบ็กเอนด์
การเลือก "l7-ilb-map" จะแสดงที่อยู่ IP ฟรอนท์เอนด์ ซึ่งควรตรงกับที่อยู่ IP ที่คุณ grep ไว้ในขั้นตอนก่อนหน้า และระบุบริการแบ็กเอนด์
5. สร้างไฟล์แนบของบริการ Private Service Connect
สร้างไฟล์แนบของบริการ
สร้างไฟล์แนบบริการใน Cloud Shell ตรวจสอบว่าได้เพิ่ม "." แล้ว ที่อยู่ท้ายชื่อโดเมน
gcloud compute service-attachments create published-service --region=us-central1 --producer-forwarding-rule=l7-ilb-forwarding-rule --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=psc-nat-subnet --domain-names=cosmopup.net.
ไม่บังคับ: หากใช้ VPC ที่แชร์ ให้สร้างไฟล์แนบบริการในโปรเจ็กต์บริการ
gcloud compute service-attachments create published-service --region=us-central1 --producer-forwarding-rule=l7-ilb-forwarding-rule --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=projects/<hostproject>/regions/us-central1/subnetworks/psc-nat-subnet --domain-names=cosmopup.net.
ไปที่บริการเครือข่าย → Private Service Connect เพื่อดูไฟล์แนบของบริการที่สร้างขึ้นใหม่
การเลือกpublished-serviceจะให้รายละเอียดเพิ่มเติม ซึ่งรวมถึง URI ไฟล์แนบของบริการที่ผู้บริโภคใช้เพื่อสร้างการเชื่อมต่อบริการส่วนตัวและ ชื่อโดเมน
รายละเอียดไฟล์แนบของบริการ:
โปรเจ็กต์/<ชื่อโปรเจ็กต์>/region/us-central1/serviceattachs/published-service
6. การตั้งค่าผู้บริโภค
เปิดใช้ API สำหรับผู้บริโภค
Shell ใน Inside Cloud จะดำเนินการต่อไปนี้
gcloud services enable dns.googleapis.com
gcloud services enable servicedirectory.googleapis.com
สร้างเครือข่าย VPC สำหรับผู้บริโภค
ภายใน Cloud Shell ให้ดำเนินการต่อไปนี้
gcloud compute networks create consumer-vpc --project=$projectname --subnet-mode=custom
สร้างซับเน็ตของผู้บริโภค
สร้างซับเน็ตสำหรับอินสแตนซ์ทดสอบภายใน Cloud Shell
gcloud compute networks subnets create db1-subnet --project=$projectname --range=10.20.0.0/28 --network=consumer-vpc --region=us-central1
สร้างซับเน็ตสำหรับปลายทางของผู้บริโภคใน Cloud Shell
gcloud compute networks subnets create consumer-ep-subnet --project=$projectname --range=10.10.0.0/28 --network=consumer-vpc --region=us-central1
สร้างปลายทางสำหรับผู้บริโภค (กฎการส่งต่อ)
สร้างที่อยู่ IP แบบคงที่ที่ใช้สำหรับปลายทางของผู้บริโภคใน Cloud Shell
gcloud compute addresses create psc-consumer-ip-1 --region=us-central1 --subnet=consumer-ep-subnet --addresses 10.10.0.10
เราใช้ URI ไฟล์แนบของบริการที่สร้างไว้ก่อนหน้านี้เพื่อสร้างปลายทางของผู้บริโภค
สร้างปลายทางของผู้บริโภคใน Cloud Shell
gcloud compute forwarding-rules create stargazer --region=us-central1 --network=consumer-vpc --address=psc-consumer-ip-1 --target-service-attachment=projects/$projectname/regions/us-central1/serviceAttachments/published-service
7. ตรวจสอบการเชื่อมต่อในเครือข่าย VPC ของผู้บริโภค
จากเครือข่าย VPC ของผู้บริโภค ให้ตรวจสอบการเชื่อมต่อบริการส่วนตัวที่สำเร็จโดยไปที่บริการเครือข่าย → Private Service Connect → ปลายทางที่เชื่อมต่อ ดูการเชื่อมต่อ Stargazer และที่อยู่ IP ที่เกี่ยวข้องซึ่งเราได้สร้างไว้ก่อนหน้านี้
เมื่อเลือก psc-consumer-1 จะมีรายละเอียดรวมถึง URI ไฟล์แนบของบริการ
8. ตรวจสอบการเชื่อมต่อในเครือข่าย VPC ของผู้ผลิต
จากเครือข่าย VPC ของผู้ผลิต ให้ยืนยันว่าการเชื่อมต่อบริการส่วนตัวสำเร็จหรือไม่ โดยไปที่บริการเครือข่าย → Private Service Connect → บริการที่เผยแพร่ โปรดทราบว่าตอนนี้การเชื่อมต่อบริการที่เผยแพร่จะระบุกฎการส่งต่อ 1 รายการ (ปลายทางการเชื่อมต่อ)
9. ตรวจสอบการกำหนดค่า DNS อัตโนมัติ
เรามาประเมินการกำหนดค่า DNS และ Service Directory กัน
การกำหนดค่า Cloud DNS
ไปที่บริการเครือข่าย → Cloud DNS → โซน ระบบจะสร้างโซน goog-psc-default-us-central และชื่อ DNS cosmopup.net. โดยอัตโนมัติ
ดูการกำหนดค่า DNS และ Service Directory
การเลือกชื่อโซนจะช่วยให้เราดูว่า Service Directory ผสานรวมกับ Cloud DNS อย่างไร
การกำหนดค่า Service Directory
ไปที่บริการเครือข่าย → Service Directory
จำชื่อปลายทางของผู้บริโภคว่า "stargazer" หรือไม่ มีการตั้งโปรแกรมโดยอัตโนมัติใน Service Directory ช่วยให้เราเข้าถึงปลายทางสำหรับผู้บริโภคได้โดยใช้ FQDN stargazer.goog-psc-default–us-central1
10. ตรวจสอบสิทธิ์เข้าถึงบริการของผู้ผลิต
เราจะสร้าง VM จากเครือข่าย VPC ของผู้บริโภคเพื่อทดสอบการเชื่อมต่อของบริการที่เผยแพร่โดยเข้าถึงปลายทางของผู้บริโภค stargazer.cosmopup.net
ภายใน Cloud Shell สร้างอินสแตนซ์ทดสอบใน VPC ของผู้บริโภค
gcloud compute instances create db1 \
--zone=us-central1-a \
--image-family=debian-10 \
--image-project=debian-cloud \
--subnet=db1-subnet \
--no-address
หากต้องการอนุญาตให้ IAP เชื่อมต่อกับอินสแตนซ์ VM ให้สร้างกฎของไฟร์วอลล์ที่มีลักษณะดังนี้
- ใช้กับอินสแตนซ์ VM ทั้งหมดที่คุณต้องการให้เข้าถึงได้โดยใช้ IAP
- อนุญาตการรับส่งข้อมูลขาเข้าจากช่วง IP 35.235.240.0/20 ช่วงนี้ประกอบด้วยที่อยู่ IP ทั้งหมดที่ IAP ใช้สำหรับการส่งต่อ TCP
สร้างกฎไฟร์วอลล์ IAP ใน Cloud Shell
gcloud compute firewall-rules create ssh-iap-consumer \
--network consumer-vpc \
--allow tcp:22 \
--source-ranges=35.235.240.0/20
ลงชื่อเข้าสู่ระบบ Consumer-Vm โดยใช้ IAP ใน Cloud Shell เพื่อตรวจสอบการเชื่อมต่อกับบริการผู้ผลิตด้วยการใช้ curl โปรดลองอีกครั้งหากหมดเวลา
gcloud compute ssh db1 --project=$projectname --zone=us-central1-a --tunnel-through-iap
ดำเนินการตรวจสอบความถูกต้องของการเชื่อมต่อกับบริการผู้ผลิต เมื่อออกจาก VM ที่ผ่านการตรวจสอบแล้วขณะกลับไปยังข้อความแจ้งของ Cloud Shell
Inside Cloud Shell จะดำเนินการกับโดเมนที่กำหนดเอง เช่น stargazer.[custom-domain.com] ในเอาต์พุตด้านล่าง จะมีการ Curl กับ stargazer.cosmopup.net
user@db1:~$ curl -v stargazer.cosmopup.net
* Trying 10.10.0.10...
* TCP_NODELAY set
* Expire in 200 ms for 4 (transfer 0x55d3aa8190f0)
* Connected to stargazer.cosmopup.net (10.10.0.10) port 80 (#0)
> GET / HTTP/1.1
> Host: stargazer.cosmopup.net
> User-Agent: curl/7.64.0
> Accept: */*
>
< HTTP/1.1 200 OK
< date: Thu, 22 Dec 2022 00:16:25 GMT
< server: Apache/2.4.38 (Debian)
< last-modified: Wed, 21 Dec 2022 20:26:32 GMT
< etag: "1b-5f05c5e43a083"
< accept-ranges: bytes
< content-length: 27
< content-type: text/html
< via: 1.1 google
<
Welcome to App-Server-1 !!
ออกจาก VM ที่กลับไปยังข้อความแจ้ง Cloud Shell เพื่อเริ่มงานการล้างข้อมูล
11. ล้างข้อมูล
ลบคอมโพเนนต์ Codelab จาก Cloud Shell
gcloud compute forwarding-rules delete stargazer --region=us-central1 --quiet
gcloud compute instances delete db1 --zone=us-central1-a --quiet
gcloud compute addresses delete psc-consumer-ip-1 --region=us-central1 --quiet
gcloud compute networks subnets delete consumer-ep-subnet db1-subnet --region=us-central1 --quiet
gcloud compute firewall-rules delete ssh-iap-consumer --quiet
gcloud compute networks delete consumer-vpc --quiet
gcloud compute service-attachments delete published-service --region=us-central1 --quiet
gcloud compute forwarding-rules delete l7-ilb-forwarding-rule --region=us-central1 --quiet
gcloud compute target-http-proxies delete l7-ilb-proxy --region=us-central1 --quiet
gcloud compute url-maps delete l7-ilb-map --region=us-central1 --quiet
gcloud compute backend-services delete l7-ilb-backend-service --region=us-central1 --quiet
gcloud compute instance-groups unmanaged delete psc-instance-group --zone=us-central1-a --quiet
gcloud compute instances delete app-server-1 --zone=us-central1-a --quiet
gcloud compute firewall-rules delete allow-to-ingress-nat-subnet fw-allow-health-check fw-allow-proxy-only-subnet --quiet
gcloud compute addresses delete lb-ip --region=us-central1 --quiet
gcloud compute networks subnets delete gce-subnet load-balancer-subnet psc-nat-subnet proxy-subnet-us-central --region=us-central1 --quiet
gcloud compute routers delete cloud-router-for-nat --region=us-central1 --quiet
gcloud compute networks delete producer-vpc --quiet
12. ขอแสดงความยินดี
ขอแสดงความยินดี คุณกำหนดค่าและตรวจสอบปลายทาง Private Service Connect ด้วยการกำหนดค่า DNS อัตโนมัติสำเร็จแล้ว
คุณได้สร้างโครงสร้างพื้นฐานของผู้ผลิต และคุณได้เพิ่มไฟล์แนบการบริการที่มีการจดทะเบียนสาธารณสมบัติ คุณได้เรียนรู้วิธีสร้างปลายทางของผู้บริโภคในเครือข่าย VPC ของผู้บริโภคที่อนุญาตให้เชื่อมต่อกับบริการภายในองค์กรโดยใช้ DNS ที่สร้างขึ้นโดยอัตโนมัติแล้ว
Cosmopup คิดว่า Codelab ยอดเยี่ยมมาก!!
สิ่งที่ต้องทำต่อไป
ลองดู Codelab เหล่านี้...
- การใช้ Private Service Connect เพื่อเผยแพร่และใช้บริการด้วย GKE
- การใช้ Private Service Connect เพื่อเผยแพร่และใช้บริการ
- เชื่อมต่อกับบริการภายในองค์กรผ่านเครือข่ายแบบผสมโดยใช้ Private Service Connect และตัวจัดสรรภาระงานพร็อกซี TCP ภายใน