1. บทนำ
Private Service Connect ที่มีการกำหนดค่า DNS โดยอัตโนมัติจะใช้ Service Directory และ Cloud DNS เพื่อสร้างระเบียน DNS โดยอัตโนมัติซึ่งตั้งโปรแกรมไว้ด้วยที่อยู่ IP ของปลายทาง Private Service Connect ของผู้บริโภค
สิ่งที่คุณจะสร้าง
ในโค้ดแล็บนี้ คุณจะได้สร้างสถาปัตยกรรม Private Service Connect ที่ครอบคลุมซึ่งแสดงการใช้ DNS อัตโนมัติดังที่แสดงในรูปที่ 1
DNS อัตโนมัติเกิดขึ้นได้จากปัจจัยต่อไปนี้
- ไฟล์แนบบริการของผู้ผลิตจะสร้าง DNS โดยอัตโนมัติโดยการระบุโดเมนสาธารณะที่เป็นของเจ้าของพร้อมด้วย Flag "– domain-names" เมื่อสร้างไฟล์แนบบริการ Private Service Connect
- ผู้บริโภคกําหนดชื่อปลายทาง
- DNS อัตโนมัติจะสร้างทั้งโซน DNS goog-psc-default-us-central1 และชื่อ DNS cosmopup.net นอกเหนือจากรายการในไดเรกทอรีบริการที่มีชื่อปลายทางของผู้บริโภค
ประโยชน์ของ DNS อัตโนมัติแสดงอยู่ใน (4) ซึ่งผู้ใช้ปลายทางสามารถสื่อสารกับอุปกรณ์ปลายทางของผู้บริโภคผ่าน DNS, FQDN stargazer.cosmopup.net
รูปที่ 1
สิ่งที่คุณจะได้เรียนรู้
- วิธีสร้างตัวจัดสรรภาระงาน HTTP(S) ภายใน
- วิธีสร้างไฟล์แนบบริการที่มี DNS อัตโนมัติ
- วิธีสร้างบริการ Private Service Connect Producer
- วิธีเข้าถึงอุปกรณ์ปลายทางของผู้บริโภคโดยใช้ DNS อัตโนมัติ
สิ่งที่ต้องมี
- โปรเจ็กต์ Google Cloud
- เนื้อหาที่เป็นสาธารณสมบัติที่คุณเป็นเจ้าของ
2. ก่อนเริ่มต้น
อัปเดตโปรเจ็กต์ให้รองรับ Codelab
Codelab นี้ใช้ตัวแปร $เพื่อช่วยให้การติดตั้งใช้งานการกําหนดค่า gcloud ใน Cloud Shell ง่ายขึ้น
ใน Cloud Shell ให้ทําดังนี้
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=YOUR-PROJECT-NAME
echo $projectname
3. การตั้งค่า Producer
สร้าง VPC ของผู้ผลิต
ใน Cloud Shell ให้ทําดังนี้
gcloud compute networks create producer-vpc --project=$projectname --subnet-mode=custom
สร้างซับเน็ตของผู้ผลิต
ใน Cloud Shell ให้ทําดังนี้
gcloud compute networks subnets create gce-subnet --project=$projectname --range=172.16.20.0/28 --network=producer-vpc --region=us-central1
ใน Cloud Shell ให้ทําดังนี้
gcloud compute networks subnets create load-balancer-subnet --project=$projectname --range=172.16.10.0/28 --network=producer-vpc --region=us-central1
จองที่อยู่ IP สำหรับตัวจัดสรรภาระงานภายใน
ใน Cloud Shell ให้ทําดังนี้
gcloud compute addresses create lb-ip \
--region=us-central1 \
--subnet=load-balancer-subnet \
--purpose=GCE_ENDPOINT
ดูที่อยู่ IP ที่จัดสรร
ใช้คําสั่งอธิบายที่อยู่ของ Compute เพื่อดูที่อยู่ IP ที่จัดสรร
gcloud compute addresses describe lb-ip --region=us-central1 | grep address:
สร้างซับเน็ตพร็อกซีระดับภูมิภาค
การจัดสรรพร็อกซีอยู่ที่ระดับเครือข่าย VPC ไม่ใช่ระดับโหลดบาลานซ์ คุณต้องสร้างซับเน็ตเฉพาะพร็อกซี 1 รายการในแต่ละภูมิภาคของเครือข่ายเสมือน (VPC) ที่คุณใช้ตัวจัดสรรภาระงานที่ใช้ Envoy หากคุณติดตั้งใช้งานตัวจัดสรรภาระงานหลายตัวในภูมิภาคเดียวกันและเครือข่าย VPC เดียวกัน ตัวจัดสรรภาระงานเหล่านั้นจะใช้ซับเน็ตเฉพาะพร็อกซีเดียวกันสำหรับการจัดสรรภาระงาน
- ไคลเอ็นต์เชื่อมต่อกับที่อยู่ IP และพอร์ตของกฎการส่งต่อของตัวจัดสรรภาระงาน
- พ็อกเก็ตพร็อกซีแต่ละรายการจะรอรับการเชื่อมต่อที่ที่อยู่ IP และพอร์ตที่ระบุโดยกฎการส่งต่อของตัวจัดสรรภาระงานที่เกี่ยวข้อง พร็อกซีตัวใดตัวหนึ่งจะรับและสิ้นสุดการเชื่อมต่อเครือข่ายของลูกค้า
- พร็อกซีจะสร้างการเชื่อมต่อกับ VM แบ็กเอนด์ที่เหมาะสมซึ่งกำหนดโดยแมป URL และบริการแบ็กเอนด์ของตัวจัดสรรภาระงาน
คุณต้องสร้างซับเน็ตเฉพาะพร็อกซี ไม่ว่าเครือข่าย VPC จะเป็นโหมดอัตโนมัติหรือโหมดที่กำหนดเอง ซับเน็ตเฉพาะพร็อกซีต้องระบุที่อยู่ IP อย่างน้อย 64 รายการ ซึ่งสอดคล้องกับความยาวของคํานําหน้าที่ /26 หรือสั้นกว่า ขนาดซับเน็ตที่แนะนำคือ /23 (ที่อยู่เฉพาะพร็อกซี 512 รายการ)
ใน Cloud Shell ให้ทําดังนี้
gcloud compute networks subnets create proxy-subnet-us-central \
--purpose=REGIONAL_MANAGED_PROXY \
--role=ACTIVE \
--region=us-central1 \
--network=producer-vpc \
--range=172.16.0.0/23
สร้างซับเน็ต NAT ของ Private Service Connect
สร้างซับเน็ตเฉพาะอย่างน้อย 1 รายการเพื่อใช้กับ Private Service Connect หากคุณใช้คอนโซล Google Cloud เพื่อเผยแพร่บริการ คุณสามารถสร้างซับเน็ตในระหว่างกระบวนการดังกล่าว สร้างซับเน็ตในภูมิภาคเดียวกับตัวจัดสรรภาระงานของบริการ คุณแปลงซับเน็ตปกติเป็นซับเน็ต Private Service Connect ไม่ได้
ใน Cloud Shell ให้ทําดังนี้
gcloud compute networks subnets create psc-nat-subnet \
--project $projectname \
--network producer-vpc \
--region us-central1 \
--range 100.100.10.0/24 \
--purpose PRIVATE_SERVICE_CONNECT
สร้างกฎไฟร์วอลล์ของผู้ผลิต
กําหนดค่า กฎไฟร์วอลล์เพื่ออนุญาตการรับส่งข้อมูลระหว่างซับเน็ต NAT ของ Private Service Connect กับซับเน็ตเฉพาะพร็อกซีของ ILB
ใน Cloud Shell ให้ทําดังนี้
gcloud compute --project=$projectname firewall-rules create allow-to-ingress-nat-subnet --direction=INGRESS --priority=1000 --network=producer-vpc --action=ALLOW --rules=all --source-ranges=100.100.10.0/24
ใน Cloud Shell ให้สร้างกฎไฟร์วอลล์ fw-allow-health-check เพื่ออนุญาตให้การตรวจสอบประสิทธิภาพการทํางานของ Google Cloud เข้าถึงบริการของผู้ผลิต (บริการแบ็กเอนด์) ในพอร์ต TCP 80
gcloud compute firewall-rules create fw-allow-health-check \
--network=producer-vpc \
--action=allow \
--direction=ingress \
--source-ranges=130.211.0.0/22,35.191.0.0/16 \
--rules=tcp:80
สร้างกฎไฟร์วอลล์ที่อนุญาตข้อมูลขาเข้าสำหรับซับเน็ตเฉพาะพร็อกซีเพื่ออนุญาตให้ตัวจัดสรรภาระงานสื่อสารกับอินสแตนซ์แบ็กเอนด์บนพอร์ต TCP 80
gcloud compute firewall-rules create fw-allow-proxy-only-subnet \
--network=producer-vpc \
--action=allow \
--direction=ingress \
--source-ranges=172.16.0.0/23 \
--rules=tcp:80
การกำหนดค่า Cloud Router และ NAT
ระบบใช้ Cloud NAT ในโค้ดแล็บสำหรับการติดตั้งแพ็กเกจซอฟต์แวร์เนื่องจากอินสแตนซ์ VM ไม่มีที่อยู่ IP ภายนอก
สร้าง Cloud Router ใน Cloud Shell
gcloud compute routers create cloud-router-for-nat --network producer-vpc --region us-central1
สร้างเกตเวย์ NAT ใน Cloud Shell
gcloud compute routers nats create cloud-nat-us-central1 --router=cloud-router-for-nat --auto-allocate-nat-external-ips --nat-all-subnet-ip-ranges --region us-central1
การกำหนดค่ากลุ่มอินสแตนซ์
ในส่วนต่อไปนี้ คุณจะต้องสร้างอินสแตนซ์ Compute Engine และกลุ่มอินสแตนซ์ที่ไม่มีการจัดการ ในขั้นตอนต่อๆ ไป ระบบจะใช้กลุ่มอินสแตนซ์เป็นบริการแบ็กเอนด์ของตัวจัดสรรภาระงาน
ใน Cloud Shell ให้สร้างการตรวจสอบประสิทธิภาพการทำงานระดับภูมิภาคที่ส่งไปยังบริการของผู้ผลิต
gcloud compute instances create app-server-1 \
--project=$projectname \
--machine-type=e2-micro \
--image-family debian-10 \
--no-address \
--image-project debian-cloud \
--zone us-central1-a \
--subnet=gce-subnet \
--metadata startup-script="#! /bin/bash
sudo apt-get update
sudo apt-get install apache2 -y
sudo service apache2 restart
echo 'Welcome to App-Server-1 !!' | tee /var/www/html/index.html
EOF"
สร้างกลุ่มอินสแตนซ์ที่ไม่มีการจัดการใน Cloud Shell
gcloud compute instance-groups unmanaged create psc-instance-group --zone=us-central1-a
gcloud compute instance-groups unmanaged set-named-ports psc-instance-group --project=$projectname --zone=us-central1-a --named-ports=http:80
gcloud compute instance-groups unmanaged add-instances psc-instance-group --zone=us-central1-a --instances=app-server-1
กําหนดค่าตัวจัดสรรภาระงาน
ในขั้นตอนต่อไปนี้ คุณจะต้องกำหนดค่า ตัวจัดสรรภาระงาน HTTP ภายในที่จะเผยแพร่เป็นไฟล์แนบบริการในขั้นตอนถัดไป
สร้างการตรวจสอบประสิทธิภาพการทำงานระดับภูมิภาคใน Cloud Shell
gcloud compute health-checks create http http-health-check \
--region=us-central1 \
--use-serving-port
สร้างบริการแบ็กเอนด์ใน Cloud Shell
gcloud compute backend-services create l7-ilb-backend-service \
--load-balancing-scheme=INTERNAL_MANAGED \
--protocol=HTTP \
--health-checks=http-health-check \
--health-checks-region=us-central1 \
--region=us-central1
ใน Cloud Shell ให้เพิ่มแบ็กเอนด์ลงในบริการแบ็กเอนด์
gcloud compute backend-services add-backend l7-ilb-backend-service \
--balancing-mode=UTILIZATION \
--instance-group=psc-instance-group \
--instance-group-zone=us-central1-a \
--region=us-central1
ใน Cloud Shell ให้สร้างแมป URL เพื่อกำหนดเส้นทางคำขอขาเข้าไปยังบริการแบ็กเอนด์
gcloud compute url-maps create l7-ilb-map \
--default-service l7-ilb-backend-service \
--region=us-central1
สร้างพร็อกซีเป้าหมาย HTTP
gcloud compute target-http-proxies create l7-ilb-proxy\
--url-map=l7-ilb-map \
--url-map-region=us-central1 \
--region=us-central1
สร้างกฎการส่งต่อเพื่อกำหนดเส้นทางคำขอขาเข้าไปยังพร็อกซี อย่าใช้ซับเน็ตเฉพาะพร็อกซีเพื่อสร้างกฎการส่งต่อ
gcloud compute forwarding-rules create l7-ilb-forwarding-rule \
--load-balancing-scheme=INTERNAL_MANAGED \
--network=producer-vpc \
--subnet=load-balancer-subnet \
--address=lb-ip \
--ports=80 \
--region=us-central1 \
--target-http-proxy=l7-ilb-proxy \
--target-http-proxy-region=us-central1
4. ตรวจสอบตัวจัดสรรภาระงาน
จาก Cloud Console ให้ไปที่บริการเครือข่าย → การจัดสรรภาระงาน → ตัวจัดสรรภาระงาน บันทึกการตรวจสอบประสิทธิภาพการทำงานที่ประสบความสำเร็จของบริการแบ็กเอนด์
การเลือก ‘l7-ilb-map' จะแสดงที่อยู่ IP ของฟรอนต์เอนด์ ซึ่งควรตรงกับที่อยู่ IP ที่คุณ grep ในขั้นตอนก่อนหน้า และระบุบริการแบ็กเอนด์
5. สร้างไฟล์แนบบริการ Private Service Connect
สร้างไฟล์แนบของบริการ
สร้างไฟล์แนบบริการใน Cloud Shell อย่าลืมใส่ "." ต่อท้ายชื่อโดเมน
gcloud compute service-attachments create published-service --region=us-central1 --producer-forwarding-rule=l7-ilb-forwarding-rule --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=psc-nat-subnet --domain-names=cosmopup.net.
ไม่บังคับ: หากใช้ VPC ที่แชร์ ให้สร้างไฟล์แนบบริการในโปรเจ็กต์บริการ
gcloud compute service-attachments create published-service --region=us-central1 --producer-forwarding-rule=l7-ilb-forwarding-rule --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=projects/<hostproject>/regions/us-central1/subnetworks/psc-nat-subnet --domain-names=cosmopup.net.
ไปที่บริการเครือข่าย → Private Service Connect เพื่อดูไฟล์แนบบริการที่สร้างขึ้นใหม่
การเลือก published-service จะแสดงรายละเอียดเพิ่มเติม รวมถึง URI ของไฟล์แนบบริการที่ผู้บริโภคใช้เพื่อสร้างการเชื่อมต่อบริการส่วนตัวและชื่อโดเมน
รายละเอียดไฟล์แนบของบริการ:
projects/<project name>/regions/us-central1/serviceAttachments/published-service
6. การตั้งค่าสำหรับผู้บริโภค
เปิดใช้ API สําหรับผู้บริโภค
ใน Cloud Shell ให้ทำดังนี้
gcloud services enable dns.googleapis.com
gcloud services enable servicedirectory.googleapis.com
สร้างเครือข่าย VPC ของผู้บริโภค
ใน Cloud Shell ให้ทําดังนี้
gcloud compute networks create consumer-vpc --project=$projectname --subnet-mode=custom
สร้างซับเน็ตของผู้บริโภค
สร้างเครือข่ายย่อยสําหรับอินสแตนซ์ทดสอบใน Cloud Shell
gcloud compute networks subnets create db1-subnet --project=$projectname --range=10.20.0.0/28 --network=consumer-vpc --region=us-central1
สร้างซับเน็ตสำหรับปลายทางของผู้บริโภคใน Cloud Shell
gcloud compute networks subnets create consumer-ep-subnet --project=$projectname --range=10.10.0.0/28 --network=consumer-vpc --region=us-central1
สร้างปลายทางของผู้บริโภค (กฎการส่งต่อ)
ใน Cloud Shell ให้สร้างที่อยู่ IP แบบคงที่จะใช้สำหรับปลายทางของผู้บริโภค
gcloud compute addresses create psc-consumer-ip-1 --region=us-central1 --subnet=consumer-ep-subnet --addresses 10.10.0.10
เราจะใช้ URI ไฟล์แนบบริการที่สร้างขึ้นก่อนหน้านี้เพื่อสร้างปลายทางสำหรับผู้บริโภค
สร้างปลายทางสำหรับผู้บริโภคใน Cloud Shell
gcloud compute forwarding-rules create stargazer --region=us-central1 --network=consumer-vpc --address=psc-consumer-ip-1 --target-service-attachment=projects/$projectname/regions/us-central1/serviceAttachments/published-service
7. ตรวจสอบการเชื่อมต่อในเครือข่าย VPC ของผู้บริโภค
จากเครือข่าย VPC ของผู้บริโภค ให้ตรวจสอบการเชื่อมต่อบริการส่วนตัวที่สำเร็จโดยไปที่บริการเครือข่าย → Private Service Connect → ปลายทางที่เชื่อมต่อ จดบันทึกการเชื่อมต่อ Stargazer ที่สร้างไว้และที่อยู่ IP ที่เกี่ยวข้องซึ่งเราได้สร้างไว้ก่อนหน้านี้
เมื่อเลือก psc-consumer-1 ระบบจะแสดงรายละเอียด รวมถึง URI ของไฟล์แนบบริการ
8. ตรวจสอบการเชื่อมต่อในเครือข่าย VPC ของผู้ผลิต
จากเครือข่าย VPC ของผู้ผลิต ให้ตรวจสอบการเชื่อมต่อบริการส่วนตัวที่สำเร็จโดยไปที่บริการเครือข่าย → Private Service Connect → บริการที่เผยแพร่ โปรดทราบว่าตอนนี้การเชื่อมต่อบริการที่เผยแพร่จะแสดงกฎการส่งต่อ 1 รายการ (ปลายทางการเชื่อมต่อ)
9. ตรวจสอบการกำหนดค่า DNS อัตโนมัติ
มาประเมินการกำหนดค่า DNS และไดเรกทอรีบริการกัน
การกำหนดค่า Cloud DNS
ไปที่บริการเครือข่าย → Cloud DNS → โซน ระบบจะสร้างโซน goog-psc-default-us-central & ชื่อ DNS cosmopup.net โดยอัตโนมัติ
ดูการกำหนดค่า DNS และไดเรกทอรีบริการ
การเลือกชื่อโซนจะช่วยให้เราเห็นว่า Service Directory ผสานรวมกับ Cloud DNS อย่างไร
การกําหนดค่า Service Directory
ไปที่ Network Services → Service Directory
จำชื่อปลายทางของผู้บริโภค "stargazer" ได้ไหม ระบบจะตั้งโปรแกรมโดยอัตโนมัติใน Service Directory ซึ่งช่วยให้เราเข้าถึงอุปกรณ์ปลายทางของผู้บริโภคได้โดยใช้ FQDN stargazer.goog-psc-default–us-central1
10. ตรวจสอบสิทธิ์การเข้าถึงบริการของผู้ผลิตสำหรับผู้บริโภค
จากเครือข่าย VPC ของผู้บริโภค เราจะสร้าง VM เพื่อทดสอบการเชื่อมต่อบริการที่เผยแพร่โดยการเข้าถึงปลายทางของผู้บริโภค stargazer.cosmopup.net
สร้างอินสแตนซ์ทดสอบใน VPC ของผู้บริโภคภายใน Cloud Shell
gcloud compute instances create db1 \
--zone=us-central1-a \
--image-family=debian-10 \
--image-project=debian-cloud \
--subnet=db1-subnet \
--no-address
หากต้องการอนุญาตให้ IAP เชื่อมต่อกับอินสแตนซ์ VM ให้สร้างกฎไฟร์วอลล์ที่มีลักษณะดังนี้
- มีผลกับอินสแตนซ์ VM ทั้งหมดที่คุณต้องการเข้าถึงโดยใช้ IAP
- อนุญาตการรับส่งข้อมูลขาเข้าจากช่วง IP 35.235.240.0/20 ช่วงนี้มีที่อยู่ IP ทั้งหมดที่ IAP ใช้สำหรับการส่งต่อ TCP
สร้างกฎไฟร์วอลล์ IAP ใน Cloud Shell
gcloud compute firewall-rules create ssh-iap-consumer \
--network consumer-vpc \
--allow tcp:22 \
--source-ranges=35.235.240.0/20
เข้าสู่ระบบ consumer-vm โดยใช้ IAP ใน Cloud Shell เพื่อตรวจสอบการเชื่อมต่อกับบริการของผู้ผลิตโดยดำเนินการกับ curl ลองอีกครั้งหากหมดเวลา
gcloud compute ssh db1 --project=$projectname --zone=us-central1-a --tunnel-through-iap
ดำเนินการตรวจสอบการเชื่อมต่อกับบริการของผู้ผลิตด้วย curl เมื่อตรวจสอบแล้ว ให้ออกจาก VM เพื่อกลับไปที่พรอมต์ Cloud Shell
ใน Cloud Shell ให้ใช้ curl กับโดเมนที่กำหนดเอง เช่น stargazer.[custom-domain.com] ในเอาต์พุตด้านล่าง ระบบจะเรียกใช้ curl กับ stargazer.cosmopup.net
user@db1:~$ curl -v stargazer.cosmopup.net
* Trying 10.10.0.10...
* TCP_NODELAY set
* Expire in 200 ms for 4 (transfer 0x55d3aa8190f0)
* Connected to stargazer.cosmopup.net (10.10.0.10) port 80 (#0)
> GET / HTTP/1.1
> Host: stargazer.cosmopup.net
> User-Agent: curl/7.64.0
> Accept: */*
>
< HTTP/1.1 200 OK
< date: Thu, 22 Dec 2022 00:16:25 GMT
< server: Apache/2.4.38 (Debian)
< last-modified: Wed, 21 Dec 2022 20:26:32 GMT
< etag: "1b-5f05c5e43a083"
< accept-ranges: bytes
< content-length: 27
< content-type: text/html
< via: 1.1 google
<
Welcome to App-Server-1 !!
ออกจาก VM เพื่อกลับไปที่พรอมต์ Cloud Shell เพื่อเริ่มงานล้างข้อมูล
11. ล้างข้อมูล
ลบคอมโพเนนต์ของ Codelab จาก Cloud Shell
gcloud compute forwarding-rules delete stargazer --region=us-central1 --quiet
gcloud compute instances delete db1 --zone=us-central1-a --quiet
gcloud compute addresses delete psc-consumer-ip-1 --region=us-central1 --quiet
gcloud compute networks subnets delete consumer-ep-subnet db1-subnet --region=us-central1 --quiet
gcloud compute firewall-rules delete ssh-iap-consumer --quiet
gcloud compute networks delete consumer-vpc --quiet
gcloud compute service-attachments delete published-service --region=us-central1 --quiet
gcloud compute forwarding-rules delete l7-ilb-forwarding-rule --region=us-central1 --quiet
gcloud compute target-http-proxies delete l7-ilb-proxy --region=us-central1 --quiet
gcloud compute url-maps delete l7-ilb-map --region=us-central1 --quiet
gcloud compute backend-services delete l7-ilb-backend-service --region=us-central1 --quiet
gcloud compute instance-groups unmanaged delete psc-instance-group --zone=us-central1-a --quiet
gcloud compute instances delete app-server-1 --zone=us-central1-a --quiet
gcloud compute firewall-rules delete allow-to-ingress-nat-subnet fw-allow-health-check fw-allow-proxy-only-subnet --quiet
gcloud compute addresses delete lb-ip --region=us-central1 --quiet
gcloud compute networks subnets delete gce-subnet load-balancer-subnet psc-nat-subnet proxy-subnet-us-central --region=us-central1 --quiet
gcloud compute routers delete cloud-router-for-nat --region=us-central1 --quiet
gcloud compute networks delete producer-vpc --quiet
12. ขอแสดงความยินดี
ยินดีด้วย คุณได้กําหนดค่าและตรวจสอบปลายทาง Private Service Connect ด้วยการกำหนดค่า DNS อัตโนมัติเรียบร้อยแล้ว
คุณได้สร้างโครงสร้างพื้นฐานของโปรดิวเซอร์และเพิ่มไฟล์แนบบริการที่มีการจดทะเบียนโดเมนสาธารณะแล้ว คุณได้เรียนรู้วิธีสร้างปลายทางของผู้บริโภคในเครือข่าย VPC ของผู้บริโภคที่อนุญาตให้เชื่อมต่อกับบริการในสถานที่โดยใช้ DNS ที่สร้างขึ้นโดยอัตโนมัติ
Cosmopup คิดว่า Codelab เจ๋งสุดๆ
ขั้นตอนถัดไป
ลองดู Codelab เหล่านี้...
- การใช้ Private Service Connect เพื่อเผยแพร่และใช้บริการด้วย GKE
- การใช้ Private Service Connect เพื่อเผยแพร่และใช้บริการ
- เชื่อมต่อกับบริการในองค์กรผ่านเครือข่ายแบบผสมโดยใช้ Private Service Connect และตัวจัดสรรภาระงานพร็อกซี TCP ภายใน