เชื่อมต่อกับบริการภายในองค์กรผ่านเครือข่ายแบบผสมโดยใช้ Private Service Connect และพร็อกซี NEG TCP แบบผสม

1. บทนำ

ตัวจัดสรรภาระงานพร็อกซี TCP ภายในภูมิภาคที่มีการเชื่อมต่อแบบไฮบริดช่วยให้คุณทำให้บริการที่โฮสต์ในสภาพแวดล้อมภายในองค์กรหรือสภาพแวดล้อมระบบคลาวด์อื่นๆ พร้อมให้บริการแก่ไคลเอ็นต์ในเครือข่าย VPC

หากต้องการทำให้บริการแบบผสมพร้อมใช้งานในเครือข่าย VPC อื่นๆ คุณสามารถใช้ Private Service Connect เพื่อเผยแพร่บริการได้ การวาง Service Attachment ไว้หน้าพร็อกซี TCP ภายในภูมิภาคของตัวจัดสรรภาระงานจะช่วยให้ไคลเอ็นต์ในเครือข่าย VPC อื่นๆ เข้าถึงบริการแบบไฮบริดที่ทำงานในสภาพแวดล้อมภายในองค์กรหรือสภาพแวดล้อมระบบคลาวด์อื่นๆ ได้

สิ่งที่คุณจะสร้าง

ในโค้ดแล็บนี้ คุณจะได้สร้างตัวจัดสรรภาระงานพร็อกซี TCP ภายในที่มีการเชื่อมต่อแบบไฮบริดกับบริการในองค์กรโดยใช้กลุ่มปลายทางเครือข่าย จาก VPC ของผู้บริโภคจะสามารถสื่อสารกับบริการในองค์กรได้

a4fa0e406e7232fa.png

สิ่งที่คุณจะได้เรียนรู้

  • วิธีสร้าง ILB พร็อกซี TCP ที่มีบริการแบ็กเอนด์ NEG แบบไฮบริด
  • วิธีสร้างผู้ผลิต Private Service Connect (ไฟล์แนบบริการ) และผู้บริโภค (กฎการส่งต่อ)
  • วิธีทดสอบและตรวจสอบการสื่อสารบริการจากผู้บริโภคไปยังผู้ผลิต

สิ่งที่คุณต้องมี

  • เครือข่ายแบบผสมที่สร้างขึ้น เช่น HA VPN, Interconnect, SW-WAN
  • โปรเจ็กต์ Google Cloud

สร้างการเชื่อมต่อแบบผสม

คุณต้องเชื่อมต่อสภาพแวดล้อม Google Cloud และสภาพแวดล้อมในองค์กรหรือสภาพแวดล้อมระบบคลาวด์อื่นๆ ผ่านการเชื่อมต่อแบบไฮบริด โดยใช้ไฟล์แนบ VLAN ของ Cloud Interconnect หรืออุโมงค์ Cloud VPN ที่มี Cloud Router เราขอแนะนำให้ใช้การเชื่อมต่อที่มีความพร้อมใช้งานสูง

Cloud Router ที่เปิดใช้การกำหนดเส้นทางแบบไดนามิกส่วนกลางจะเรียนรู้เกี่ยวกับปลายทางที่เฉพาะเจาะจงผ่าน BGP และตั้งโปรแกรมลงในเครือข่าย Google Cloud VPC ระบบไม่รองรับการกำหนดเส้นทางแบบไดนามิกระดับภูมิภาค นอกจากนี้ ระบบยังไม่รองรับเส้นทางแบบคงที่ด้วย

เครือข่าย Google Cloud VPC ที่คุณใช้เพื่อกำหนดค่า Cloud Interconnect หรือ Cloud VPN จะเป็นเครือข่ายเดียวกันกับที่คุณใช้เพื่อกำหนดค่าการติดตั้งใช้งานการโหลดบาลานซ์แบบไฮบริด ตรวจสอบว่าช่วง CIDR ของซับเน็ตในเครือข่าย VPC ไม่ขัดแย้งกับช่วง CIDR ระยะไกล เมื่อ IP แอดเดรสทับซ้อนกัน ระบบจะจัดลำดับความสำคัญของเส้นทางซับเน็ตเหนือการเชื่อมต่อระยะไกล

ดูวิธีการได้ที่

การประกาศเส้นทางที่กำหนดเอง

ซับเน็ตด้านล่างต้องมีการประกาศที่กำหนดเองจาก Cloud Router ไปยังเครือข่ายในองค์กรเพื่อให้มั่นใจว่ากฎไฟร์วอลล์ในองค์กรได้รับการอัปเดต

ซับเน็ต

คำอธิบาย

172.16.0.0/23

ซับเน็ตพร็อกซี TCP ที่ใช้เพื่อสื่อสารกับบริการในองค์กรโดยตรง

130.211.0.0/22, 35.191.0.0/16

การตรวจสุขภาพของ Google Cloud

2. ก่อนเริ่มต้น

อัปเดตโปรเจ็กต์เพื่อรองรับ Codelab

Codelab นี้ใช้ $variables เพื่อช่วยในการติดตั้งใช้งานการกำหนดค่า gcloud ใน Cloud Shell

ใน Cloud Shell ให้ทำดังนี้

gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
psclab=YOUR-PROJECT-NAME
echo $psclab

3. การตั้งค่า Producer

สร้าง VPC ของผู้ผลิต

ใน Cloud Shell ให้ทำดังนี้

gcloud compute networks create producer-vpc --project=$psclab --subnet-mode=custom

สร้างซับเน็ตของ Producer

ใน Cloud Shell ให้ทำดังนี้

gcloud compute networks subnets create subnet-201 --project=$psclab --range=10.10.1.0/24 --network=producer-vpc --region=us-central1

สร้างซับเน็ตพร็อกซี TCP

การจัดสรรพร็อกซีจะอยู่ที่ระดับ VPC ไม่ใช่ระดับ Load Balancer คุณต้องสร้างซับเน็ตเฉพาะพร็อกซี 1 รายการในแต่ละภูมิภาคของเครือข่ายเสมือน (VPC) ที่คุณใช้ตัวจัดสรรภาระงานที่อิงตาม Envoy หากคุณติดตั้งใช้งานตัวจัดสรรภาระงานหลายตัวในภูมิภาคและเครือข่าย VPC เดียวกัน ตัวจัดสรรภาระงานเหล่านั้นจะใช้ซับเน็ตเฉพาะพร็อกซีเดียวกันสำหรับการจัดสรรภาระงาน

  1. ไคลเอ็นต์สร้างการเชื่อมต่อกับที่อยู่ IP และพอร์ตของกฎการส่งต่อของตัวจัดสรรภาระงาน
  2. พร็อกซีแต่ละรายการจะรับฟังที่อยู่ IP และพอร์ตที่ระบุโดยกฎการส่งต่อของตัวจัดสรรภาระงานที่เกี่ยวข้อง พร็อกซีตัวใดตัวหนึ่งจะรับและสิ้นสุดการเชื่อมต่อเครือข่ายของไคลเอ็นต์
  3. พร็อกซีจะสร้างการเชื่อมต่อกับ VM แบ็กเอนด์หรือปลายทางที่เหมาะสมใน NEG ตามที่กำหนดโดยแผนที่ URL และบริการแบ็กเอนด์ของตัวจัดสรรภาระงาน

คุณต้องสร้างซับเน็ตเฉพาะพร็อกซีไม่ว่าเครือข่ายจะเป็นโหมดอัตโนมัติหรือกำหนดเองก็ตาม ซับเน็ตเฉพาะพร็อกซีต้องระบุที่อยู่ IP อย่างน้อย 64 รายการ ซึ่งสอดคล้องกับความยาวของคํานําหน้าที่ /26 หรือสั้นกว่า ขนาดซับเน็ตที่แนะนำคือ /23 (ที่อยู่เฉพาะพร็อกซี 512 รายการ)

ใน Cloud Shell ให้ทำดังนี้

gcloud compute networks subnets create proxy-subnet-us-central \
  --purpose=REGIONAL_MANAGED_PROXY \
  --role=ACTIVE \
  --region=us-central1 \
  --network=producer-vpc \
  --range=172.16.0.0/23

สร้างซับเน็ต NAT ของ Private Service Connect

สร้างซับเน็ตเฉพาะอย่างน้อย 1 รายการเพื่อใช้กับ Private Service Connect หากใช้คอนโซล Google Cloud เพื่อเผยแพร่บริการ คุณจะสร้างเครือข่ายย่อยได้ในระหว่างกระบวนการดังกล่าว สร้างซับเน็ตในภูมิภาคเดียวกับตัวจัดสรรภาระงานของบริการ คุณไม่สามารถแปลงซับเน็ตปกติเป็นซับเน็ต Private Service Connect ได้

ใน Cloud Shell ให้ทำดังนี้

gcloud compute networks subnets create psc-nat-subnet --network=producer-vpc --region=us-central1 --range=100.100.10.0/24 --purpose=private-service-connect

สร้างกฎไฟร์วอลล์ของโปรดิวเซอร์

กำหนดค่า กฎไฟร์วอลล์เพื่ออนุญาตการรับส่งข้อมูลระหว่างปลายทาง Private Service Connect กับไฟล์แนบบริการ ในโค้ดแล็บ คุณได้สร้างกฎไฟร์วอลล์ขาเข้าที่อนุญาตให้ซับเน็ต NAT 100.100.10.0/24 เข้าถึงไฟล์แนบบริการ Private Service Connect (ตัวจัดสรรภาระงานภายใน)

ใน Cloud Shell ให้ทำดังนี้

gcloud compute --project=$psclab firewall-rules create allow-to-ingress-nat-subnet --direction=INGRESS --priority=1000 --network=producer-vpc --action=ALLOW --rules=all --source-ranges=100.100.10.0/24

ภายใน Cloud Shell ให้สร้างกฎ fw-allow-health-check เพื่ออนุญาตให้การตรวจสอบประสิทธิภาพการทำงานของ Google Cloud เข้าถึงบริการในองค์กร (บริการแบ็กเอนด์) ในพอร์ต TCP 80

gcloud compute firewall-rules create fw-allow-health-check \
    --network=producer-vpc \
    --action=allow \
    --direction=ingress \
    --source-ranges=130.211.0.0/22,35.191.0.0/16 \
    --rules=tcp:80

สร้างกฎไฟร์วอลล์ขาเข้าที่อนุญาตให้บริการในองค์กรสื่อสารกับเครือข่ายย่อยของพร็อกซีในพอร์ต 80

gcloud compute firewall-rules create fw-allow-proxy-only-subnet \
    --network=producer-vpc \
    --action=allow \
    --direction=ingress \
    --source-ranges=172.16.0.0/23 \
    --rules=tcp:80

ตั้งค่า NEG การเชื่อมต่อแบบผสม

เมื่อสร้าง NEG ให้ใช้โซนที่ลดระยะทางทางภูมิศาสตร์ระหว่าง Google Cloud กับสภาพแวดล้อมภายในองค์กรหรือสภาพแวดล้อมระบบคลาวด์อื่นให้เหลือน้อยที่สุด ตัวอย่างเช่น หากคุณโฮสต์บริการในสภาพแวดล้อมภายในองค์กรในแฟรงก์เฟิร์ต ประเทศเยอรมนี คุณสามารถระบุโซน europe-west3-a ของ Google Cloud เมื่อสร้าง NEG

นอกจากนี้ หากคุณใช้ Cloud Interconnect ZONE ที่ใช้สร้าง NEG ควรอยู่ในภูมิภาคเดียวกันกับที่กำหนดค่าการเชื่อมต่อ Cloud Interconnect

ดูภูมิภาคและโซนที่พร้อมใช้งานได้ที่เอกสารประกอบของ Compute Engine: ภูมิภาคและโซนที่พร้อมใช้งาน

สร้าง NEG การเชื่อมต่อแบบไฮบริดภายใน Cloud Shell โดยใช้คำสั่ง gcloud compute network-endpoint-groups create

gcloud compute network-endpoint-groups create on-prem-service-neg \
    --network-endpoint-type=NON_GCP_PRIVATE_IP_PORT \
    --zone=us-central1-a \
    --network=producer-vpc

ใน Cloud Shell ให้เพิ่มปลายทาง IP:Port ในองค์กรไปยัง NEG แบบไฮบริด

gcloud compute network-endpoint-groups update on-prem-service-neg \
    --zone=us-central1-a \
    --add-endpoint="ip=192.168.1.5,port=80"

กำหนดค่าตัวจัดสรรภาระงาน

ในขั้นตอนต่อไปนี้ คุณจะกำหนดค่าตัวจัดสรรภาระงาน (กฎการส่งต่อ) และเชื่อมโยงกับกลุ่มปลายทางเครือข่าย

สร้างการตรวจสอบประสิทธิภาพการทำงานระดับภูมิภาคที่ส่งไปยังบริการในองค์กรภายใน Cloud Shell

gcloud compute health-checks create tcp on-prem-service-hc \
    --region=us-central1 \
    --use-serving-port

สร้างบริการแบ็กเอนด์สำหรับแบ็กเอนด์ในองค์กรภายใน Cloud Shell

gcloud compute backend-services create on-premise-service-backend \
   --load-balancing-scheme=INTERNAL_MANAGED \
   --protocol=TCP \
   --region=us-central1 \
   --health-checks=on-prem-service-hc \
   --health-checks-region=us-central1

ใน Cloud Shell ให้เพิ่มแบ็กเอนด์ NEG แบบไฮบริดลงในบริการแบ็กเอนด์ สำหรับ MAX_CONNECTIONS ให้ป้อนการเชื่อมต่อพร้อมกันสูงสุดที่แบ็กเอนด์ควรจัดการ

gcloud compute backend-services add-backend on-premise-service-backend \
   --network-endpoint-group=on-prem-service-neg \
   --network-endpoint-group-zone=us-central1-a \
   --region=us-central1 \
   --balancing-mode=CONNECTION \
   --max-connections=100

สร้างพร็อกซีเป้าหมายใน Cloud Shell

gcloud compute target-tcp-proxies create on-premise-svc-tcpproxy \
   --backend-service=on-premise-service-backend \
   --region=us-central1

สร้างกฎการส่งต่อ (ILB) ภายใน Cloud Shell

สร้างกฎการส่งต่อโดยใช้คำสั่ง gcloud compute forwarding-rules create

แทนที่ FWD_RULE_PORT ด้วยหมายเลขพอร์ตเดียวตั้งแต่ 1-65535 กฎการส่งต่อจะส่งต่อเฉพาะแพ็กเกตที่มีพอร์ตปลายทางที่ตรงกัน

gcloud compute forwarding-rules create tcp-ilb-psc \
   --load-balancing-scheme=INTERNAL_MANAGED \
   --network=producer-vpc \
   --subnet=subnet-201 \
   --ports=80 \
   --region=us-central1 \
   --target-tcp-proxy=on-premise-svc-tcpproxy \
   --target-tcp-proxy-region=us-central1

รับที่อยู่ IP ของตัวจัดสรรภาระงานภายใน

gcloud compute forwarding-rules describe tcp-ilb-psc --region=us-central1 | grep -i IPAddress:

Example output:
gcloud compute forwarding-rules describe tcp-ilb-psc --region=us-central1 | grep -i IPAddress:
IPAddress: 10.10.1.2

4. ตรวจสอบตัวจัดสรรภาระงาน

จาก Cloud Console ให้ไปที่บริการเครือข่าย → การจัดสรรภาระงาน → ตัวจัดสรรภาระงาน โปรดทราบว่า 1 NEG เป็น "สีเขียว" ซึ่งบ่งบอกว่าการตรวจสอบสถานะของบริการในองค์กรสำเร็จ

c16a93d1e185336b.png

การเลือก ‘on-premise-service-backend' จะแสดงที่อยู่ IP ของส่วนหน้า

26db2d30747fd40a.png

5. ดูเส้นทางที่เรียนรู้จากในองค์กร

ไปที่เครือข่าย VPC → เส้นทาง โปรดทราบว่าซับเน็ตบริการในองค์กรที่เรียนรู้คือ 192.168.1.0/27

bae85fdc418f9811.png

6. ตรวจสอบการเชื่อมต่อกับบริการในองค์กร

จาก VPC ของผู้ผลิต เราจะสร้าง VM เพื่อทดสอบการเชื่อมต่อกับบริการในองค์กร จากนั้นจะกำหนดค่า Service Attachment

สร้างอินสแตนซ์ทดสอบใน VPC ของผู้ผลิตภายใน Cloud Shell

gcloud compute instances create test-box-us-central1 \
    --zone=us-central1-a \
    --image-family=debian-10 \
    --image-project=debian-cloud \
    --subnet=subnet-201 \
    --no-address

หากต้องการอนุญาตให้ IAP เชื่อมต่อกับอินสแตนซ์ VM ให้สร้างกฎไฟร์วอลล์ที่มีลักษณะดังนี้

  • มีผลกับอินสแตนซ์ VM ทั้งหมดที่คุณต้องการให้เข้าถึงได้โดยใช้ IAP
  • อนุญาตการรับส่งข้อมูลขาเข้าจากช่วง IP 35.235.240.0/20 ช่วงนี้มีที่อยู่ IP ทั้งหมดที่ IAP ใช้สำหรับการส่งต่อ TCP

สร้างอินสแตนซ์ทดสอบใน VPC ของผู้ผลิตภายใน Cloud Shell

gcloud compute firewall-rules create ssh-iap \
    --network producer-vpc \
    --allow tcp:22 \
    --source-ranges=35.235.240.0/20

เข้าสู่ระบบ test-box-us-central1 โดยใช้ IAP ใน Cloud Shell เพื่อตรวจสอบการเชื่อมต่อกับบริการในองค์กรโดยใช้ curl กับที่อยู่ IP ของตัวจัดสรรภาระงาน ลองอีกครั้งหากหมดเวลา

gcloud compute ssh test-box-us-central1 --project=$psclab --zone=us-central1-a --tunnel-through-iap

เรียกใช้ curl เพื่อตรวจสอบการเชื่อมต่อกับบริการในองค์กร เมื่อตรวจสอบแล้ว ให้ออกจาก VM แล้วกลับไปที่พรอมต์ของ Cloud Shell แทนที่ IP ของ Internal Load Balancer ตามเอาต์พุตที่ระบุในขั้นตอนที่ 3 และ 4

deepakmichael@test-box-us-central1:~$ curl -v 10.10.1.2
* Expire in 0 ms for 6 (transfer 0x55b9a6b2f0f0)
*   Trying 10.10.1.2...
* TCP_NODELAY set
* Expire in 200 ms for 4 (transfer 0x55b9a6b2f0f0)
* Connected to 10.10.1.2 (10.10.1.2) port 80 (#0)
> GET / HTTP/1.1
> Host: 10.10.1.2
> User-Agent: curl/7.64.0
> Accept: */*
> 
< HTTP/1.1 200 OK
< Content-Type: text/html; charset=utf-8
< Accept-Ranges: bytes
< ETag: "3380914763"
< Last-Modified: Mon, 05 Dec 2022 15:10:56 GMT
< Expires: Mon, 05 Dec 2022 15:42:38 GMT
< Cache-Control: max-age=0
< Content-Length: 37
< Date: Mon, 05 Dec 2022 15:42:38 GMT
< Server: lighttpd/1.4.53
< 
Welcome to my on-premise service!!

7. สร้างไฟล์แนบบริการ Private Service Connect

ในขั้นตอนต่อไปนี้ เราจะสร้างการเชื่อมต่อบริการ เมื่อจับคู่กับการเข้าถึงปลายทางของผู้ใช้แล้ว ก็จะเข้าถึงบริการในองค์กรได้โดยไม่ต้องใช้การเพียร์ VPC

สร้าง Service Attachment

สร้างไฟล์แนบบริการภายใน Cloud Shell

gcloud compute service-attachments create service-1 --region=us-central1 --producer-forwarding-rule=tcp-ilb-psc --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=psc-nat-subnet

ไม่บังคับ: หากใช้ VPC ที่แชร์ ให้สร้างการเชื่อมต่อบริการในโปรเจ็กต์บริการ

gcloud compute service-attachments create service-1 --region=us-central1 --producer-forwarding-rule=tcp-ilb-psc --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=projects/<hostproject>/regions/<region>/subnetworks/<natsubnet>

ตรวจสอบความถูกต้องของไฟล์แนบบริการ TCP

gcloud compute service-attachments describe service-1 --region us-central1

8. ไม่บังคับ: ไปที่บริการเครือข่าย → Private Service Connect เพื่อดูไฟล์แนบบริการที่สร้างขึ้นใหม่

bddc23a10d38d981.png

การเลือก Service-1 จะแสดงรายละเอียดเพิ่มเติม รวมถึง URI ของไฟล์แนบบริการที่ผู้ใช้ใช้เพื่อสร้างการเชื่อมต่อบริการส่วนตัว จด URI ไว้เนื่องจากจะต้องใช้ในขั้นตอนถัดไป

5c0a74874536909d.png

รายละเอียดการแนบบริการ: projects/<projectname>/regions/us-central1/serviceAttachments/service-1

9. การตั้งค่าสำหรับผู้บริโภค

สร้าง VPC ของผู้ใช้

ใน Cloud Shell ให้ทำดังนี้

gcloud compute networks create consumer-vpc --project=$psclab --subnet-mode=custom

สร้างซับเน็ตสำหรับผู้บริโภค

สร้างเครือข่ายย่อย GCE ภายใน Cloud Shell

gcloud compute networks subnets create subnet-101 --project=$psclab --range=10.100.1.0/24 --network=consumer-vpc --region=us-central1

สร้างเครือข่ายย่อยของอุปกรณ์ปลายทางของผู้บริโภคภายใน Cloud Shell

gcloud compute networks subnets create subnet-102 --project=$psclab --range=10.100.2.0/24 --network=consumer-vpc --region=us-central1

สร้างปลายทางผู้ใช้ (กฎการส่งต่อ)

สร้างที่อยู่ IP แบบคงที่ที่จะใช้เป็นปลายทางสำหรับผู้บริโภคภายใน Cloud Shell

gcloud compute addresses create psc-consumer-ip-1 --region=us-central1 --subnet=subnet-102 --addresses 10.100.2.10

มาใช้ URI ของการเชื่อมต่อบริการที่สร้างไว้ก่อนหน้านี้เพื่อสร้างปลายทางผู้ใช้กัน

สร้างอุปกรณ์ปลายทางของผู้บริโภคภายใน Cloud Shell

gcloud compute forwarding-rules create psc-consumer-1 --region=us-central1 --network=consumer-vpc --address=psc-consumer-ip-1 --target-service-attachment=projects/$psclab/regions/us-central1/serviceAttachments/service-1

10. ตรวจสอบ Private Service Connect ของผู้บริโภค - VPC ของผู้บริโภค

จาก VPC ของผู้บริโภค ให้ตรวจสอบการเชื่อมต่อบริการส่วนตัวที่สำเร็จโดยไปที่บริการเครือข่าย → Private Service Connect → ปลายทางที่เชื่อมต่อ จดบันทึกการเชื่อมต่อ psc-consumer-1 ที่สร้างขึ้นและที่อยู่ IP ที่เกี่ยวข้องซึ่งเราสร้างไว้ก่อนหน้านี้

629d4cea87293a42.png

เมื่อเลือก psc-consumer-1 ระบบจะแสดงรายละเอียดเพิ่มเติม รวมถึง URI ของการเชื่อมต่อบริการ

18b132b458f698b4.png

11. ตรวจสอบ Private Service Connect ของผู้บริโภค - VPC ของผู้ผลิต

จาก VPC ของผู้ผลิต ให้ตรวจสอบการเชื่อมต่อบริการส่วนตัวที่สำเร็จโดยไปที่บริการเครือข่าย → Private Service Connectบริการที่เผยแพร่ โปรดทราบว่าการเชื่อมต่อ service-1 ที่เผยแพร่แล้วจะระบุถึงกฎการส่งต่อ 1 รายการ (ปลายทางการเชื่อมต่อ)

3387b170742d7d8d.png

12. สร้างโซน DNS ส่วนตัวและระเบียน A

สร้างโซน DNS ส่วนตัวที่แมปกับปลายทางการเชื่อมต่อ PSC เพื่อให้เข้าถึงผู้ผลิตได้อย่างราบรื่นจากโฮสต์ใดก็ได้ภายใน VPC

จาก Cloud Shell

gcloud dns --project=$psclab managed-zones create codelab-zone --description="" --dns-name="codelab.net." --visibility="private" --networks="consumer-vpc"

gcloud dns --project=$psclab record-sets create service1.codelab.net. --zone="codelab-zone" --type="A" --ttl="300" --rrdatas="10.100.2.10"

13. ตรวจสอบสิทธิ์เข้าถึงบริการของผู้ผลิตของผู้บริโภคโดยใช้ VM

จาก VPC ของผู้ใช้ เราจะสร้าง VM เพื่อทดสอบการเชื่อมต่อกับบริการในองค์กรโดยการเข้าถึง consumerendpointservice1.codelabs.net

สร้างอินสแตนซ์ทดสอบใน VPC ของผู้บริโภคภายใน Cloud Shell

gcloud compute instances create consumer-vm \
    --zone=us-central1-a \
    --image-family=debian-10 \
    --image-project=debian-cloud \
    --subnet=subnet-101 \
    --no-address

หากต้องการอนุญาตให้ IAP เชื่อมต่อกับอินสแตนซ์ VM ให้สร้างกฎไฟร์วอลล์ที่มีลักษณะดังนี้

  • มีผลกับอินสแตนซ์ VM ทั้งหมดที่คุณต้องการให้เข้าถึงได้โดยใช้ IAP
  • อนุญาตการรับส่งข้อมูลขาเข้าจากช่วง IP 35.235.240.0/20 ช่วงนี้มีที่อยู่ IP ทั้งหมดที่ IAP ใช้สำหรับการส่งต่อ TCP

สร้างอินสแตนซ์ทดสอบใน VPC ของผู้บริโภคภายใน Cloud Shell

gcloud compute firewall-rules create ssh-iap-consumer \
    --network consumer-vpc \
    --allow tcp:22 \
    --source-ranges=35.235.240.0/20

เข้าสู่ระบบ consumer-vm โดยใช้ IAP ใน Cloud Shell เพื่อตรวจสอบการเชื่อมต่อกับบริการในองค์กรโดยใช้ curl กับ dns FQDN service1.codelab.net ลองอีกครั้งหากหมดเวลา

gcloud compute ssh consumer-vm --project=$psclab --zone=us-central1-a --tunnel-through-iap

เรียกใช้ curl เพื่อตรวจสอบการเชื่อมต่อกับบริการในองค์กร เมื่อตรวจสอบแล้ว ให้ออกจาก VM เพื่อกลับไปที่พรอมต์ของ Cloud Shell

เรียกใช้ curl ภายใน Cloud Shell

$ curl -v service1.codelab.net
*   Trying 10.100.2.10...
* TCP_NODELAY set
* Expire in 200 ms for 4 (transfer 0x5650fc3390f0)
* Connected to service1.codelab.net (10.100.2.10) port 80 (#0)
> GET / HTTP/1.1
> Host: service1.codelab.net
> User-Agent: curl/7.64.0
> Accept: */*
> 
< HTTP/1.1 200 OK
< Content-Type: text/html; charset=utf-8
< Accept-Ranges: bytes
< ETag: "3380914763"
< Last-Modified: Mon, 05 Dec 2022 15:10:56 GMT
< Expires: Mon, 05 Dec 2022 15:15:41 GMT
< Cache-Control: max-age=0
< Content-Length: 37
< Date: Mon, 05 Dec 2022 15:15:41 GMT
< Server: lighttpd/1.4.53
< 
Welcome to my on-premise service!!

ด้านล่างนี้คือตัวอย่างการจับภาพจากบริการในองค์กร โปรดทราบว่าที่อยู่ IP ต้นทาง 172.16.0.2 มาจากช่วงเครือข่ายย่อยของพร็อกซี TCP 172.16.0.0/23

6dafe24917c937cb.png

14. การล้างข้อมูลของโปรดิวเซอร์

ลบคอมโพเนนต์ของ Producer

ลบคอมโพเนนต์ของ Producer ใน Cloud Shell

gcloud compute instances delete test-box-us-central1 --zone=us-central1-a --quiet

gcloud compute service-attachments delete service-1 --region=us-central1 --quiet 

gcloud compute forwarding-rules delete tcp-ilb-psc --region=us-central1 --quiet

gcloud compute target-tcp-proxies delete on-premise-svc-tcpproxy --region=us-central1 --quiet

gcloud compute backend-services delete on-premise-service-backend --region=us-central1 --quiet

gcloud compute network-endpoint-groups delete on-prem-service-neg --zone=us-central1-a --quiet

gcloud compute networks subnets delete psc-nat-subnet subnet-201 proxy-subnet-us-central --region=us-central1 --quiet

gcloud compute firewall-rules delete ssh-iap fw-allow-proxy-only-subnet allow-to-ingress-nat-subnet fw-allow-health-check --quiet

gcloud compute health-checks delete on-prem-service-hc --region=us-central1 --quiet

gcloud compute networks delete producer-vpc --quiet

15. การล้างข้อมูลผู้บริโภค

ลบคอมโพเนนต์ Consumer

ลบคอมโพเนนต์ของผู้บริโภคภายใน Cloud Shell

gcloud compute instances delete consumer-vm --zone=us-central1-a --quiet

gcloud compute forwarding-rules delete psc-consumer-1 --region=us-central1 --quiet

gcloud compute addresses delete psc-consumer-ip-1 --region=us-central1 --quiet

gcloud compute networks subnets delete subnet-101 subnet-102 --region=us-central1 --quiet

gcloud compute firewall-rules delete ssh-iap-consumer --quiet

gcloud dns record-sets delete service1.codelab.net --type=A --zone=codelab-zone --quiet

gcloud dns managed-zones delete codelab-zone --quiet 

gcloud compute networks delete consumer-vpc --quiet 

16. ขอแสดงความยินดี

ขอแสดงความยินดี คุณกำหนดค่าและตรวจสอบ Private Service Connect ด้วย TCP Proxy เรียบร้อยแล้ว

คุณสร้างโครงสร้างพื้นฐานของผู้ผลิต และเพิ่มไฟล์แนบบริการใน VPC ของผู้ผลิตที่ชี้ไปยังบริการในองค์กร คุณได้เรียนรู้วิธีสร้างปลายทางผู้บริโภคใน VPC ของผู้บริโภคที่อนุญาตการเชื่อมต่อกับบริการในองค์กร

สิ่งต่อไปที่ควรทำ

ลองใช้ Codelab เหล่านี้

อ่านเพิ่มเติมและวิดีโอ

เอกสารอ้างอิง