התחברות לשירותים מקומיים בארגון באמצעות Networking היברידי באמצעות Private Service Connect ו-Hybrid NEG TCP Proxy

1. מבוא

מאזן עומסים פנימי של שרת TCP Proxy אזורי עם קישוריות היברידית מאפשר ליצור שירות שמתארח בסביבות ענן מקומיות או בסביבות ענן אחרות שזמינות ללקוחות ברשת ה-VPC.

אם רוצים שהשירות ההיברידי יהיה זמין ברשתות VPC אחרות, אפשר להשתמש ב-Private Service Connect כדי לפרסם את השירות. מיקום קובץ מצורף לשירות לפני מאזן העומסים הפנימי של שרת TCP Proxy האזורי מאפשר ללקוחות ברשתות VPC אחרות להגיע לשירותים היברידיים שפועלים בסביבות ענן מקומיות או אחרות.

מה תפַתחו

ב-Codelab הזה, אתם מתכוונים לפתח מאזן עומסים פנימי של שרת proxy ל-TCP עם קישוריות היברידית לשירות מקומי באמצעות קבוצת נקודות קצה ברשת. מה-VPC הצרכן יוכל לתקשר עם השירות בארגון.

a4fa0e406e7232fa.png

מה תלמדו

  • איך ליצור ILB של שרת TCP Proxy עם שירות לקצה העורפי NEG היברידי
  • איך ליצור מפיק שירות פרטי (Private Service Connect) (קובץ מצורף לשירות) וצרכן (כלל העברה)
  • איך בודקים ומאמתים את התקשורת בין הצרכן לבין השירות של היצרן

מה צריך להכין

  • רשתות היברידיות מבוססות, למשל HA VPN, Interconnect, SW-WAN
  • פרויקט ב-Google Cloud

יצירת קישוריות היברידית

עליכם לחבר בין Google Cloud לסביבות המקומיות או סביבות ענן אחרות באמצעות קישוריות היברידית, באמצעות קבצים מצורפים של Cloud Interconnect VLAN או מנהרות Cloud VPN עם Cloud Router. מומלץ להשתמש בחיבור בזמינות גבוהה.

נתב Cloud Router שמופעל באמצעות ניתוב דינמי גלובלי לומד על נקודת הקצה הספציפית באמצעות BGP ומתכנת אותה ברשת Google Cloud VPC. אין תמיכה בניתוב דינמי אזורי. אין גם תמיכה בנתיבים סטטיים.

רשת Google Cloud VPC שבה אתם משתמשים כדי להגדיר את Cloud Interconnect או Cloud VPN היא אותה רשת שבה אתם משתמשים כדי להגדיר את הפריסה של איזון העומסים ההיברידית. יש לוודא שטווחי ה-CIDR של רשת ה-VPC לא מתנגשים עם טווחי ה-CIDR המרוחקים שלכם. כשיש חפיפה בין כתובות IP, נתיבי תת-רשת מקבלים עדיפות על פני קישוריות מרחוק.

הוראות מופיעות:

מודעות של מסלולים מותאמים אישית

רשתות המשנה שבהמשך מחייבות מודעות מותאמות אישית מ-Cloud Router לרשת המקומית, שמבטיחות שכללי חומת האש בארגון מתעדכנים.

רשת משנה

תיאור

172.16.0.0/23

רשת משנה של TCP Proxy שמשמשת לתקשורת ישירות עם השירות המקומי

22.130.211.0.0/22, 35.191.0.0/16

בדיקת התקינות של Google Cloud

2. לפני שמתחילים

עדכון הפרויקט כך שיתמוך ב-Codelab

ב-Codelab הזה נעשה שימוש ב-$variables כדי לעזור בהטמעת ההגדרות של gcloud ב-Cloud Shell.

בתוך Inside Cloud Shell מבצעים את הפעולות הבאות

gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
psclab=YOUR-PROJECT-NAME
echo $psclab

3. הגדרה של הכלי להפקת חדשות

יצירת ה-Producer VPC

בתוך Inside Cloud Shell מבצעים את הפעולות הבאות

gcloud compute networks create producer-vpc --project=$psclab --subnet-mode=custom

יצירת רשתות המשנה של הכלי להפקת חדשות

בתוך Inside Cloud Shell מבצעים את הפעולות הבאות

gcloud compute networks subnets create subnet-201 --project=$psclab --range=10.10.1.0/24 --network=producer-vpc --region=us-central1

יצירת רשתות המשנה של שרתי proxy ל-TCP

הקצאת שרת ה-proxy היא ברמת ה-VPC, ולא ברמת מאזן העומסים. צריך ליצור רשת משנה אחת לשרת proxy בלבד בכל אזור של רשת וירטואלית (VPC) שבה משתמשים במאזני עומסים מבוססי Envoy. אם פורסים כמה מאזני עומסים באותו אזור ובאותה רשת VPC, הם חולקים את אותה רשת משנה של שרת proxy בלבד לאיזון עומסים.

  1. לקוח יוצר חיבור לכתובת ה-IP וליציאה של כלל ההעברה של מאזן העומסים.
  2. כל שרת proxy מאזין לכתובת ה-IP וליציאה שצוינו בכלל ההעברה של מאזן העומסים המתאים. אחד משרתי ה-proxy מקבל ומסיים את החיבור לרשת של הלקוח.
  3. שרת ה-proxy יוצר חיבור למכונה הווירטואלית או לנקודת הקצה (endpoint) המתאימה בקצה העורפי ב-NEG, כפי שנקבע על ידי מפת ה-URL והשירותים לקצה העורפי של מאזן העומסים.

עליך ליצור רשתות משנה לשרת proxy בלבד, גם אם הרשת שלך היא במצב אוטומטי וגם אם היא מותאמת אישית. תת-רשת של שרת proxy בלבד חייבת לספק 64 כתובות IP או יותר. הערך הזה תואם לאורך קידומת של /26 או פחות. הגודל המומלץ של רשת המשנה הוא /23 (512 כתובות לשרת proxy בלבד).

בתוך Inside Cloud Shell מבצעים את הפעולות הבאות

gcloud compute networks subnets create proxy-subnet-us-central \
  --purpose=REGIONAL_MANAGED_PROXY \
  --role=ACTIVE \
  --region=us-central1 \
  --network=producer-vpc \
  --range=172.16.0.0/23

יצירת רשתות המשנה של Private Service Connect NAT

יוצרים רשת משנה ייעודית אחת או יותר לשימוש ב-Private Service Connect. אם משתמשים במסוף Google Cloud כדי לפרסם שירות, אפשר ליצור את רשתות המשנה תוך כדי התהליך. יוצרים את רשת המשנה באותו אזור שבו נמצא מאזן העומסים של השירות. לא ניתן להמיר רשת משנה רגילה לרשת משנה של Private Service Connect.

בתוך Inside Cloud Shell מבצעים את הפעולות הבאות

gcloud compute networks subnets create psc-nat-subnet --network=producer-vpc --region=us-central1 --range=100.100.10.0/24 --purpose=private-service-connect

יצירת כללי חומת האש של הכלי להפקת חדשות

מגדירים כללי חומת אש כדי לאפשר תעבורת נתונים בין נקודות הקצה של Private Service Connect לבין הקובץ המצורף של השירות. ב-Codelab, יצרו כלל חומת אש של תעבורת נתונים נכנסת (ingress) שמאפשר לרשת המשנה של NAT 100.100.10.0/24 לגשת לקובץ המצורף לשירות Private Service Connect (מאזן עומסים פנימי).

בתוך Inside Cloud Shell מבצעים את הפעולות הבאות

gcloud compute --project=$psclab firewall-rules create allow-to-ingress-nat-subnet --direction=INGRESS --priority=1000 --network=producer-vpc --action=ALLOW --rules=all --source-ranges=100.100.10.0/24

Inside Cloud Shell יצירת כלל fw-allow-health-check כדי לאפשר לבדיקות התקינות של Google Cloud להגיע לשירות המקומי (שירות לקצה העורפי) ביציאת TCP 80

gcloud compute firewall-rules create fw-allow-health-check \
    --network=producer-vpc \
    --action=allow \
    --direction=ingress \
    --source-ranges=130.211.0.0/22,35.191.0.0/16 \
    --rules=tcp:80

יצירת כלל של חומת אש בין תעבורת נתונים נכנסת (ingress) שמאפשר לשירותים מקומיים לתקשר עם רשת המשנה של שרת ה-proxy ביציאה 80

gcloud compute firewall-rules create fw-allow-proxy-only-subnet \
    --network=producer-vpc \
    --action=allow \
    --direction=ingress \
    --source-ranges=172.16.0.0/23 \
    --rules=tcp:80

הגדרת NEG לקישוריות היברידית

כשיוצרים את ה-NEG,צריך להשתמש בתחום שמצמצם את המרחק הגיאוגרפי בין Google Cloud לבין הסביבה המקומית או סביבת ענן אחרת. לדוגמה, אם אתם מארחים שירות בסביבה מקומית בפרנקפורט שבגרמניה, תוכלו לציין את התחום europe-west3-a במהלך יצירת ה-NEG.

בנוסף, אם אתם משתמשים ב-Cloud Interconnect, ה-ZONE ששימש ליצירת ה-NEG צריך להיות באותו אזור שבו הוגדר הקובץ המצורף Cloud Interconnect.

למידע על האזורים והתחומים הזמינים, אפשר לעיין במאמרי העזרה של Compute Engine: אזורים ותחומים זמינים.

Inside Cloud Shell יוצרים קישוריות היברידית NEG באמצעות הפקודה gcloud compute network-endpoint-groups create

gcloud compute network-endpoint-groups create on-prem-service-neg \
    --network-endpoint-type=NON_GCP_PRIVATE_IP_PORT \
    --zone=us-central1-a \
    --network=producer-vpc

מוסיפים את נקודת הקצה המקומית של יציאה (IP:Port) ל-NEG המשולב באמצעות Inside Cloud Shell.

gcloud compute network-endpoint-groups update on-prem-service-neg \
    --zone=us-central1-a \
    --add-endpoint="ip=192.168.1.5,port=80"

הגדרת מאזן העומסים

בשלבים הבאים צריך להגדיר את מאזן העומסים (כלל ההעברה) שיוך לקבוצת נקודות הקצה ברשת

יצירת בדיקת התקינות האזורית תבוצע באמצעות Inside Cloud Shell שיועבר לשירות המקומי

gcloud compute health-checks create tcp on-prem-service-hc \
    --region=us-central1 \
    --use-serving-port

יצירת שירות לקצה העורפי בקצה העורפי בארגון באמצעות Inside Cloud Shell

gcloud compute backend-services create on-premise-service-backend \
   --load-balancing-scheme=INTERNAL_MANAGED \
   --protocol=TCP \
   --region=us-central1 \
   --health-checks=on-prem-service-hc \
   --health-checks-region=us-central1

Inside Cloud Shell מוסיפים את הקצה העורפי NEG ההיברידי לשירות לקצה העורפי. עבור MAX_CONNECTIONS, מזינים את מספר החיבורים המקסימלי בו-זמנית שהקצה העורפי צריך לטפל בהם.

gcloud compute backend-services add-backend on-premise-service-backend \
   --network-endpoint-group=on-prem-service-neg \
   --network-endpoint-group-zone=us-central1-a \
   --region=us-central1 \
   --balancing-mode=CONNECTION \
   --max-connections=100

יוצרים את שרת ה-Proxy ליעד ב-Inside Cloud Shell

gcloud compute target-tcp-proxies create on-premise-svc-tcpproxy \
   --backend-service=on-premise-service-backend \
   --region=us-central1

יצירת כלל ההעברה (ILB) ב-Inside Cloud Shell

כדי ליצור את כלל ההעברה, משתמשים בפקודה gcloud compute סיוע- rules create (יצירת כלל העברה במחשוב).

מחליפים את FWD_PARAM_PORT במספר יציאה אחד מ-1-65535. כלל ההעברה מעביר רק חבילות עם יציאת יעד תואמת.

gcloud compute forwarding-rules create tcp-ilb-psc \
   --load-balancing-scheme=INTERNAL_MANAGED \
   --network=producer-vpc \
   --subnet=subnet-201 \
   --ports=80 \
   --region=us-central1 \
   --target-tcp-proxy=on-premise-svc-tcpproxy \
   --target-tcp-proxy-region=us-central1

השגת כתובת ה-IP של מאזן העומסים הפנימי

gcloud compute forwarding-rules describe tcp-ilb-psc --region=us-central1 | grep -i IPAddress:

Example output:
gcloud compute forwarding-rules describe tcp-ilb-psc --region=us-central1 | grep -i IPAddress:
IPAddress: 10.10.1.2

4. אימות מאזן העומסים

ממסוף Cloud, עוברים אל Network Services ← Load Balancing ← מאזני עומסים. חשוב לשים לב: הסימון 1 NEG הוא 'ירוק', שמציין שבדיקת התקינות בשירות המקומי הצליחה.

c16a93d1e185336b.png

בחירה באפשרות ‘on-premise-service-backend' יוצרת את כתובת ה-IP של ממשק הקצה

26db2d30747fd40a.png

5. צפייה במסלולים שנלמדו בארגון

עוברים אל VPC Network → Routes. הערה: רשת המשנה של השירות המקומי שנלמדה 192.168.1.0/27

bae85fdc418f9811.png

6. אימות הקישוריות לשירות בארגון

מה-VPC של Producers אנחנו ניצור מכונה וירטואלית (VM) כדי לבדוק את הקישוריות לשירות המקומי, ואחר כך יהיה השלב הבא של קובץ ה-Service Attachment (קובץ מצורף) לצורך הגדרה.

Inside Cloud Shell יוצרים את מכונת הבדיקה ב-Producer vpc

gcloud compute instances create test-box-us-central1 \
    --zone=us-central1-a \
    --image-family=debian-10 \
    --image-project=debian-cloud \
    --subnet=subnet-201 \
    --no-address

כדי לאפשר ל-IAP להתחבר למכונות הווירטואליות, יוצרים כלל של חומת אש:

  • המדיניות חלה על כל מכונות וירטואליות שרוצים לגשת אליהן באמצעות IAP.
  • תעבורת נתונים נכנסת (ingress) מטווח ה-IP 35.235.240.0/20. הטווח הזה מכיל את כל כתובות ה-IP שמשמשות להעברת TCP באמצעות IAP.

Inside Cloud Shell יוצרים את מכונת הבדיקה ב-Producer vpc

gcloud compute firewall-rules create ssh-iap \
    --network producer-vpc \
    --allow tcp:22 \
    --source-ranges=35.235.240.0/20

התחברות לתיבת הבדיקה-us-central1 באמצעות IAP ב-Cloud Shell כדי לאמת את הקישוריות לשירות המקומי על ידי ביצוע curl על כתובת ה-IP של יתרת העומסים. אפשר לנסות שוב אם הזמן הקצוב פג.

gcloud compute ssh test-box-us-central1 --project=$psclab --zone=us-central1-a --tunnel-through-iap

מבצעים אימות curl לקישוריות לשירות המקומי. לאחר האימות, היציאה מה-VM חזרה להנחיה של Cloud Shell. מחליפים את כתובת ה-IP של מאזן העומסים הפנימי בהתאם לפלט שזוהה בשלבים 3 ו-4.

deepakmichael@test-box-us-central1:~$ curl -v 10.10.1.2
* Expire in 0 ms for 6 (transfer 0x55b9a6b2f0f0)
*   Trying 10.10.1.2...
* TCP_NODELAY set
* Expire in 200 ms for 4 (transfer 0x55b9a6b2f0f0)
* Connected to 10.10.1.2 (10.10.1.2) port 80 (#0)
> GET / HTTP/1.1
> Host: 10.10.1.2
> User-Agent: curl/7.64.0
> Accept: */*
> 
< HTTP/1.1 200 OK
< Content-Type: text/html; charset=utf-8
< Accept-Ranges: bytes
< ETag: "3380914763"
< Last-Modified: Mon, 05 Dec 2022 15:10:56 GMT
< Expires: Mon, 05 Dec 2022 15:42:38 GMT
< Cache-Control: max-age=0
< Content-Length: 37
< Date: Mon, 05 Dec 2022 15:42:38 GMT
< Server: lighttpd/1.4.53
< 
Welcome to my on-premise service!!

7. יצירת הקובץ המצורף של שירות Private Service Connect

בשלבים הבאים ניצור את הקובץ המצורף לשירות, ולאחר הצמדה לנקודת קצה (endpoint) של הצרכן תושג גישה לשירות המקומי ללא צורך בקישור בין רשתות שכנות (peering) ב-VPC.

יצירת הקובץ המצורף לשירות

יצירת הקובץ המצורף לשירות ב-Inside Cloud Shell

gcloud compute service-attachments create service-1 --region=us-central1 --producer-forwarding-rule=tcp-ilb-psc --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=psc-nat-subnet

אופציונלי: אם משתמשים ב-VPC משותף, יוצרים את הקובץ המצורף לשירות בפרויקט השירות

gcloud compute service-attachments create service-1 --region=us-central1 --producer-forwarding-rule=tcp-ilb-psc --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=projects/<hostproject>/regions/<region>/subnetworks/<natsubnet>

אימות הקובץ המצורף של שירות ה-TCP

gcloud compute service-attachments describe service-1 --region us-central1

8. אופציונלי: עוברים אל 'שירותי רשת' ← 'Private Service Connect' כדי להציג את הקובץ המצורף החדש של השירות

bddc23a10d38d981.png

אם בוחרים באפשרות Service-1, מקבלים פרטים נוספים, כולל ה-URI של קובץ מצורף לשירות שבו הצרכן משתמש כדי ליצור חיבור לשירות פרטי. חשוב לשים לב ל-URI כי ייעשה בו שימוש בשלב מאוחר יותר.

5c0a74874536909d.png

פרטי קבצים מצורפים לשירות: projects/<projectname>/regions/us-central1/serviceAttachments/service-1

9. הגדרת הצרכן

יצירת ה-VPC לצרכנים

בתוך Inside Cloud Shell מבצעים את הפעולות הבאות

gcloud compute networks create consumer-vpc --project=$psclab --subnet-mode=custom

יצירת רשתות המשנה לצרכנים

יצירת רשת משנה של GCE באמצעות Inside Cloud Shell

gcloud compute networks subnets create subnet-101 --project=$psclab --range=10.100.1.0/24 --network=consumer-vpc --region=us-central1

יצירת רשת משנה של נקודת קצה (endpoint) לצרכנים באמצעות Inside Cloud Shell

gcloud compute networks subnets create subnet-102 --project=$psclab --range=10.100.2.0/24 --network=consumer-vpc --region=us-central1

יצירת נקודת הקצה לצרכנים (כלל העברה)

יוצרים ב-Inside Cloud Shell את כתובת ה-IP הסטטית שתשמש כנקודת קצה (endpoint) של צרכנים

gcloud compute addresses create psc-consumer-ip-1 --region=us-central1 --subnet=subnet-102 --addresses 10.100.2.10

מאפשר להשתמש ב-URI של קובץ מצורף לשירות שנוצר בעבר כדי ליצור את נקודת הקצה לצרכן

יצירת נקודת הקצה לצרכנים באמצעות Inside Cloud Shell

gcloud compute forwarding-rules create psc-consumer-1 --region=us-central1 --network=consumer-vpc --address=psc-consumer-ip-1 --target-service-attachment=projects/$psclab/regions/us-central1/serviceAttachments/service-1

10. אימות הקישור לשירות הפרטי של הצרכן – VPC של הצרכן

מה-VPC של הצרכן מאמתים חיבורים מוצלחים לשירות Private Service על ידי מעבר אל שירותי רשת ← Private Service Connect ← נקודות קצה מחוברות. יש לשים לב לחיבור psc-consumer-1 ולכתובת ה-IP המתאימה שיצרנו קודם.

629d4cea87293a42.png

בעת בחירת פרטי ההוספה של psc-consumer-1, כולל ה-URI של הקובץ המצורף לשירות

18b132b458f698b4.png

11. אימות הקישור לשירות הפרטי של הצרכן – Producer VPC

מאמתים את החיבור לשירות Private Service Connect מ-Producer VPC: עוברים אל שירותי רשת ← Private Service Connectשירות שפורסם. לתשומת ליבכם, חיבור service-1 שפורסם מציין עכשיו כלל העברה אחד (נקודת קצה של חיבור).

3387b170742d7d8d.png

12. יצירת אזור DNS פרטי רשומת A

יוצרים אזור DNS פרטי שממופה לנקודת הקצה (endpoint) של חיבור PSC, וכך מאפשרים גישה חלקה ל-Producer מכל מארח ב-VPC.

מ-Cloud Shell

gcloud dns --project=$psclab managed-zones create codelab-zone --description="" --dns-name="codelab.net." --visibility="private" --networks="consumer-vpc"

gcloud dns --project=$psclab record-sets create service1.codelab.net. --zone="codelab-zone" --type="A" --ttl="300" --rrdatas="10.100.2.10"

13. אימות הגישה של צרכנים לשירות המפיקים באמצעות VM

מה-VPC של הצרכנים ניצור מכונה וירטואלית כדי לבדוק את הקישוריות לשירות המקומי באמצעות גישה לנקודת הקצה לצרכנים service1.codelabs.net

Inside Cloud Shell יוצרים את מכונת הבדיקה ב-vpc לצרכנים

gcloud compute instances create consumer-vm \
    --zone=us-central1-a \
    --image-family=debian-10 \
    --image-project=debian-cloud \
    --subnet=subnet-101 \
    --no-address

כדי לאפשר ל-IAP להתחבר למכונות הווירטואליות, יוצרים כלל של חומת אש:

  • המדיניות חלה על כל מכונות וירטואליות שרוצים לגשת אליהן באמצעות IAP.
  • תעבורת נתונים נכנסת (ingress) מטווח ה-IP 35.235.240.0/20. הטווח הזה מכיל את כל כתובות ה-IP שמשמשות להעברת TCP באמצעות IAP.

Inside Cloud Shell יוצרים את מכונת הבדיקה ב-vpc לצרכנים

gcloud compute firewall-rules create ssh-iap-consumer \
    --network consumer-vpc \
    --allow tcp:22 \
    --source-ranges=35.235.240.0/20

כדי לאמת את הקישוריות לשירות מקומי, מתחברים ל-VM מסוג צרכן באמצעות IAP ב-Cloud Shell. לשם כך מבצעים curl ל-dns FQDN service1.codelab.net. אפשר לנסות שוב אם הזמן הקצוב פג.

gcloud compute ssh consumer-vm --project=$psclab --zone=us-central1-a --tunnel-through-iap

מבצעים אימות curl לקישוריות לשירות המקומי. לאחר האימות, היציאה מה-VM וחזרה להנחיה של Cloud Shell

ביצוע קורל של Inside Cloud Shell

$ curl -v service1.codelab.net
*   Trying 10.100.2.10...
* TCP_NODELAY set
* Expire in 200 ms for 4 (transfer 0x5650fc3390f0)
* Connected to service1.codelab.net (10.100.2.10) port 80 (#0)
> GET / HTTP/1.1
> Host: service1.codelab.net
> User-Agent: curl/7.64.0
> Accept: */*
> 
< HTTP/1.1 200 OK
< Content-Type: text/html; charset=utf-8
< Accept-Ranges: bytes
< ETag: "3380914763"
< Last-Modified: Mon, 05 Dec 2022 15:10:56 GMT
< Expires: Mon, 05 Dec 2022 15:15:41 GMT
< Cache-Control: max-age=0
< Content-Length: 37
< Date: Mon, 05 Dec 2022 15:15:41 GMT
< Server: lighttpd/1.4.53
< 
Welcome to my on-premise service!!

למטה מוצגת דוגמה לתיעוד של השירות המקומי. חשוב לשים לב שכתובת ה-IP של המקור 172.16.0.2 היא מטווח רשת המשנה של שרת ה-proxy ל-TCP 172.16.0.0/23

6dafe24917c937cb.png

14. ניקוי נתונים מהמפיק

מחיקת רכיבי Producer

מחיקת הרכיבים של היצרן ב-Inside Cloud Shell

gcloud compute instances delete test-box-us-central1 --zone=us-central1-a --quiet

gcloud compute service-attachments delete service-1 --region=us-central1 --quiet 

gcloud compute forwarding-rules delete tcp-ilb-psc --region=us-central1 --quiet

gcloud compute target-tcp-proxies delete on-premise-svc-tcpproxy --region=us-central1 --quiet

gcloud compute backend-services delete on-premise-service-backend --region=us-central1 --quiet

gcloud compute network-endpoint-groups delete on-prem-service-neg --zone=us-central1-a --quiet

gcloud compute networks subnets delete psc-nat-subnet subnet-201 proxy-subnet-us-central --region=us-central1 --quiet

gcloud compute firewall-rules delete ssh-iap fw-allow-proxy-only-subnet allow-to-ingress-nat-subnet fw-allow-health-check --quiet

gcloud compute health-checks delete on-prem-service-hc --region=us-central1 --quiet

gcloud compute networks delete producer-vpc --quiet

15. ניקוי נתונים לצרכנים

מחיקת רכיבי צרכן

מחיקת רכיבי הצרכן של Inside Cloud Shell

gcloud compute instances delete consumer-vm --zone=us-central1-a --quiet

gcloud compute forwarding-rules delete psc-consumer-1 --region=us-central1 --quiet

gcloud compute addresses delete psc-consumer-ip-1 --region=us-central1 --quiet

gcloud compute networks subnets delete subnet-101 subnet-102 --region=us-central1 --quiet

gcloud compute firewall-rules delete ssh-iap-consumer --quiet

gcloud dns record-sets delete service1.codelab.net --type=A --zone=codelab-zone --quiet

gcloud dns managed-zones delete codelab-zone --quiet 

gcloud compute networks delete consumer-vpc --quiet 

16. מזל טוב

מזל טוב, הגדרת בהצלחה ואימתת בהצלחה את החיבור לשירות הפרטי באמצעות Proxy ל-TCP.

יצרתם את התשתית של היצרן, והוספתם קובץ מצורף של שירות ב-VPC של היצרן שמפנה לשירות מקומי. למדתם איך ליצור נקודת קצה לצרכנים ב-VPC לצרכן שאפשרה קישוריות לשירות בארגון.

מה השלב הבא?

כדאי לנסות כמה מ-Codelabs האלה...

המשך קריאה סרטונים

מסמכי עזר