अपने-आप डीएनएस कॉन्फ़िगरेशन की मदद से Private Service Connect

1. परिचय

अपने-आप काम करने वाले डीएनएस कॉन्फ़िगरेशन के साथ Private Service Connect, डीएनएस रिकॉर्ड बनाने के लिए, सर्विस डायरेक्ट्री और क्लाउड डीएनएस का इस्तेमाल करता है. ये रिकॉर्ड, अपने-आप बनने वाले डीएनएस रिकॉर्ड बनाने के लिए होते हैं. इन रिकॉर्ड को उपभोक्ता के Private Service Connect एंडपॉइंट के आईपी पतों के साथ प्रोग्राम किया जाता है.

आपको क्या बनाना होगा

इस कोडलैब में, बेहतर Private Service Connect आर्किटेक्चर का इस्तेमाल किया जा रहा है. इसमें, अपने-आप काम करने वाले डीएनएस के इस्तेमाल के बारे में बताया गया है, जैसा कि पहली इमेज में दिखाया गया है.

अपने-आप डीएनएस की सुविधा चालू करने के लिए ये काम किए जा सकते हैं:

  1. प्रोड्यूसर सेवा अटैचमेंट अपने-आप डीएनएस बनाने की सुविधा देता है. इसे ‘–domain-names’ के साथ मालिकाना हक वाला सार्वजनिक डोमेन उपलब्ध कराया जाता है Private Service Connect सेवा अटैचमेंट को बनाते समय फ़्लैग करें.
  2. उपभोक्ता, एंडपॉइंट का नाम तय करता है.
  3. अपने-आप काम करने वाला डीएनएस, डीएनएस ज़ोन goog-psc-default-us-central1 और डीएनएस नाम cosmopup.net, दोनों बनाता है. साथ ही, इसमें उपभोक्ता एंडपॉइंट के नाम वाली सर्विस डायरेक्ट्री एंट्री भी शामिल होती है.

अपने-आप काम करने वाले डीएनएस के फ़ायदों की जानकारी (4) में दी गई है. यहां असली उपयोगकर्ता, डीएनएस, FQDN Stargazer.cosmopup.net के ज़रिए उपभोक्ता एंडपॉइंट से संपर्क कर सकता है.

इमेज 1

5e26a358454d1336.png

आपको इनके बारे में जानकारी मिलेगी

  • इंटरनल एचटीटीपी या एचटीटीपीएस लोड बैलेंसर बनाने का तरीका
  • अपने-आप काम करने वाले डीएनएस के साथ सेवा अटैचमेंट बनाने का तरीका
  • Private Service Connect प्रोड्यूसर सेवा को सेट अप करने का तरीका
  • अपने-आप काम करने वाले डीएनएस का इस्तेमाल करके, उपभोक्ता के एंडपॉइंट को ऐक्सेस करने का तरीका

आपको इन चीज़ों की ज़रूरत होगी

  • Google Cloud प्रोजेक्ट
  • आपके मालिकाना हक वाला सार्वजनिक डोमेन

2. शुरू करने से पहले

कोडलैब के साथ काम करने के लिए प्रोजेक्ट अपडेट करना

यह कोडलैब, Cloud Shell में gcloud कॉन्फ़िगरेशन लागू करने में मदद करने के लिए $variables का इस्तेमाल करता है.

Cloud Shell के अंदर, यह तरीका अपनाएं:

gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=YOUR-PROJECT-NAME
echo $projectname

3. प्रोड्यूसर सेटअप

प्रोड्यूसर VPC बनाना

Cloud Shell के अंदर, यह तरीका अपनाएं:

gcloud compute networks create producer-vpc --project=$projectname --subnet-mode=custom

प्रोड्यूसर सबनेट बनाना

Cloud Shell के अंदर, यह तरीका अपनाएं:

gcloud compute networks subnets create gce-subnet --project=$projectname --range=172.16.20.0/28 --network=producer-vpc --region=us-central1

Cloud Shell के अंदर, यह तरीका अपनाएं:

gcloud compute networks subnets create load-balancer-subnet --project=$projectname --range=172.16.10.0/28 --network=producer-vpc --region=us-central1

इंटरनल लोड बैलेंसर के लिए आईपी पता बुक करना

Cloud Shell के अंदर, यह तरीका अपनाएं:

gcloud compute addresses create lb-ip \
    --region=us-central1 \
    --subnet=load-balancer-subnet \
    --purpose=GCE_ENDPOINT

असाइन किया गया आईपी पता देखें

दिए गए आईपी पते को देखने के लिए, कंप्यूट पतों का ब्यौरा देने वाले कमांड का इस्तेमाल करें

gcloud compute addresses describe lb-ip  --region=us-central1 | grep address:

रीजनल प्रॉक्सी सबनेट बनाना

प्रॉक्सी ऐलोकेशन, VPC नेटवर्क लेवल पर होता है, न कि लोड बैलेंसर के लेवल पर. आपको किसी वर्चुअल नेटवर्क (VPC) के हर उस इलाके में प्रॉक्सी-ओनली सबनेट बनाना होगा जिसमें आप Envoy पर आधारित लोड बैलेंसर का इस्तेमाल करते हैं. अगर एक ही क्षेत्र और एक ही VPC नेटवर्क में कई लोड बैलेंसर डिप्लॉय किए जाते हैं, तो लोड बैलेंसिंग के लिए वे एक ही प्रॉक्सी-ओनली सबनेट इस्तेमाल करेंगे.

  1. क्लाइंट, लोड बैलेंसर के फ़ॉरवर्ड करने के नियम के आईपी पते और पोर्ट से कनेक्शन बनाता है.
  2. हर प्रॉक्सी, लोड बैलेंसर के फ़ॉरवर्ड करने के नियम के मुताबिक तय किए गए आईपी पते और पोर्ट के हिसाब से काम करती है. प्रॉक्सी में से एक, क्लाइंट के नेटवर्क कनेक्शन को पाता है और उसे खत्म कर देता है.
  3. प्रॉक्सी की मदद से, लोड बैलेंसर के यूआरएल मैप और बैकएंड सेवाओं के आधार पर, सही बैकएंड वीएम से कनेक्शन बनाया जाता है.

आपको सिर्फ़ प्रॉक्सी के लिए सबनेट बनाने होंगे. भले ही, आपका VPC नेटवर्क, ऑटो मोड हो या कस्टम मोड. सिर्फ़ प्रॉक्सी वाले सबनेट में 64 या उससे ज़्यादा आईपी पते होने चाहिए. यह /26 या इससे कम की लंबाई के प्रीफ़िक्स से मेल खाता है. हमारा सुझाव है कि सबनेट का साइज़ /23 (सिर्फ़ प्रॉक्सी वाले 512 पते) है.

Cloud Shell के अंदर, यह तरीका अपनाएं:

gcloud compute networks subnets create proxy-subnet-us-central \
  --purpose=REGIONAL_MANAGED_PROXY \
  --role=ACTIVE \
  --region=us-central1 \
  --network=producer-vpc \
  --range=172.16.0.0/23

Private Service Connect NAT सबनेट को बनाना

Private Service Connect के साथ इस्तेमाल करने के लिए, एक या इससे ज़्यादा खास सबनेट बनाएं. अगर किसी सेवा को पब्लिश करने के लिए Google Cloud Console का इस्तेमाल किया जा रहा है, तो उस प्रोसेस के दौरान सबनेट बनाए जा सकते हैं. सबनेट उसी क्षेत्र में बनाएं जिसमें सेवा का लोड बैलेंसर है. किसी सामान्य सबनेट को Private Service Connect सबनेट में नहीं बदला जा सकता.

Cloud Shell के अंदर, यह तरीका अपनाएं:

gcloud compute networks subnets create psc-nat-subnet \
    --project $projectname \
    --network producer-vpc \
    --region us-central1 \
    --range 100.100.10.0/24 \
    --purpose PRIVATE_SERVICE_CONNECT

प्रोड्यूसर फ़ायरवॉल के नियम बनाएं

Private Service Connect NAT सबनेट और सिर्फ़ ILB प्रॉक्सी सबनेट के बीच ट्रैफ़िक को अनुमति देने के लिए, फ़ायरवॉल के नियम कॉन्फ़िगर करें.

Cloud Shell के अंदर, यह तरीका अपनाएं:

gcloud compute --project=$projectname firewall-rules create allow-to-ingress-nat-subnet --direction=INGRESS --priority=1000 --network=producer-vpc --action=ALLOW --rules=all --source-ranges=100.100.10.0/24

Cloud Shell में, स्वास्थ्य की जांच के लिए एफ़डब्ल्यू-अनुमति दें. फ़ायरवॉल नियम बनाएं, ताकि Google Cloud की परफ़ॉर्मेंस की जांच को टीसीपी पोर्ट 80 पर प्रोड्यूसर सेवा (बैकएंड सेवा) तक पहुंचने की अनुमति मिल सके.

gcloud compute firewall-rules create fw-allow-health-check \
    --network=producer-vpc \
    --action=allow \
    --direction=ingress \
    --source-ranges=130.211.0.0/22,35.191.0.0/16 \
    --rules=tcp:80

इन्ग्रेस डेटा ट्रैफ़िक की अनुमति देने वाला नियम बनाएं. इससे सिर्फ़ प्रॉक्सी-ओनली सबनेट के लिए, फ़ायरवॉल नियम बनाया जा सकता है, ताकि लोड बैलेंसर, टीसीपी पोर्ट 80 पर बैकएंड इंस्टेंस से संपर्क कर सके.

gcloud compute firewall-rules create fw-allow-proxy-only-subnet \
    --network=producer-vpc \
    --action=allow \
    --direction=ingress \
    --source-ranges=172.16.0.0/23 \
    --rules=tcp:80

Cloud राऊटर और NAT का कॉन्फ़िगरेशन

Cloud NAT का इस्तेमाल, सॉफ़्टवेयर पैकेज इंस्टॉल करने के लिए कोडलैब में किया जाता है, क्योंकि वीएम इंस्टेंस में कोई बाहरी आईपी पता नहीं होता है.

Cloud Shell के अंदर, क्लाउड राऊटर बनाएं.

gcloud compute routers create cloud-router-for-nat --network producer-vpc --region us-central1

Cloud Shell के अंदर, NAT गेटवे बनाएं.

gcloud compute routers nats create cloud-nat-us-central1 --router=cloud-router-for-nat --auto-allocate-nat-external-ips --nat-all-subnet-ip-ranges --region us-central1

इंस्टेंस ग्रुप का कॉन्फ़िगरेशन

नीचे दिए गए सेक्शन में, आपको Compute Engine इंस्टेंस और मैनेज नहीं किया जा रहा इंस्टेंस ग्रुप. बाद के चरणों में इंस्टेंस ग्रुप का इस्तेमाल, लोड बैलेंसर बैकएंड सेवा के तौर पर किया जाएगा.

Cloud Shell के अंदर, क्षेत्र के हिसाब से स्वास्थ्य जांच की सुविधा बनाएं. यह जांच प्रोड्यूसर को दी जाती है.

gcloud compute instances create app-server-1 \
    --project=$projectname \
    --machine-type=e2-micro \
    --image-family debian-10 \
    --no-address \
    --image-project debian-cloud \
    --zone us-central1-a \
    --subnet=gce-subnet \
    --metadata startup-script="#! /bin/bash
      sudo apt-get update
      sudo apt-get install apache2 -y
      sudo service apache2 restart
      echo 'Welcome to App-Server-1 !!' | tee /var/www/html/index.html
      EOF"

Cloud Shell में, मैनेज नहीं किया जा रहा इंस्टेंस ग्रुप बनाएं.

gcloud compute instance-groups unmanaged create psc-instance-group --zone=us-central1-a

gcloud compute instance-groups unmanaged set-named-ports psc-instance-group --project=$projectname --zone=us-central1-a --named-ports=http:80

gcloud compute instance-groups unmanaged add-instances psc-instance-group --zone=us-central1-a --instances=app-server-1

लोड बैलेंसर को कॉन्फ़िगर करना

यहां दिए गए तरीके का पालन करके, इंटरनल एचटीटीपी लोड बैलेंसर को कॉन्फ़िगर किया जा सकता है. इसे बाद के चरण में, सेवा अटैचमेंट के तौर पर पब्लिश किया जाएगा

Cloud Shell में, क्षेत्र के हिसाब से स्वास्थ्य जांच करने की सुविधा बनाएं.

gcloud compute health-checks create http http-health-check \
    --region=us-central1 \
    --use-serving-port

Cloud Shell के अंदर, बैकएंड सेवा बनाएं.

 gcloud compute backend-services create l7-ilb-backend-service \
      --load-balancing-scheme=INTERNAL_MANAGED \
      --protocol=HTTP \
      --health-checks=http-health-check \
      --health-checks-region=us-central1 \
      --region=us-central1

Cloud Shell के अंदर, बैकएंड सेवा में बैकएंड जोड़ें.

gcloud compute backend-services add-backend l7-ilb-backend-service \
  --balancing-mode=UTILIZATION \
  --instance-group=psc-instance-group \
  --instance-group-zone=us-central1-a \
  --region=us-central1

Cloud Shell के अंदर, आने वाले अनुरोधों को बैकएंड सेवा पर भेजने के लिए यूआरएल मैप बनाएं.

gcloud compute url-maps create l7-ilb-map \
    --default-service l7-ilb-backend-service \
    --region=us-central1

एचटीटीपी टारगेट प्रॉक्सी बनाएं.

gcloud compute target-http-proxies create l7-ilb-proxy\
    --url-map=l7-ilb-map \
    --url-map-region=us-central1 \
    --region=us-central1

आने वाले अनुरोधों को प्रॉक्सी पर रूट करने के लिए, फ़ॉरवर्ड करने का नियम बनाएं. फ़ॉरवर्ड करने का नियम बनाने के लिए, सिर्फ़ प्रॉक्सी के लिए इस्तेमाल होने वाला सबनेट इस्तेमाल न करें.

 gcloud compute forwarding-rules create l7-ilb-forwarding-rule \
      --load-balancing-scheme=INTERNAL_MANAGED \
      --network=producer-vpc \
      --subnet=load-balancer-subnet \
      --address=lb-ip \
      --ports=80 \
      --region=us-central1 \
      --target-http-proxy=l7-ilb-proxy \
      --target-http-proxy-region=us-central1

4. लोड बैलेंसर की पुष्टि करें

Cloud Console से नेटवर्क सेवाएं → लोड बैलेंसिंग → लोड बैलेंसर पर जाएं. बैकएंड सेवा की परफ़ॉर्मेंस की जांच के बारे में ध्यान दें

881567cc11627009.png

‘l7-ilb-map' को चुनने पर फ़्रंटएंड आईपी पता मिलता है. यह उस आईपी पते से मेल खाना चाहिए जिसे आपने पहले चरण में ग्रेप किया था. इससे बैकएंड सेवा की पहचान होती है.

bab89b0a7b4f95e9.png

5. Private Service Connect सेवा का अटैचमेंट बनाएं

सेवा अटैचमेंट बनाएं

Cloud Shell में, सेवा अटैचमेंट बनाएं. '.' जोड़ना न भूलें. डाला गया है.

gcloud compute service-attachments create published-service --region=us-central1 --producer-forwarding-rule=l7-ilb-forwarding-rule --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=psc-nat-subnet --domain-names=cosmopup.net.

ज़रूरी नहीं: अगर शेयर किए गए VPC का इस्तेमाल किया जा रहा है, तो सेवा प्रोजेक्ट में सेवा अटैचमेंट बनाएं.

gcloud compute service-attachments create published-service --region=us-central1 --producer-forwarding-rule=l7-ilb-forwarding-rule --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=projects/<hostproject>/regions/us-central1/subnetworks/psc-nat-subnet --domain-names=cosmopup.net.

नए सर्विस अटैचमेंट को देखने के लिए, नेटवर्क सेवाएं → Private Service Connect पर जाएं

d27fee9073dbbe2.png

published-service चुनने पर उसके बारे में ज़्यादा जानकारी मिलती है. इसमें सेवा अटैचमेंट यूआरआई शामिल है. ग्राहक इसका इस्तेमाल निजी सेवा कनेक्शन बनाने के लिए करता है और वाला है.

503df63730c62df2.png

सेवा अटैचमेंट की जानकारी:

Project/<project name>/region/us-central1/service स्टोरफ़्रंट/published-service

6. उपभोक्ता सेटअप

उपभोक्ता एपीआई चालू करें

क्लाउड के अंदर शेल यह काम करता है:

gcloud services enable dns.googleapis.com
gcloud services enable servicedirectory.googleapis.com

उपभोक्ता के लिए VPC नेटवर्क बनाना

Cloud Shell के अंदर, यह तरीका अपनाएं:

gcloud compute networks create consumer-vpc --project=$projectname --subnet-mode=custom

उपभोक्ता सबनेट बनाना

Cloud Shell के अंदर, टेस्ट इंस्टेंस के लिए सबनेट बनाएं.

gcloud compute networks subnets create db1-subnet --project=$projectname --range=10.20.0.0/28 --network=consumer-vpc --region=us-central1

Cloud Shell के अंदर, उपभोक्ता एंडपॉइंट के लिए एक सबनेट बनाएं.

gcloud compute networks subnets create consumer-ep-subnet --project=$projectname --range=10.10.0.0/28 --network=consumer-vpc --region=us-central1

उपभोक्ता का एंडपॉइंट बनाना (ईमेल फ़ॉरवर्ड करने का नियम)

Cloud Shell में, स्टैटिक आईपी पता बनाएं. इसका इस्तेमाल उपभोक्ता एंडपॉइंट के लिए किया जाएगा.

gcloud compute addresses create psc-consumer-ip-1 --region=us-central1 --subnet=consumer-ep-subnet --addresses 10.10.0.10

हम उपभोक्ता एंडपॉइंट बनाने के लिए, पहले जनरेट किए गए सेवा अटैचमेंट के यूआरआई का इस्तेमाल करते हैं.

Cloud Shell के अंदर, उपभोक्ता एंडपॉइंट बनाएं.

gcloud compute forwarding-rules create stargazer --region=us-central1 --network=consumer-vpc --address=psc-consumer-ip-1 --target-service-attachment=projects/$projectname/regions/us-central1/serviceAttachments/published-service

7. उपभोक्ता के VPC नेटवर्क में कनेक्शन की पुष्टि करना

ग्राहक VPC नेटवर्क से, नेटवर्क सेवाएं → Private Service Connect→ कनेक्टेड एंडपॉइंट पर जाकर, सही निजी सेवा कनेक्शन की पुष्टि करें. स्थापित स्टारगेज़र कनेक्शन और हमारे द्वारा पहले बनाए गए संबंधित IP पते को नोट करें.

c60812433c3e1676.png

psc-consumer-1 को चुनते समय, सेवा अटैचमेंट यूआरआई के साथ-साथ जानकारी भी दी जाती है

14d3e3b1e0aee3c2.png

8. प्रोड्यूसर के VPC नेटवर्क में कनेक्शन की पुष्टि करें

इसके लिए, प्रोड्यूसर के VPC नेटवर्क में, नेटवर्क सेवाएं → Private Service Connect→पब्लिश की गई सेवा पर जाएं. इसके बाद, निजी सेवा कनेक्शन की पुष्टि करें. ध्यान दें कि पब्लिश किया गया सर्विस कनेक्शन अब, फ़ॉरवर्ड करने का एक नियम (कनेक्शन एंडपॉइंट) दिखाता है.

911dbd7421bcfd3a.png

9. अपने-आप काम करने वाले डीएनएस कॉन्फ़िगरेशन की पुष्टि करना

आइए, डीएनएस और सर्विस डायरेक्ट्री के कॉन्फ़िगरेशन का आकलन करते हैं.

क्लाउड डीएनएस कॉन्फ़िगरेशन

नेटवर्क सेवाएं → क्लाउड डीएनएस → ज़ोन पर जाएं. goog-psc-default-us-central & डीएनएस का नाम cosmopup.net अपने-आप जनरेट होता है.

4395e7b33fc42faa.png

डीएनएस और सर्विस डायरेक्ट्री का कॉन्फ़िगरेशन देखना

ज़ोन का नाम चुनने से, हम यह देख पाते हैं कि सर्विस डायरेक्ट्री को Cloud DNS के साथ कैसे इंटिग्रेट किया गया है.

e4fe44d945b20451.png

सर्विस डायरेक्ट्री का कॉन्फ़िगरेशन

नेटवर्क सेवाएं → सर्विस डायरेक्ट्री पर जाएं

क्या आपको उपभोक्ता के एंडपॉइंट का नाम ‘stargazer' याद करना है? इसे सर्विस डायरेक्ट्री में अपने-आप प्रोग्राम किया जाता है. इससे हमें एफ़क्यूडीएन stargazer.goog-psc-default–us-central1 का इस्तेमाल करके उपभोक्ता एंडपॉइंट तक पहुंचने में मदद मिलती है

602deab65b5ac315.png

10. प्रोड्यूसर सेवा के लिए उपभोक्ता के ऐक्सेस की पुष्टि करें

हम उपभोक्ताओं के VPC नेटवर्क से एक वीएम बनाएंगे, ताकि पब्लिश की गई सेवा की कनेक्टिविटी की जांच की जा सके. इसके लिए, हम उपभोक्ता एंडपॉइंट stargazer.cosmopup.net का इस्तेमाल करेंगे

Cloud Shell के अंदर उपभोक्ता vpc में टेस्ट इंस्टेंस बनाएं.

gcloud compute instances create db1 \
    --zone=us-central1-a \
    --image-family=debian-10 \
    --image-project=debian-cloud \
    --subnet=db1-subnet \
    --no-address

आईएपी को अपने वीएम इंस्टेंस से कनेक्ट करने की अनुमति देने के लिए, फ़ायरवॉल का नियम बनाएं:

  • यह उन सभी वीएम इंस्टेंस पर लागू होता है जिन्हें आपको आईएपी का इस्तेमाल करके ऐक्सेस करना है.
  • आईपी रेंज 35.235.240.0/20 से, इन्ग्रेस डेटा ट्रैफ़िक की अनुमति देता है. इस रेंज में वे सभी आईपी पते शामिल होते हैं जिनका इस्तेमाल आईएपी, टीसीपी फ़ॉरवर्ड करने के लिए करता है.

Cloud Shell के अंदर, IAP फ़ायरवॉल का नियम बनाएं.

gcloud compute firewall-rules create ssh-iap-consumer \
    --network consumer-vpc \
    --allow tcp:22 \
    --source-ranges=35.235.240.0/20

क्लाउड शेल में आईएपी का इस्तेमाल करके, उपभोक्ता-वीएम में लॉग इन करें. इससे कर्ल चलाकर प्रोड्यूसर सेवा से कनेक्टिविटी की पुष्टि करने में मदद मिलती है. अगर टाइम आउट हो जाए, तो फिर से कोशिश करें.

gcloud compute ssh db1 --project=$projectname --zone=us-central1-a --tunnel-through-iap

प्रोड्यूसर सेवा से कर्लिंग कनेक्टिविटी की पुष्टि करें. वर्चुअल मशीन (वीएम) के बाहर निकलने की पुष्टि करने के बाद, Cloud Shell प्रॉम्प्ट पर वापस जाना

क्लाउड शेल के अंदर, आपके कस्टम डोमेन के लिए एक कर्ल परफ़ॉर्म करता है, जैसे कि stargazer.[custom-domain.com]. नीचे दिए गए आउटपुट में, stargazer.cosmopup.net पर एक कर्ल किया जाता है

user@db1:~$ curl -v stargazer.cosmopup.net
*   Trying 10.10.0.10...
* TCP_NODELAY set
* Expire in 200 ms for 4 (transfer 0x55d3aa8190f0)
* Connected to stargazer.cosmopup.net (10.10.0.10) port 80 (#0)
> GET / HTTP/1.1
> Host: stargazer.cosmopup.net
> User-Agent: curl/7.64.0
> Accept: */*
> 
< HTTP/1.1 200 OK
< date: Thu, 22 Dec 2022 00:16:25 GMT
< server: Apache/2.4.38 (Debian)
< last-modified: Wed, 21 Dec 2022 20:26:32 GMT
< etag: "1b-5f05c5e43a083"
< accept-ranges: bytes
< content-length: 27
< content-type: text/html
< via: 1.1 google
< 
Welcome to App-Server-1 !!

क्लीनअप टास्क शुरू करने के लिए, वर्चुअल मशीन (वीएम) से Cloud Shell के अनुरोध पर वापस जाएं

11. व्यवस्थित करें

Cloud Shell से, कोडलैब के कॉम्पोनेंट मिटाएं.

gcloud compute forwarding-rules delete stargazer --region=us-central1 --quiet

gcloud compute instances delete db1 --zone=us-central1-a --quiet 

gcloud compute addresses delete psc-consumer-ip-1 --region=us-central1 --quiet 

gcloud compute networks subnets delete consumer-ep-subnet db1-subnet --region=us-central1 --quiet 

gcloud compute firewall-rules delete ssh-iap-consumer --quiet 

gcloud compute networks delete consumer-vpc --quiet 

gcloud compute service-attachments delete published-service --region=us-central1 --quiet 

gcloud compute forwarding-rules delete l7-ilb-forwarding-rule --region=us-central1 --quiet 

gcloud compute target-http-proxies delete l7-ilb-proxy --region=us-central1 --quiet 
 
gcloud compute url-maps delete l7-ilb-map --region=us-central1 --quiet 
 
gcloud compute backend-services delete l7-ilb-backend-service --region=us-central1 --quiet
 
gcloud compute instance-groups unmanaged delete psc-instance-group --zone=us-central1-a --quiet
 
gcloud compute instances delete app-server-1 --zone=us-central1-a --quiet 
 
gcloud compute firewall-rules delete allow-to-ingress-nat-subnet fw-allow-health-check fw-allow-proxy-only-subnet --quiet 
 
gcloud compute addresses delete lb-ip --region=us-central1 --quiet 
 
gcloud compute networks subnets delete gce-subnet load-balancer-subnet psc-nat-subnet proxy-subnet-us-central --region=us-central1 --quiet 
 
gcloud compute routers delete cloud-router-for-nat --region=us-central1 --quiet 
 
gcloud compute networks delete producer-vpc --quiet 

12. बधाई हो

बधाई हो, आपने अपने-आप डीएनएस कॉन्फ़िगरेशन की मदद से, Private Service Connect के एंडपॉइंट को कॉन्फ़िगर और उसकी पुष्टि कर दी है.

आपने प्रोड्यूसर इंफ़्रास्ट्रक्चर बनाया और सार्वजनिक डोमेन रजिस्ट्रेशन के साथ सेवा अटैचमेंट जोड़ा. आपने अपने-आप जनरेट होने वाले डीएनएस का इस्तेमाल करके, उपभोक्ता के VPC नेटवर्क में उपभोक्ता एंडपॉइंट बनाने का तरीका सीखा.

Cosmopup को लगता है कि कोडलैब शानदार हैं!!

8c2a10eb841f7b01.jpeg

आगे क्या होगा?

इनमें से कुछ कोडलैब देखें...

आगे पढ़ें और वीडियो

पहचान फ़ाइलें