अपने-आप डीएनएस कॉन्फ़िगरेशन की मदद से Private Service Connect

1. परिचय

ऑटोमैटिक डीएनएस कॉन्फ़िगरेशन के साथ Private Service Connect, Service Directory और Cloud DNS का इस्तेमाल करता है. इससे, डीएनएस रिकॉर्ड अपने-आप बन जाते हैं. इन रिकॉर्ड को, उपभोक्ता के Private Service Connect एंडपॉइंट के आईपी पतों के साथ प्रोग्राम किया जाता है.

आपको क्या बनाने को मिलेगा

इस कोडलैब में, आपको Private Service Connect का एक ऐसा आर्किटेक्चर बनाना है जिसमें ऑटोमैटिक डीएनएस का इस्तेमाल किया गया हो. इसे फ़िगर 1 में दिखाया गया है.

ऑटोमैटिक डीएनएस की सुविधा इन वजहों से काम करती है:

  1. निजी सेवा कनेक्ट सेवा अटैचमेंट बनाते समय, प्रोड्यूसर सेवा अटैचमेंट, ‘– domain-names' फ़्लैग के साथ मालिकाना हक वाला सार्वजनिक डोमेन उपलब्ध कराकर, डीएनएस को अपने-आप शुरू करता है.
  2. उपयोगकर्ता, एंडपॉइंट का नाम तय करता है.
  3. ऑटोमैटिक डीएनएस, goog-psc-default-us-central1 नाम का डीएनएस ज़ोन और cosmopup.net नाम का डीएनएस नाम बनाता है. इसके अलावा, यह सर्विस डायरेक्ट्री की एक एंट्री भी बनाता है, जिसमें उपभोक्ता के एंडपॉइंट का नाम होता है.

ऑटोमैटिक डीएनएस के फ़ायदे को (4) में दिखाया गया है. इसमें असली उपयोगकर्ता, डीएनएस के ज़रिए उपभोक्ता एंडपॉइंट से कम्यूनिकेट कर सकता है. इसके लिए, FQDN stargazer.cosmopup.net का इस्तेमाल किया जाता है.

इमेज 1

5e26a358454d1336.png

आपको क्या सीखने को मिलेगा

  • इंटरनल एचटीटीपी या एचटीटीपीएस लोड बैलेंसर बनाने का तरीका
  • ऑटोमैटिक डीएनएस की सुविधा के साथ सेवा अटैचमेंट बनाने का तरीका
  • Private Service Connect की प्रोड्यूसर सेवा कैसे सेट अप करें
  • ऑटोमैटिक डीएनएस का इस्तेमाल करके, उपभोक्ता एंडपॉइंट को कैसे ऐक्सेस करें

आपको इन चीज़ों की ज़रूरत होगी

  • Google Cloud प्रोजेक्ट
  • ऐसा सार्वजनिक डोमेन जिसका मालिकाना हक आपके पास है

2. शुरू करने से पहले

कोडलैब के साथ काम करने के लिए प्रोजेक्ट को अपडेट करना

इस कोडलैब में, Cloud Shell में gcloud कॉन्फ़िगरेशन लागू करने में मदद करने के लिए, $variables का इस्तेमाल किया गया है.

Cloud Shell में, यह तरीका अपनाएं:

gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=YOUR-PROJECT-NAME
echo $projectname

3. Producer Setup

प्रोड्यूसर वीपीसी बनाना

Cloud Shell में, यह तरीका अपनाएं:

gcloud compute networks create producer-vpc --project=$projectname --subnet-mode=custom

प्रोड्यूसर सबनेट बनाना

Cloud Shell में, यह तरीका अपनाएं:

gcloud compute networks subnets create gce-subnet --project=$projectname --range=172.16.20.0/28 --network=producer-vpc --region=us-central1

Cloud Shell में, यह तरीका अपनाएं:

gcloud compute networks subnets create load-balancer-subnet --project=$projectname --range=172.16.10.0/28 --network=producer-vpc --region=us-central1

इंटरनल लोड बैलेंसर के लिए आईपी पता रिज़र्व करना

Cloud Shell में, यह तरीका अपनाएं:

gcloud compute addresses create lb-ip \
    --region=us-central1 \
    --subnet=load-balancer-subnet \
    --purpose=GCE_ENDPOINT

अलॉट किया गया आईपी पता देखना

अलॉट किया गया आईपी पता देखने के लिए, compute addresses describe command का इस्तेमाल करें

gcloud compute addresses describe lb-ip  --region=us-central1 | grep address:

क्षेत्र के हिसाब से प्रॉक्सी सबनेट बनाना

प्रॉक्सी का असाइनमेंट, लोड बैलेंसर के लेवल पर नहीं, बल्कि वीपीसी नेटवर्क के लेवल पर होता है. आपको वर्चुअल नेटवर्क (वीपीसी) के हर उस क्षेत्र में एक सिर्फ़ प्रॉक्सी वाला सबनेट बनाना होगा जिसमें Envoy पर आधारित लोड बैलेंसर का इस्तेमाल किया जाता है. अगर एक ही क्षेत्र और एक ही वीपीसी नेटवर्क में कई लोड बैलेंसर डिप्लॉय किए जाते हैं, तो वे लोड बैलेंसिंग के लिए, प्रॉक्सी-ओनली सबनेट का इस्तेमाल करते हैं.

  1. क्लाइंट, लोड बैलेंसर के फ़ॉरवर्डिंग नियम के आईपी पते और पोर्ट से कनेक्ट होता है.
  2. हर प्रॉक्सी, लोड बैलेंसर के फ़ॉरवर्डिंग नियम में बताए गए आईपी पते और पोर्ट पर सुनता है. कोई प्रॉक्सी, क्लाइंट के नेटवर्क कनेक्शन को स्वीकार करती है और उसे बंद कर देती है.
  3. प्रॉक्सी, लोड बैलेंसर के यूआरएल मैप और बैकएंड सेवाओं के हिसाब से, सही बैकएंड वीएम से कनेक्शन बनाता है.

आपको सिर्फ़ प्रॉक्सी वाले सबनेट बनाने होंगे. इससे कोई फ़र्क़ नहीं पड़ता कि आपका वीपीसी नेटवर्क ऑटो मोड में है या कस्टम मोड में. प्रॉक्सी-ओनली वाले सबनेट में 64 या उससे ज़्यादा आईपी पते होने चाहिए. यह /26 या उससे कम लंबाई के प्रीफ़िक्स से मेल खाता है. सबनेट का सुझाया गया साइज़ /23 (सिर्फ़ प्रॉक्सी के लिए 512 पते) है.

Cloud Shell में, यह तरीका अपनाएं:

gcloud compute networks subnets create proxy-subnet-us-central \
  --purpose=REGIONAL_MANAGED_PROXY \
  --role=ACTIVE \
  --region=us-central1 \
  --network=producer-vpc \
  --range=172.16.0.0/23

Private Service Connect NAT सबनेट बनाना

Private Service Connect के साथ इस्तेमाल करने के लिए, एक या उससे ज़्यादा सबनेट बनाएं. अगर कोई सेवा पब्लिश करने के लिए Google Cloud Console का इस्तेमाल किया जा रहा है, तो इस प्रोसेस के दौरान सबनेट बनाए जा सकते हैं. सबनेट को उसी इलाके में बनाएं जहां सेवा का लोड बैलेंसर मौजूद है. सामान्य सबनेट को Private Service Connect सबनेट में नहीं बदला जा सकता.

Cloud Shell में, यह तरीका अपनाएं:

gcloud compute networks subnets create psc-nat-subnet \
    --project $projectname \
    --network producer-vpc \
    --region us-central1 \
    --range 100.100.10.0/24 \
    --purpose PRIVATE_SERVICE_CONNECT

डेटा उपलब्ध कराने वाले खाते के लिए फ़ायरवॉल के नियम बनाना

फ़ायरवॉल के नियम कॉन्फ़िगर करें, ताकि Private Service Connect NAT सबनेट और ILB प्रॉक्सी-ओनली सबनेट के बीच ट्रैफ़िक को अनुमति दी जा सके.

Cloud Shell में, यह तरीका अपनाएं:

gcloud compute --project=$projectname firewall-rules create allow-to-ingress-nat-subnet --direction=INGRESS --priority=1000 --network=producer-vpc --action=ALLOW --rules=all --source-ranges=100.100.10.0/24

Cloud Shell में, fw-allow-health-check फ़ायरवॉल का नियम बनाएं. इससे Google Cloud के हेल्थ चेक, टीसीपी पोर्ट 80 पर मौजूद प्रोड्यूसर सेवा (बैकएंड सेवा) तक पहुंच पाएंगे.

gcloud compute firewall-rules create fw-allow-health-check \
    --network=producer-vpc \
    --action=allow \
    --direction=ingress \
    --source-ranges=130.211.0.0/22,35.191.0.0/16 \
    --rules=tcp:80

प्रॉक्सी-ओनली सबनेट के लिए, इन्ग्रेस डेटा ट्रैफ़िक को अनुमति देने वाला फ़ायरवॉल नियम बनाएं. इससे लोड बैलेंसर, टीसीपी पोर्ट 80 पर बैकएंड इंस्टेंस के साथ कम्यूनिकेट कर पाएगा.

gcloud compute firewall-rules create fw-allow-proxy-only-subnet \
    --network=producer-vpc \
    --action=allow \
    --direction=ingress \
    --source-ranges=172.16.0.0/23 \
    --rules=tcp:80

Cloud Router और NAT कॉन्फ़िगरेशन

सॉफ़्टवेयर पैकेज इंस्टॉल करने के लिए, इस कोडलैब में Cloud NAT का इस्तेमाल किया जाता है. ऐसा इसलिए, क्योंकि वीएम इंस्टेंस के पास बाहरी आईपी पता नहीं होता है.

Cloud Shell में, क्लाउड राउटर बनाएं.

gcloud compute routers create cloud-router-for-nat --network producer-vpc --region us-central1

Cloud Shell में, NAT गेटवे बनाएं.

gcloud compute routers nats create cloud-nat-us-central1 --router=cloud-router-for-nat --auto-allocate-nat-external-ips --nat-all-subnet-ip-ranges --region us-central1

इंस्टेंस ग्रुप का कॉन्फ़िगरेशन

इस सेक्शन में, Compute Engine इंस्टेंस और अनमैनेज्ड इंस्टेंस ग्रुप बनाया जाएगा. बाद के चरणों में, इंस्टेंस ग्रुप का इस्तेमाल लोड बैलेंसर बैकएंड सेवा के तौर पर किया जाएगा.

Cloud Shell में, प्रोड्यूसर सेवा को पास किया गया रीजनल हेल्थ-चेक बनाएं.

gcloud compute instances create app-server-1 \
    --project=$projectname \
    --machine-type=e2-micro \
    --image-family debian-10 \
    --no-address \
    --image-project debian-cloud \
    --zone us-central1-a \
    --subnet=gce-subnet \
    --metadata startup-script="#! /bin/bash
      sudo apt-get update
      sudo apt-get install apache2 -y
      sudo service apache2 restart
      echo 'Welcome to App-Server-1 !!' | tee /var/www/html/index.html
      EOF"

Cloud Shell में, अनमैनेज्ड इंस्टेंस ग्रुप बनाएं.

gcloud compute instance-groups unmanaged create psc-instance-group --zone=us-central1-a

gcloud compute instance-groups unmanaged set-named-ports psc-instance-group --project=$projectname --zone=us-central1-a --named-ports=http:80

gcloud compute instance-groups unmanaged add-instances psc-instance-group --zone=us-central1-a --instances=app-server-1

लोड बैलेंसर को कॉन्फ़िगर करना

यहां दिए गए चरणों में, इंटरनल एचटीटीपी लोड बैलेंसर को कॉन्फ़िगर किया जाएगा. इसे बाद के चरण में, सेवा अटैचमेंट के तौर पर पब्लिश किया जाएगा

Cloud Shell में, रीजनल हेल्थ-चेक बनाएं.

gcloud compute health-checks create http http-health-check \
    --region=us-central1 \
    --use-serving-port

Cloud Shell में, बैकएंड सेवा बनाएं.

 gcloud compute backend-services create l7-ilb-backend-service \
      --load-balancing-scheme=INTERNAL_MANAGED \
      --protocol=HTTP \
      --health-checks=http-health-check \
      --health-checks-region=us-central1 \
      --region=us-central1

Cloud Shell में, बैकएंड सेवा में बैकएंड जोड़ें.

gcloud compute backend-services add-backend l7-ilb-backend-service \
  --balancing-mode=UTILIZATION \
  --instance-group=psc-instance-group \
  --instance-group-zone=us-central1-a \
  --region=us-central1

Cloud Shell में, यूआरएल मैप बनाएं, ताकि आने वाले अनुरोधों को बैकएंड सेवा पर रूट किया जा सके.

gcloud compute url-maps create l7-ilb-map \
    --default-service l7-ilb-backend-service \
    --region=us-central1

एचटीटीपी टारगेट प्रॉक्सी बनाएं.

gcloud compute target-http-proxies create l7-ilb-proxy\
    --url-map=l7-ilb-map \
    --url-map-region=us-central1 \
    --region=us-central1

प्रॉक्सी पर आने वाले अनुरोधों को रूट करने के लिए, फ़ॉरवर्ड करने का नियम बनाएं. फ़ॉरवर्ड करने का नियम बनाने के लिए, सिर्फ़ प्रॉक्सी वाले सबनेट का इस्तेमाल न करें.

 gcloud compute forwarding-rules create l7-ilb-forwarding-rule \
      --load-balancing-scheme=INTERNAL_MANAGED \
      --network=producer-vpc \
      --subnet=load-balancer-subnet \
      --address=lb-ip \
      --ports=80 \
      --region=us-central1 \
      --target-http-proxy=l7-ilb-proxy \
      --target-http-proxy-region=us-central1

4. लोड बैलेंसर की पुष्टि करना

Cloud Console में, नेटवर्क सेवाएं → लोड बैलेंसिंग → लोड बैलेंसर पर जाएं. बैकएंड सेवा के लिए, सेहत की जांच के सफल होने की सूचना दें

881567cc11627009.png

'l7-ilb-map' को चुनने पर, फ़्रंटएंड आईपी पता मिलता है. यह आईपी पता, उस आईपी पते से मेल खाना चाहिए जिसे आपने पिछले चरण में grepped किया था. साथ ही, यह बैकएंड सेवा की पहचान करता है.

bab89b0a7b4f95e9.png

5. Private Service Connect सेवा अटैचमेंट बनाना

सेवा अटैचमेंट बनाना

Cloud Shell में, सेवा अटैचमेंट बनाएं. डोमेन नेम के आखिर में ‘.' जोड़ना न भूलें.

gcloud compute service-attachments create published-service --region=us-central1 --producer-forwarding-rule=l7-ilb-forwarding-rule --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=psc-nat-subnet --domain-names=cosmopup.net.

ज़रूरी नहीं: अगर शेयर किए गए वीपीसी का इस्तेमाल किया जा रहा है, तो सेवा से जुड़े प्रोजेक्ट में सेवा अटैचमेंट बनाएं.

gcloud compute service-attachments create published-service --region=us-central1 --producer-forwarding-rule=l7-ilb-forwarding-rule --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=projects/<hostproject>/regions/us-central1/subnetworks/psc-nat-subnet --domain-names=cosmopup.net.

नए सर्विस अटैचमेंट को देखने के लिए, नेटवर्क सेवाएं → Private Service Connect पर जाएं

d27fee9073dbbe2.png

published-service चुनने पर, ज़्यादा जानकारी मिलती है. इसमें सेवा अटैचमेंट यूआरआई भी शामिल है. इसका इस्तेमाल उपभोक्ता, Private Service Connect कनेक्शन बनाने के लिए करता है. साथ ही, इसमें डोमेन का नाम भी शामिल है.

503df63730c62df2.png

सेवा अटैचमेंट की जानकारी:

projects/<project name>/regions/us-central1/serviceAttachments/published-service

6. उपयोगकर्ता का सेटअप

उपयोगकर्ता के एपीआई चालू करना

Cloud में, Shell ये काम करेगी:

gcloud services enable dns.googleapis.com
gcloud services enable servicedirectory.googleapis.com

उपयोगकर्ता वीपीसी नेटवर्क बनाना

Cloud Shell में, यह तरीका अपनाएं:

gcloud compute networks create consumer-vpc --project=$projectname --subnet-mode=custom

उपयोगकर्ता के सबनेट बनाना

Cloud Shell में, टेस्ट इंस्टेंस के लिए सबनेट बनाएं.

gcloud compute networks subnets create db1-subnet --project=$projectname --range=10.20.0.0/28 --network=consumer-vpc --region=us-central1

Cloud Shell में, उपभोक्ता एंडपॉइंट के लिए एक सबनेट बनाएं.

gcloud compute networks subnets create consumer-ep-subnet --project=$projectname --range=10.10.0.0/28 --network=consumer-vpc --region=us-central1

उपयोगकर्ता के लिए एंडपॉइंट (फ़ॉरवर्ड करने का नियम) बनाना

Cloud Shell में, स्टैटिक आईपी पता बनाएं. इसका इस्तेमाल उपभोक्ता एंडपॉइंट के लिए किया जाएगा.

gcloud compute addresses create psc-consumer-ip-1 --region=us-central1 --subnet=consumer-ep-subnet --addresses 10.10.0.10

हम पहले से जनरेट किए गए सेवा अटैचमेंट यूआरआई का इस्तेमाल करके, उपभोक्ता एंडपॉइंट बनाते हैं.

Cloud Shell में, उपभोक्ता एंडपॉइंट बनाएं.

gcloud compute forwarding-rules create stargazer --region=us-central1 --network=consumer-vpc --address=psc-consumer-ip-1 --target-service-attachment=projects/$projectname/regions/us-central1/serviceAttachments/published-service

7. उपयोगकर्ता के वीपीसी नेटवर्क में कनेक्शन की पुष्टि करना

उपयोगकर्ता के वीपीसी नेटवर्क से, Private Service Connect के कनेक्शन की पुष्टि करें. इसके लिए, नेटवर्क सेवाएं → Private Service Connect→ कनेक्ट किए गए एंडपॉइंट पर जाएं. हमने पहले जो स्टारगेज़र कनेक्शन और उससे जुड़ा आईपी पता बनाया था उसे नोट करें.

c60812433c3e1676.png

psc-consumer-1 को चुनने पर, सेवा अटैचमेंट यूआरआई सहित अन्य जानकारी दी जाती है

14d3e3b1e0aee3c2.png

8. प्रोड्यूसर के वीपीसी नेटवर्क में कनेक्शन की पुष्टि करना

प्रोड्यूसर के वीपीसी नेटवर्क में जाकर, Private Service Connect की मदद से कनेक्शन बनने की पुष्टि करें. इसके लिए, नेटवर्क सेवाएं → Private Service Connect→पब्लिश की गई सेवा पर जाएं. ध्यान दें कि पब्लिश किए गए सेवा कनेक्शन में अब कॉल को दूसरे नंबर पर भेजे जाने से जुड़ा एक नियम (कनेक्शन एंडपॉइंट) दिखता है.

911dbd7421bcfd3a.png

9. ऑटोमैटिक डीएनएस कॉन्फ़िगरेशन की पुष्टि करना

आइए, डीएनएस और सेवा डायरेक्ट्री के कॉन्फ़िगरेशन का आकलन करें.

Cloud DNS कॉन्फ़िगरेशन

नेटवर्क सेवाएं → Cloud DNS → ज़ोन पर जाएं. ज़ोन goog-psc-default-us-central & डीएनएस का नाम cosmopup.net. अपने-आप जनरेट होता है.

4395e7b33fc42faa.png

डीएनएस और सेवा डायरेक्ट्री का कॉन्फ़िगरेशन देखना

ज़ोन का नाम चुनने से, हमें यह पता चलता है कि Service Directory को Cloud DNS के साथ कैसे इंटिग्रेट किया गया है.

e4fe44d945b20451.png

Service Directory का कॉन्फ़िगरेशन

नेटवर्क सेवाएं → सेवा डायरेक्ट्री पर जाएं

क्या आपको उपभोक्ता एंडपॉइंट का नाम ‘stargazer' याद है? इसे Service Directory में अपने-आप प्रोग्राम किया जाता है. इससे हम FQDN stargazer.goog-psc-default–us-central1 का इस्तेमाल करके, उपभोक्ता एंडपॉइंट तक पहुंच पाते हैं

602deab65b5ac315.png

10. उपभोक्ता के पास, प्रोड्यूसर की सेवा का ऐक्सेस है या नहीं, इसकी पुष्टि करना

हम ग्राहक के वीपीसी नेटवर्क से एक वीएम बनाएंगे. इससे पब्लिश की गई सेवा की कनेक्टिविटी की जांच की जा सकेगी. इसके लिए, ग्राहक के एंडपॉइंट stargazer.cosmopup.net को ऐक्सेस किया जाएगा

Cloud Shell में, उपभोक्ता वीपीसी में टेस्ट इंस्टेंस बनाएं.

gcloud compute instances create db1 \
    --zone=us-central1-a \
    --image-family=debian-10 \
    --image-project=debian-cloud \
    --subnet=db1-subnet \
    --no-address

आईएपी को अपने वीएम इंस्टेंस से कनेक्ट करने की अनुमति देने के लिए, फ़ायरवॉल का ऐसा नियम बनाएं जो:

  • यह उन सभी वीएम इंस्टेंस पर लागू होता है जिन्हें आपको आईएपी का इस्तेमाल करके ऐक्सेस करना है.
  • इसकी मदद से, 35.235.240.0/20 आईपी रेंज से इन्ग्रेस ट्रैफ़िक को आने की अनुमति मिलती है. इस रेंज में वे सभी आईपी पते शामिल हैं जिनका इस्तेमाल IAP, टीसीपी फ़ॉरवर्डिंग के लिए करता है.

Cloud Shell में, IAP फ़ायरवॉल नियम बनाएं.

gcloud compute firewall-rules create ssh-iap-consumer \
    --network consumer-vpc \
    --allow tcp:22 \
    --source-ranges=35.235.240.0/20

Cloud Shell में IAP का इस्तेमाल करके, उपभोक्ता-वीएम में लॉग इन करें. इसके बाद, curl करके यह पुष्टि करें कि प्रोड्यूसर सेवा से कनेक्टिविटी है. अगर समयसीमा खत्म हो गई है, तो फिर से कोशिश करें.

gcloud compute ssh db1 --project=$projectname --zone=us-central1-a --tunnel-through-iap

curl का इस्तेमाल करके, प्रोड्यूसर सेवा से कनेक्टिविटी की पुष्टि करें. पुष्टि हो जाने के बाद, वीएम से बाहर निकलें और Cloud Shell प्रॉम्प्ट पर वापस जाएं

Cloud Shell में, अपने कस्टम डोमेन के लिए कर्ल करें. उदाहरण के लिए, stargazer.[custom-domain.com]. नीचे दिए गए आउटपुट में, stargazer.cosmopup.net के ख़िलाफ़ कर्ल किया गया है

user@db1:~$ curl -v stargazer.cosmopup.net
*   Trying 10.10.0.10...
* TCP_NODELAY set
* Expire in 200 ms for 4 (transfer 0x55d3aa8190f0)
* Connected to stargazer.cosmopup.net (10.10.0.10) port 80 (#0)
> GET / HTTP/1.1
> Host: stargazer.cosmopup.net
> User-Agent: curl/7.64.0
> Accept: */*
> 
< HTTP/1.1 200 OK
< date: Thu, 22 Dec 2022 00:16:25 GMT
< server: Apache/2.4.38 (Debian)
< last-modified: Wed, 21 Dec 2022 20:26:32 GMT
< etag: "1b-5f05c5e43a083"
< accept-ranges: bytes
< content-length: 27
< content-type: text/html
< via: 1.1 google
< 
Welcome to App-Server-1 !!

क्लीन-अप टास्क शुरू करने के लिए, वीएम से बाहर निकलें और Cloud Shell प्रॉम्प्ट पर वापस जाएं

11. व्यवस्थित करें

Cloud Shell से, कोडलैब कॉम्पोनेंट मिटाएं.

gcloud compute forwarding-rules delete stargazer --region=us-central1 --quiet

gcloud compute instances delete db1 --zone=us-central1-a --quiet 

gcloud compute addresses delete psc-consumer-ip-1 --region=us-central1 --quiet 

gcloud compute networks subnets delete consumer-ep-subnet db1-subnet --region=us-central1 --quiet 

gcloud compute firewall-rules delete ssh-iap-consumer --quiet 

gcloud compute networks delete consumer-vpc --quiet 

gcloud compute service-attachments delete published-service --region=us-central1 --quiet 

gcloud compute forwarding-rules delete l7-ilb-forwarding-rule --region=us-central1 --quiet 

gcloud compute target-http-proxies delete l7-ilb-proxy --region=us-central1 --quiet 
 
gcloud compute url-maps delete l7-ilb-map --region=us-central1 --quiet 
 
gcloud compute backend-services delete l7-ilb-backend-service --region=us-central1 --quiet
 
gcloud compute instance-groups unmanaged delete psc-instance-group --zone=us-central1-a --quiet
 
gcloud compute instances delete app-server-1 --zone=us-central1-a --quiet 
 
gcloud compute firewall-rules delete allow-to-ingress-nat-subnet fw-allow-health-check fw-allow-proxy-only-subnet --quiet 
 
gcloud compute addresses delete lb-ip --region=us-central1 --quiet 
 
gcloud compute networks subnets delete gce-subnet load-balancer-subnet psc-nat-subnet proxy-subnet-us-central --region=us-central1 --quiet 
 
gcloud compute routers delete cloud-router-for-nat --region=us-central1 --quiet 
 
gcloud compute networks delete producer-vpc --quiet 

12. बधाई हो

बधाई हो, आपने ऑटोमैटिक डीएनएस कॉन्फ़िगरेशन के साथ Private Service Connect एंडपॉइंट को कॉन्फ़िगर और पुष्टि कर लिया है.

आपने प्रोड्यूसर इंफ़्रास्ट्रक्चर बनाया है. साथ ही, आपने सार्वजनिक डोमेन रजिस्ट्रेशन के साथ एक सेवा अटैचमेंट जोड़ा है. आपने सीखा कि उपभोक्ता वीपीसी नेटवर्क में उपभोक्ता एंडपॉइंट कैसे बनाया जाता है. इससे, अपने-आप जनरेट होने वाले डीएनएस का इस्तेमाल करके, ऑन-प्रिमाइसेस सेवा से कनेक्ट किया जा सकता है.

Cosmopup को कोडलैब बहुत पसंद हैं!!

8c2a10eb841f7b01.jpeg

आगे क्या करना है?

यहां दिए गए कुछ कोडलैब आज़माएं...

ज़्यादा जानकारी और वीडियो

रेफ़रंस दस्तावेज़