अपने-आप डीएनएस कॉन्फ़िगरेशन की मदद से Private Service Connect

1. परिचय

अपने-आप डीएनएस कॉन्फ़िगरेशन की सुविधा वाले Private Service Connect, Service Directory और Cloud DNS का इस्तेमाल करके, अपने-आप डीएनएस रिकॉर्ड बनाता है. ये रिकॉर्ड, उपभोक्ता के Private Service Connect एंडपॉइंट के आईपी पतों के साथ प्रोग्राम किए जाते हैं.

आपको क्या बनाना है

इस कोडलैब में, आपको Private Service Connect का पूरा आर्किटेक्चर बनाना है. इसमें, अपने-आप काम करने वाले डीएनएस के इस्तेमाल के बारे में बताया गया है, जैसा कि पहले चित्र में दिखाया गया है.

ऑटोमैटिक डीएनएस की सुविधा इनकी मदद से काम करती है:

  1. प्रॉड्यूसर सेवा अटैचमेंट, निजी सेवा कनेक्ट सेवा अटैचमेंट बनाते समय, '– domain-names' फ़्लैग के साथ मालिकाना हक वाले सार्वजनिक डोमेन की जानकारी देकर, अपने-आप डीएनएस शुरू करता है.
  2. उपभोक्ता, एंडपॉइंट का नाम तय करता है.
  3. अपने-आप डीएनएस कॉन्फ़िगर होने की सुविधा, डीएनएस ज़ोन goog-psc-default-us-central1 और डीएनएस नेम cosmopup.net, दोनों बनाती है. साथ ही, यह सेवा डायरेक्ट्री की एंट्री भी बनाती है, जिसमें उपभोक्ता के एंडपॉइंट का नाम शामिल होता है.

अपने-आप डीएनएस सेट अप होने की सुविधा के फ़ायदे को (4) में दिखाया गया है. इसमें, एंड यूज़र, डीएनएस, एफ़क्यूडीएन stargazer.cosmopup.net के ज़रिए, उपभोक्ता एंडपॉइंट से संपर्क कर सकता है.

इमेज 1

5e26a358454d1336.png

आपको इनके बारे में जानकारी मिलेगी

  • इंटरनल एचटीटीपी या एचटीटीपीएस लोड बैलेंसर बनाने का तरीका
  • अपने-आप डीएनएस लागू होने की सुविधा की मदद से, सेवा अटैचमेंट बनाने का तरीका
  • Private Service Connect प्रोड्यूसर सेवा सेट अप करने का तरीका
  • ऑटोमैटिक डीएनएस का इस्तेमाल करके, उपभोक्ता एंडपॉइंट को ऐक्सेस करने का तरीका

आपको इन चीज़ों की ज़रूरत होगी

  • Google Cloud प्रोजेक्ट
  • आपके मालिकाना हक वाला सार्वजनिक डोमेन

2. शुरू करने से पहले

कोडलैब के साथ काम करने के लिए प्रोजेक्ट को अपडेट करना

इस कोडलैब में, Cloud Shell में gcloud कॉन्फ़िगरेशन लागू करने में मदद करने के लिए, $variables का इस्तेमाल किया गया है.

Cloud Shell में, ये काम करें:

gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=YOUR-PROJECT-NAME
echo $projectname

3. प्रोड्यूसर सेटअप

प्रोड्यूसर वीपीएन बनाना

Cloud Shell में, ये काम करें:

gcloud compute networks create producer-vpc --project=$projectname --subnet-mode=custom

प्रोड्यूसर सबनेट बनाना

Cloud Shell में, ये काम करें:

gcloud compute networks subnets create gce-subnet --project=$projectname --range=172.16.20.0/28 --network=producer-vpc --region=us-central1

Cloud Shell में, ये काम करें:

gcloud compute networks subnets create load-balancer-subnet --project=$projectname --range=172.16.10.0/28 --network=producer-vpc --region=us-central1

इंटरनल लोड बैलेंसर के लिए आईपी पता रिज़र्व करना

Cloud Shell में, ये काम करें:

gcloud compute addresses create lb-ip \
    --region=us-central1 \
    --subnet=load-balancer-subnet \
    --purpose=GCE_ENDPOINT

असाइन किया गया आईपी पता देखना

असाइन किया गया आईपी पता देखने के लिए, compute addresses describe command का इस्तेमाल करें

gcloud compute addresses describe lb-ip  --region=us-central1 | grep address:

रीजनल प्रॉक्सी सबनेट बनाना

प्रॉक्सी का ऐलोकेशन, VPC नेटवर्क लेवल पर होता है, न कि लोड बैलेंसर लेवल पर. आपको वर्चुअल नेटवर्क (VPC) के हर उस क्षेत्र में एक सिर्फ़ प्रॉक्सी वाला सबनेट बनाना होगा जहां Envoy पर आधारित लोड बैलेंसर का इस्तेमाल किया जाता है. अगर एक ही क्षेत्र और एक ही VPC नेटवर्क में कई लोड बैलेंसर डिप्लॉय किए जाते हैं, तो वे लोड बैलेंसिंग के लिए, सिर्फ़ प्रॉक्सी वाला एक ही सबनेट शेयर करते हैं.

  1. क्लाइंट, लोड बैलेंसर के फ़ॉरवर्डिंग नियम के आईपी पते और पोर्ट से कनेक्ट होता है.
  2. हर प्रॉक्सी, उस लोड बैलेंसर के फ़ॉरवर्डिंग नियम से तय किए गए आईपी पते और पोर्ट पर सुनता है. प्रॉक्सी में से कोई एक, क्लाइंट का नेटवर्क कनेक्शन शुरू और बंद करता है.
  3. प्रॉक्सी, लोड बैलेंसर के यूआरएल मैप और बैकएंड सेवाओं के हिसाब से, सही बैकएंड वीएम से कनेक्शन बनाता है.

आपको सिर्फ़ प्रॉक्सी सबनेट बनाने होंगे. भले ही, आपका VPC नेटवर्क ऑटो मोड में हो या कस्टम मोड में. प्रॉक्सी-ओनली वाले सबनेट में 64 या उससे ज़्यादा आईपी पते होने चाहिए. यह /26 या उससे कम लंबाई के प्रीफ़िक्स से मेल खाता है. सबनेट का सुझाया गया साइज़ /23 (सिर्फ़ 512 प्रॉक्सी पते) है.

Cloud Shell में, ये काम करें:

gcloud compute networks subnets create proxy-subnet-us-central \
  --purpose=REGIONAL_MANAGED_PROXY \
  --role=ACTIVE \
  --region=us-central1 \
  --network=producer-vpc \
  --range=172.16.0.0/23

Private Service Connect के NAT सबनेट बनाना

Private Service Connect के साथ इस्तेमाल करने के लिए, एक या उससे ज़्यादा खास सबनेट बनाएं. अगर सेवा पब्लिश करने के लिए Google Cloud Console का इस्तेमाल किया जा रहा है, तो उस प्रोसेस के दौरान सबनेट बनाए जा सकते हैं. सबनेट को उसी क्षेत्र में बनाएं जहां सेवा का लोड बैलेंसर है. किसी सामान्य सबनेट को निजी सेवा कनेक्ट सबनेट में नहीं बदला जा सकता.

Cloud Shell में, ये काम करें:

gcloud compute networks subnets create psc-nat-subnet \
    --project $projectname \
    --network producer-vpc \
    --region us-central1 \
    --range 100.100.10.0/24 \
    --purpose PRIVATE_SERVICE_CONNECT

प्रोड्यूसर के फ़ायरवॉल के नियम बनाना

Private Service Connect NAT सबनेट और सिर्फ़ ILB प्रॉक्सी सबनेट के बीच ट्रैफ़िक की अनुमति देने के लिए, फ़ायरवॉल के नियम कॉन्फ़िगर करें.

Cloud Shell में, ये काम करें:

gcloud compute --project=$projectname firewall-rules create allow-to-ingress-nat-subnet --direction=INGRESS --priority=1000 --network=producer-vpc --action=ALLOW --rules=all --source-ranges=100.100.10.0/24

Cloud Shell में, fw-allow-health-check फ़ायरवॉल नियम बनाएं, ताकि Google Cloud की हेल्थ चेक, टीसीपी पोर्ट 80 पर प्रोड्यूसर सेवा (बैकएंड सेवा) तक पहुंच सकें.

gcloud compute firewall-rules create fw-allow-health-check \
    --network=producer-vpc \
    --action=allow \
    --direction=ingress \
    --source-ranges=130.211.0.0/22,35.191.0.0/16 \
    --rules=tcp:80

सिर्फ़ प्रॉक्सी के लिए बने सबनेट के लिए, फ़ायरवॉल का ऐसा नियम बनाएं जिससे लोड बैलेंसर, टीसीपी पोर्ट 80 पर बैकएंड इंस्टेंस के साथ कम्यूनिकेट कर सके.

gcloud compute firewall-rules create fw-allow-proxy-only-subnet \
    --network=producer-vpc \
    --action=allow \
    --direction=ingress \
    --source-ranges=172.16.0.0/23 \
    --rules=tcp:80

क्लाउड राऊटर और एनएटी कॉन्फ़िगरेशन

कोडलैब में, सॉफ़्टवेयर पैकेज इंस्टॉल करने के लिए Cloud NAT का इस्तेमाल किया जाता है, क्योंकि वीएम इंस्टेंस में कोई बाहरी आईपी पता नहीं होता.

Cloud Shell में, क्लाउड राउटर बनाएं.

gcloud compute routers create cloud-router-for-nat --network producer-vpc --region us-central1

Cloud Shell में, NAT गेटवे बनाएं.

gcloud compute routers nats create cloud-nat-us-central1 --router=cloud-router-for-nat --auto-allocate-nat-external-ips --nat-all-subnet-ip-ranges --region us-central1

इंस्टेंस ग्रुप का कॉन्फ़िगरेशन

अगले सेक्शन में, आपको Compute Engine इंस्टेंस और मैनेज नहीं किया जा सकने वाला इंस्टेंस ग्रुप बनाना होगा. बाद के चरणों में, इंस्टेंस ग्रुप का इस्तेमाल लोड बैलेंसर की बैकएंड सेवा के तौर पर किया जाएगा.

Cloud Shell में, प्रोड्यूसर सेवा को पास की गई रीजनल हेल्थ-चेक बनाएं.

gcloud compute instances create app-server-1 \
    --project=$projectname \
    --machine-type=e2-micro \
    --image-family debian-10 \
    --no-address \
    --image-project debian-cloud \
    --zone us-central1-a \
    --subnet=gce-subnet \
    --metadata startup-script="#! /bin/bash
      sudo apt-get update
      sudo apt-get install apache2 -y
      sudo service apache2 restart
      echo 'Welcome to App-Server-1 !!' | tee /var/www/html/index.html
      EOF"

Cloud Shell में, मैनेज नहीं किया जा सकने वाला इंस्टेंस ग्रुप बनाएं.

gcloud compute instance-groups unmanaged create psc-instance-group --zone=us-central1-a

gcloud compute instance-groups unmanaged set-named-ports psc-instance-group --project=$projectname --zone=us-central1-a --named-ports=http:80

gcloud compute instance-groups unmanaged add-instances psc-instance-group --zone=us-central1-a --instances=app-server-1

लोड बैलेंसर को कॉन्फ़िगर करना

यहां दिए गए चरणों में, आपको इंटरनल एचटीटीपी लोड बैलेंसर को कॉन्फ़िगर करना होगा. इसे बाद के चरण में, सेवा के अटैचमेंट के तौर पर पब्लिश किया जाएगा

Cloud Shell में, रीजनल हेल्थ-चेक बनाएं.

gcloud compute health-checks create http http-health-check \
    --region=us-central1 \
    --use-serving-port

Cloud Shell में, बैकएंड सेवा बनाएं.

 gcloud compute backend-services create l7-ilb-backend-service \
      --load-balancing-scheme=INTERNAL_MANAGED \
      --protocol=HTTP \
      --health-checks=http-health-check \
      --health-checks-region=us-central1 \
      --region=us-central1

Cloud Shell में, बैकएंड सेवा में बैकएंड जोड़ें.

gcloud compute backend-services add-backend l7-ilb-backend-service \
  --balancing-mode=UTILIZATION \
  --instance-group=psc-instance-group \
  --instance-group-zone=us-central1-a \
  --region=us-central1

Cloud Shell में, यूआरएल मैप बनाएं, ताकि आने वाले अनुरोधों को बैकएंड सेवा पर भेजा जा सके.

gcloud compute url-maps create l7-ilb-map \
    --default-service l7-ilb-backend-service \
    --region=us-central1

एचटीटीपी टारगेट प्रॉक्सी बनाएं.

gcloud compute target-http-proxies create l7-ilb-proxy\
    --url-map=l7-ilb-map \
    --url-map-region=us-central1 \
    --region=us-central1

आने वाले अनुरोधों को प्रॉक्सी पर भेजने के लिए, फ़ॉरवर्ड करने का नियम बनाएं. फ़ॉरवर्ड करने का नियम बनाने के लिए, सिर्फ़ प्रॉक्सी वाले सबनेट का इस्तेमाल न करें.

 gcloud compute forwarding-rules create l7-ilb-forwarding-rule \
      --load-balancing-scheme=INTERNAL_MANAGED \
      --network=producer-vpc \
      --subnet=load-balancer-subnet \
      --address=lb-ip \
      --ports=80 \
      --region=us-central1 \
      --target-http-proxy=l7-ilb-proxy \
      --target-http-proxy-region=us-central1

4. लोड बैलेंसर की पुष्टि करना

Cloud Console में, नेटवर्क सेवाएं → लोड बैलेंसिंग → लोड बैलेंसर पर जाएं. बैकएंड सेवा की सेहत की जांच पूरी होने की जानकारी

881567cc11627009.png

‘l7-ilb-map' चुनने पर, फ़्रंटएंड आईपी पता मिलता है. यह आईपी पता, पिछले चरण में grep किए गए आईपी पते से मेल खाना चाहिए. साथ ही, यह बैकएंड सेवा की पहचान करता है.

bab89b0a7b4f95e9.png

5. Private Service Connect सेवा अटैचमेंट बनाना

सेवा अटैचमेंट बनाना

Cloud Shell में, सेवा अटैचमेंट बनाएं. डोमेन नेम के आखिर में ‘.' ज़रूर जोड़ें.

gcloud compute service-attachments create published-service --region=us-central1 --producer-forwarding-rule=l7-ilb-forwarding-rule --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=psc-nat-subnet --domain-names=cosmopup.net.

ज़रूरी नहीं: अगर शेयर किए गए VPC का इस्तेमाल किया जा रहा है, तो सेवा प्रोजेक्ट में सेवा अटैचमेंट बनाएं.

gcloud compute service-attachments create published-service --region=us-central1 --producer-forwarding-rule=l7-ilb-forwarding-rule --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=projects/<hostproject>/regions/us-central1/subnetworks/psc-nat-subnet --domain-names=cosmopup.net.

सेवा का नया अटैचमेंट देखने के लिए, नेटवर्क सेवाएं → Private Service Connect पर जाएं

d27fee9073dbbe2.png

published-service चुनने पर, ज़्यादा जानकारी मिलती है. इसमें, सेवा अटैचमेंट का यूआरआई भी शामिल होता है. उपभोक्ता, निजी सेवा कनेक्शन और डोमेन नेम सेट अप करने के लिए इसका इस्तेमाल करता है.

503df63730c62df2.png

अटैच की गई सेवा की जानकारी:

projects/<project name>/regions/us-central1/serviceAttachments/published-service

6. कंज्यूमर सेटअप

उपभोक्ता एपीआई चालू करना

Cloud में, Shell ये काम करता है:

gcloud services enable dns.googleapis.com
gcloud services enable servicedirectory.googleapis.com

उपभोक्ता के लिए VPC नेटवर्क बनाना

Cloud Shell में, ये काम करें:

gcloud compute networks create consumer-vpc --project=$projectname --subnet-mode=custom

उपभोक्ता सबनेट बनाना

Cloud Shell में, टेस्ट इंस्टेंस के लिए सबनेट बनाएं.

gcloud compute networks subnets create db1-subnet --project=$projectname --range=10.20.0.0/28 --network=consumer-vpc --region=us-central1

Cloud Shell में, उपभोक्ता एंडपॉइंट के लिए सबनेट बनाएं.

gcloud compute networks subnets create consumer-ep-subnet --project=$projectname --range=10.10.0.0/28 --network=consumer-vpc --region=us-central1

उपभोक्ता एंडपॉइंट (फ़ॉरवर्ड करने का नियम) बनाना

Cloud Shell में, स्टैटिक आईपी पता बनाएं. इसका इस्तेमाल, उपभोक्ता एंडपॉइंट के लिए किया जाएगा.

gcloud compute addresses create psc-consumer-ip-1 --region=us-central1 --subnet=consumer-ep-subnet --addresses 10.10.0.10

हम पहले से जनरेट किए गए सेवा अटैचमेंट यूआरआई का इस्तेमाल करके, उपभोक्ता एंडपॉइंट बनाते हैं.

Cloud Shell में, उपभोक्ता एंडपॉइंट बनाएं.

gcloud compute forwarding-rules create stargazer --region=us-central1 --network=consumer-vpc --address=psc-consumer-ip-1 --target-service-attachment=projects/$projectname/regions/us-central1/serviceAttachments/published-service

7. उपभोक्ता के VPC नेटवर्क में कनेक्शन की पुष्टि करना

उपभोक्ता के वीपीसी नेटवर्क से, नेटवर्क सेवाएं → Private Service Connect → कनेक्ट किए गए एंडपॉइंट पर जाकर, Private Service Connect के कनेक्ट होने की पुष्टि करें. पहले से मौजूद Stargazer कनेक्शन और उससे जुड़े आईपी पते को नोट करें.

c60812433c3e1676.png

psc-consumer-1 चुनने पर, सेवा के अटैचमेंट यूआरआई के साथ-साथ अन्य जानकारी भी मिलती है

14d3e3b1e0aee3c2.png

8. प्रोड्यूसर के VPC नेटवर्क में कनेक्शन की पुष्टि करना

प्रॉड्यूसर के VPC नेटवर्क से, नेटवर्क सेवाएं → Private Service Connect → पब्लिश की गई सेवा पर जाकर, यह पुष्टि करें कि प्राइवेट सेवा कनेक्शन काम कर रहा है. ध्यान दें कि पब्लिश किए गए सेवा कनेक्शन में, फ़ॉरवर्ड करने का एक नियम (कनेक्शन एंडपॉइंट) दिखता है.

911dbd7421bcfd3a.png

9. अपने-आप होने वाले डीएनएस कॉन्फ़िगरेशन की पुष्टि करना

आइए, डीएनएस और सेवा डायरेक्ट्री के कॉन्फ़िगरेशन का आकलन करते हैं.

Cloud DNS कॉन्फ़िगरेशन

नेटवर्क सेवाएं → Cloud DNS → ज़ोन पर जाएं. ज़ोन goog-psc-default-us-central & डीएनएस नेम cosmopup.net. अपने-आप जनरेट होता है.

4395e7b33fc42faa.png

डीएनएस और सेवा डायरेक्ट्री का कॉन्फ़िगरेशन देखना

ज़ोन का नाम चुनने पर, हमें यह देखने में मदद मिलती है कि Service Directory को Cloud DNS के साथ कैसे इंटिग्रेट किया गया है.

e4fe44d945b20451.png

सेवा डायरेक्ट्री का कॉन्फ़िगरेशन

नेटवर्क सेवाएं → सेवा डायरेक्ट्री पर जाएं

क्या आपको उपभोक्ता एंडपॉइंट का नाम ‘stargazer' याद है? इसे सेवा डायरेक्ट्री में अपने-आप प्रोग्राम किया जाता है. इससे, हम FQDN stargazer.goog-psc-default–us-central1 का इस्तेमाल करके, उपभोक्ता एंडपॉइंट तक पहुंच सकते हैं

602deab65b5ac315.png

10. प्रोड्यूसर की सेवा के लिए उपभोक्ता के ऐक्सेस की पुष्टि करना

हम ग्राहक के VPC नेटवर्क से एक वीएम बनाएंगे. इससे, पब्लिश की गई सेवा की कनेक्टिविटी की जांच की जा सकेगी. इसके लिए, हम ग्राहक के एंडपॉइंट stargazer.cosmopup.net को ऐक्सेस करेंगे

Cloud Shell में, उपभोक्ता के vpc में टेस्ट इंस्टेंस बनाएं.

gcloud compute instances create db1 \
    --zone=us-central1-a \
    --image-family=debian-10 \
    --image-project=debian-cloud \
    --subnet=db1-subnet \
    --no-address

आईएपी को अपने वीएम इंस्टेंस से कनेक्ट करने की अनुमति देने के लिए, फ़ायरवॉल का ऐसा नियम बनाएं जो:

  • यह उन सभी वीएम इंस्टेंस पर लागू होता है जिन्हें आपको आईएपी का इस्तेमाल करके ऐक्सेस करना है.
  • 35.235.240.0/20 आईपी रेंज से आने वाले ट्रैफ़िक को अनुमति देता है. इस रेंज में वे सभी आईपी पते शामिल होते हैं जिनका इस्तेमाल IAP, टीसीपी फ़ॉरवर्डिंग के लिए करता है.

Cloud Shell में, IAP फ़ायरवॉल नियम बनाएं.

gcloud compute firewall-rules create ssh-iap-consumer \
    --network consumer-vpc \
    --allow tcp:22 \
    --source-ranges=35.235.240.0/20

Cloud Shell में आईएपी का इस्तेमाल करके, कंज्यूमर-वीएम में लॉग इन करें. इसके बाद, कर्ल करके प्रोड्यूसर सेवा से कनेक्टिविटी की पुष्टि करें. अगर टाइम आउट होता है, तो फिर से कोशिश करें.

gcloud compute ssh db1 --project=$projectname --zone=us-central1-a --tunnel-through-iap

प्रोड्यूसर सेवा से कनेक्टिविटी की पुष्टि करने के लिए, कर्ल का इस्तेमाल करें. पुष्टि हो जाने के बाद, VM से बाहर निकलें और Cloud Shell प्रॉम्प्ट पर वापस जाएं

Cloud Shell में, अपने कस्टम डोमेन के लिए कर्ल करें. उदाहरण के लिए, stargazer.[custom-domain.com]. नीचे दिए गए आउटपुट में, stargazer.cosmopup.net के लिए कर्ल किया गया है

user@db1:~$ curl -v stargazer.cosmopup.net
*   Trying 10.10.0.10...
* TCP_NODELAY set
* Expire in 200 ms for 4 (transfer 0x55d3aa8190f0)
* Connected to stargazer.cosmopup.net (10.10.0.10) port 80 (#0)
> GET / HTTP/1.1
> Host: stargazer.cosmopup.net
> User-Agent: curl/7.64.0
> Accept: */*
> 
< HTTP/1.1 200 OK
< date: Thu, 22 Dec 2022 00:16:25 GMT
< server: Apache/2.4.38 (Debian)
< last-modified: Wed, 21 Dec 2022 20:26:32 GMT
< etag: "1b-5f05c5e43a083"
< accept-ranges: bytes
< content-length: 27
< content-type: text/html
< via: 1.1 google
< 
Welcome to App-Server-1 !!

क्लीन-अप टास्क शुरू करने के लिए, Cloud Shell प्रॉम्प्ट पर वापस जाने के लिए, VM से बाहर निकलें

11. व्यवस्थित करें

Cloud Shell में, कोडलैब कॉम्पोनेंट मिटाएं.

gcloud compute forwarding-rules delete stargazer --region=us-central1 --quiet

gcloud compute instances delete db1 --zone=us-central1-a --quiet 

gcloud compute addresses delete psc-consumer-ip-1 --region=us-central1 --quiet 

gcloud compute networks subnets delete consumer-ep-subnet db1-subnet --region=us-central1 --quiet 

gcloud compute firewall-rules delete ssh-iap-consumer --quiet 

gcloud compute networks delete consumer-vpc --quiet 

gcloud compute service-attachments delete published-service --region=us-central1 --quiet 

gcloud compute forwarding-rules delete l7-ilb-forwarding-rule --region=us-central1 --quiet 

gcloud compute target-http-proxies delete l7-ilb-proxy --region=us-central1 --quiet 
 
gcloud compute url-maps delete l7-ilb-map --region=us-central1 --quiet 
 
gcloud compute backend-services delete l7-ilb-backend-service --region=us-central1 --quiet
 
gcloud compute instance-groups unmanaged delete psc-instance-group --zone=us-central1-a --quiet
 
gcloud compute instances delete app-server-1 --zone=us-central1-a --quiet 
 
gcloud compute firewall-rules delete allow-to-ingress-nat-subnet fw-allow-health-check fw-allow-proxy-only-subnet --quiet 
 
gcloud compute addresses delete lb-ip --region=us-central1 --quiet 
 
gcloud compute networks subnets delete gce-subnet load-balancer-subnet psc-nat-subnet proxy-subnet-us-central --region=us-central1 --quiet 
 
gcloud compute routers delete cloud-router-for-nat --region=us-central1 --quiet 
 
gcloud compute networks delete producer-vpc --quiet 

12. बधाई हो

बधाई हो, आपने अपने-आप डीएनएस कॉन्फ़िगरेशन की सुविधा की मदद से, Private Service Connect एंडपॉइंट को कॉन्फ़िगर और पुष्टि कर ली है.

आपने प्रोड्यूसर इन्फ़्रास्ट्रक्चर बनाया है और सार्वजनिक डोमेन रजिस्ट्रेशन के साथ सेवा अटैचमेंट जोड़ा है. आपने उपभोक्ता के VPC नेटवर्क में उपभोक्ता एंडपॉइंट बनाने का तरीका जाना. इस एंडपॉइंट की मदद से, अपने-आप जनरेट हुए डीएनएस का इस्तेमाल करके, ऑन-प्राइमिस सेवा से कनेक्ट किया जा सकता है.

Cosmopup को लगता है कि कोडलैब शानदार हैं!!

8c2a10eb841f7b01.jpeg

आगे क्या करना है?

इनमें से कुछ कोडलैब देखें...

ज़्यादा पढ़ने के लिए लेख और वीडियो

रेफ़रंस दस्तावेज़