1. परिचय
ऑटोमैटिक डीएनएस कॉन्फ़िगरेशन के साथ Private Service Connect, Service Directory और Cloud DNS का इस्तेमाल करता है. इससे, डीएनएस रिकॉर्ड अपने-आप बन जाते हैं. इन रिकॉर्ड को, उपभोक्ता के Private Service Connect एंडपॉइंट के आईपी पतों के साथ प्रोग्राम किया जाता है.
आपको क्या बनाने को मिलेगा
इस कोडलैब में, आपको Private Service Connect का एक ऐसा आर्किटेक्चर बनाना है जिसमें ऑटोमैटिक डीएनएस का इस्तेमाल किया गया हो. इसे फ़िगर 1 में दिखाया गया है.
ऑटोमैटिक डीएनएस की सुविधा इन वजहों से काम करती है:
- निजी सेवा कनेक्ट सेवा अटैचमेंट बनाते समय, प्रोड्यूसर सेवा अटैचमेंट, ‘– domain-names' फ़्लैग के साथ मालिकाना हक वाला सार्वजनिक डोमेन उपलब्ध कराकर, डीएनएस को अपने-आप शुरू करता है.
- उपयोगकर्ता, एंडपॉइंट का नाम तय करता है.
- ऑटोमैटिक डीएनएस, goog-psc-default-us-central1 नाम का डीएनएस ज़ोन और cosmopup.net नाम का डीएनएस नाम बनाता है. इसके अलावा, यह सर्विस डायरेक्ट्री की एक एंट्री भी बनाता है, जिसमें उपभोक्ता के एंडपॉइंट का नाम होता है.
ऑटोमैटिक डीएनएस के फ़ायदे को (4) में दिखाया गया है. इसमें असली उपयोगकर्ता, डीएनएस के ज़रिए उपभोक्ता एंडपॉइंट से कम्यूनिकेट कर सकता है. इसके लिए, FQDN stargazer.cosmopup.net का इस्तेमाल किया जाता है.
इमेज 1

आपको क्या सीखने को मिलेगा
- इंटरनल एचटीटीपी या एचटीटीपीएस लोड बैलेंसर बनाने का तरीका
- ऑटोमैटिक डीएनएस की सुविधा के साथ सेवा अटैचमेंट बनाने का तरीका
- Private Service Connect की प्रोड्यूसर सेवा कैसे सेट अप करें
- ऑटोमैटिक डीएनएस का इस्तेमाल करके, उपभोक्ता एंडपॉइंट को कैसे ऐक्सेस करें
आपको इन चीज़ों की ज़रूरत होगी
- Google Cloud प्रोजेक्ट
- ऐसा सार्वजनिक डोमेन जिसका मालिकाना हक आपके पास है
2. शुरू करने से पहले
कोडलैब के साथ काम करने के लिए प्रोजेक्ट को अपडेट करना
इस कोडलैब में, Cloud Shell में gcloud कॉन्फ़िगरेशन लागू करने में मदद करने के लिए, $variables का इस्तेमाल किया गया है.
Cloud Shell में, यह तरीका अपनाएं:
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=YOUR-PROJECT-NAME
echo $projectname
3. Producer Setup
प्रोड्यूसर वीपीसी बनाना
Cloud Shell में, यह तरीका अपनाएं:
gcloud compute networks create producer-vpc --project=$projectname --subnet-mode=custom
प्रोड्यूसर सबनेट बनाना
Cloud Shell में, यह तरीका अपनाएं:
gcloud compute networks subnets create gce-subnet --project=$projectname --range=172.16.20.0/28 --network=producer-vpc --region=us-central1
Cloud Shell में, यह तरीका अपनाएं:
gcloud compute networks subnets create load-balancer-subnet --project=$projectname --range=172.16.10.0/28 --network=producer-vpc --region=us-central1
इंटरनल लोड बैलेंसर के लिए आईपी पता रिज़र्व करना
Cloud Shell में, यह तरीका अपनाएं:
gcloud compute addresses create lb-ip \
--region=us-central1 \
--subnet=load-balancer-subnet \
--purpose=GCE_ENDPOINT
अलॉट किया गया आईपी पता देखना
अलॉट किया गया आईपी पता देखने के लिए, compute addresses describe command का इस्तेमाल करें
gcloud compute addresses describe lb-ip --region=us-central1 | grep address:
क्षेत्र के हिसाब से प्रॉक्सी सबनेट बनाना
प्रॉक्सी का असाइनमेंट, लोड बैलेंसर के लेवल पर नहीं, बल्कि वीपीसी नेटवर्क के लेवल पर होता है. आपको वर्चुअल नेटवर्क (वीपीसी) के हर उस क्षेत्र में एक सिर्फ़ प्रॉक्सी वाला सबनेट बनाना होगा जिसमें Envoy पर आधारित लोड बैलेंसर का इस्तेमाल किया जाता है. अगर एक ही क्षेत्र और एक ही वीपीसी नेटवर्क में कई लोड बैलेंसर डिप्लॉय किए जाते हैं, तो वे लोड बैलेंसिंग के लिए, प्रॉक्सी-ओनली सबनेट का इस्तेमाल करते हैं.
- क्लाइंट, लोड बैलेंसर के फ़ॉरवर्डिंग नियम के आईपी पते और पोर्ट से कनेक्ट होता है.
- हर प्रॉक्सी, लोड बैलेंसर के फ़ॉरवर्डिंग नियम में बताए गए आईपी पते और पोर्ट पर सुनता है. कोई प्रॉक्सी, क्लाइंट के नेटवर्क कनेक्शन को स्वीकार करती है और उसे बंद कर देती है.
- प्रॉक्सी, लोड बैलेंसर के यूआरएल मैप और बैकएंड सेवाओं के हिसाब से, सही बैकएंड वीएम से कनेक्शन बनाता है.
आपको सिर्फ़ प्रॉक्सी वाले सबनेट बनाने होंगे. इससे कोई फ़र्क़ नहीं पड़ता कि आपका वीपीसी नेटवर्क ऑटो मोड में है या कस्टम मोड में. प्रॉक्सी-ओनली वाले सबनेट में 64 या उससे ज़्यादा आईपी पते होने चाहिए. यह /26 या उससे कम लंबाई के प्रीफ़िक्स से मेल खाता है. सबनेट का सुझाया गया साइज़ /23 (सिर्फ़ प्रॉक्सी के लिए 512 पते) है.
Cloud Shell में, यह तरीका अपनाएं:
gcloud compute networks subnets create proxy-subnet-us-central \
--purpose=REGIONAL_MANAGED_PROXY \
--role=ACTIVE \
--region=us-central1 \
--network=producer-vpc \
--range=172.16.0.0/23
Private Service Connect NAT सबनेट बनाना
Private Service Connect के साथ इस्तेमाल करने के लिए, एक या उससे ज़्यादा सबनेट बनाएं. अगर कोई सेवा पब्लिश करने के लिए Google Cloud Console का इस्तेमाल किया जा रहा है, तो इस प्रोसेस के दौरान सबनेट बनाए जा सकते हैं. सबनेट को उसी इलाके में बनाएं जहां सेवा का लोड बैलेंसर मौजूद है. सामान्य सबनेट को Private Service Connect सबनेट में नहीं बदला जा सकता.
Cloud Shell में, यह तरीका अपनाएं:
gcloud compute networks subnets create psc-nat-subnet \
--project $projectname \
--network producer-vpc \
--region us-central1 \
--range 100.100.10.0/24 \
--purpose PRIVATE_SERVICE_CONNECT
डेटा उपलब्ध कराने वाले खाते के लिए फ़ायरवॉल के नियम बनाना
फ़ायरवॉल के नियम कॉन्फ़िगर करें, ताकि Private Service Connect NAT सबनेट और ILB प्रॉक्सी-ओनली सबनेट के बीच ट्रैफ़िक को अनुमति दी जा सके.
Cloud Shell में, यह तरीका अपनाएं:
gcloud compute --project=$projectname firewall-rules create allow-to-ingress-nat-subnet --direction=INGRESS --priority=1000 --network=producer-vpc --action=ALLOW --rules=all --source-ranges=100.100.10.0/24
Cloud Shell में, fw-allow-health-check फ़ायरवॉल का नियम बनाएं. इससे Google Cloud के हेल्थ चेक, टीसीपी पोर्ट 80 पर मौजूद प्रोड्यूसर सेवा (बैकएंड सेवा) तक पहुंच पाएंगे.
gcloud compute firewall-rules create fw-allow-health-check \
--network=producer-vpc \
--action=allow \
--direction=ingress \
--source-ranges=130.211.0.0/22,35.191.0.0/16 \
--rules=tcp:80
प्रॉक्सी-ओनली सबनेट के लिए, इन्ग्रेस डेटा ट्रैफ़िक को अनुमति देने वाला फ़ायरवॉल नियम बनाएं. इससे लोड बैलेंसर, टीसीपी पोर्ट 80 पर बैकएंड इंस्टेंस के साथ कम्यूनिकेट कर पाएगा.
gcloud compute firewall-rules create fw-allow-proxy-only-subnet \
--network=producer-vpc \
--action=allow \
--direction=ingress \
--source-ranges=172.16.0.0/23 \
--rules=tcp:80
Cloud Router और NAT कॉन्फ़िगरेशन
सॉफ़्टवेयर पैकेज इंस्टॉल करने के लिए, इस कोडलैब में Cloud NAT का इस्तेमाल किया जाता है. ऐसा इसलिए, क्योंकि वीएम इंस्टेंस के पास बाहरी आईपी पता नहीं होता है.
Cloud Shell में, क्लाउड राउटर बनाएं.
gcloud compute routers create cloud-router-for-nat --network producer-vpc --region us-central1
Cloud Shell में, NAT गेटवे बनाएं.
gcloud compute routers nats create cloud-nat-us-central1 --router=cloud-router-for-nat --auto-allocate-nat-external-ips --nat-all-subnet-ip-ranges --region us-central1
इंस्टेंस ग्रुप का कॉन्फ़िगरेशन
इस सेक्शन में, Compute Engine इंस्टेंस और अनमैनेज्ड इंस्टेंस ग्रुप बनाया जाएगा. बाद के चरणों में, इंस्टेंस ग्रुप का इस्तेमाल लोड बैलेंसर बैकएंड सेवा के तौर पर किया जाएगा.
Cloud Shell में, प्रोड्यूसर सेवा को पास किया गया रीजनल हेल्थ-चेक बनाएं.
gcloud compute instances create app-server-1 \
--project=$projectname \
--machine-type=e2-micro \
--image-family debian-10 \
--no-address \
--image-project debian-cloud \
--zone us-central1-a \
--subnet=gce-subnet \
--metadata startup-script="#! /bin/bash
sudo apt-get update
sudo apt-get install apache2 -y
sudo service apache2 restart
echo 'Welcome to App-Server-1 !!' | tee /var/www/html/index.html
EOF"
Cloud Shell में, अनमैनेज्ड इंस्टेंस ग्रुप बनाएं.
gcloud compute instance-groups unmanaged create psc-instance-group --zone=us-central1-a
gcloud compute instance-groups unmanaged set-named-ports psc-instance-group --project=$projectname --zone=us-central1-a --named-ports=http:80
gcloud compute instance-groups unmanaged add-instances psc-instance-group --zone=us-central1-a --instances=app-server-1
लोड बैलेंसर को कॉन्फ़िगर करना
यहां दिए गए चरणों में, इंटरनल एचटीटीपी लोड बैलेंसर को कॉन्फ़िगर किया जाएगा. इसे बाद के चरण में, सेवा अटैचमेंट के तौर पर पब्लिश किया जाएगा
Cloud Shell में, रीजनल हेल्थ-चेक बनाएं.
gcloud compute health-checks create http http-health-check \
--region=us-central1 \
--use-serving-port
Cloud Shell में, बैकएंड सेवा बनाएं.
gcloud compute backend-services create l7-ilb-backend-service \
--load-balancing-scheme=INTERNAL_MANAGED \
--protocol=HTTP \
--health-checks=http-health-check \
--health-checks-region=us-central1 \
--region=us-central1
Cloud Shell में, बैकएंड सेवा में बैकएंड जोड़ें.
gcloud compute backend-services add-backend l7-ilb-backend-service \
--balancing-mode=UTILIZATION \
--instance-group=psc-instance-group \
--instance-group-zone=us-central1-a \
--region=us-central1
Cloud Shell में, यूआरएल मैप बनाएं, ताकि आने वाले अनुरोधों को बैकएंड सेवा पर रूट किया जा सके.
gcloud compute url-maps create l7-ilb-map \
--default-service l7-ilb-backend-service \
--region=us-central1
एचटीटीपी टारगेट प्रॉक्सी बनाएं.
gcloud compute target-http-proxies create l7-ilb-proxy\
--url-map=l7-ilb-map \
--url-map-region=us-central1 \
--region=us-central1
प्रॉक्सी पर आने वाले अनुरोधों को रूट करने के लिए, फ़ॉरवर्ड करने का नियम बनाएं. फ़ॉरवर्ड करने का नियम बनाने के लिए, सिर्फ़ प्रॉक्सी वाले सबनेट का इस्तेमाल न करें.
gcloud compute forwarding-rules create l7-ilb-forwarding-rule \
--load-balancing-scheme=INTERNAL_MANAGED \
--network=producer-vpc \
--subnet=load-balancer-subnet \
--address=lb-ip \
--ports=80 \
--region=us-central1 \
--target-http-proxy=l7-ilb-proxy \
--target-http-proxy-region=us-central1
4. लोड बैलेंसर की पुष्टि करना
Cloud Console में, नेटवर्क सेवाएं → लोड बैलेंसिंग → लोड बैलेंसर पर जाएं. बैकएंड सेवा के लिए, सेहत की जांच के सफल होने की सूचना दें

'l7-ilb-map' को चुनने पर, फ़्रंटएंड आईपी पता मिलता है. यह आईपी पता, उस आईपी पते से मेल खाना चाहिए जिसे आपने पिछले चरण में grepped किया था. साथ ही, यह बैकएंड सेवा की पहचान करता है.

5. Private Service Connect सेवा अटैचमेंट बनाना
सेवा अटैचमेंट बनाना
Cloud Shell में, सेवा अटैचमेंट बनाएं. डोमेन नेम के आखिर में ‘.' जोड़ना न भूलें.
gcloud compute service-attachments create published-service --region=us-central1 --producer-forwarding-rule=l7-ilb-forwarding-rule --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=psc-nat-subnet --domain-names=cosmopup.net.
ज़रूरी नहीं: अगर शेयर किए गए वीपीसी का इस्तेमाल किया जा रहा है, तो सेवा से जुड़े प्रोजेक्ट में सेवा अटैचमेंट बनाएं.
gcloud compute service-attachments create published-service --region=us-central1 --producer-forwarding-rule=l7-ilb-forwarding-rule --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=projects/<hostproject>/regions/us-central1/subnetworks/psc-nat-subnet --domain-names=cosmopup.net.
नए सर्विस अटैचमेंट को देखने के लिए, नेटवर्क सेवाएं → Private Service Connect पर जाएं

published-service चुनने पर, ज़्यादा जानकारी मिलती है. इसमें सेवा अटैचमेंट यूआरआई भी शामिल है. इसका इस्तेमाल उपभोक्ता, Private Service Connect कनेक्शन बनाने के लिए करता है. साथ ही, इसमें डोमेन का नाम भी शामिल है.

सेवा अटैचमेंट की जानकारी:
projects/<project name>/regions/us-central1/serviceAttachments/published-service
6. उपयोगकर्ता का सेटअप
उपयोगकर्ता के एपीआई चालू करना
Cloud में, Shell ये काम करेगी:
gcloud services enable dns.googleapis.com
gcloud services enable servicedirectory.googleapis.com
उपयोगकर्ता वीपीसी नेटवर्क बनाना
Cloud Shell में, यह तरीका अपनाएं:
gcloud compute networks create consumer-vpc --project=$projectname --subnet-mode=custom
उपयोगकर्ता के सबनेट बनाना
Cloud Shell में, टेस्ट इंस्टेंस के लिए सबनेट बनाएं.
gcloud compute networks subnets create db1-subnet --project=$projectname --range=10.20.0.0/28 --network=consumer-vpc --region=us-central1
Cloud Shell में, उपभोक्ता एंडपॉइंट के लिए एक सबनेट बनाएं.
gcloud compute networks subnets create consumer-ep-subnet --project=$projectname --range=10.10.0.0/28 --network=consumer-vpc --region=us-central1
उपयोगकर्ता के लिए एंडपॉइंट (फ़ॉरवर्ड करने का नियम) बनाना
Cloud Shell में, स्टैटिक आईपी पता बनाएं. इसका इस्तेमाल उपभोक्ता एंडपॉइंट के लिए किया जाएगा.
gcloud compute addresses create psc-consumer-ip-1 --region=us-central1 --subnet=consumer-ep-subnet --addresses 10.10.0.10
हम पहले से जनरेट किए गए सेवा अटैचमेंट यूआरआई का इस्तेमाल करके, उपभोक्ता एंडपॉइंट बनाते हैं.
Cloud Shell में, उपभोक्ता एंडपॉइंट बनाएं.
gcloud compute forwarding-rules create stargazer --region=us-central1 --network=consumer-vpc --address=psc-consumer-ip-1 --target-service-attachment=projects/$projectname/regions/us-central1/serviceAttachments/published-service
7. उपयोगकर्ता के वीपीसी नेटवर्क में कनेक्शन की पुष्टि करना
उपयोगकर्ता के वीपीसी नेटवर्क से, Private Service Connect के कनेक्शन की पुष्टि करें. इसके लिए, नेटवर्क सेवाएं → Private Service Connect→ कनेक्ट किए गए एंडपॉइंट पर जाएं. हमने पहले जो स्टारगेज़र कनेक्शन और उससे जुड़ा आईपी पता बनाया था उसे नोट करें.

psc-consumer-1 को चुनने पर, सेवा अटैचमेंट यूआरआई सहित अन्य जानकारी दी जाती है

8. प्रोड्यूसर के वीपीसी नेटवर्क में कनेक्शन की पुष्टि करना
प्रोड्यूसर के वीपीसी नेटवर्क में जाकर, Private Service Connect की मदद से कनेक्शन बनने की पुष्टि करें. इसके लिए, नेटवर्क सेवाएं → Private Service Connect→पब्लिश की गई सेवा पर जाएं. ध्यान दें कि पब्लिश किए गए सेवा कनेक्शन में अब कॉल को दूसरे नंबर पर भेजे जाने से जुड़ा एक नियम (कनेक्शन एंडपॉइंट) दिखता है.

9. ऑटोमैटिक डीएनएस कॉन्फ़िगरेशन की पुष्टि करना
आइए, डीएनएस और सेवा डायरेक्ट्री के कॉन्फ़िगरेशन का आकलन करें.
Cloud DNS कॉन्फ़िगरेशन
नेटवर्क सेवाएं → Cloud DNS → ज़ोन पर जाएं. ज़ोन goog-psc-default-us-central & डीएनएस का नाम cosmopup.net. अपने-आप जनरेट होता है.

डीएनएस और सेवा डायरेक्ट्री का कॉन्फ़िगरेशन देखना
ज़ोन का नाम चुनने से, हमें यह पता चलता है कि Service Directory को Cloud DNS के साथ कैसे इंटिग्रेट किया गया है.

Service Directory का कॉन्फ़िगरेशन
नेटवर्क सेवाएं → सेवा डायरेक्ट्री पर जाएं
क्या आपको उपभोक्ता एंडपॉइंट का नाम ‘stargazer' याद है? इसे Service Directory में अपने-आप प्रोग्राम किया जाता है. इससे हम FQDN stargazer.goog-psc-default–us-central1 का इस्तेमाल करके, उपभोक्ता एंडपॉइंट तक पहुंच पाते हैं

10. उपभोक्ता के पास, प्रोड्यूसर की सेवा का ऐक्सेस है या नहीं, इसकी पुष्टि करना
हम ग्राहक के वीपीसी नेटवर्क से एक वीएम बनाएंगे. इससे पब्लिश की गई सेवा की कनेक्टिविटी की जांच की जा सकेगी. इसके लिए, ग्राहक के एंडपॉइंट stargazer.cosmopup.net को ऐक्सेस किया जाएगा
Cloud Shell में, उपभोक्ता वीपीसी में टेस्ट इंस्टेंस बनाएं.
gcloud compute instances create db1 \
--zone=us-central1-a \
--image-family=debian-10 \
--image-project=debian-cloud \
--subnet=db1-subnet \
--no-address
आईएपी को अपने वीएम इंस्टेंस से कनेक्ट करने की अनुमति देने के लिए, फ़ायरवॉल का ऐसा नियम बनाएं जो:
- यह उन सभी वीएम इंस्टेंस पर लागू होता है जिन्हें आपको आईएपी का इस्तेमाल करके ऐक्सेस करना है.
- इसकी मदद से, 35.235.240.0/20 आईपी रेंज से इन्ग्रेस ट्रैफ़िक को आने की अनुमति मिलती है. इस रेंज में वे सभी आईपी पते शामिल हैं जिनका इस्तेमाल IAP, टीसीपी फ़ॉरवर्डिंग के लिए करता है.
Cloud Shell में, IAP फ़ायरवॉल नियम बनाएं.
gcloud compute firewall-rules create ssh-iap-consumer \
--network consumer-vpc \
--allow tcp:22 \
--source-ranges=35.235.240.0/20
Cloud Shell में IAP का इस्तेमाल करके, उपभोक्ता-वीएम में लॉग इन करें. इसके बाद, curl करके यह पुष्टि करें कि प्रोड्यूसर सेवा से कनेक्टिविटी है. अगर समयसीमा खत्म हो गई है, तो फिर से कोशिश करें.
gcloud compute ssh db1 --project=$projectname --zone=us-central1-a --tunnel-through-iap
curl का इस्तेमाल करके, प्रोड्यूसर सेवा से कनेक्टिविटी की पुष्टि करें. पुष्टि हो जाने के बाद, वीएम से बाहर निकलें और Cloud Shell प्रॉम्प्ट पर वापस जाएं
Cloud Shell में, अपने कस्टम डोमेन के लिए कर्ल करें. उदाहरण के लिए, stargazer.[custom-domain.com]. नीचे दिए गए आउटपुट में, stargazer.cosmopup.net के ख़िलाफ़ कर्ल किया गया है
user@db1:~$ curl -v stargazer.cosmopup.net
* Trying 10.10.0.10...
* TCP_NODELAY set
* Expire in 200 ms for 4 (transfer 0x55d3aa8190f0)
* Connected to stargazer.cosmopup.net (10.10.0.10) port 80 (#0)
> GET / HTTP/1.1
> Host: stargazer.cosmopup.net
> User-Agent: curl/7.64.0
> Accept: */*
>
< HTTP/1.1 200 OK
< date: Thu, 22 Dec 2022 00:16:25 GMT
< server: Apache/2.4.38 (Debian)
< last-modified: Wed, 21 Dec 2022 20:26:32 GMT
< etag: "1b-5f05c5e43a083"
< accept-ranges: bytes
< content-length: 27
< content-type: text/html
< via: 1.1 google
<
Welcome to App-Server-1 !!
क्लीन-अप टास्क शुरू करने के लिए, वीएम से बाहर निकलें और Cloud Shell प्रॉम्प्ट पर वापस जाएं
11. व्यवस्थित करें
Cloud Shell से, कोडलैब कॉम्पोनेंट मिटाएं.
gcloud compute forwarding-rules delete stargazer --region=us-central1 --quiet
gcloud compute instances delete db1 --zone=us-central1-a --quiet
gcloud compute addresses delete psc-consumer-ip-1 --region=us-central1 --quiet
gcloud compute networks subnets delete consumer-ep-subnet db1-subnet --region=us-central1 --quiet
gcloud compute firewall-rules delete ssh-iap-consumer --quiet
gcloud compute networks delete consumer-vpc --quiet
gcloud compute service-attachments delete published-service --region=us-central1 --quiet
gcloud compute forwarding-rules delete l7-ilb-forwarding-rule --region=us-central1 --quiet
gcloud compute target-http-proxies delete l7-ilb-proxy --region=us-central1 --quiet
gcloud compute url-maps delete l7-ilb-map --region=us-central1 --quiet
gcloud compute backend-services delete l7-ilb-backend-service --region=us-central1 --quiet
gcloud compute instance-groups unmanaged delete psc-instance-group --zone=us-central1-a --quiet
gcloud compute instances delete app-server-1 --zone=us-central1-a --quiet
gcloud compute firewall-rules delete allow-to-ingress-nat-subnet fw-allow-health-check fw-allow-proxy-only-subnet --quiet
gcloud compute addresses delete lb-ip --region=us-central1 --quiet
gcloud compute networks subnets delete gce-subnet load-balancer-subnet psc-nat-subnet proxy-subnet-us-central --region=us-central1 --quiet
gcloud compute routers delete cloud-router-for-nat --region=us-central1 --quiet
gcloud compute networks delete producer-vpc --quiet
12. बधाई हो
बधाई हो, आपने ऑटोमैटिक डीएनएस कॉन्फ़िगरेशन के साथ Private Service Connect एंडपॉइंट को कॉन्फ़िगर और पुष्टि कर लिया है.
आपने प्रोड्यूसर इंफ़्रास्ट्रक्चर बनाया है. साथ ही, आपने सार्वजनिक डोमेन रजिस्ट्रेशन के साथ एक सेवा अटैचमेंट जोड़ा है. आपने सीखा कि उपभोक्ता वीपीसी नेटवर्क में उपभोक्ता एंडपॉइंट कैसे बनाया जाता है. इससे, अपने-आप जनरेट होने वाले डीएनएस का इस्तेमाल करके, ऑन-प्रिमाइसेस सेवा से कनेक्ट किया जा सकता है.
Cosmopup को कोडलैब बहुत पसंद हैं!!

आगे क्या करना है?
यहां दिए गए कुछ कोडलैब आज़माएं...
- GKE के साथ Private Service Connect का इस्तेमाल करके, सेवाओं को पब्लिश और इस्तेमाल करना
- सेवाओं को पब्लिश करने और उनका इस्तेमाल करने के लिए Private Service Connect का इस्तेमाल करना
- Private Service Connect और इंटरनल टीसीपी प्रॉक्सी लोड बैलेंसर का इस्तेमाल करके, हाइब्रिड नेटवर्किंग के ज़रिए ऑन-प्रेम सेवाओं से कनेक्ट करना
ज़्यादा जानकारी और वीडियो
- Private Service Connect के बारे में खास जानकारी
- Private Service Connect क्या है?
- इन लोड बैलेंसर टाइप का इस्तेमाल किया जा सकता है