1. परिचय
अपने-आप डीएनएस कॉन्फ़िगरेशन की सुविधा वाले Private Service Connect, Service Directory और Cloud DNS का इस्तेमाल करके, अपने-आप डीएनएस रिकॉर्ड बनाता है. ये रिकॉर्ड, उपभोक्ता के Private Service Connect एंडपॉइंट के आईपी पतों के साथ प्रोग्राम किए जाते हैं.
आपको क्या बनाना है
इस कोडलैब में, आपको Private Service Connect का पूरा आर्किटेक्चर बनाना है. इसमें, अपने-आप काम करने वाले डीएनएस के इस्तेमाल के बारे में बताया गया है, जैसा कि पहले चित्र में दिखाया गया है.
ऑटोमैटिक डीएनएस की सुविधा इनकी मदद से काम करती है:
- प्रॉड्यूसर सेवा अटैचमेंट, निजी सेवा कनेक्ट सेवा अटैचमेंट बनाते समय, '– domain-names' फ़्लैग के साथ मालिकाना हक वाले सार्वजनिक डोमेन की जानकारी देकर, अपने-आप डीएनएस शुरू करता है.
- उपभोक्ता, एंडपॉइंट का नाम तय करता है.
- अपने-आप डीएनएस कॉन्फ़िगर होने की सुविधा, डीएनएस ज़ोन goog-psc-default-us-central1 और डीएनएस नेम cosmopup.net, दोनों बनाती है. साथ ही, यह सेवा डायरेक्ट्री की एंट्री भी बनाती है, जिसमें उपभोक्ता के एंडपॉइंट का नाम शामिल होता है.
अपने-आप डीएनएस सेट अप होने की सुविधा के फ़ायदे को (4) में दिखाया गया है. इसमें, एंड यूज़र, डीएनएस, एफ़क्यूडीएन stargazer.cosmopup.net के ज़रिए, उपभोक्ता एंडपॉइंट से संपर्क कर सकता है.
इमेज 1
आपको इनके बारे में जानकारी मिलेगी
- इंटरनल एचटीटीपी या एचटीटीपीएस लोड बैलेंसर बनाने का तरीका
- अपने-आप डीएनएस लागू होने की सुविधा की मदद से, सेवा अटैचमेंट बनाने का तरीका
- Private Service Connect प्रोड्यूसर सेवा सेट अप करने का तरीका
- ऑटोमैटिक डीएनएस का इस्तेमाल करके, उपभोक्ता एंडपॉइंट को ऐक्सेस करने का तरीका
आपको इन चीज़ों की ज़रूरत होगी
- Google Cloud प्रोजेक्ट
- आपके मालिकाना हक वाला सार्वजनिक डोमेन
2. शुरू करने से पहले
कोडलैब के साथ काम करने के लिए प्रोजेक्ट को अपडेट करना
इस कोडलैब में, Cloud Shell में gcloud कॉन्फ़िगरेशन लागू करने में मदद करने के लिए, $variables का इस्तेमाल किया गया है.
Cloud Shell में, ये काम करें:
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=YOUR-PROJECT-NAME
echo $projectname
3. प्रोड्यूसर सेटअप
प्रोड्यूसर वीपीएन बनाना
Cloud Shell में, ये काम करें:
gcloud compute networks create producer-vpc --project=$projectname --subnet-mode=custom
प्रोड्यूसर सबनेट बनाना
Cloud Shell में, ये काम करें:
gcloud compute networks subnets create gce-subnet --project=$projectname --range=172.16.20.0/28 --network=producer-vpc --region=us-central1
Cloud Shell में, ये काम करें:
gcloud compute networks subnets create load-balancer-subnet --project=$projectname --range=172.16.10.0/28 --network=producer-vpc --region=us-central1
इंटरनल लोड बैलेंसर के लिए आईपी पता रिज़र्व करना
Cloud Shell में, ये काम करें:
gcloud compute addresses create lb-ip \
--region=us-central1 \
--subnet=load-balancer-subnet \
--purpose=GCE_ENDPOINT
असाइन किया गया आईपी पता देखना
असाइन किया गया आईपी पता देखने के लिए, compute addresses describe command का इस्तेमाल करें
gcloud compute addresses describe lb-ip --region=us-central1 | grep address:
रीजनल प्रॉक्सी सबनेट बनाना
प्रॉक्सी का ऐलोकेशन, VPC नेटवर्क लेवल पर होता है, न कि लोड बैलेंसर लेवल पर. आपको वर्चुअल नेटवर्क (VPC) के हर उस क्षेत्र में एक सिर्फ़ प्रॉक्सी वाला सबनेट बनाना होगा जहां Envoy पर आधारित लोड बैलेंसर का इस्तेमाल किया जाता है. अगर एक ही क्षेत्र और एक ही VPC नेटवर्क में कई लोड बैलेंसर डिप्लॉय किए जाते हैं, तो वे लोड बैलेंसिंग के लिए, सिर्फ़ प्रॉक्सी वाला एक ही सबनेट शेयर करते हैं.
- क्लाइंट, लोड बैलेंसर के फ़ॉरवर्डिंग नियम के आईपी पते और पोर्ट से कनेक्ट होता है.
- हर प्रॉक्सी, उस लोड बैलेंसर के फ़ॉरवर्डिंग नियम से तय किए गए आईपी पते और पोर्ट पर सुनता है. प्रॉक्सी में से कोई एक, क्लाइंट का नेटवर्क कनेक्शन शुरू और बंद करता है.
- प्रॉक्सी, लोड बैलेंसर के यूआरएल मैप और बैकएंड सेवाओं के हिसाब से, सही बैकएंड वीएम से कनेक्शन बनाता है.
आपको सिर्फ़ प्रॉक्सी सबनेट बनाने होंगे. भले ही, आपका VPC नेटवर्क ऑटो मोड में हो या कस्टम मोड में. प्रॉक्सी-ओनली वाले सबनेट में 64 या उससे ज़्यादा आईपी पते होने चाहिए. यह /26 या उससे कम लंबाई के प्रीफ़िक्स से मेल खाता है. सबनेट का सुझाया गया साइज़ /23 (सिर्फ़ 512 प्रॉक्सी पते) है.
Cloud Shell में, ये काम करें:
gcloud compute networks subnets create proxy-subnet-us-central \
--purpose=REGIONAL_MANAGED_PROXY \
--role=ACTIVE \
--region=us-central1 \
--network=producer-vpc \
--range=172.16.0.0/23
Private Service Connect के NAT सबनेट बनाना
Private Service Connect के साथ इस्तेमाल करने के लिए, एक या उससे ज़्यादा खास सबनेट बनाएं. अगर सेवा पब्लिश करने के लिए Google Cloud Console का इस्तेमाल किया जा रहा है, तो उस प्रोसेस के दौरान सबनेट बनाए जा सकते हैं. सबनेट को उसी क्षेत्र में बनाएं जहां सेवा का लोड बैलेंसर है. किसी सामान्य सबनेट को निजी सेवा कनेक्ट सबनेट में नहीं बदला जा सकता.
Cloud Shell में, ये काम करें:
gcloud compute networks subnets create psc-nat-subnet \
--project $projectname \
--network producer-vpc \
--region us-central1 \
--range 100.100.10.0/24 \
--purpose PRIVATE_SERVICE_CONNECT
प्रोड्यूसर के फ़ायरवॉल के नियम बनाना
Private Service Connect NAT सबनेट और सिर्फ़ ILB प्रॉक्सी सबनेट के बीच ट्रैफ़िक की अनुमति देने के लिए, फ़ायरवॉल के नियम कॉन्फ़िगर करें.
Cloud Shell में, ये काम करें:
gcloud compute --project=$projectname firewall-rules create allow-to-ingress-nat-subnet --direction=INGRESS --priority=1000 --network=producer-vpc --action=ALLOW --rules=all --source-ranges=100.100.10.0/24
Cloud Shell में, fw-allow-health-check फ़ायरवॉल नियम बनाएं, ताकि Google Cloud की हेल्थ चेक, टीसीपी पोर्ट 80 पर प्रोड्यूसर सेवा (बैकएंड सेवा) तक पहुंच सकें.
gcloud compute firewall-rules create fw-allow-health-check \
--network=producer-vpc \
--action=allow \
--direction=ingress \
--source-ranges=130.211.0.0/22,35.191.0.0/16 \
--rules=tcp:80
सिर्फ़ प्रॉक्सी के लिए बने सबनेट के लिए, फ़ायरवॉल का ऐसा नियम बनाएं जिससे लोड बैलेंसर, टीसीपी पोर्ट 80 पर बैकएंड इंस्टेंस के साथ कम्यूनिकेट कर सके.
gcloud compute firewall-rules create fw-allow-proxy-only-subnet \
--network=producer-vpc \
--action=allow \
--direction=ingress \
--source-ranges=172.16.0.0/23 \
--rules=tcp:80
क्लाउड राऊटर और एनएटी कॉन्फ़िगरेशन
कोडलैब में, सॉफ़्टवेयर पैकेज इंस्टॉल करने के लिए Cloud NAT का इस्तेमाल किया जाता है, क्योंकि वीएम इंस्टेंस में कोई बाहरी आईपी पता नहीं होता.
Cloud Shell में, क्लाउड राउटर बनाएं.
gcloud compute routers create cloud-router-for-nat --network producer-vpc --region us-central1
Cloud Shell में, NAT गेटवे बनाएं.
gcloud compute routers nats create cloud-nat-us-central1 --router=cloud-router-for-nat --auto-allocate-nat-external-ips --nat-all-subnet-ip-ranges --region us-central1
इंस्टेंस ग्रुप का कॉन्फ़िगरेशन
अगले सेक्शन में, आपको Compute Engine इंस्टेंस और मैनेज नहीं किया जा सकने वाला इंस्टेंस ग्रुप बनाना होगा. बाद के चरणों में, इंस्टेंस ग्रुप का इस्तेमाल लोड बैलेंसर की बैकएंड सेवा के तौर पर किया जाएगा.
Cloud Shell में, प्रोड्यूसर सेवा को पास की गई रीजनल हेल्थ-चेक बनाएं.
gcloud compute instances create app-server-1 \
--project=$projectname \
--machine-type=e2-micro \
--image-family debian-10 \
--no-address \
--image-project debian-cloud \
--zone us-central1-a \
--subnet=gce-subnet \
--metadata startup-script="#! /bin/bash
sudo apt-get update
sudo apt-get install apache2 -y
sudo service apache2 restart
echo 'Welcome to App-Server-1 !!' | tee /var/www/html/index.html
EOF"
Cloud Shell में, मैनेज नहीं किया जा सकने वाला इंस्टेंस ग्रुप बनाएं.
gcloud compute instance-groups unmanaged create psc-instance-group --zone=us-central1-a
gcloud compute instance-groups unmanaged set-named-ports psc-instance-group --project=$projectname --zone=us-central1-a --named-ports=http:80
gcloud compute instance-groups unmanaged add-instances psc-instance-group --zone=us-central1-a --instances=app-server-1
लोड बैलेंसर को कॉन्फ़िगर करना
यहां दिए गए चरणों में, आपको इंटरनल एचटीटीपी लोड बैलेंसर को कॉन्फ़िगर करना होगा. इसे बाद के चरण में, सेवा के अटैचमेंट के तौर पर पब्लिश किया जाएगा
Cloud Shell में, रीजनल हेल्थ-चेक बनाएं.
gcloud compute health-checks create http http-health-check \
--region=us-central1 \
--use-serving-port
Cloud Shell में, बैकएंड सेवा बनाएं.
gcloud compute backend-services create l7-ilb-backend-service \
--load-balancing-scheme=INTERNAL_MANAGED \
--protocol=HTTP \
--health-checks=http-health-check \
--health-checks-region=us-central1 \
--region=us-central1
Cloud Shell में, बैकएंड सेवा में बैकएंड जोड़ें.
gcloud compute backend-services add-backend l7-ilb-backend-service \
--balancing-mode=UTILIZATION \
--instance-group=psc-instance-group \
--instance-group-zone=us-central1-a \
--region=us-central1
Cloud Shell में, यूआरएल मैप बनाएं, ताकि आने वाले अनुरोधों को बैकएंड सेवा पर भेजा जा सके.
gcloud compute url-maps create l7-ilb-map \
--default-service l7-ilb-backend-service \
--region=us-central1
एचटीटीपी टारगेट प्रॉक्सी बनाएं.
gcloud compute target-http-proxies create l7-ilb-proxy\
--url-map=l7-ilb-map \
--url-map-region=us-central1 \
--region=us-central1
आने वाले अनुरोधों को प्रॉक्सी पर भेजने के लिए, फ़ॉरवर्ड करने का नियम बनाएं. फ़ॉरवर्ड करने का नियम बनाने के लिए, सिर्फ़ प्रॉक्सी वाले सबनेट का इस्तेमाल न करें.
gcloud compute forwarding-rules create l7-ilb-forwarding-rule \
--load-balancing-scheme=INTERNAL_MANAGED \
--network=producer-vpc \
--subnet=load-balancer-subnet \
--address=lb-ip \
--ports=80 \
--region=us-central1 \
--target-http-proxy=l7-ilb-proxy \
--target-http-proxy-region=us-central1
4. लोड बैलेंसर की पुष्टि करना
Cloud Console में, नेटवर्क सेवाएं → लोड बैलेंसिंग → लोड बैलेंसर पर जाएं. बैकएंड सेवा की सेहत की जांच पूरी होने की जानकारी
‘l7-ilb-map' चुनने पर, फ़्रंटएंड आईपी पता मिलता है. यह आईपी पता, पिछले चरण में grep किए गए आईपी पते से मेल खाना चाहिए. साथ ही, यह बैकएंड सेवा की पहचान करता है.
5. Private Service Connect सेवा अटैचमेंट बनाना
सेवा अटैचमेंट बनाना
Cloud Shell में, सेवा अटैचमेंट बनाएं. डोमेन नेम के आखिर में ‘.' ज़रूर जोड़ें.
gcloud compute service-attachments create published-service --region=us-central1 --producer-forwarding-rule=l7-ilb-forwarding-rule --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=psc-nat-subnet --domain-names=cosmopup.net.
ज़रूरी नहीं: अगर शेयर किए गए VPC का इस्तेमाल किया जा रहा है, तो सेवा प्रोजेक्ट में सेवा अटैचमेंट बनाएं.
gcloud compute service-attachments create published-service --region=us-central1 --producer-forwarding-rule=l7-ilb-forwarding-rule --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=projects/<hostproject>/regions/us-central1/subnetworks/psc-nat-subnet --domain-names=cosmopup.net.
सेवा का नया अटैचमेंट देखने के लिए, नेटवर्क सेवाएं → Private Service Connect पर जाएं
published-service चुनने पर, ज़्यादा जानकारी मिलती है. इसमें, सेवा अटैचमेंट का यूआरआई भी शामिल होता है. उपभोक्ता, निजी सेवा कनेक्शन और डोमेन नेम सेट अप करने के लिए इसका इस्तेमाल करता है.
अटैच की गई सेवा की जानकारी:
projects/<project name>/regions/us-central1/serviceAttachments/published-service
6. कंज्यूमर सेटअप
उपभोक्ता एपीआई चालू करना
Cloud में, Shell ये काम करता है:
gcloud services enable dns.googleapis.com
gcloud services enable servicedirectory.googleapis.com
उपभोक्ता के लिए VPC नेटवर्क बनाना
Cloud Shell में, ये काम करें:
gcloud compute networks create consumer-vpc --project=$projectname --subnet-mode=custom
उपभोक्ता सबनेट बनाना
Cloud Shell में, टेस्ट इंस्टेंस के लिए सबनेट बनाएं.
gcloud compute networks subnets create db1-subnet --project=$projectname --range=10.20.0.0/28 --network=consumer-vpc --region=us-central1
Cloud Shell में, उपभोक्ता एंडपॉइंट के लिए सबनेट बनाएं.
gcloud compute networks subnets create consumer-ep-subnet --project=$projectname --range=10.10.0.0/28 --network=consumer-vpc --region=us-central1
उपभोक्ता एंडपॉइंट (फ़ॉरवर्ड करने का नियम) बनाना
Cloud Shell में, स्टैटिक आईपी पता बनाएं. इसका इस्तेमाल, उपभोक्ता एंडपॉइंट के लिए किया जाएगा.
gcloud compute addresses create psc-consumer-ip-1 --region=us-central1 --subnet=consumer-ep-subnet --addresses 10.10.0.10
हम पहले से जनरेट किए गए सेवा अटैचमेंट यूआरआई का इस्तेमाल करके, उपभोक्ता एंडपॉइंट बनाते हैं.
Cloud Shell में, उपभोक्ता एंडपॉइंट बनाएं.
gcloud compute forwarding-rules create stargazer --region=us-central1 --network=consumer-vpc --address=psc-consumer-ip-1 --target-service-attachment=projects/$projectname/regions/us-central1/serviceAttachments/published-service
7. उपभोक्ता के VPC नेटवर्क में कनेक्शन की पुष्टि करना
उपभोक्ता के वीपीसी नेटवर्क से, नेटवर्क सेवाएं → Private Service Connect → कनेक्ट किए गए एंडपॉइंट पर जाकर, Private Service Connect के कनेक्ट होने की पुष्टि करें. पहले से मौजूद Stargazer कनेक्शन और उससे जुड़े आईपी पते को नोट करें.
psc-consumer-1 चुनने पर, सेवा के अटैचमेंट यूआरआई के साथ-साथ अन्य जानकारी भी मिलती है
8. प्रोड्यूसर के VPC नेटवर्क में कनेक्शन की पुष्टि करना
प्रॉड्यूसर के VPC नेटवर्क से, नेटवर्क सेवाएं → Private Service Connect → पब्लिश की गई सेवा पर जाकर, यह पुष्टि करें कि प्राइवेट सेवा कनेक्शन काम कर रहा है. ध्यान दें कि पब्लिश किए गए सेवा कनेक्शन में, फ़ॉरवर्ड करने का एक नियम (कनेक्शन एंडपॉइंट) दिखता है.
9. अपने-आप होने वाले डीएनएस कॉन्फ़िगरेशन की पुष्टि करना
आइए, डीएनएस और सेवा डायरेक्ट्री के कॉन्फ़िगरेशन का आकलन करते हैं.
Cloud DNS कॉन्फ़िगरेशन
नेटवर्क सेवाएं → Cloud DNS → ज़ोन पर जाएं. ज़ोन goog-psc-default-us-central & डीएनएस नेम cosmopup.net. अपने-आप जनरेट होता है.
डीएनएस और सेवा डायरेक्ट्री का कॉन्फ़िगरेशन देखना
ज़ोन का नाम चुनने पर, हमें यह देखने में मदद मिलती है कि Service Directory को Cloud DNS के साथ कैसे इंटिग्रेट किया गया है.
सेवा डायरेक्ट्री का कॉन्फ़िगरेशन
नेटवर्क सेवाएं → सेवा डायरेक्ट्री पर जाएं
क्या आपको उपभोक्ता एंडपॉइंट का नाम ‘stargazer' याद है? इसे सेवा डायरेक्ट्री में अपने-आप प्रोग्राम किया जाता है. इससे, हम FQDN stargazer.goog-psc-default–us-central1 का इस्तेमाल करके, उपभोक्ता एंडपॉइंट तक पहुंच सकते हैं
10. प्रोड्यूसर की सेवा के लिए उपभोक्ता के ऐक्सेस की पुष्टि करना
हम ग्राहक के VPC नेटवर्क से एक वीएम बनाएंगे. इससे, पब्लिश की गई सेवा की कनेक्टिविटी की जांच की जा सकेगी. इसके लिए, हम ग्राहक के एंडपॉइंट stargazer.cosmopup.net को ऐक्सेस करेंगे
Cloud Shell में, उपभोक्ता के vpc में टेस्ट इंस्टेंस बनाएं.
gcloud compute instances create db1 \
--zone=us-central1-a \
--image-family=debian-10 \
--image-project=debian-cloud \
--subnet=db1-subnet \
--no-address
आईएपी को अपने वीएम इंस्टेंस से कनेक्ट करने की अनुमति देने के लिए, फ़ायरवॉल का ऐसा नियम बनाएं जो:
- यह उन सभी वीएम इंस्टेंस पर लागू होता है जिन्हें आपको आईएपी का इस्तेमाल करके ऐक्सेस करना है.
- 35.235.240.0/20 आईपी रेंज से आने वाले ट्रैफ़िक को अनुमति देता है. इस रेंज में वे सभी आईपी पते शामिल होते हैं जिनका इस्तेमाल IAP, टीसीपी फ़ॉरवर्डिंग के लिए करता है.
Cloud Shell में, IAP फ़ायरवॉल नियम बनाएं.
gcloud compute firewall-rules create ssh-iap-consumer \
--network consumer-vpc \
--allow tcp:22 \
--source-ranges=35.235.240.0/20
Cloud Shell में आईएपी का इस्तेमाल करके, कंज्यूमर-वीएम में लॉग इन करें. इसके बाद, कर्ल करके प्रोड्यूसर सेवा से कनेक्टिविटी की पुष्टि करें. अगर टाइम आउट होता है, तो फिर से कोशिश करें.
gcloud compute ssh db1 --project=$projectname --zone=us-central1-a --tunnel-through-iap
प्रोड्यूसर सेवा से कनेक्टिविटी की पुष्टि करने के लिए, कर्ल का इस्तेमाल करें. पुष्टि हो जाने के बाद, VM से बाहर निकलें और Cloud Shell प्रॉम्प्ट पर वापस जाएं
Cloud Shell में, अपने कस्टम डोमेन के लिए कर्ल करें. उदाहरण के लिए, stargazer.[custom-domain.com]. नीचे दिए गए आउटपुट में, stargazer.cosmopup.net के लिए कर्ल किया गया है
user@db1:~$ curl -v stargazer.cosmopup.net
* Trying 10.10.0.10...
* TCP_NODELAY set
* Expire in 200 ms for 4 (transfer 0x55d3aa8190f0)
* Connected to stargazer.cosmopup.net (10.10.0.10) port 80 (#0)
> GET / HTTP/1.1
> Host: stargazer.cosmopup.net
> User-Agent: curl/7.64.0
> Accept: */*
>
< HTTP/1.1 200 OK
< date: Thu, 22 Dec 2022 00:16:25 GMT
< server: Apache/2.4.38 (Debian)
< last-modified: Wed, 21 Dec 2022 20:26:32 GMT
< etag: "1b-5f05c5e43a083"
< accept-ranges: bytes
< content-length: 27
< content-type: text/html
< via: 1.1 google
<
Welcome to App-Server-1 !!
क्लीन-अप टास्क शुरू करने के लिए, Cloud Shell प्रॉम्प्ट पर वापस जाने के लिए, VM से बाहर निकलें
11. व्यवस्थित करें
Cloud Shell में, कोडलैब कॉम्पोनेंट मिटाएं.
gcloud compute forwarding-rules delete stargazer --region=us-central1 --quiet
gcloud compute instances delete db1 --zone=us-central1-a --quiet
gcloud compute addresses delete psc-consumer-ip-1 --region=us-central1 --quiet
gcloud compute networks subnets delete consumer-ep-subnet db1-subnet --region=us-central1 --quiet
gcloud compute firewall-rules delete ssh-iap-consumer --quiet
gcloud compute networks delete consumer-vpc --quiet
gcloud compute service-attachments delete published-service --region=us-central1 --quiet
gcloud compute forwarding-rules delete l7-ilb-forwarding-rule --region=us-central1 --quiet
gcloud compute target-http-proxies delete l7-ilb-proxy --region=us-central1 --quiet
gcloud compute url-maps delete l7-ilb-map --region=us-central1 --quiet
gcloud compute backend-services delete l7-ilb-backend-service --region=us-central1 --quiet
gcloud compute instance-groups unmanaged delete psc-instance-group --zone=us-central1-a --quiet
gcloud compute instances delete app-server-1 --zone=us-central1-a --quiet
gcloud compute firewall-rules delete allow-to-ingress-nat-subnet fw-allow-health-check fw-allow-proxy-only-subnet --quiet
gcloud compute addresses delete lb-ip --region=us-central1 --quiet
gcloud compute networks subnets delete gce-subnet load-balancer-subnet psc-nat-subnet proxy-subnet-us-central --region=us-central1 --quiet
gcloud compute routers delete cloud-router-for-nat --region=us-central1 --quiet
gcloud compute networks delete producer-vpc --quiet
12. बधाई हो
बधाई हो, आपने अपने-आप डीएनएस कॉन्फ़िगरेशन की सुविधा की मदद से, Private Service Connect एंडपॉइंट को कॉन्फ़िगर और पुष्टि कर ली है.
आपने प्रोड्यूसर इन्फ़्रास्ट्रक्चर बनाया है और सार्वजनिक डोमेन रजिस्ट्रेशन के साथ सेवा अटैचमेंट जोड़ा है. आपने उपभोक्ता के VPC नेटवर्क में उपभोक्ता एंडपॉइंट बनाने का तरीका जाना. इस एंडपॉइंट की मदद से, अपने-आप जनरेट हुए डीएनएस का इस्तेमाल करके, ऑन-प्राइमिस सेवा से कनेक्ट किया जा सकता है.
Cosmopup को लगता है कि कोडलैब शानदार हैं!!
आगे क्या करना है?
इनमें से कुछ कोडलैब देखें...
- GKE की मदद से सेवाओं को पब्लिश और इस्तेमाल करने के लिए, Private Service Connect का इस्तेमाल करना
- सेवाओं को पब्लिश और इस्तेमाल करने के लिए, Private Service Connect का इस्तेमाल करना
- Private Service Connect और किसी इंटरनल टीसीपी प्रॉक्सी लोड बैलेंसर का इस्तेमाल करके, हाइब्रिड नेटवर्किंग की मदद से ऑन-प्रीमिस सेवाओं से कनेक्ट करना
ज़्यादा पढ़ने के लिए लेख और वीडियो
- Private Service Connect के बारे में खास जानकारी
- Private Service Connect क्या है?
- इस्तेमाल किए जा सकने वाले लोड बैलेंसर टाइप