1. परिचय
Private Service Connect इंटरफ़ेस एक ऐसा संसाधन है जिसकी मदद से, प्रोड्यूसर वर्चुअल प्राइवेट क्लाउड (वीपीएन) नेटवर्क, कंज्यूमर वीपीएन नेटवर्क में मौजूद अलग-अलग डेस्टिनेशन से कनेक्शन शुरू कर सकता है. प्रोड्यूसर और कंज्यूमर नेटवर्क, अलग-अलग प्रोजेक्ट और संगठनों में हो सकते हैं.
अगर कोई नेटवर्क अटैचमेंट, Private Service Connect इंटरफ़ेस से कनेक्शन स्वीकार करता है, तो Google Cloud इंटरफ़ेस को उपभोक्ता सबनेट से आईपी पता असाइन करता है. यह सबनेट, नेटवर्क अटैचमेंट से तय होता है. उपभोक्ता और प्रोड्यूसर नेटवर्क कनेक्ट होते हैं और इंटरनल आईपी पतों का इस्तेमाल करके, एक-दूसरे से बातचीत कर सकते हैं.
नेटवर्क अटैचमेंट और Private Service Connect इंटरफ़ेस के बीच का कनेक्शन, Private Service Connect एंडपॉइंट और सेवा अटैचमेंट के बीच के कनेक्शन जैसा ही होता है. हालांकि, इनमें दो मुख्य अंतर हैं:
- नेटवर्क अटैचमेंट की मदद से, प्रोड्यूसर नेटवर्क, कंज्यूमर नेटवर्क (मैनेज की जाने वाली सेवा का आउटगोइंग ट्रैफ़िक) से कनेक्शन शुरू कर सकता है. वहीं, एंडपॉइंट की मदद से, कंज्यूमर नेटवर्क, प्रोड्यूसर नेटवर्क (मैनेज की जाने वाली सेवा का इनगोइंग ट्रैफ़िक) से कनेक्शन शुरू कर सकता है.
- Private Service Connect इंटरफ़ेस कनेक्शन ट्रांज़िशन होता है. इसका मतलब है कि प्रोड्यूसर नेटवर्क, उपभोक्ता नेटवर्क से कनेक्ट किए गए अन्य नेटवर्क से कम्यूनिकेट कर सकता है.
आपको क्या बनाना है
आपको उपभोक्ता के वीपीसी में एक psc-network-attachment बनाना होगा. इससे, L4 इंटरनल लोड बैलेंसर के बैकएंड के तौर पर दो पीएससी इंटरफ़ेस बन जाएंगे. प्रोड्यूसर VPC से, टाइगर बैकएंड-vpc में कोस्मो को कर्ल भेजेगा. प्रोड्यूसर के वीपीसी में, आपको डेस्टिनेशन ट्रैफ़िक 192.168.20.0/28 के अगले हॉप के लिए, इंटरनल लोड बैलेंसर के तौर पर स्टैटिक रूट बनाना होगा. यह बैलेंसर, ट्रैफ़िक को cosmo पर रूट करने के लिए, बैकएंड और उसके बाद के पीएससी इंटरफ़ेस का इस्तेमाल करेगा. खास जानकारी के लिए, पहली इमेज देखें.
निजी सेवा के ऐक्सेस का इस्तेमाल करते समय, Google से मैनेज की जा रही उन सेवाओं के लिए भी यही तरीका अपनाया जा सकता है जिन्हें ग्राहक के VPC से पीयर किया गया है.
इमेज 1
आपको इनके बारे में जानकारी मिलेगी
- नेटवर्क अटैचमेंट बनाने का तरीका
- प्रोड्यूसर, बैकएंड के तौर पर पीएससी इंटरफ़ेस बनाने के लिए, नेटवर्क अटैचमेंट का इस्तेमाल कैसे कर सकता है
- अगले हॉप के तौर पर ILB का इस्तेमाल करके, प्रोड्यूसर से कंज्यूमर तक कम्यूनिकेशन कैसे सेट अप करें
- VPC पियरिंग की मदद से, प्रोड्यूसर वीएम (टाइगर) से उपभोक्ता वीएम (कोस्मो) को ऐक्सेस करने की अनुमति देने का तरीका
आपको इन चीज़ों की ज़रूरत होगी
- Google Cloud प्रोजेक्ट
- IAM की अनुमतियां
- Compute नेटवर्क एडमिन (roles/compute.networkAdmin)
- Compute इंस्टेंस एडमिन (roles/compute.instanceAdmin)
- Compute सुरक्षा एडमिन (roles/compute.securityAdmin)
2. शुरू करने से पहले
ट्यूटोरियल के साथ काम करने के लिए प्रोजेक्ट को अपडेट करना
इस ट्यूटोरियल में, Cloud Shell में gcloud कॉन्फ़िगरेशन लागू करने में मदद करने के लिए, $variables का इस्तेमाल किया गया है.
Cloud Shell में, ये काम करें:
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectid=YOUR-PROJECT-NAME
echo $projectid
3. कंज्यूमर सेटअप
उपभोक्ता VPC बनाना
Cloud Shell में, ये काम करें:
gcloud compute networks create consumer-vpc --project=$projectid --subnet-mode=custom
Private Service Connect नेटवर्क अटैचमेंट सबनेट बनाना
Cloud Shell में, ये काम करें:
gcloud compute networks subnets create intf-subnet --project=$projectid --range=192.168.10.0/28 --network=consumer-vpc --region=us-central1
बैकएंड VPC बनाना
Cloud Shell में, ये काम करें:
gcloud compute networks create backend-vpc --project=$projectid --subnet-mode=custom
बैकएंड वीपीएन सबनेट बनाना
Cloud Shell में, ये काम करें:
gcloud compute networks subnets create cosmo-subnet-1 --project=$projectid --range=192.168.20.0/28 --network=backend-vpc --region=us-central1
बैकएंड-VPC फ़ायरवॉल के नियम बनाना
Cloud Shell में, psc-network-attachment सबनेट से cosmo पर आने वाले ट्रैफ़िक के लिए इनग्रेस नियम बनाएं
gcloud compute firewall-rules create allow-ingress-to-cosmo \
--network=backend-vpc \
--action=ALLOW \
--rules=ALL \
--direction=INGRESS \
--priority=1000 \
--source-ranges="192.168.10.0/28" \
--destination-ranges="192.168.20.0/28" \
--enable-logging
क्लाउड राऊटर और एनएटी कॉन्फ़िगरेशन
ट्यूटोरियल में, सॉफ़्टवेयर पैकेज इंस्टॉल करने के लिए Cloud NAT का इस्तेमाल किया गया है, क्योंकि VM इंस्टेंस का कोई सार्वजनिक आईपी पता नहीं है. क्लाउड एनएटी, निजी आईपी पते वाले वर्चुअल मशीनों को इंटरनेट ऐक्सेस करने की सुविधा देता है.
Cloud Shell में, क्लाउड राउटर बनाएं.
gcloud compute routers create cloud-router-for-nat --network backend-vpc --region us-central1
Cloud Shell में, NAT गेटवे बनाएं.
gcloud compute routers nats create cloud-nat-us-central1 --router=cloud-router-for-nat --auto-allocate-nat-external-ips --nat-all-subnet-ip-ranges --region us-central1
4. आईएपी चालू करना
आईएपी को अपने वीएम इंस्टेंस से कनेक्ट करने की अनुमति देने के लिए, फ़ायरवॉल का ऐसा नियम बनाएं जो:
- यह उन सभी वीएम इंस्टेंस पर लागू होता है जिन्हें आपको आईएपी का इस्तेमाल करके ऐक्सेस करना है.
- 35.235.240.0/20 आईपी रेंज से आने वाले ट्रैफ़िक को अनुमति देता है. इस रेंज में वे सभी आईपी पते शामिल होते हैं जिनका इस्तेमाल IAP, टीसीपी फ़ॉरवर्डिंग के लिए करता है.
Cloud Shell में, IAP फ़ायरवॉल नियम बनाएं.
gcloud compute firewall-rules create ssh-iap-consumer \
--network backend-vpc \
--allow tcp:22 \
--source-ranges=35.235.240.0/20
5. उपभोक्ता के लिए वीएम इंस्टेंस बनाना
Cloud Shell में, उपभोक्ता का VM इंस्टेंस, cosmo बनाएं
gcloud compute instances create cosmo \
--project=$projectid \
--machine-type=e2-micro \
--image-family debian-11 \
--no-address \
--image-project debian-cloud \
--zone us-central1-a \
--subnet=cosmo-subnet-1 \
--metadata startup-script="#! /bin/bash
sudo apt-get update
sudo apt-get install tcpdump
sudo apt-get install apache2 -y
sudo service apache2 restart
echo 'Welcome to cosmo's backend server !!' | tee /var/www/html/index.html
EOF"
इंस्टेंस के आईपी पते पाना और उन्हें सेव करना:
Cloud Shell में, cosmo VM इंस्टेंस के लिए describe का इस्तेमाल करें.
gcloud compute instances describe cosmo --zone=us-central1-a | grep networkIP:
6. Private Service Connect का नेटवर्क अटैचमेंट
नेटवर्क अटैचमेंट, क्षेत्र के हिसाब से उपलब्ध संसाधन होते हैं. ये Private Service Connect इंटरफ़ेस के उपभोक्ता पक्ष को दिखाते हैं. नेटवर्क अटैचमेंट के साथ एक सबनेट जोड़ा जाता है. इसके बाद, प्रोड्यूसर उस सबनेट से Private Service Connect इंटरफ़ेस को आईपी असाइन करता है. सबनेट, नेटवर्क अटैचमेंट वाले क्षेत्र में होना चाहिए. नेटवर्क अटैचमेंट, प्रोड्यूसर सेवा के उसी इलाके में होना चाहिए.
नेटवर्क अटैचमेंट बनाना
Cloud Shell में, नेटवर्क अटैचमेंट बनाएं.
gcloud compute network-attachments create psc-network-attachment \
--region=us-central1 \
--connection-preference=ACCEPT_MANUAL \
--producer-accept-list=$projectid \
--subnets=intf-subnet
नेटवर्क अटैचमेंट की सूची
Cloud Shell में, नेटवर्क अटैचमेंट की सूची बनाएं.
gcloud compute network-attachments list
नेटवर्क अटैचमेंट के बारे में बताना
Cloud Shell में, नेटवर्क अटैचमेंट के बारे में जानकारी दें.
gcloud compute network-attachments describe psc-network-attachment --region=us-central1
psc-network-attachment यूआरआई को नोट करें. इसका इस्तेमाल, प्रॉड्यूसर Private Service Connect इंटरफ़ेस बनाते समय करेगा. उदाहरण के लिए:
user$ gcloud compute network-attachments describe psc-network-attachment --region=us-central1
connectionPreference: ACCEPT_MANUAL
creationTimestamp: '2023-06-07T11:27:33.116-07:00'
fingerprint: 8SDsvG6TfYQ=
id: '5014253525248340730'
kind: compute#networkAttachment
name: psc-network-attachment
network: https://www.googleapis.com/compute/v1/projects/$projectid/global/networks/consumer-vpc
producerAcceptLists:
- $projectid
region: https://www.googleapis.com/compute/v1/projects/$projectid/regions/us-central1
selfLink: https://www.googleapis.com/compute/v1/projects/$projectid/regions/us-central1/networkAttachments/psc-network-attachment
subnetworks:
- https://www.googleapis.com/compute/v1/projects/$projectid/regions/us-central1/subnetworks/intf-subnet
7. उपभोक्ता और बैकएंड वीपीसी के बीच वीपीसी पीयरिंग सेट अप करना
आपको उपभोक्ता और बैकएंड वीपीसी के बीच वीपीसी पियरिंग कनेक्शन बनाना होगा. इससे यह पता चलता है कि Google, मैनेज की जाने वाली सेवाओं के लिए ग्राहक के VPC से कैसे कनेक्ट होता है. साथ ही, नेटवर्क कनेक्टिविटी के लिए, अलग-अलग संगठनों के बीच पीयरिंग कैसे होती है. हर VPC से VPC पीयरिंग को कॉन्फ़िगर करना ज़रूरी है.
उपभोक्ता के वीपीसी से बैकएंड वीपीसी पीयरिंग
उपभोक्ता से बैकएंड वीपीसी तक वीपीसी पियरिंग कनेक्शन बनाना
Cloud Shell में, ये काम करें:
gcloud compute networks peerings create consumer-to-backend-vpc \
--network=consumer-vpc \
--peer-project=$projectid \
--peer-network=backend-vpc \
--stack-type=IPV4_ONLY
बैकएंड से उपभोक्ता के वीपीसी तक वीपीसी पियरिंग कनेक्शन बनाना
Cloud Shell में, ये काम करें:
gcloud compute networks peerings create backend-to-consumer-vpc \
--network=backend-vpc \
--peer-project=$projectid \
--peer-network=consumer-vpc \
--stack-type=IPV4_ONLY
VPC पीयरिंग की स्थिति की जानकारी की पुष्टि करना
Cloud Shell में, पुष्टि करें कि वीपीसी पीयरिंग "चालू" और "कनेक्टेड" स्थिति में है.
gcloud compute networks peerings list
उदाहरण:
user@cloudshell$ gcloud compute networks peerings list
NAME: backend-to-consumer-vpc
NETWORK: backend-vpc
PEER_PROJECT: $projectid
PEER_NETWORK: consumer-vpc
STACK_TYPE: IPV4_ONLY
PEER_MTU:
IMPORT_CUSTOM_ROUTES: False
EXPORT_CUSTOM_ROUTES: False
STATE: ACTIVE
STATE_DETAILS: [2023-06-07T11:42:27.634-07:00]: Connected.
NAME: consumer-to-backend-vpc
NETWORK: consumer-vpc
PEER_PROJECT: $projectid
PEER_NETWORK: backend-vpc
STACK_TYPE: IPV4_ONLY
PEER_MTU:
IMPORT_CUSTOM_ROUTES: False
EXPORT_CUSTOM_ROUTES: False
STATE: ACTIVE
STATE_DETAILS: [2023-06-07T11:42:27.634-07:00]: Connected.
8. प्रोड्यूसर सेटअप
प्रोड्यूसर VPC बनाना
Cloud Shell में, ये काम करें:
gcloud compute networks create producer-vpc --project=$projectid --subnet-mode=custom
प्रोड्यूसर सबनेट बनाना
Cloud Shell में, पीएससी इंटरफ़ेस के vNIC0 के लिए इस्तेमाल किया जाने वाला सबनेट बनाएं
gcloud compute networks subnets create prod-subnet --project=$projectid --range=10.20.1.0/28 --network=producer-vpc --region=us-central1
Cloud Shell में, इंस्टेंस टाइगर के लिए इस्तेमाल किया जाने वाला सबनेट बनाएं.
gcloud compute networks subnets create prod-subnet-2 --project=$projectid --range=10.30.1.0/28 --network=producer-vpc --region=us-central1
Cloud Shell में, इंटरनल लोड बैलेंसर के लिए इस्तेमाल किया जाने वाला सबनेट बनाएं.
gcloud compute networks subnets create prod-subnet-3 --project=$projectid --range=172.16.10.0/28 --network=producer-vpc --region=us-central1
क्लाउड राऊटर और एनएटी कॉन्फ़िगरेशन
ट्यूटोरियल में, सॉफ़्टवेयर पैकेज इंस्टॉल करने के लिए Cloud NAT का इस्तेमाल किया गया है, क्योंकि VM इंस्टेंस का कोई सार्वजनिक आईपी पता नहीं है. क्लाउड एनएटी, निजी आईपी पते वाले वर्चुअल मशीनों को इंटरनेट ऐक्सेस करने की सुविधा देता है.
Cloud Shell में, क्लाउड राउटर बनाएं.
gcloud compute routers create cloud-router-for-nat-producer --network producer-vpc --region us-central1
Cloud Shell में, NAT गेटवे बनाएं.
gcloud compute routers nats create cloud-nat-us-central1-producer --router=cloud-router-for-nat-producer --auto-allocate-nat-external-ips --nat-all-subnet-ip-ranges --region us-central1
आईएपी चालू करना
आईएपी को अपने वीएम इंस्टेंस से कनेक्ट करने की अनुमति देने के लिए, फ़ायरवॉल का ऐसा नियम बनाएं जो:
- यह उन सभी वीएम इंस्टेंस पर लागू होता है जिन्हें आपको आईएपी का इस्तेमाल करके ऐक्सेस करना है.
- 35.235.240.0/20 आईपी रेंज से आने वाले ट्रैफ़िक को अनुमति देता है. इस रेंज में वे सभी आईपी पते शामिल होते हैं जिनका इस्तेमाल IAP, टीसीपी फ़ॉरवर्डिंग के लिए करता है.
Cloud Shell में, IAP फ़ायरवॉल नियम बनाएं.
gcloud compute firewall-rules create ssh-iap-producer \
--network producer-vpc \
--allow tcp:22 \
--source-ranges=35.235.240.0/20
प्रोड्यूसर के लिए वीएम इंस्टेंस बनाना
Cloud Shell में, कंज़्यूमर VM इंस्टेंस, tiger बनाएं
gcloud compute instances create tiger \
--project=$projectid \
--machine-type=e2-micro \
--image-family debian-11 \
--no-address \
--image-project debian-cloud \
--zone us-central1-a \
--subnet=prod-subnet-2 \
--metadata startup-script="#! /bin/bash
sudo apt-get update
sudo apt-get install tcpdump"
9. प्रोड्यूसर के लिए फ़ायरवॉल के नियम बनाना
प्रोड्यूसर वीपीसी में, इन्ग्रेस फ़ायरवॉल का ऐसा नियम बनाएं जो prod-subnet-2 से, प्रोड्यूसर-वीपीसी के सभी इंस्टेंस के साथ कम्यूनिकेशन की अनुमति देता हो.
Cloud Shell में, प्रोड्यूसर फ़ायरवॉल नियम बनाएं.
gcloud compute --project=$projectid firewall-rules create allow-tiger-ingress --direction=INGRESS --priority=1000 --network=producer-vpc --action=ALLOW --rules=all --source-ranges=10.30.1.0/28 --enable-logging
10. Private Service Connect इंटरफ़ेस बनाना
Private Service Connect इंटरफ़ेस एक ऐसा संसाधन है जिसकी मदद से, प्रोड्यूसर वर्चुअल प्राइवेट क्लाउड (वीपीएन) नेटवर्क, कंज्यूमर वीपीएन नेटवर्क में मौजूद अलग-अलग डेस्टिनेशन से कनेक्शन शुरू कर सकता है. प्रोड्यूसर और कंज्यूमर नेटवर्क, अलग-अलग प्रोजेक्ट और संगठनों में हो सकते हैं.
अगर कोई नेटवर्क अटैचमेंट, Private Service Connect इंटरफ़ेस से कनेक्शन स्वीकार करता है, तो Google Cloud इंटरफ़ेस को उपभोक्ता सबनेट से आईपी पता असाइन करता है. यह सबनेट, नेटवर्क अटैचमेंट से तय होता है. उपभोक्ता और प्रोड्यूसर नेटवर्क कनेक्ट होते हैं और इंटरनल आईपी पतों का इस्तेमाल करके, एक-दूसरे से बातचीत कर सकते हैं.
ट्यूटोरियल में, आपको प्राइवेट सेवा कनेक्ट नेटवर्क अटैचमेंट के साथ दो इंस्टेंस बनाने होंगे. ये इंस्टेंस, इंटरनल लोड बैलेंसर के बैकएंड होंगे.
Cloud Shell में, Private Service Connect इंटरफ़ेस (rabbit) बनाएं और नेटवर्क अटैचमेंट के बारे में जानकारी देने वाले आउटपुट से, पहले से पहचाने गए psc-network-attachment यूआरएल को डालें.
gcloud compute instances create rabbit --zone us-central1-a --machine-type=f1-micro --can-ip-forward --network-interface subnet=prod-subnet,network=producer-vpc,no-address --network-interface network-attachment=https://www.googleapis.com/compute/v1/projects/$projectid/regions/us-central1/networkAttachments/psc-network-attachment --metadata startup-script="#! /bin/bash
sudo apt-get update
sudo apt-get install tcpdump
sudo apt-get install apache2 -y
sudo service apache2 restart"
Cloud Shell में, Private Service Connect इंटरफ़ेस (फ़ॉक्स) बनाएं और नेटवर्क अटैचमेंट के ब्यौरे वाले आउटपुट से, पहले से पहचाने गए psc-network-attachment यूआरएलI डालें.
gcloud compute instances create fox --zone us-central1-a --machine-type=f1-micro --can-ip-forward --network-interface subnet=prod-subnet,network=producer-vpc,no-address --network-interface network-attachment=https://www.googleapis.com/compute/v1/projects/$projectid/regions/us-central1/networkAttachments/psc-network-attachment --metadata startup-script="#! /bin/bash
sudo apt-get update
sudo apt-get install tcpdump
sudo apt-get install apache2 -y
sudo service apache2 restart"
एक से ज़्यादा एनआईसी की पुष्टि
पुष्टि करें कि पीएससी इंटरफ़ेस, सही आईपी पते के साथ कॉन्फ़िगर किया गया है. vNIC0, प्रोड्यूसर के prod-सबनेट (10.20.1.0/28) का इस्तेमाल करेगा और vNIC1, कंज्यूमर के intf-सबनेट (192.168.10.0/28) का इस्तेमाल करेगा.
gcloud compute instances describe rabbit --zone=us-central1-a | grep networkIP:
gcloud compute instances describe fox --zone=us-central1-a | grep networkIP:
उदाहरण:
user$ gcloud compute instances describe rabbit --zone=us-central1-a | grep networkIP:
networkIP: 10.20.1.2
networkIP: 192.168.10.2
user$ gcloud compute instances describe fox --zone=us-central1-a | grep networkIP:
networkIP: 10.20.1.3
networkIP: 192.168.10.3
11. मैनेज नहीं किए जा रहे इंस्टेंस ग्रुप में, rabbit और fox बनाना और जोड़ना
नीचे दिए गए सेक्शन में, आपको एक ऐसा इंस्टेंस ग्रुप बनाना होगा जिसे मैनेज नहीं किया जा सकेगा. इसमें rabbit और fox नाम के PSC इंटरफ़ेस इंस्टेंस शामिल होंगे.
Cloud Shell में, मैनेज नहीं किया जा सकने वाला इंस्टेंस ग्रुप बनाएं.
gcloud compute instance-groups unmanaged create psc-interface-instances-ig --project=$projectid --zone=us-central1-a
Cloud Shell में, इंस्टेंस ग्रुप में fox और rabbit इंस्टेंस जोड़ें.
gcloud compute instance-groups unmanaged add-instances psc-interface-instances-ig --project=$projectid --zone=us-central1-a --instances=fox,rabbit
12. टीसीपी हेल्थ चेक, बैकएंड सेवाएं, फ़ॉरवर्ड करने का नियम, और फ़ायरवॉल बनाना
Cloud Shell में, बैकएंड की परफ़ॉर्मेंस की जांच करने वाला टूल बनाएं.
gcloud compute health-checks create http hc-http-80 --port=80
Cloud Shell में बैकएंड सेवा बनाएं
gcloud compute backend-services create psc-interface-backend --load-balancing-scheme=internal --protocol=tcp --region=us-central1 --health-checks=hc-http-80
gcloud compute backend-services add-backend psc-interface-backend --region=us-central1 --instance-group=psc-interface-instances-ig --instance-group-zone=us-central1-a
Cloud Shell में, फ़ॉरवर्ड करने का नियम बनाएं
gcloud compute forwarding-rules create psc-ilb --region=us-central1 --load-balancing-scheme=internal --network=producer-vpc --subnet=prod-subnet-3 --address=172.16.10.10 --ip-protocol=TCP --ports=all --backend-service=psc-interface-backend --backend-service-region=us-central1
Cloud Shell में, बैकएंड की हेल्थ चेक की सुविधा चालू करने के लिए फ़ायरवॉल नियम बनाएं
gcloud compute firewall-rules create ilb-health-checks --allow tcp:80,tcp:443 --network producer-vpc --source-ranges 130.211.0.0/22,35.191.0.0/16
13. PSC इंटरफ़ेस के लिए Linux आईपी टेबल बनाना - rabbit
पीएससी इंटरफ़ेस इंस्टेंस से, Linux आईपी टेबल कॉन्फ़िगर करें, ताकि प्रोड्यूसर, उपभोक्ता सबनेट से कम्यूनिकेट कर सके.
अपने Private Service Connect इंटरफ़ेस के मेहमान ओएस का नाम ढूंढना
रूटिंग को कॉन्फ़िगर करने के लिए, आपको अपने Private Service Connect इंटरफ़ेस के मेहमान ओएस का नाम पता होना चाहिए. यह नाम, Google Cloud में इंटरफ़ेस के नाम से अलग होता है.
Cloud Shell में IAP का इस्तेमाल करके, psc-interface vm, rabbit में लॉग इन करें.
gcloud compute ssh rabbit --project=$projectid --zone=us-central1-a --tunnel-through-iap
Cloud Shell में, psc-interface इंस्टेंस का आईपी पता पाएं
ip a
उदाहरण:
user@rabbit:~$ ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens4: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1460 qdisc pfifo_fast state UP group default qlen 1000
link/ether 42:01:0a:14:01:02 brd ff:ff:ff:ff:ff:ff
altname enp0s4
inet 10.20.1.2/32 brd 10.20.1.2 scope global dynamic ens4
valid_lft 59396sec preferred_lft 59396sec
inet6 fe80::4001:aff:fe14:102/64 scope link
valid_lft forever preferred_lft forever
3: ens5: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1460 qdisc pfifo_fast state UP group default qlen 1000
link/ether 42:01:c0:a8:0a:02 brd ff:ff:ff:ff:ff:ff
altname enp0s5
inet 192.168.10.2/32 brd 192.168.10.2 scope global dynamic ens5
valid_lft 66782sec preferred_lft 66782sec
inet6 fe80::4001:c0ff:fea8:a02/64 scope link
valid_lft forever preferred_lft forever
अपने PSC इंटरफ़ेस का गेटवे आईपी ढूंढना
नेटवर्क इंटरफ़ेस की सूची में, अपने निजी Service Connect इंटरफ़ेस के आईपी पते से जुड़े इंटरफ़ेस का नाम ढूंढें और सेव करें. उदाहरण के लिए, ens5 (vNIC1)
रूटिंग को कॉन्फ़िगर करने के लिए, आपको अपने Private Service Connect इंटरफ़ेस के डिफ़ॉल्ट गेटवे का आईपी पता पता होना चाहिए
Cloud Shell में, हम 1 का इस्तेमाल करेंगे, क्योंकि PSC इंटरफ़ेस, vNIC1 से जुड़ा है.
curl http://metadata.google.internal/computeMetadata/v1/instance/network-interfaces/1/gateway -H "Metadata-Flavor: Google" && echo
उदाहरण के लिए, डिफ़ॉल्ट gw 192.168.10.1 दिखाता है
user@rabbit:~$ curl http://metadata.google.internal/computeMetadata/v1/instance/network-interfaces/1/gateway -H "Metadata-Flavor: Google" && echo
192.168.10.1
उपभोक्ता सबनेट के लिए रूट जोड़ना
आपको अपने Private Service Connect इंटरफ़ेस से कनेक्ट होने वाले हर उपभोक्ता सबनेट के लिए, Private Service Connect इंटरफ़ेस के डिफ़ॉल्ट गेटवे में एक रूट जोड़ना होगा. इससे यह पक्का होता है कि उपभोक्ता नेटवर्क के लिए बाउंड किया गया ट्रैफ़िक, Private Service Connect इंटरफ़ेस से बाहर निकलता है.
रूट टेबल की पुष्टि करना
Cloud Shell में, मौजूदा रास्तों की पुष्टि करें.
ip route show
उदाहरण.
user@rabbit:~$ ip route show
default via 10.20.1.1 dev ens4
10.20.1.0/28 via 10.20.1.1 dev ens4
10.20.1.1 dev ens4 scope link
192.168.10.0/28 via 192.168.10.1 dev ens5
192.168.10.1 dev ens5 scope link
Cloud Shell में, cosmo-subnet-1 में रूट जोड़ें
sudo ip route add 192.168.20.0/28 via 192.168.10.1 dev ens5
रूट टेबल की पुष्टि करना
Cloud Shell में, जोड़े गए अपडेट किए गए रास्तों की पुष्टि करें.
ip route show
उदाहरण.
user@rabbit:~$ ip route show
default via 10.20.1.1 dev ens4
10.20.1.0/28 via 10.20.1.1 dev ens4
10.20.1.1 dev ens4 scope link
192.168.10.0/28 via 192.168.10.1 dev ens5
192.168.10.1 dev ens5 scope link
192.168.20.0/28 via 192.168.10.1 dev ens5
आईपी टेबल के नियम बनाना
Cloud Shell में, मौजूदा आईपी टेबल की पुष्टि करें.
sudo iptables -t nat -L -n -v
उदाहरण:
user@rabbit:~$ sudo iptables -t nat -L -n -v
Chain PREROUTING (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Chain INPUT (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Chain OUTPUT (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Chain POSTROUTING (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Cloud Shell में आईपी टेबल अपडेट करना
sudo iptables -t nat -A POSTROUTING -o ens5 -j MASQUERADE
sudo sysctl net.ipv4.ip_forward=1
Cloud Shell में, अपडेट की गई आईपी टेबल की पुष्टि करें.
sudo iptables -t nat -L -n -v
उदाहरण:
user@rabbit:~$ sudo iptables -t nat -L -n -v
Chain PREROUTING (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Chain INPUT (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Chain OUTPUT (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Chain POSTROUTING (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
0 0 MASQUERADE all -- * ens5 0.0.0.0/0 0.0.0.0/0
14. पीएससी इंटरफ़ेस के लिए Linux आईपी टेबल बनाना - फ़ॉक्स
पीएससी इंटरफ़ेस इंस्टेंस से, Linux आईपी टेबल कॉन्फ़िगर करें, ताकि प्रोड्यूसर, उपभोक्ता सबनेट से कम्यूनिकेट कर सके.
अपने Private Service Connect इंटरफ़ेस के मेहमान ओएस का नाम ढूंढना
रूटिंग को कॉन्फ़िगर करने के लिए, आपको अपने Private Service Connect इंटरफ़ेस के मेहमान ओएस का नाम पता होना चाहिए. यह नाम, Google Cloud में इंटरफ़ेस के नाम से अलग होता है.
नया Cloud Shell टैब खोलें और अपने प्रोजेक्ट की सेटिंग अपडेट करें.
Cloud Shell में, ये काम करें:
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectid=YOUR-PROJECT-NAME
echo $projectid
Cloud Shell में IAP का इस्तेमाल करके, psc-interface vm, fox में लॉग इन करें.
gcloud compute ssh fox --project=$projectid --zone=us-central1-a --tunnel-through-iap
Cloud Shell में, psc-interface इंस्टेंस का आईपी पता पाएं
ip a
उदाहरण:
user@fox:~$ ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens4: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1460 qdisc pfifo_fast state UP group default qlen 1000
link/ether 42:01:0a:14:01:03 brd ff:ff:ff:ff:ff:ff
altname enp0s4
inet 10.20.1.3/32 brd 10.20.1.3 scope global dynamic ens4
valid_lft 65601sec preferred_lft 65601sec
inet6 fe80::4001:aff:fe14:103/64 scope link
valid_lft forever preferred_lft forever
3: ens5: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1460 qdisc pfifo_fast state UP group default qlen 1000
link/ether 42:01:c0:a8:0a:03 brd ff:ff:ff:ff:ff:ff
altname enp0s5
inet 192.168.10.3/32 brd 192.168.10.3 scope global dynamic ens5
valid_lft 63910sec preferred_lft 63910sec
inet6 fe80::4001:c0ff:fea8:a03/64 scope link
valid_lft forever preferred_lft forever
अपने PSC इंटरफ़ेस का गेटवे आईपी ढूंढना
नेटवर्क इंटरफ़ेस की सूची में, अपने निजी Service Connect इंटरफ़ेस के आईपी पते से जुड़े इंटरफ़ेस का नाम ढूंढें और सेव करें. उदाहरण के लिए, ens5 (vNIC1)
रूटिंग को कॉन्फ़िगर करने के लिए, आपको अपने Private Service Connect इंटरफ़ेस के डिफ़ॉल्ट गेटवे का आईपी पता पता होना चाहिए
Cloud Shell में, हम 1 का इस्तेमाल करेंगे, क्योंकि PSC इंटरफ़ेस, vNIC1 से जुड़ा है.
curl http://metadata.google.internal/computeMetadata/v1/instance/network-interfaces/1/gateway -H "Metadata-Flavor: Google" && echo
उदाहरण के लिए, डिफ़ॉल्ट gw 192.168.10.1 दिखाता है
user@fox:~$ curl http://metadata.google.internal/computeMetadata/v1/instance/network-interfaces/1/gateway -H "Metadata-Flavor: Google" && echo
192.168.10.1
उपभोक्ता सबनेट के लिए रूट जोड़ना
आपको अपने Private Service Connect इंटरफ़ेस से कनेक्ट होने वाले हर उपभोक्ता सबनेट के लिए, Private Service Connect इंटरफ़ेस के डिफ़ॉल्ट गेटवे में एक रूट जोड़ना होगा. इससे यह पक्का होता है कि उपभोक्ता नेटवर्क के लिए बाउंड किया गया ट्रैफ़िक, Private Service Connect इंटरफ़ेस से बाहर निकलता है.
रूट टेबल की पुष्टि करना
Cloud Shell में, मौजूदा रास्तों की पुष्टि करें.
ip route show
उदाहरण.
user@fox:~$ ip route show
default via 10.20.1.1 dev ens4
10.20.1.0/28 via 10.20.1.1 dev ens4
10.20.1.1 dev ens4 scope link
192.168.10.0/28 via 192.168.10.1 dev ens5
192.168.10.1 dev ens5 scope link
Cloud Shell में, cosmo-subnet-1 में रूट जोड़ें
sudo ip route add 192.168.20.0/28 via 192.168.10.1 dev ens5
रूट टेबल की पुष्टि करना
Cloud Shell में, जोड़े गए अपडेट किए गए रास्तों की पुष्टि करें.
ip route show
उदाहरण.
user@fox:~$ ip route show
default via 10.20.1.1 dev ens4
10.20.1.0/28 via 10.20.1.1 dev ens4
10.20.1.1 dev ens4 scope link
192.168.10.0/28 via 192.168.10.1 dev ens5
192.168.10.1 dev ens5 scope link
192.168.20.0/28 via 192.168.10.1 dev ens5
आईपी टेबल के नियम बनाना
Cloud Shell में, मौजूदा आईपी टेबल की पुष्टि करें.
sudo iptables -t nat -L -n -v
उदाहरण:
user@fox:~$ sudo iptables -t nat -L -n -v
Chain PREROUTING (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Chain INPUT (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Chain OUTPUT (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Chain POSTROUTING (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Cloud Shell में, आईपी टेबल अपडेट करें.
sudo iptables -t nat -A POSTROUTING -o ens5 -j MASQUERADE
sudo sysctl net.ipv4.ip_forward=1
Cloud Shell में, अपडेट की गई आईपी टेबल की पुष्टि करें.
sudo iptables -t nat -L -n -v
उदाहरण:
user@fox:~$ sudo iptables -t nat -L -n -v
Chain PREROUTING (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Chain INPUT (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Chain OUTPUT (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Chain POSTROUTING (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
0 0 MASQUERADE all -- * ens5 0.0.0.0/0 0.0.0.0/0
15. रास्ते की जानकारी वाली टेबल अपडेट करना
प्रोड्यूसर-वीपीसी में, उपभोक्ताओं के सबनेट 192.168.20.0/28 के लिए स्टैटिक रूट बनाएं. साथ ही, इंटरनल लोड बैलेंसर के तौर पर अगला हॉप बनाएं. बन जाने के बाद, डेस्टिनेशन 192.168.20.0/28 पर भेजा जाने वाला कोई भी पैकेट (प्रोड्यूसर-वीपीसी में), इंटरनल लोड बैलेंसर पर भेजा जाएगा.
नया Cloud Shell टैब खोलें और अपने प्रोजेक्ट की सेटिंग अपडेट करें.
Cloud Shell में, ये काम करें:
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectid=YOUR-PROJECT-NAME
echo $projectid
Cloud Shell में, स्टैटिक रूट की मदद से प्रोड्यूसर-vpc रूट टेबल को अपडेट करें.
gcloud beta compute routes create producer-to-cosmo-subnet-1 --project=$projectid --network=producer-vpc --priority=1000 --destination-range=192.168.20.0/28 --next-hop-ilb=psc-ilb --next-hop-ilb-region=us-central1
16. tiger से cosmo तक कनेक्टिविटी की पुष्टि करना
Curl की मदद से पुष्टि करना
आइए पुष्टि करें कि प्रोड्यूसर VM इंस्टेंस, टाइगर, कर्ल करके उपभोक्ता इंस्टेंस, कॉस्मो से संपर्क कर सकता है.
नया Cloud Shell टैब खोलें और अपने प्रोजेक्ट की सेटिंग अपडेट करें.
Cloud Shell में, ये काम करें:
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectid=YOUR-PROJECT-NAME
echo $projectid
Cloud Shell में IAP का इस्तेमाल करके, tiger इंस्टेंस में लॉग इन करें.
gcloud compute ssh tiger --project=$projectid --zone=us-central1-a --tunnel-through-iap
ट्यूटोरियल में पहले बताए गए, टाइगर इंस्टेंस से cosmo के आईपी पते के लिए कर्ल करें.
curl -v <cosmo's IP Address>
उदाहरण:
user@tiger:~$ curl -v 192.168.20.2
* Trying 192.168.20.2:80...
* Connected to 192.168.20.2 (192.168.20.2) port 80 (#0)
> GET / HTTP/1.1
> Host: 192.168.20.2
> User-Agent: curl/7.74.0
> Accept: */*
>
* Mark bundle as not supporting multiuse
< HTTP/1.1 200 OK
< Date: Fri, 09 Jun 2023 03:49:42 GMT
< Server: Apache/2.4.56 (Debian)
< Last-Modified: Fri, 09 Jun 2023 03:28:37 GMT
< ETag: "27-5fda9f6ea060e"
< Accept-Ranges: bytes
< Content-Length: 39
< Content-Type: text/html
<
Welcome to cosmo's backend server !!
बधाई हो!! आपने curl कमांड का इस्तेमाल करके, प्रोड्यूसर-वीपीसी से बैकएंड-वीपीसी तक के कनेक्शन की पुष्टि कर ली है.
17. व्यवस्थित करें
Cloud Shell में, ट्यूटोरियल के कॉम्पोनेंट मिटाएं.
gcloud compute instances delete cosmo --zone=us-central1-a --quiet
gcloud compute instances delete rabbit --zone=us-central1-a --quiet
gcloud compute instances delete fox --zone=us-central1-a --quiet
gcloud compute instances delete tiger --zone=us-central1-a --quiet
gcloud compute network-attachments delete psc-network-attachment --region=us-central1 --quiet
gcloud compute firewall-rules delete allow-ingress-to-cosmo allow-tiger-ingress ilb-health-checks ssh-iap-consumer ssh-iap-producer --quiet
gcloud beta compute routes delete producer-to-cosmo-subnet-1 --quiet
gcloud compute forwarding-rules delete psc-ilb --region=us-central1 --quiet
gcloud compute backend-services delete psc-interface-backend --region=us-central1 --quiet
gcloud compute instance-groups unmanaged delete psc-interface-instances-ig --zone=us-central1-a --quiet
gcloud compute health-checks delete hc-http-80 --quiet
gcloud compute networks subnets delete cosmo-subnet-1 prod-subnet prod-subnet-2 prod-subnet-3 intf-subnet --region=us-central1 --quiet
gcloud compute routers delete cloud-router-for-nat --region=us-central1 --quiet
gcloud compute routers delete cloud-router-for-nat-producer --region=us-central1 --quiet
gcloud compute networks delete consumer-vpc --quiet
gcloud compute networks delete producer-vpc --quiet
gcloud compute networks delete backend-vpc --quiet
18. बधाई हो
बधाई, आपने निजी Service Connect इंटरफ़ेस को कॉन्फ़िगर और पुष्टि कर लिया है. साथ ही, VPC पियरिंग की मदद से, उपभोक्ता और प्रोड्यूसर की कनेक्टिविटी की पुष्टि कर ली है.
आपने उपभोक्ता के लिए इन्फ़्रास्ट्रक्चर बनाया और नेटवर्क अटैचमेंट जोड़ा. इससे प्रोड्यूसर, उपभोक्ता और प्रोड्यूसर के बीच कम्यूनिकेशन के लिए, मल्टी एनआईसी वीएम बना सकता है. आपने जाना कि पीएससी इंटरफ़ेस का इस्तेमाल, VPC पीयरिंग के ज़रिए 1P/3P सेवाओं के साथ कम्यूनिकेट करने के लिए कैसे किया जा सकता है. इसके लिए, प्रोड्यूसर के VPC में इंटरनल लोड बैलेंसर और स्टैटिक रूट का इस्तेमाल किया जाता है.
Cosmopup को लगता है कि ट्यूटोरियल शानदार होते हैं!!
आगे क्या करना है?
इनमें से कुछ ट्यूटोरियल देखें...
- GKE की मदद से सेवाओं को पब्लिश और इस्तेमाल करने के लिए, Private Service Connect का इस्तेमाल करना
- सेवाओं को पब्लिश और इस्तेमाल करने के लिए, Private Service Connect का इस्तेमाल करना
- Private Service Connect और किसी इंटरनल टीसीपी प्रॉक्सी लोड बैलेंसर का इस्तेमाल करके, हाइब्रिड नेटवर्किंग की मदद से ऑन-प्रीमिस सेवाओं से कनेक्ट करना
ज़्यादा पढ़ने के लिए लेख और वीडियो
- Private Service Connect के बारे में खास जानकारी
- Private Service Connect क्या है?
- इस्तेमाल किए जा सकने वाले लोड बैलेंसर टाइप