1. Introduzione
Un'interfaccia Private Service Connect è una risorsa che consente a una rete Virtual Private Cloud (VPC) del producer di avviare connessioni a varie destinazioni in una rete VPC consumer. Le reti di produttori e consumatori possono trovarsi in progetti e organizzazioni diversi.
Se un collegamento di rete accetta una connessione da un'interfaccia Private Service Connect, Google Cloud assegna all'interfaccia un indirizzo IP da una sottorete consumer specificata dal collegamento di rete. Le reti del consumatore e del produttore sono connesse e possono comunicare utilizzando indirizzi IP interni.
Una connessione tra un collegamento di rete e un'interfaccia Private Service Connect è simile alla connessione tra un endpoint Private Service Connect e un collegamento di servizio, ma presenta due differenze fondamentali:
- Un collegamento di rete consente a una rete producer di avviare connessioni a una rete consumer (traffico in uscita del servizio gestito), mentre un endpoint consente a una rete consumer di avviare connessioni a una rete producer (traffico in entrata del servizio gestito).
- Una connessione dell'interfaccia Private Service Connect è transitiva. Ciò significa che una rete producer può comunicare con altre reti connesse alla rete del consumatore.
Cosa creerai
Creerai un singolo psc-network-attachment nella VPC consumer, ottenendo due interfacce PSC come backend per il bilanciatore del carico interno L4. Dalla VPC producer, tiger invierà un curl a cosmo nella VPC di backend. Nella VPC del produttore, creerai una route statica per il traffico di destinazione 192.168.20.0/28 hop successivo come bilanciatore del carico interno che utilizzerà le interfacce PSC di backend e successive per instradare il traffico a cosmo. Per una panoramica, vedi la Figura 1.
Lo stesso approccio può essere utilizzato con i servizi gestiti da Google che sono in peering con la VPC del cliente quando si utilizza Accesso privato ai servizi.
Figura 1
Cosa imparerai a fare
- Come creare un collegamento di rete
- In che modo un produttore può utilizzare un collegamento di rete per creare un'interfaccia PSC come backend
- Come stabilire la comunicazione dal produttore al consumatore utilizzando ILB come hop successivo
- Come consentire l'accesso dalla VM producer (tiger) alla VM consumer (cosmo) tramite il peering VPC
Che cosa ti serve
- Progetto Google Cloud
- Autorizzazioni IAM
- Amministratore rete Compute (roles/compute.networkAdmin)
- Amministratore istanze Compute (roles/compute.instanceAdmin)
- Amministratore sicurezza Compute (roles/compute.securityAdmin)
2. Prima di iniziare
Aggiorna il progetto per supportare il tutorial
Questo tutorial utilizza le variabili $per facilitare l'implementazione della configurazione di gcloud in Cloud Shell.
In Cloud Shell, svolgi i seguenti passaggi:
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectid=YOUR-PROJECT-NAME
echo $projectid
3. Configurazione del consumatore
Crea il VPC consumer
In Cloud Shell, svolgi i seguenti passaggi:
gcloud compute networks create consumer-vpc --project=$projectid --subnet-mode=custom
Crea la subnet del collegamento di rete Private Service Connect
In Cloud Shell, svolgi i seguenti passaggi:
gcloud compute networks subnets create intf-subnet --project=$projectid --range=192.168.10.0/28 --network=consumer-vpc --region=us-central1
Crea il VPC di backend
In Cloud Shell, svolgi i seguenti passaggi:
gcloud compute networks create backend-vpc --project=$projectid --subnet-mode=custom
Crea le subnet VPC di backend
In Cloud Shell, svolgi i seguenti passaggi:
gcloud compute networks subnets create cosmo-subnet-1 --project=$projectid --range=192.168.20.0/28 --network=backend-vpc --region=us-central1
Crea le regole firewall per il backend VPC
In Cloud Shell, crea una regola di ingresso per il traffico dalla subnet psc-network-attachment a cosmo
gcloud compute firewall-rules create allow-ingress-to-cosmo \
--network=backend-vpc \
--action=ALLOW \
--rules=ALL \
--direction=INGRESS \
--priority=1000 \
--source-ranges="192.168.10.0/28" \
--destination-ranges="192.168.20.0/28" \
--enable-logging
Configurazione di Cloud Router e NAT
Cloud NAT viene utilizzato nel tutorial per l'installazione del pacchetto software perché l'istanza VM non ha un indirizzo IP pubblico. Cloud NAT consente alle VM con indirizzi IP privati di accedere a internet.
In Cloud Shell, crea il router Cloud.
gcloud compute routers create cloud-router-for-nat --network backend-vpc --region us-central1
In Cloud Shell, crea il gateway NAT.
gcloud compute routers nats create cloud-nat-us-central1 --router=cloud-router-for-nat --auto-allocate-nat-external-ips --nat-all-subnet-ip-ranges --region us-central1
4. Attivare IAP
Per consentire a IAP di connettersi alle tue istanze VM, crea una regola firewall che:
- Si applica a tutte le istanze VM a cui vuoi accedere tramite IAP.
- Consente il traffico in entrata dall'intervallo IP 35.235.240.0/20. Questo intervallo contiene tutti gli indirizzi IP che utilizzati da IAP per l'inoltro TCP.
In Cloud Shell, crea la regola firewall IAP.
gcloud compute firewall-rules create ssh-iap-consumer \
--network backend-vpc \
--allow tcp:22 \
--source-ranges=35.235.240.0/20
5. Creare istanze VM per i consumatori
In Cloud Shell, crea l'istanza VM consumer cosmo
gcloud compute instances create cosmo \
--project=$projectid \
--machine-type=e2-micro \
--image-family debian-11 \
--no-address \
--image-project debian-cloud \
--zone us-central1-a \
--subnet=cosmo-subnet-1 \
--metadata startup-script="#! /bin/bash
sudo apt-get update
sudo apt-get install tcpdump
sudo apt-get install apache2 -y
sudo service apache2 restart
echo 'Welcome to cosmo's backend server !!' | tee /var/www/html/index.html
EOF"
Ottieni e memorizza gli indirizzi IP delle istanze:
In Cloud Shell, esegui un comando describe per le istanze VM cosmo.
gcloud compute instances describe cosmo --zone=us-central1-a | grep networkIP:
6. Collegamento di rete Private Service Connect
I collegamenti di rete sono risorse regionali che rappresentano il lato consumer di un'interfaccia Private Service Connect. Associa una singola sottorete a un collegamento di rete e il producer assegna gli IP all'interfaccia Private Service Connect da quella sottorete. La subnet deve trovarsi nella stessa regione del collegamento di rete. Un collegamento di rete deve trovarsi nella stessa regione del servizio di produzione.
Crea il collegamento di rete
In Cloud Shell, crea il collegamento di rete.
gcloud compute network-attachments create psc-network-attachment \
--region=us-central1 \
--connection-preference=ACCEPT_MANUAL \
--producer-accept-list=$projectid \
--subnets=intf-subnet
Elenca i collegamenti di rete
In Cloud Shell, elenca il collegamento di rete.
gcloud compute network-attachments list
Descrivere i collegamenti di rete
In Cloud Shell, descrivi il collegamento di rete.
gcloud compute network-attachments describe psc-network-attachment --region=us-central1
Prendi nota dell'URI psc-network-attachment che verrà utilizzato dal produttore durante la creazione delle interfacce Private Service Connect. Ad esempio:
user$ gcloud compute network-attachments describe psc-network-attachment --region=us-central1
connectionPreference: ACCEPT_MANUAL
creationTimestamp: '2023-06-07T11:27:33.116-07:00'
fingerprint: 8SDsvG6TfYQ=
id: '5014253525248340730'
kind: compute#networkAttachment
name: psc-network-attachment
network: https://www.googleapis.com/compute/v1/projects/$projectid/global/networks/consumer-vpc
producerAcceptLists:
- $projectid
region: https://www.googleapis.com/compute/v1/projects/$projectid/regions/us-central1
selfLink: https://www.googleapis.com/compute/v1/projects/$projectid/regions/us-central1/networkAttachments/psc-network-attachment
subnetworks:
- https://www.googleapis.com/compute/v1/projects/$projectid/regions/us-central1/subnetworks/intf-subnet
7. Stabilisci il peering VPC tra il VPC consumer e il VPC di backend
Dovrai creare una connessione di peering VPC tra il VPC consumer e il VPC di backend. Questo metodo replica il modo in cui Google stabilisce la connettività ai VPC dei clienti per i servizi gestiti, oltre al peering tra organizzazioni per la connettività di rete. Il peering VPC deve essere configurato da ogni VPC.
Peering VPC consumer con VPC di backend
Crea una connessione di peering VPC dal consumer alla VPC di backend
In Cloud Shell, svolgi i seguenti passaggi:
gcloud compute networks peerings create consumer-to-backend-vpc \
--network=consumer-vpc \
--peer-project=$projectid \
--peer-network=backend-vpc \
--stack-type=IPV4_ONLY
Crea una connessione di peering VPC dal backend alla VPC del consumatore
In Cloud Shell, svolgi i seguenti passaggi:
gcloud compute networks peerings create backend-to-consumer-vpc \
--network=backend-vpc \
--peer-project=$projectid \
--peer-network=consumer-vpc \
--stack-type=IPV4_ONLY
Convalida i dettagli dello stato del peering VPC
In Cloud Shell, verifica che il peering VPC sia nello stato "Attivo" e "Connesso".
gcloud compute networks peerings list
Esempio:
user@cloudshell$ gcloud compute networks peerings list
NAME: backend-to-consumer-vpc
NETWORK: backend-vpc
PEER_PROJECT: $projectid
PEER_NETWORK: consumer-vpc
STACK_TYPE: IPV4_ONLY
PEER_MTU:
IMPORT_CUSTOM_ROUTES: False
EXPORT_CUSTOM_ROUTES: False
STATE: ACTIVE
STATE_DETAILS: [2023-06-07T11:42:27.634-07:00]: Connected.
NAME: consumer-to-backend-vpc
NETWORK: consumer-vpc
PEER_PROJECT: $projectid
PEER_NETWORK: backend-vpc
STACK_TYPE: IPV4_ONLY
PEER_MTU:
IMPORT_CUSTOM_ROUTES: False
EXPORT_CUSTOM_ROUTES: False
STATE: ACTIVE
STATE_DETAILS: [2023-06-07T11:42:27.634-07:00]: Connected.
8. Configurazione del produttore
Crea il VPC del producer
In Cloud Shell, svolgi i seguenti passaggi:
gcloud compute networks create producer-vpc --project=$projectid --subnet-mode=custom
Crea le subnet del produttore
In Cloud Shell, crea la subnet utilizzata per la vNIC0 delle interfacce PSC
gcloud compute networks subnets create prod-subnet --project=$projectid --range=10.20.1.0/28 --network=producer-vpc --region=us-central1
In Cloud Shell, crea la subnet utilizzata per l'istanza tiger.
gcloud compute networks subnets create prod-subnet-2 --project=$projectid --range=10.30.1.0/28 --network=producer-vpc --region=us-central1
In Cloud Shell, crea la subnet utilizzata per il bilanciatore del carico interno.
gcloud compute networks subnets create prod-subnet-3 --project=$projectid --range=172.16.10.0/28 --network=producer-vpc --region=us-central1
Configurazione di Cloud Router e NAT
Cloud NAT viene utilizzato nel tutorial per l'installazione del pacchetto software perché l'istanza VM non ha un indirizzo IP pubblico. Cloud NAT consente alle VM con indirizzi IP privati di accedere a internet.
In Cloud Shell, crea il router Cloud.
gcloud compute routers create cloud-router-for-nat-producer --network producer-vpc --region us-central1
In Cloud Shell, crea il gateway NAT.
gcloud compute routers nats create cloud-nat-us-central1-producer --router=cloud-router-for-nat-producer --auto-allocate-nat-external-ips --nat-all-subnet-ip-ranges --region us-central1
Attivare IAP
Per consentire a IAP di connettersi alle tue istanze VM, crea una regola firewall che:
- Si applica a tutte le istanze VM a cui vuoi accedere tramite IAP.
- Consente il traffico in entrata dall'intervallo IP 35.235.240.0/20. Questo intervallo contiene tutti gli indirizzi IP che utilizzati da IAP per l'inoltro TCP.
In Cloud Shell, crea la regola firewall IAP.
gcloud compute firewall-rules create ssh-iap-producer \
--network producer-vpc \
--allow tcp:22 \
--source-ranges=35.235.240.0/20
Crea istanze VM di produzione
In Cloud Shell, crea l'istanza VM consumer tiger
gcloud compute instances create tiger \
--project=$projectid \
--machine-type=e2-micro \
--image-family debian-11 \
--no-address \
--image-project debian-cloud \
--zone us-central1-a \
--subnet=prod-subnet-2 \
--metadata startup-script="#! /bin/bash
sudo apt-get update
sudo apt-get install tcpdump"
9. Creare regole firewall per i produttori
Nella VPC del produttore, crea una regola firewall in entrata che consenta la comunicazione da prod-subnet-2 a tutte le istanze nella VPC del produttore.
In Cloud Shell, crea la regola firewall del produttore.
gcloud compute --project=$projectid firewall-rules create allow-tiger-ingress --direction=INGRESS --priority=1000 --network=producer-vpc --action=ALLOW --rules=all --source-ranges=10.30.1.0/28 --enable-logging
10. Crea l'interfaccia Private Service Connect
Un'interfaccia Private Service Connect è una risorsa che consente a una rete Virtual Private Cloud (VPC) del producer di avviare connessioni a varie destinazioni in una rete VPC consumer. Le reti di produttori e consumatori possono trovarsi in progetti e organizzazioni diversi.
Se un collegamento di rete accetta una connessione da un'interfaccia Private Service Connect, Google Cloud assegna all'interfaccia un indirizzo IP da una sottorete consumer specificata dal collegamento di rete. Le reti del consumatore e del produttore sono connesse e possono comunicare utilizzando indirizzi IP interni.
Nel tutorial creerai due istanze con l'attacco di rete Private Service Connect che saranno il backend del bilanciatore del carico interno.
In Cloud Shell, crea l'interfaccia Private Service Connect (rabbit) e inserisci l'UR psc-network-attachment identificato in precedenza dall'output di descrizione del collegamento di rete.
gcloud compute instances create rabbit --zone us-central1-a --machine-type=f1-micro --can-ip-forward --network-interface subnet=prod-subnet,network=producer-vpc,no-address --network-interface network-attachment=https://www.googleapis.com/compute/v1/projects/$projectid/regions/us-central1/networkAttachments/psc-network-attachment --metadata startup-script="#! /bin/bash
sudo apt-get update
sudo apt-get install tcpdump
sudo apt-get install apache2 -y
sudo service apache2 restart"
In Cloud Shell, crea l'interfaccia Private Service Connect (fox) e inserisci l'UR psc-network-attachment identificato in precedenza dall'output di descrizione del collegamento di rete.
gcloud compute instances create fox --zone us-central1-a --machine-type=f1-micro --can-ip-forward --network-interface subnet=prod-subnet,network=producer-vpc,no-address --network-interface network-attachment=https://www.googleapis.com/compute/v1/projects/$projectid/regions/us-central1/networkAttachments/psc-network-attachment --metadata startup-script="#! /bin/bash
sudo apt-get update
sudo apt-get install tcpdump
sudo apt-get install apache2 -y
sudo service apache2 restart"
Convalida di più NIC
Verifica che l'interfaccia PSC sia configurata con l'indirizzo IP appropriato. La vNIC0 utilizzerà la subnet prod-subnet del produttore (10.20.1.0/28) e la vNIC1 utilizzerà la subnet intf-subnet del consumatore (192.168.10.0/28).
gcloud compute instances describe rabbit --zone=us-central1-a | grep networkIP:
gcloud compute instances describe fox --zone=us-central1-a | grep networkIP:
Esempio:
user$ gcloud compute instances describe rabbit --zone=us-central1-a | grep networkIP:
networkIP: 10.20.1.2
networkIP: 192.168.10.2
user$ gcloud compute instances describe fox --zone=us-central1-a | grep networkIP:
networkIP: 10.20.1.3
networkIP: 192.168.10.3
11. Crea e aggiungi rabbit e fox a un gruppo di istanze non gestito
Nella sezione seguente, creerai un gruppo di istanze non gestite composto dalle istanze dell'interfaccia PSC rabbit e fox.
In Cloud Shell, crea il gruppo di istanze non gestito.
gcloud compute instance-groups unmanaged create psc-interface-instances-ig --project=$projectid --zone=us-central1-a
In Cloud Shell, aggiungi le istanze fox e rabbit al gruppo di istanze.
gcloud compute instance-groups unmanaged add-instances psc-interface-instances-ig --project=$projectid --zone=us-central1-a --instances=fox,rabbit
12. Creare un controllo di integrità TCP, servizi di backend, regola di inoltro e firewall
In Cloud Shell, crea il controllo di integrità del backend.
gcloud compute health-checks create http hc-http-80 --port=80
Crea il servizio di backend in Cloud Shell
gcloud compute backend-services create psc-interface-backend --load-balancing-scheme=internal --protocol=tcp --region=us-central1 --health-checks=hc-http-80
gcloud compute backend-services add-backend psc-interface-backend --region=us-central1 --instance-group=psc-interface-instances-ig --instance-group-zone=us-central1-a
Crea la regola di inoltro in Cloud Shell
gcloud compute forwarding-rules create psc-ilb --region=us-central1 --load-balancing-scheme=internal --network=producer-vpc --subnet=prod-subnet-3 --address=172.16.10.10 --ip-protocol=TCP --ports=all --backend-service=psc-interface-backend --backend-service-region=us-central1
Da Cloud Shell, crea una regola firewall per attivare i controlli di integrità del backend
gcloud compute firewall-rules create ilb-health-checks --allow tcp:80,tcp:443 --network producer-vpc --source-ranges 130.211.0.0/22,35.191.0.0/16
13. Crea tabelle IP Linux per le interfacce PSC - rabbit
Dall'istanza dell'interfaccia PSC, configura le tabelle IP di Linux per consentire la comunicazione del producer con le sottoreti del consumer.
Trovare il nome del sistema operativo guest dell'interfaccia Private Service Connect
Per configurare il routing, devi conoscere il nome del sistema operativo guest dell'interfaccia Private Service Connect, che è diverso dal nome dell'interfaccia in Google Cloud.
Accedi alla VM psc-interface, rabbit, utilizzando IAP in Cloud Shell.
gcloud compute ssh rabbit --project=$projectid --zone=us-central1-a --tunnel-through-iap
In Cloud Shell, ottieni l'indirizzo IP dell'istanza psc-interface
ip a
Esempio:
user@rabbit:~$ ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens4: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1460 qdisc pfifo_fast state UP group default qlen 1000
link/ether 42:01:0a:14:01:02 brd ff:ff:ff:ff:ff:ff
altname enp0s4
inet 10.20.1.2/32 brd 10.20.1.2 scope global dynamic ens4
valid_lft 59396sec preferred_lft 59396sec
inet6 fe80::4001:aff:fe14:102/64 scope link
valid_lft forever preferred_lft forever
3: ens5: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1460 qdisc pfifo_fast state UP group default qlen 1000
link/ether 42:01:c0:a8:0a:02 brd ff:ff:ff:ff:ff:ff
altname enp0s5
inet 192.168.10.2/32 brd 192.168.10.2 scope global dynamic ens5
valid_lft 66782sec preferred_lft 66782sec
inet6 fe80::4001:c0ff:fea8:a02/64 scope link
valid_lft forever preferred_lft forever
Trovare l'IP del gateway dell'interfaccia PSC
Nell'elenco delle interfacce di rete, trova e memorizza il nome dell'interfaccia associato all'indirizzo IP dell'interfaccia Private Service Connect, ad esempio ens5 (vNIC1)
Per configurare il routing, devi conoscere l'indirizzo IP del gateway predefinito dell'interfaccia Private Service Connect
In Cloud Shell utilizzeremo 1 poiché l'interfaccia PSC è associata alla vNIC1.
curl http://metadata.google.internal/computeMetadata/v1/instance/network-interfaces/1/gateway -H "Metadata-Flavor: Google" && echo
L'esempio genera la porta di gateway predefinita 192.168.10.1
user@rabbit:~$ curl http://metadata.google.internal/computeMetadata/v1/instance/network-interfaces/1/gateway -H "Metadata-Flavor: Google" && echo
192.168.10.1
Aggiungere route per le subnet dei consumatori
Devi aggiungere una route al gateway predefinito dell'interfaccia Private Service Connect per ogni subnet consumer che si connette all'interfaccia Private Service Connect. In questo modo, il traffico destinato alla rete del consumer esce dall'interfaccia Private Service Connect.
Convalida la tabella route
In Cloud Shell, convalida le route correnti.
ip route show
Esempio.
user@rabbit:~$ ip route show
default via 10.20.1.1 dev ens4
10.20.1.0/28 via 10.20.1.1 dev ens4
10.20.1.1 dev ens4 scope link
192.168.10.0/28 via 192.168.10.1 dev ens5
192.168.10.1 dev ens5 scope link
In Cloud Shell, aggiungi il percorso a cosmo-subnet-1
sudo ip route add 192.168.20.0/28 via 192.168.10.1 dev ens5
Convalida la tabella route
In Cloud Shell, convalida le route aggiunte aggiornate.
ip route show
Esempio.
user@rabbit:~$ ip route show
default via 10.20.1.1 dev ens4
10.20.1.0/28 via 10.20.1.1 dev ens4
10.20.1.1 dev ens4 scope link
192.168.10.0/28 via 192.168.10.1 dev ens5
192.168.10.1 dev ens5 scope link
192.168.20.0/28 via 192.168.10.1 dev ens5
Creare regole per le tabelle IP
In Cloud Shell, convalida le tabelle IP attuali.
sudo iptables -t nat -L -n -v
Esempio:
user@rabbit:~$ sudo iptables -t nat -L -n -v
Chain PREROUTING (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Chain INPUT (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Chain OUTPUT (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Chain POSTROUTING (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
In Cloud Shell, aggiorna le tabelle IP
sudo iptables -t nat -A POSTROUTING -o ens5 -j MASQUERADE
sudo sysctl net.ipv4.ip_forward=1
In Cloud Shell, convalida le tabelle IP aggiornate.
sudo iptables -t nat -L -n -v
Esempio:
user@rabbit:~$ sudo iptables -t nat -L -n -v
Chain PREROUTING (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Chain INPUT (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Chain OUTPUT (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Chain POSTROUTING (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
0 0 MASQUERADE all -- * ens5 0.0.0.0/0 0.0.0.0/0
14. Crea tabelle IP Linux per le interfacce PSC - fox
Dall'istanza dell'interfaccia PSC, configura le tabelle IP di Linux per consentire la comunicazione del producer con le sottoreti del consumer.
Trovare il nome del sistema operativo guest dell'interfaccia Private Service Connect
Per configurare il routing, devi conoscere il nome del sistema operativo guest dell'interfaccia Private Service Connect, che è diverso dal nome dell'interfaccia in Google Cloud.
Apri una nuova scheda di Cloud Shell e aggiorna le impostazioni del progetto.
In Cloud Shell, svolgi i seguenti passaggi:
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectid=YOUR-PROJECT-NAME
echo $projectid
Accedi alla VM psc-interface, fox, utilizzando IAP in Cloud Shell.
gcloud compute ssh fox --project=$projectid --zone=us-central1-a --tunnel-through-iap
In Cloud Shell, ottieni l'indirizzo IP dell'istanza psc-interface
ip a
Esempio:
user@fox:~$ ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens4: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1460 qdisc pfifo_fast state UP group default qlen 1000
link/ether 42:01:0a:14:01:03 brd ff:ff:ff:ff:ff:ff
altname enp0s4
inet 10.20.1.3/32 brd 10.20.1.3 scope global dynamic ens4
valid_lft 65601sec preferred_lft 65601sec
inet6 fe80::4001:aff:fe14:103/64 scope link
valid_lft forever preferred_lft forever
3: ens5: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1460 qdisc pfifo_fast state UP group default qlen 1000
link/ether 42:01:c0:a8:0a:03 brd ff:ff:ff:ff:ff:ff
altname enp0s5
inet 192.168.10.3/32 brd 192.168.10.3 scope global dynamic ens5
valid_lft 63910sec preferred_lft 63910sec
inet6 fe80::4001:c0ff:fea8:a03/64 scope link
valid_lft forever preferred_lft forever
Trovare l'IP del gateway dell'interfaccia PSC
Nell'elenco delle interfacce di rete, trova e memorizza il nome dell'interfaccia associato all'indirizzo IP dell'interfaccia Private Service Connect, ad esempio ens5 (vNIC1)
Per configurare il routing, devi conoscere l'indirizzo IP del gateway predefinito dell'interfaccia Private Service Connect
In Cloud Shell utilizzeremo 1 poiché l'interfaccia PSC è associata alla vNIC1.
curl http://metadata.google.internal/computeMetadata/v1/instance/network-interfaces/1/gateway -H "Metadata-Flavor: Google" && echo
L'esempio genera la porta di gateway predefinita 192.168.10.1
user@fox:~$ curl http://metadata.google.internal/computeMetadata/v1/instance/network-interfaces/1/gateway -H "Metadata-Flavor: Google" && echo
192.168.10.1
Aggiungere route per le subnet dei consumatori
Devi aggiungere una route al gateway predefinito dell'interfaccia Private Service Connect per ogni subnet consumer che si connette all'interfaccia Private Service Connect. In questo modo, il traffico destinato alla rete del consumer esce dall'interfaccia Private Service Connect.
Convalida la tabella route
In Cloud Shell, convalida le route correnti.
ip route show
Esempio.
user@fox:~$ ip route show
default via 10.20.1.1 dev ens4
10.20.1.0/28 via 10.20.1.1 dev ens4
10.20.1.1 dev ens4 scope link
192.168.10.0/28 via 192.168.10.1 dev ens5
192.168.10.1 dev ens5 scope link
In Cloud Shell, aggiungi il percorso a cosmo-subnet-1
sudo ip route add 192.168.20.0/28 via 192.168.10.1 dev ens5
Convalida la tabella route
In Cloud Shell, convalida le route aggiunte aggiornate.
ip route show
Esempio.
user@fox:~$ ip route show
default via 10.20.1.1 dev ens4
10.20.1.0/28 via 10.20.1.1 dev ens4
10.20.1.1 dev ens4 scope link
192.168.10.0/28 via 192.168.10.1 dev ens5
192.168.10.1 dev ens5 scope link
192.168.20.0/28 via 192.168.10.1 dev ens5
Creare regole per le tabelle IP
In Cloud Shell, convalida le tabelle IP attuali.
sudo iptables -t nat -L -n -v
Esempio:
user@fox:~$ sudo iptables -t nat -L -n -v
Chain PREROUTING (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Chain INPUT (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Chain OUTPUT (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Chain POSTROUTING (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
In Cloud Shell, aggiorna le tabelle IP.
sudo iptables -t nat -A POSTROUTING -o ens5 -j MASQUERADE
sudo sysctl net.ipv4.ip_forward=1
In Cloud Shell, convalida le tabelle IP aggiornate.
sudo iptables -t nat -L -n -v
Esempio:
user@fox:~$ sudo iptables -t nat -L -n -v
Chain PREROUTING (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Chain INPUT (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Chain OUTPUT (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Chain POSTROUTING (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
0 0 MASQUERADE all -- * ens5 0.0.0.0/0 0.0.0.0/0
15. Aggiorna la tabella dei percorsi
In producer-vpc, crea una route statica alla subnet dei consumatori 192.168.20.0/28, con hop successivo come bilanciatore del carico interno. Una volta creato, qualsiasi pacchetto (all'interno della VPC del produttore) con destinazione 192.168.20.0/28 verrà indirizzato al bilanciatore del carico interno.
Apri una nuova scheda di Cloud Shell e aggiorna le impostazioni del progetto.
In Cloud Shell, svolgi i seguenti passaggi:
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectid=YOUR-PROJECT-NAME
echo $projectid
In Cloud Shell, aggiorna la tabella delle route producer-vpc con una route statica.
gcloud beta compute routes create producer-to-cosmo-subnet-1 --project=$projectid --network=producer-vpc --priority=1000 --destination-range=192.168.20.0/28 --next-hop-ilb=psc-ilb --next-hop-ilb-region=us-central1
16. Convalida la connettività da Tiger a Cosmo
Convalida di Curl
Confermiamo che l'istanza VM del produttore, tiger, può comunicare con l'istanza consumer, cosmo, eseguendo un comando curl.
Apri una nuova scheda di Cloud Shell e aggiorna le impostazioni del progetto.
In Cloud Shell, svolgi i seguenti passaggi:
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectid=YOUR-PROJECT-NAME
echo $projectid
Accedi all'istanza tiger utilizzando IAP in Cloud Shell.
gcloud compute ssh tiger --project=$projectid --zone=us-central1-a --tunnel-through-iap
Esegui un comando curl sull'indirizzo IP di cosmo identificato in precedenza nel tutorial dall'istanza tiger.
curl -v <cosmo's IP Address>
Esempio:
user@tiger:~$ curl -v 192.168.20.2
* Trying 192.168.20.2:80...
* Connected to 192.168.20.2 (192.168.20.2) port 80 (#0)
> GET / HTTP/1.1
> Host: 192.168.20.2
> User-Agent: curl/7.74.0
> Accept: */*
>
* Mark bundle as not supporting multiuse
< HTTP/1.1 200 OK
< Date: Fri, 09 Jun 2023 03:49:42 GMT
< Server: Apache/2.4.56 (Debian)
< Last-Modified: Fri, 09 Jun 2023 03:28:37 GMT
< ETag: "27-5fda9f6ea060e"
< Accept-Ranges: bytes
< Content-Length: 39
< Content-Type: text/html
<
Welcome to cosmo's backend server !!
Congratulazioni. Hai convalidato correttamente la connettività dalla VPC del producer alla VPC di backend eseguendo un comando curl.
17. Esegui la pulizia
Da Cloud Shell, elimina i componenti del tutorial.
gcloud compute instances delete cosmo --zone=us-central1-a --quiet
gcloud compute instances delete rabbit --zone=us-central1-a --quiet
gcloud compute instances delete fox --zone=us-central1-a --quiet
gcloud compute instances delete tiger --zone=us-central1-a --quiet
gcloud compute network-attachments delete psc-network-attachment --region=us-central1 --quiet
gcloud compute firewall-rules delete allow-ingress-to-cosmo allow-tiger-ingress ilb-health-checks ssh-iap-consumer ssh-iap-producer --quiet
gcloud beta compute routes delete producer-to-cosmo-subnet-1 --quiet
gcloud compute forwarding-rules delete psc-ilb --region=us-central1 --quiet
gcloud compute backend-services delete psc-interface-backend --region=us-central1 --quiet
gcloud compute instance-groups unmanaged delete psc-interface-instances-ig --zone=us-central1-a --quiet
gcloud compute health-checks delete hc-http-80 --quiet
gcloud compute networks subnets delete cosmo-subnet-1 prod-subnet prod-subnet-2 prod-subnet-3 intf-subnet --region=us-central1 --quiet
gcloud compute routers delete cloud-router-for-nat --region=us-central1 --quiet
gcloud compute routers delete cloud-router-for-nat-producer --region=us-central1 --quiet
gcloud compute networks delete consumer-vpc --quiet
gcloud compute networks delete producer-vpc --quiet
gcloud compute networks delete backend-vpc --quiet
18. Complimenti
Complimenti, hai configurato e convalidato un'interfaccia Private Service Connect e hai convalidato la connettività dei consumer e dei producer tramite il peering VPC.
Hai creato l'infrastruttura consumer e hai aggiunto un collegamento di rete che ha consentito al producer di creare una VM multi NIC per fare da ponte tra le comunicazioni del consumer e del producer. Hai imparato come l'interfaccia PSC può essere utilizzata per comunicare con i servizi proprietari/di terze parti tramite il peering VPC utilizzando un bilanciatore del carico interno e una route statica nella VPC del producer.
Cosmopup pensa che i tutorial siano fantastici.
Passaggi successivi
Dai un'occhiata ad alcuni di questi tutorial…
- Utilizzare Private Service Connect per pubblicare e utilizzare servizi con GKE
- Utilizzare Private Service Connect per pubblicare e utilizzare i servizi
- Connettersi ai servizi on-premise tramite Hybrid Networking utilizzando Private Service Connect e un bilanciatore del carico proxy TCP interno
Letture e video di approfondimento
- Panoramica di Private Service Connect
- Che cos'è Private Service Connect?
- Tipi di bilanciatori del carico supportati