1. Introduzione
Un'interfaccia Private Service Connect è una risorsa che consente a una rete VPC (Virtual Private Cloud) producer di avviare connessioni a varie destinazioni in una rete VPC consumer. Le reti producer e consumer possono trovarsi in progetti e organizzazioni diversi.
Se un collegamento di rete accetta una connessione da un'interfaccia Private Service Connect, Google Cloud alloca all'interfaccia un indirizzo IP da una subnet consumer specificata dal collegamento di rete. Le reti consumer e producer sono connesse e possono comunicare utilizzando indirizzi IP interni.
Una connessione tra un collegamento di rete e un'interfaccia Private Service Connect è simile alla connessione tra un endpoint Private Service Connect e un collegamento di servizio, ma presenta due differenze fondamentali:
- Un collegamento di rete consente a una rete producer di avviare connessioni a una rete consumer (uscita del servizio gestito), mentre un endpoint consente a una rete consumer di avviare connessioni a una rete producer (ingresso del servizio gestito).
- Una connessione di interfaccia Private Service Connect è transitiva. Ciò significa che una rete producer può comunicare con altre reti connesse alla rete consumer.
Che cosa creerai
In questo tutorial, creerai un'architettura di interfaccia Private Service Connect (PSC) completa che utilizza le regole di Cloud Firewall per consentire e negare la connettività dal producer al calcolo del consumer, come illustrato nella Figura 1.
Figura 1

Creerai un singolo psc-network-attachment nel VPC consumer, con i seguenti casi d'uso:
- Crea una regola firewall di Cloud per consentire l'accesso da bear a lion
- Crea una regola firewall di Cloud per negare l'accesso da bear a tiger
- Crea una regola firewall di Cloud per consentire l'accesso da cosmo a bear
Cosa imparerai
- Come creare un collegamento di rete
- In che modo un producer può utilizzare un collegamento di rete per creare un'interfaccia PSC
- Come stabilire la comunicazione dal producer al consumer
- Come consentire l'accesso dalla VM producer (bear) alla VM consumer (lion)
- Come bloccare l'accesso dalla VM producer (bear) alla VM consumer (tiger)
- Come consentire l'accesso dalla VM consumer (cosmo) alla VM producer (bear)
Che cosa ti serve
- Progetto Google Cloud
- Autorizzazioni IAM
- Amministratore rete Compute (roles/compute.networkAdmin)
- Compute Instance Admin (roles/compute.instanceAdmin)
- Compute Security Admin (roles/compute.securityAdmin)
2. Prima di iniziare
Aggiorna il progetto per supportare il tutorial
Questo tutorial utilizza $variables per facilitare l'implementazione della configurazione di gcloud in Cloud Shell.
In Cloud Shell:
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectid=YOUR-PROJECT-NAME
echo $projectid
3. Configurazione del consumer
Crea il VPC consumer
In Cloud Shell:
gcloud compute networks create consumer-vpc --project=$projectid --subnet-mode=custom
Crea le subnet consumer
In Cloud Shell:
gcloud compute networks subnets create lion-subnet-1 --project=$projectid --range=192.168.20.0/28 --network=consumer-vpc --region=us-central1
In Cloud Shell:
gcloud compute networks subnets create tiger-subnet-1 --project=$projectid --range=192.168.30.0/28 --network=consumer-vpc --region=us-central1
In Cloud Shell:
gcloud compute networks subnets create cosmo-subnet-1 --project=$projectid --range=192.168.40.0/28 --network=consumer-vpc --region=us-central1
Crea la subnet del collegamento di rete Private Service Connect
In Cloud Shell:
gcloud compute networks subnets create intf-subnet --project=$projectid --range=192.168.10.0/28 --network=consumer-vpc --region=us-central1
Configurazione del router Cloud e di NAT
In questo tutorial viene utilizzato Cloud NAT per l'installazione dei pacchetti software perché l'istanza VM non ha un indirizzo IP pubblico. Cloud NAT consente alle VM con indirizzi IP privati di accedere a internet.
In Cloud Shell, crea il router Cloud.
gcloud compute routers create cloud-router-for-nat --network consumer-vpc --region us-central1
In Cloud Shell, crea il gateway NAT.
gcloud compute routers nats create cloud-nat-us-central1 --router=cloud-router-for-nat --auto-allocate-nat-external-ips --nat-all-subnet-ip-ranges --region us-central1
4. Abilita IAP
Per consentire a IAP di connettersi alle tue istanze VM, crea una regola firewall che:
- Si applichi a tutte le istanze VM a cui vuoi accedere tramite IAP.
- Consenta il traffico in entrata dall'intervallo IP 35.235.240.0/20. Questo intervallo contiene tutti gli indirizzi IP che utilizzati da IAP per l'inoltro TCP.
In Cloud Shell, crea la regola firewall IAP.
gcloud compute firewall-rules create ssh-iap-consumer \
--network consumer-vpc \
--allow tcp:22 \
--source-ranges=35.235.240.0/20
5. Crea istanze VM consumer
In Cloud Shell, crea l'istanza VM consumer, lion.
gcloud compute instances create lion \
--project=$projectid \
--machine-type=e2-micro \
--image-family debian-11 \
--no-address \
--image-project debian-cloud \
--zone us-central1-a \
--subnet=lion-subnet-1 \
--metadata startup-script="#! /bin/bash
sudo apt-get update
sudo apt-get install tcpdump
sudo apt-get install apache2 -y
sudo service apache2 restart
echo 'Welcome to the lion app server !!' | tee /var/www/html/index.html
EOF"
In Cloud Shell, crea l'istanza VM consumer, tiger.
gcloud compute instances create tiger \
--project=$projectid \
--machine-type=e2-micro \
--image-family debian-11 \
--no-address \
--image-project debian-cloud \
--zone us-central1-a \
--subnet=tiger-subnet-1 \
--metadata startup-script="#! /bin/bash
sudo apt-get update
sudo apt-get install tcpdump
sudo apt-get install apache2 -y
sudo service apache2 restart
echo 'Welcome to the tiger app server !!' | tee /var/www/html/index.html
EOF"
In Cloud Shell, crea l'istanza VM consumer, cosmo.
gcloud compute instances create cosmo \
--project=$projectid \
--machine-type=e2-micro \
--image-family debian-11 \
--no-address \
--image-project debian-cloud \
--zone us-central1-a \
--subnet=cosmo-subnet-1 \
--metadata startup-script="#! /bin/bash
sudo apt-get update
sudo apt-get install tcpdump
sudo apt-get install apache2 -y
sudo service apache2 restart
echo 'Welcome to the cosmo app server !!' | tee /var/www/html/index.html
EOF"
Ottieni e memorizza gli indirizzi IP delle istanze:
In Cloud Shell, esegui un comando describe sulle istanze VM lion e tiger.
gcloud compute instances describe lion --zone=us-central1-a | grep networkIP:
gcloud compute instances describe tiger --zone=us-central1-a | grep networkIP:
gcloud compute instances describe cosmo --zone=us-central1-a | grep networkIP:
6. Collegamento di rete Private Service Connect
I collegamenti di rete sono risorse regionali che rappresentano il lato consumer di un'interfaccia Private Service Connect. Associ una singola subnet a un collegamento di rete e il producer assegna gli IP all'interfaccia Private Service Connect da quella subnet. La subnet deve trovarsi nella stessa regione del collegamento di rete. Un collegamento di rete deve trovarsi nella stessa regione del servizio producer.
Crea il collegamento di rete
In Cloud Shell, crea il collegamento di rete.
gcloud compute network-attachments create psc-network-attachment \
--region=us-central1 \
--connection-preference=ACCEPT_MANUAL \
--producer-accept-list=$projectid \
--subnets=intf-subnet
Elenca i collegamenti di rete
In Cloud Shell, elenca il collegamento di rete.
gcloud compute network-attachments list
Descrivi i collegamenti di rete
In Cloud Shell, descrivi il collegamento di rete.
gcloud compute network-attachments describe psc-network-attachment --region=us-central1
Prendi nota dell'URI psc-network-attachment che verrà utilizzato dal producer durante la creazione dell'interfaccia Private Service Connect. Ad esempio:
user@cloudshell$ gcloud compute network-attachments describe psc-network-attachment --region=us-central1
connectionPreference: ACCEPT_MANUAL
creationTimestamp: '2023-06-06T20:57:12.623-07:00'
fingerprint: 4Yq6xAfaRO0=
id: '3235195049527328503'
kind: compute#networkAttachment
name: psc-network-attachment
network: https://www.googleapis.com/compute/v1/projects/$projectid/global/networks/consumer-vpc
producerAcceptLists:
- $projectid
region: https://www.googleapis.com/compute/v1/projects/$projectid/regions/us-central1
selfLink: https://www.googleapis.com/compute/v1/projects/$projectid/regions/us-central1/networkAttachments/psc-network-attachment
subnetworks:
- https://www.googleapis.com/compute/v1/projects/$projectid/regions/us-central1/subnetworks/intf-subnet
7. Configurazione del producer
Crea la rete VPC producer
In Cloud Shell:
gcloud compute networks create producer-vpc --project=$projectid --subnet-mode=custom
Crea le subnet producer
In Cloud Shell, crea la subnet utilizzata per la vNIC0 dell'interfaccia psc.
gcloud compute networks subnets create prod-subnet --project=$projectid --range=10.20.1.0/28 --network=producer-vpc --region=us-central1
8. Abilita IAP
Per consentire a IAP di connettersi alle tue istanze VM, crea una regola firewall che:
- Si applichi a tutte le istanze VM a cui vuoi accedere tramite IAP.
- Consenta il traffico in entrata dall'intervallo IP 35.235.240.0/20. Questo intervallo contiene tutti gli indirizzi IP che utilizzati da IAP per l'inoltro TCP.
In Cloud Shell, crea la regola firewall IAP.
gcloud compute firewall-rules create ssh-iap-producer \
--network producer-vpc \
--allow tcp:22 \
--source-ranges=35.235.240.0/20
9. Crea l'interfaccia Private Service Connect
Un'interfaccia Private Service Connect è una risorsa che consente a una rete VPC (Virtual Private Cloud) producer di avviare connessioni a varie destinazioni in una rete VPC consumer. Le reti producer e consumer possono trovarsi in progetti e organizzazioni diversi.
Se un collegamento di rete accetta una connessione da un'interfaccia Private Service Connect, Google Cloud alloca all'interfaccia un indirizzo IP da una subnet consumer specificata dal collegamento di rete. Le reti consumer e producer sono connesse e possono comunicare utilizzando indirizzi IP interni.
In Cloud Shell, crea l'interfaccia Private Service Connect (bear) e inserisci l'URI psc-network-attachment identificato in precedenza dall'output del comando describe del collegamento di rete.
gcloud compute instances create bear --zone us-central1-a --machine-type=f1-micro --can-ip-forward --network-interface subnet=prod-subnet,network=producer-vpc,no-address --network-interface network-attachment=https://www.googleapis.com/compute/v1/projects/$projectid/regions/us-central1/networkAttachments/psc-network-attachment
Convalida multi-NIC
Verifica che l'interfaccia PSC sia configurata con l'indirizzo IP appropriato. vNIC0 utilizzerà la subnet producer prod-subnet (10.20.1.0/28) e vNIC1 utilizzerà la subnet consumer intf-subnet (192.168.10.0/28).
gcloud compute instances describe bear --zone=us-central1-a | grep networkIP:
Esempio:
user$ gcloud compute instances describe bear --zone=us-central1-a | grep networkIP:
networkIP: 10.20.1.2
networkIP: 192.168.10.2
10. Aggiorna le regole firewall consumer
Crea una regola firewall cloud per consentire l'accesso da bear a lion
In Cloud Shell, crea una regola con priorità più alta che consenta il traffico in uscita dall'intervallo di indirizzi IP di attachment-subnet (intf-subnet) alle destinazioni nell'intervallo di indirizzi di lion-subnet-1.
gcloud compute firewall-rules create allow-limited-egress-to-lion \
--network=consumer-vpc \
--action=ALLOW \
--rules=ALL \
--direction=EGRESS \
--priority=1000 \
--source-ranges="192.168.10.0/28" \
--destination-ranges="192.168.20.0/28" \
--enable-logging
In Cloud Shell, crea una regola di autorizzazione del traffico in entrata che sostituisce la regola di negazione implicita del traffico in entrata per il traffico dalla subnet psc-network-attachment.
gcloud compute firewall-rules create allow-ingress \
--network=consumer-vpc \
--action=ALLOW \
--rules=ALL \
--direction=INGRESS \
--priority=1000 \
--source-ranges="192.168.10.0/28" \
--enable-logging
Crea una regola firewall di Cloud per negare l'accesso da bear a tutti gli intervalli (tiger incluso)
In Cloud Shell, crea una regola con priorità bassa che neghi tutto il traffico in uscita dall'intervallo di indirizzi IP della subnet del collegamento di rete, intf-subnet.
gcloud compute firewall-rules create deny-all-egress \
--network=consumer-vpc \
--action=DENY \
--rules=ALL \
--direction=EGRESS \
--priority=65534 \
--source-ranges="192.168.10.0/28" \
--destination-ranges="0.0.0.0/0" \
--enable-logging
Crea una regola firewall di Cloud per consentire l'accesso da cosmo a bear
In Cloud Shell, crea una regola di autorizzazione del traffico in entrata che sostituisce la regola di negazione implicita del traffico in entrata per il traffico dalla subnet psc-network-attachment.
gcloud compute firewall-rules create vm-subnet-allow-ingress \
--network=consumer-vpc \
--action=ALLOW \
--rules=ALL \
--direction=INGRESS \
--priority=1000 \
--source-ranges="192.168.40.0/28" \
--destination-ranges="192.168.10.0/28" \
--enable-logging
11. Crea route Linux per l'interfaccia PSC
Dall'istanza dell'interfaccia PSC, configura le route Linux per consentire la comunicazione del producer con le subnet consumer.
Trova il nome del sistema operativo guest dell'interfaccia Private Service Connect
Per configurare il routing, devi conoscere il nome del sistema operativo guest dell'interfaccia Private Service Connect, che è diverso dal nome dell'interfaccia in Google Cloud.
In Cloud Shell, apri una nuova scheda ed esegui le seguenti operazioni:
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectid=YOUR-PROJECT-NAME
echo $projectid
Accedi alla VM dell'interfaccia psc, bear, utilizzando IAP in Cloud Shell.
gcloud compute ssh bear --project=$projectid --zone=us-central1-a --tunnel-through-iap
In Cloud Shell, ottieni l'indirizzo IP dell'istanza dell'interfaccia psc.
ip a
Esempio:
user@bear:~$ ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens4: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1460 qdisc pfifo_fast state UP group default qlen 1000
link/ether 42:01:0a:14:01:02 brd ff:ff:ff:ff:ff:ff
altname enp0s4
inet 10.20.1.2/32 brd 10.20.1.2 scope global dynamic ens4
valid_lft 85991sec preferred_lft 85991sec
inet6 fe80::4001:aff:fe14:102/64 scope link
valid_lft forever preferred_lft forever
3: ens5: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1460 qdisc pfifo_fast state UP group default qlen 1000
link/ether 42:01:c0:a8:0a:02 brd ff:ff:ff:ff:ff:ff
altname enp0s5
inet 192.168.10.2/32 brd 192.168.10.2 scope global dynamic ens5
valid_lft 85991sec preferred_lft 85991sec
inet6 fe80::4001:c0ff:fea8:a02/64 scope link
valid_lft forever preferred_lft forever
Trova l'IP del gateway dell'interfaccia PSC
Nell'elenco delle interfacce di rete, trova e memorizza il nome dell'interfaccia associato all'indirizzo IP dell'interfaccia Private Service Connect, ad esempio ens5 (vNIC1).
Per configurare il routing, devi conoscere l'indirizzo IP del gateway predefinito dell'interfaccia Private Service Connect.
In Cloud Shell utilizzeremo 1 perché l'interfaccia PSC è associata a vNIC1.
curl http://metadata.google.internal/computeMetadata/v1/instance/network-interfaces/1/gateway -H "Metadata-Flavor: Google" && echo
L'esempio produce il gateway predefinito 192.168.10.1.
user@bear:~$ curl http://metadata.google.internal/computeMetadata/v1/instance/network-interfaces/1/gateway -H "Metadata-Flavor: Google" && echo
192.168.10.1
Aggiungi route per le subnet consumer
Devi aggiungere una route al gateway predefinito dell'interfaccia Private Service Connect per ogni subnet consumer che si connette all'interfaccia Private Service Connect. In questo modo, il traffico destinato all'uscita della rete consumer esce dall'interfaccia Private Service Connect.
Nell'istanza bear, aggiungi le route alle subnet consumer.
sudo ip route add 192.168.20.0/28 via 192.168.10.1 dev ens5
sudo ip route add 192.168.30.0/28 via 192.168.10.1 dev ens5
sudo ip route add 192.168.40.0/28 via 192.168.10.1 dev ens5
Convalida la tabella di routing
In Cloud Shell, convalida le route appena aggiunte.
ip route show
Esempio.
user@bear:~$ ip route show
default via 10.20.1.1 dev ens4
10.20.1.0/28 via 10.20.1.1 dev ens4
10.20.1.1 dev ens4 scope link
192.168.10.0/28 via 192.168.10.1 dev ens5
192.168.10.1 dev ens5 scope link
192.168.20.0/28 via 192.168.10.1 dev ens5
192.168.30.0/28 via 192.168.10.1 dev ens5
192.168.40.0/28 via 192.168.10.1 dev ens5
12. Convalida la connettività bear-lion riuscita
Verifichiamo che l'istanza VM producer, bear, possa comunicare con l'istanza consumer, lion, eseguendo un comando curl.
Dall'istanza bear, esegui un comando curl sull'indirizzo IP di lion identificato in precedenza nel tutorial dall'istanza bear.
curl -v <lions IP Address>
Esempio:
user@bear:~$ curl -v 192.168.20.2
* Trying 192.168.20.2:80...
* Connected to 192.168.20.2 (192.168.20.2) port 80 (#0)
> GET / HTTP/1.1
> Host: 192.168.20.2
> User-Agent: curl/7.74.0
> Accept: */*
>
* Mark bundle as not supporting multiuse
< HTTP/1.1 200 OK
< Date: Tue, 06 Jun 2023 03:53:08 GMT
< Server: Apache/2.4.56 (Debian)
< Last-Modified: Mon, 05 Jun 2023 19:41:26 GMT
< ETag: "1e-5fd6716a1e11b"
< Accept-Ranges: bytes
< Content-Length: 30
< Content-Type: text/html
<
Welcome to lion app server !!
* Connection #0 to host 192.168.20.2 left intact
13. Verifica che la connettività bear-tiger sia bloccata
Verifichiamo che la regola firewall in uscita blocchi l'accesso da bear a tiger visualizzando i log del firewall.
Da una nuova sessione della console Cloud, vai a Logging → Esplora log → Seleziona Mostra query.

Incolla la stringa di query riportata di seguito nel campo di ricerca, quindi seleziona stream.
jsonPayload.rule_details.reference="network:consumer-vpc/firewall:deny-all-egress"

Dall'istanza bear, esegui un comando curl sull'indirizzo IP di tiger identificato in precedenza nel tutorial dall'istanza bear. Il comando curl alla fine andrà in timeout.
curl -v <tiger's IP Address>
Esempio:
user@bear:~$ curl -v 192.168.30.2
* Trying 192.168.30.2:80...
* connect to 192.168.30.2 port 80 failed: Connection timed out
* Failed to connect to 192.168.30.2 port 80: Connection timed out
* Closing connection 0
curl: (28) Failed to connect to 192.168.30.2 port 80: Connection timed out
Verifica che Esplora log abbia acquisito i log del firewall negati. Seleziona una voce di log ed espandi i campi nidificati per visualizzare i metadati.

14. Verifica che la connettività cosmo-bear sia riuscita
Apri una nuova scheda di Cloud Shell e aggiorna le impostazioni progetto.
In Cloud Shell:
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectid=YOUR-PROJECT-NAME
echo $projectid
Accedi all'istanza cosmo utilizzando IAP in Cloud Shell.
gcloud compute ssh cosmo --project=$projectid --zone=us-central1-a --tunnel-through-iap
In Cloud Shell, esegui un ping sull'indirizzo IP vNIV1 di bear identificato in precedenza nel tutorial.
ping <bears vNIC1 IP Address>
Esempio:
user@cosmo:~$ ping 192.168.10.2 -c 5
PING 192.168.10.2 (192.168.10.2) 56(84) bytes of data.
64 bytes from 192.168.10.2: icmp_seq=1 ttl=64 time=0.277 ms
64 bytes from 192.168.10.2: icmp_seq=2 ttl=64 time=0.288 ms
64 bytes from 192.168.10.2: icmp_seq=3 ttl=64 time=0.265 ms
64 bytes from 192.168.10.2: icmp_seq=4 ttl=64 time=0.264 ms
64 bytes from 192.168.10.2: icmp_seq=5 ttl=64 time=0.366 ms
15. Libera spazio
Da Cloud Shell, elimina i componenti del tutorial.
gcloud compute instances delete bear --zone=us-central1-a --quiet
gcloud compute instances delete lion --zone=us-central1-a --quiet
gcloud compute instances delete tiger --zone=us-central1-a --quiet
gcloud compute instances delete cosmo --zone=us-central1-a --quiet
gcloud compute network-attachments delete psc-network-attachment --region=us-central1 --quiet
gcloud compute firewall-rules delete allow-ingress allow-limited-egress-to-lion deny-all-egress ssh-iap-consumer ssh-iap-producer vm-subnet-allow-ingress --quiet
gcloud compute networks subnets delete cosmo-subnet-1 intf-subnet lion-subnet-1 prod-subnet tiger-subnet-1 --region=us-central1 --quiet
gcloud compute routers delete cloud-router-for-nat --region=us-central1 --quiet
gcloud compute networks delete consumer-vpc --quiet
gcloud compute networks delete producer-vpc --quiet
16. Complimenti
Complimenti, hai configurato e convalidato correttamente un'interfaccia Private Service Connect e la connettività consumer e producer implementando le regole firewall.
Hai creato l'infrastruttura consumer e hai aggiunto un collegamento di rete che ha consentito al producer di creare una VM multi-NIC per colmare la comunicazione tra consumer e producer. Hai imparato a creare regole firewall nella rete VPC consumer che consentivano la connettività alle istanze nel VPC consumer e producer.
Cosmopup pensa che i tutorial siano fantastici.

Passaggi successivi
Dai un'occhiata ad alcuni di questi tutorial...
- Utilizzo di Private Service Connect per pubblicare e consumare servizi con GKE
- Utilizzo di Private Service Connect per pubblicare e consumare servizi
- Connettiti ai servizi on-prem tramite networking ibrido utilizzando Private Service Connect e un bilanciatore del carico proxy TCP interno
Ulteriori informazioni e video
- Panoramica di Private Service Connect
- Che cos'è Private Service Connect?
- Tipi di bilanciatori del carico supportati