1. Introduzione
Panoramica
In questo lab, gli utenti scopriranno come Network Connectivity Center(NCC) può essere utilizzato per stabilire la connettività inter-VPC su larga scala tramite il supporto degli spoke VPC. Quando gli utenti definiscono un VPC come spoke VPC, possono connetterlo a più reti VPC tramite l'hub NCC. La NCC con configurazione dello spoke VPC riduce la complessità operativa della gestione della connettività inter-VPC a coppie tramite il peering VPC, utilizzando invece un modello di gestione della connettività centralizzata.
Ricorda che Network Connectivity Center (NCC) è un modello di piano di controllo hub and spoke per la gestione della connettività di rete in Google Cloud. La risorsa hub fornisce un modello di gestione della connettività centralizzata per interconnettere gli spoke.
Cosa creerai
In questo codelab, creerai una topologia hub e spoke logica con l'hub NCC che implementerà un fabric di connettività VPC completamente mesh su tre VPC distinti.
Cosa imparerai a fare
- Connettività VPC full mesh con NCC
- Private NAT in una VPC
Che cosa ti serve
- Conoscenza della rete VPC Google Cloud
- Conoscenza del router Cloud e del routing BGP
- Due progetti Google Cloud distinti
- Questo codelab richiede 5 VPC. Uno di questi VPC deve trovarsi in un progetto distinto dall'hub NCC
- Controlla la quota:Networks e richiedi reti aggiuntive, se necessario, screenshot di seguito:
Obiettivi
- Configura l'ambiente Google Cloud
- Configurare Network Connectivity Center con la VPC come spoke
- Convalida percorso dati
- Esplorare le funzionalità di riparabilità del NCC
- Ripulire le risorse utilizzate
Prima di iniziare
Google Cloud Console e Cloud Shell
Per interagire con Google Cloud, utilizzeremo sia la console Google Cloud che Cloud Shell durante questo lab.
NCC Hub Project Console Google Cloud
Puoi accedere alla console Cloud all'indirizzo https://console.cloud.google.com.
Configura i seguenti elementi in Google Cloud per semplificare la configurazione di Network Connectivity Center:
Nella console Google Cloud, nella pagina di selezione del progetto, seleziona o crea un progetto Google Cloud.
Avvia Cloud Shell. Questo Codelab utilizza le variabili $per facilitare l'implementazione della configurazione di gcloud in Cloud Shell.
gcloud auth list
gcloud config list project
gcloud config set project [HUB-PROJECT-NAME]
projectname=[HUB-PROJECT-NAME]
echo $projectname
gcloud config set compute/zone us-central1-a
gcloud config set compute/region us-central1
Ruoli IAM
NCC richiede i ruoli IAM per accedere ad API specifiche. Assicurati di configurare l'utente con i ruoli IAM NCC come richiesto.
Ruolo/descrizione | Autorizzazioni |
networkconnectivity.networkAdmin: consente agli amministratori di rete di gestire gli hub e gli spoke. | networkconnectivity.hubs.networkconnectivity.spokes. |
networkconnectivity.networkSpokeManager: consente di aggiungere e gestire gli spoke in un hub. Da utilizzare in VPC condiviso in cui il progetto host è proprietario dell'hub, ma altri amministratori in altri progetti possono aggiungere spoke per i propri allegati all'hub. | networkconnectivity.spokes.** |
networkconnectivity.networkUsernetworkconnectivity.networkViewer: consente agli utenti della rete di visualizzare diversi attributi di hub e spoke. | networkconnectivity.hubs.getnetworkconnectivity.hubs.listnetworkconnectivity.spokes.getnetworkconnectivity.spokes.listnetworkconnectivity.spokes.aggregatedList |
2. Configura l'ambiente di rete
Panoramica
In questa sezione eseguiamo il deployment delle reti VPC e delle regole firewall in un unico progetto. Il diagramma logico illustra l'ambiente di rete che verrà configurato in questo passaggio.
Per dimostrare il supporto degli spoke tra progetti, in un passaggio successivo implementeremo una VPC e regole firewall in un altro progetto.
Crea le VPC e le subnet
La rete VPC contiene subnet in cui installerai la VM GCE per la convalida del percorso dei dati
gcloud compute networks create vpc1-ncc --subnet-mode custom
gcloud compute networks create vpc2-ncc --subnet-mode custom
gcloud compute networks create vpc3-ncc --subnet-mode custom
gcloud compute networks create vpc4-ncc --subnet-mode custom
gcloud compute networks subnets create vpc1-ncc-subnet1 \
--network vpc1-ncc --range 10.1.1.0/24 --region us-central1
gcloud compute networks subnets create vpc1-ncc-subnet2 \
--network vpc1-ncc --range 10.1.2.0/25 --region us-central1
gcloud compute networks subnets create vpc1-ncc-subnet3 \
--network vpc1-ncc --range 10.1.2.128/25 --region us-central1
gcloud compute networks subnets create vpc2-ncc-subnet1 \
--network vpc2-ncc --range 10.2.2.0/24 --region us-central1
Intervalli di subnet supportati dalla VPC
NCC supporta tutti gli intervalli di subnet IPv4 validi, ad eccezione degli indirizzi IP pubblici utilizzati privatamente. In questo passaggio, crea intervalli IP validi in VPC4 che verranno importati nella tabella delle route dell'hub.
gcloud compute networks subnets create benchmark-testing-rfc2544 \
--network vpc4-ncc --range 198.18.0.0/15 --region us-east1
gcloud compute networks subnets create class-e-rfc5735 \
--network vpc4-ncc --range 240.0.0.0/4 --region us-east1
gcloud compute networks subnets create ietf-protcol-assignment-rfc6890 \
--network vpc4-ncc --range 192.0.0.0/24 --region us-east1
gcloud compute networks subnets create ipv6-4-relay-rfc7526 \
--network vpc4-ncc --range 192.88.99.0/24 --region us-east1
gcloud compute networks subnets create pupi \
--network vpc4-ncc --range 50.50.50.0/24 --region us-east1
gcloud compute networks subnets create test-net-1-rfc5737 \
--network vpc4-ncc --range 192.0.2.0/24 --region us-east1
gcloud compute networks subnets create test-net-2-rfc5737 \
--network vpc4-ncc --range 198.51.100.0/24 --region us-east1
gcloud compute networks subnets create test-net-3-rfc5737 \
--network vpc4-ncc --range 203.0.113.0/24 --region us-east1
Creare intervalli di subnet sovrapposti
NCC non importerà intervalli IP sovrapposti nella tabella delle route dell'hub. Gli utenti aggireranno questa limitazione in un passaggio successivo. Per il momento, crea due intervalli IP sovrapposti per VPC2 e VPC3.
gcloud compute networks subnets create overlapping-vpc2 \
--network vpc3-ncc --range 10.3.3.0/24 --region us-central1
gcloud compute networks subnets create overlapping-vpc3 \
--network vpc2-ncc --range 10.3.3.0/24 --region us-central1
Configurare le regole firewall VPC
Configura le regole del firewall su ogni VPC per consentire
- SSH
- IAP interno
- Intervallo 10.0.0.0/8
gcloud compute firewall-rules create ncc1-vpc-internal \
--network vpc1-ncc \
--allow all \
--source-ranges 10.0.0.0/8
gcloud compute firewall-rules create ncc2-vpc-internal \
--network vpc2-ncc \
--allow all \
--source-ranges 10.0.0.0/8
gcloud compute firewall-rules create ncc3-vpc-internal \
--network vpc3-ncc \
--allow all \
--source-ranges 10.0.0.0/8
gcloud compute firewall-rules create ncc4-vpc-internal \
--network vpc4-ncc \
--allow all \
--source-ranges 10.0.0.0/8
gcloud compute firewall-rules create ncc1-vpc-iap \
--network vpc1-ncc \
--allow all \
--source-ranges 35.235.240.0/20
gcloud compute firewall-rules create ncc2-vpc-iap \
--network vpc2-ncc \
--allow=tcp:22 \
--source-ranges 35.235.240.0/20
gcloud compute firewall-rules create ncc3-vpc-iap \
--network vpc3-ncc \
--allow=tcp:22 \
--source-ranges 35.235.240.0/20
gcloud compute firewall-rules create ncc4-vpc-iap \
--network vpc4-ncc \
--allow=tcp:22 \
--source-ranges 35.235.240.0/20
Configura la VM GCE in ogni VPC
Per installare i pacchetti su "vm1-vpc1-ncc", devi disporre di un accesso temporaneo a internet.
Crea quattro macchine virtuali, ognuna delle quali verrà assegnata a uno dei VPC creati in precedenza
gcloud compute instances create vm1-vpc1-ncc \
--subnet vpc1-ncc-subnet1 \
--metadata=startup-script='#!/bin/bash
apt-get update
apt-get install apache2 -y
apt-get install tcpdump -y
service apache2 restart
echo "
<h3>Web Server: www-vm1</h3>" | tee /var/www/html/index.html'
gcloud compute instances create vm2-vpc2-ncc \
--zone us-central1-a \
--subnet vpc2-ncc-subnet1 \
--no-address
gcloud compute instances create pnat-vm-vpc2 \
--zone us-central1-a \
--subnet overlapping-vpc3 \
--no-address
gcloud compute instances create vm1-vpc4-ncc \
--zone us-east1-b \
--subnet class-e-rfc5735 \
--no-address
3. Hub Network Connectivity Center
Panoramica
In questa sezione, configureremo un hub NCC utilizzando i comandi gcloud. L'hub NCC fungerà da control plane responsabile della creazione della configurazione di routing tra ogni spoke VPC.
Abilita i servizi API
Se non è ancora abilitata, abilita l'API Network Connectivity:
gcloud services enable networkconnectivity.googleapis.com
Creare un hub NCC
Creare un hub NCC utilizzando il comando gCloud
gcloud network-connectivity hubs create ncc-hub
Output di esempio
Create request issued for: [ncc-hub]
Waiting for operation [projects/user-3p-dev/locations/global/operations/operation-1668793629598-5edc24b7ee3ce-dd4c765b-5ca79556] to complete...done.
Created hub [ncc-hub]
Descrivi l'hub NCC appena creato. Prendi nota del nome e del percorso associato.
gcloud network-connectivity hubs describe ncc-hub
gcloud network-connectivity hubs describe ncc-hub
createTime: '2023-11-02T02:28:34.890423230Z'
name: projects/user-3p-dev/locations/global/hubs/ncc-hub
routeTables:
- projects/user-3p-dev/locations/global/hubs/ncc-hub/routeTables/default
state: ACTIVE
uniqueId: de749c4c-0ef8-4888-8622-1ea2d67450f8
updateTime: '2023-11-02T02:28:48.613853463Z'
NCC Hub ha introdotto una tabella di routing che definisce il piano di controllo per la creazione della connettività dei dati. Trova il nome della tabella di routing di NCC Hub
gcloud network-connectivity hubs route-tables list --hub=ncc-hub
NAME: default
HUB: ncc-hub
DESCRIPTION:
Trova l'URI della tabella dei route predefiniti dell'NCC.
gcloud network-connectivity hubs route-tables describe default --hub=ncc-hub
createTime: '2023-02-24T17:32:58.786269098Z'
name: projects/user-3p-dev/locations/global/hubs/ncc-hub/routeTables/default
state: ACTIVE
uid: eb1fdc35-2209-46f3-a8d6-ad7245bfae0b
updateTime: '2023-02-24T17:33:01.852456186Z'
Elenca i contenuti della tabella di routing predefinita dell'hub NCC. Nota: la tabella dei percorsi dell'hub NCC sarà vuota fino a quando non saranno presenti gli spoke
gcloud network-connectivity hubs route-tables routes list --hub=ncc-hub --route_table=default
La tabella dei percorsi dell'hub NCC deve essere vuota.
4. NCC con spoke VPC
Panoramica
In questa sezione, configurerai tre VPC come spoke NCC utilizzando i comandi gCloud.
Configurare le VPC come spoke NCC
Configura i seguenti VPC come spoke NCC in questo ordine
- VPC4
- VPC1
- VPC2
- VPC3
Configura VPC4 come spoke NCC e assegnalo all'hub NCC creato in precedenza. Le chiamate API spoke NCC richiedono la specifica di una località. Il flag "–global" semplifica la sintassi di gcloud consentendo all'utente di evitare di specificare un percorso URI completo durante la configurazione di un nuovo spoke NCC.
gcloud network-connectivity spokes linked-vpc-network create vpc4-spoke4 \
--hub=ncc-hub \
--vpc-network=vpc4-ncc \
--global
Configura VPC1 come spoke NCC.
Gli amministratori possono escludere l'esportazione delle route di subnet da uno spoke VPC nella tabella di route dell'hub NCC. In questa parte del codelab, crea una regola di esportazione esclusa in base a un prefisso di riepilogo per impedire l'esportazione della subnet del VPC1 nella tabella delle route dell'hub NCC.
Utilizza questo comando gcloud per elencare tutte le subnet appartenenti a VPC1.
gcloud config set accessibility/screen_reader false
gcloud compute networks subnets list --network=vpc1-ncc
Prendi nota della coppia di subnet /25 create in precedenza nella sezione di configurazione.
NAME REGION NETWORK RANGE STACK_TYPE
vpc1-ncc-subnet1 us-central1 vpc1-ncc 10.1.1.0/24 IPV4_ONLY
vpc1-ncc-subnet2 us-central1 vpc1-ncc 10.1.2.0/25 IPV4_ONLY
vpc1-ncc-subnet3 us-central1 vpc1-ncc 10.1.2.128/25 IPV4_ONLY
Configura VPC1 come spoke NCC ed escludi l'importazione della coppia di subnet /25 nella tabella di routing dell'hub utilizzando la parola chiave "export-exclude-ranges" per filtrare la route di riepilogo /24 da quell'intervallo specifico.
gcloud network-connectivity spokes linked-vpc-network create vpc1-spoke1 \
--hub=ncc-hub \
--vpc-network=vpc1-ncc \
--exclude-export-ranges=10.1.2.0/24 \
--global
Nota: gli utenti possono filtrare fino a 16 intervalli IP univoci per ogni spoke NCC.
Elenca i contenuti della tabella di routing predefinita dell'hub NCC. Che cosa è successo alla coppia di subnet /25 nella tabella di routing dell'hub NCC?
gcloud network-connectivity hubs route-tables routes list --hub=ncc-hub --route-table=default --filter="NEXT_HOP:vpc1-ncc"
IP_CIDR_RANGE STATE TYPE NEXT_HOP HUB ROUTE_TABLE
10.1.1.0/24 ACTIVE VPC_PRIMARY_SUBNET vpc1-ncc ncc-hub default
Configura VPC2 come spoke NCC
gcloud network-connectivity spokes linked-vpc-network create vpc2-spoke2 \
--hub=ncc-hub \
--vpc-network=vpc2-ncc \
--global
Configura VPC3 come spoke NCC e assegnalo all'hub NCC creato in precedenza.
gcloud network-connectivity spokes linked-vpc-network create vpc3-spoke3 \
--hub=ncc-hub \
--vpc-network=vpc3-ncc \
--global
Che cosa è successo?
ERROR: (gcloud.network-connectivity.spokes.linked-vpc-network.create) Invalid resource state for "https://www.googleapis.com/compute/v1/projects/xxxxxxxx/global/networks/vpc3-ncc": 10.3.3.0/24 (SUBNETWORK) overlaps with 10.3.3.0/24 (SUBNETWORK) from "projects/user-3p-dev/global/networks/vpc2-ncc" (peer)
L'hub NCC ha rilevato un intervallo IP che si sovrappone a VPC2. Ricorda che le VPC2 e VPC3 sono state configurate con la stessa subnet IP 10.3.3.0/24.
Filtrare gli intervalli IP in sovrapposizione con l'esportazione esclusa
Al momento della stesura di questo codelab, è noto un problema per cui gli utenti devono eliminare e ricreare i raggi NCC per apportare modifiche di configurazione al filtro di esportazione.
gcloud network-connectivity spokes delete vpc2-spoke2 --global --quiet
Nota:l'eliminazione di uno spoke VPC associato a un VPC specifico richiede la scadenza di un periodo di attesa di 10 minuti per poter ricreare un nuovo spoke che fa riferimento allo stesso VPC.
gcloud network-connectivity spokes linked-vpc-network create vpc2-spoke2 \
--hub=ncc-hub \
--vpc-network=vpc2-ncc \
--exclude-export-ranges=10.3.3.0/24 \
--global
Configura VPC3 come spoke NCC e assegnalo all'hub NCC creato in precedenza. Questo tentativo di aggiungere VPC3 come spoke a NCC dovrebbe riuscire.
gcloud network-connectivity spokes linked-vpc-network create vpc3-spoke3 \
--hub=ncc-hub \
--vpc-network=vpc3-ncc \
--exclude-export-ranges=10.3.3.0/24 \
--global
Elenca i contenuti della tabella di routing predefinita dell'hub NCC ed esamina l'output.
gcloud network-connectivity hubs route-tables routes list --hub=ncc-hub --route_table=default
Gli intervalli IP sovrapposti di VPC2 e VPC3 sono esclusi. La tabella di routing dell'hub NCC supporta tutti i tipi di intervalli IPv4 validi, ad eccezione degli indirizzi IP pubblici utilizzati privatamente (PUPI).
5. NCC con spoke tra progetti
Panoramica
Finora hai configurato gli spoke NCC che appartengono allo stesso progetto dell'hub. In questa sezione, configurerai il VPC come spoke NCC da un progetto separato diverso dall'hub NCC utilizzando i comandi gCloud.
In questo modo, i proprietari di progetti che gestiscono i propri VPC possono partecipare alla connettività di rete con NCC Hub.
Tra progetti: Google Cloud Console e Cloud Shell
Per interagire con Google Cloud, utilizzeremo sia la console Google Cloud che Cloud Shell durante questo lab.
Console Google Cloud per Spoke tra progetti
Puoi accedere alla console Cloud all'indirizzo https://console.cloud.google.com.
Configura i seguenti elementi in Google Cloud per semplificare la configurazione di Network Connectivity Center:
Nella console Google Cloud, nella pagina di selezione del progetto, seleziona o crea un progetto Google Cloud.
Avvia Cloud Shell. Questo Codelab utilizza le variabili $per facilitare l'implementazione della configurazione di gcloud in Cloud Shell.
gcloud auth list
gcloud config list project
gcloud config set project [YOUR-CROSSPROJECT-NAME]
xprojname=[YOUR-CROSSPROJECT-NAME]
echo $xprojname
gcloud config set compute/zone us-central1-a
gcloud config set compute/region us-central1
Ruoli IAM
NCC richiede i ruoli IAM per accedere ad API specifiche. Assicurati di configurare l'utente con i ruoli IAM NCC come richiesto.
All'amministratore dello spoke tra progetti deve essere assegnato almeno il ruolo IAM "networkconnectivity.networkSpokeManager". "
La tabella seguente elenca il ruolo IAM richiesto per l'amministratore di hub e spoke NCC come riferimento.
Ruolo/descrizione | Autorizzazioni |
networkconnectivity.networkAdmin: consente agli amministratori di rete di gestire gli hub e gli spoke. | networkconnectivity.hubs.networkconnectivity.spokes. |
networkconnectivity.networkSpokeManager: consente di aggiungere e gestire gli spoke in un hub. Da utilizzare in VPC condiviso in cui il progetto host è proprietario dell'hub, ma altri amministratori in altri progetti possono aggiungere spoke per i propri allegati all'hub. | networkconnectivity.spokes.** |
networkconnectivity.networkUsernetworkconnectivity.networkViewer: consente agli utenti della rete di visualizzare diversi attributi di hub e spoke. | networkconnectivity.hubs.getnetworkconnectivity.hubs.listnetworkconnectivity.spokes.getnetworkconnectivity.spokes.listnetworkconnectivity.spokes.aggregatedList |
Crea le VPC e le subnet nel progetto tra più progetti
La rete VPC contiene subnet in cui installerai la VM GCE per la convalida del percorso dati
gcloud compute networks create xproject-vpc \
--subnet-mode custom
gcloud compute networks subnets create xprj-net-1 \
--network xproject-vpc \
--range 10.100.1.0/24 \
--region us-central1
gcloud compute networks subnets create xprj-net-2 \
--network xproject-vpc \
--range 10.100.2.0/24 \
--region us-central1
URI del progetto dell'hub NCC
Utilizza questo comando gcloud per trovare l'URI dell'hub NCC. Nel passaggio successivo avrai bisogno del percorso URI per configurare il spoke NCC tra progetti.
gcloud network-connectivity hubs describe ncc-hub
VPC spoke tra progetti
Accedi all'altro progetto in cui il VPC NON fa parte del progetto NCC Hub. In Cloud Shell, utilizza questo comando per configurare una VPC come spoke NCC.
- HUB_URI deve essere l'URI di un hub in un progetto diverso.
- VPC_URI deve trovarsi nello stesso progetto dello spoke
- VPC-network specifica che il VPC in questo progetto tra più progetti si unirà all'hub NCC in un altro progetto
gcloud network-connectivity spokes linked-vpc-network create xproj-spoke \
--hub=projects/[YOUR-PROJECT-NAME]/locations/global/hubs/ncc-hub \
--global \
--vpc-network=xproject-vpc
.
Create request issued for: [xproj-spoke]
Waiting for operation [projects/xproject/locations/global/operations/operation-1689790411247-600dafd351158-2b862329-19b747f1] to complete...done.
Created spoke [xproj-spoke].
createTime: '2023-07-19T18:13:31.388500663Z'
hub: projects/[YOUR-PROJECT-NAME]/locations/global/hubs/ncc-hub
linkedVpcNetwork:
uri: https://www.googleapis.com/compute/v1/projects/xproject/global/networks/xproject-vpc
name: projects/xproject/locations/global/spokes/xproj-spoke
reasons:
- code: PENDING_REVIEW
message: Spoke is Pending Review
spokeType: VPC_NETWORK
state: INACTIVE
uniqueId: 46b4d091-89e2-4760-a15d-c244dcb7ad69
updateTime: '2023-07-19T18:13:38.652800902Z'
Qual è lo stato dello spoke NCC tra progetti? Perché?
6. Rifiutare o accettare uno spoke tra progetti
Panoramica
Gli amministratori di NCC Hub devono accettare esplicitamente uno spoke tra progetti per partecipare all'hub. In questo modo, i proprietari dei progetti non possono collegare spoke non autorizzati della rete NCC alla tabella di routing globale della rete NCC. Una volta accettato o rifiutato, uno spoke può essere successivamente rifiutato o accettato tutte le volte che vuoi eseguendo i comandi precedenti.
Torna al progetto in cui si trova l'hub NCC accedendo a Cloud Shell.
Identifica i raggi tra progetti da esaminare
gcloud network-connectivity hubs list-spokes ncc-hub \
--filter="reason:PENDING_REVIEW"
Accettare uno spoke
gcloud network-connectivity hubs accept-spoke ncc-hub --spoke=xproj-spoke
(Facoltativo) Rifiutare un raggio
gcloud network-connectivity spokes reject-spoke ncc-hub --spoke=xproj-spoke
--details="some reason to reject"
Elenco dei raggi attivi nell'hub
gcloud network-connectivity hubs list-spokes ncc-hub \
--filter="state:ACTIVE"
NAME PROJECT LOCATION TYPE STATE STATE REASON
Xproj-spoke xproj global VPC_NETWORK ACTIVE
vpc4-spoke4 user-3p-dev global VPC_NETWORK ACTIVE
vpc1-spoke1 user-3p-dev global VPC_NETWORK ACTIVE
vpc2-spoke2 user-3p-dev global VPC_NETWORK ACTIVE
vpc3-spoke3 user-3p-dev global VPC_NETWORK ACTIVE
Elenca i route delle subnet sull'hub
Dall'output, riesci a vedere le route di subnet dallo spoke VPC tra più VPC?
gcloud network-connectivity hubs route-tables routes list \
--route_table=default \
--hub=ncc-hub \
--filter="NEXT_HOP:xprj-vpc"
IP_CIDR_RANGE STATE TYPE NEXT_HOP HUB ROUTE_TABLE
10.100.1.0/24 ACTIVE VPC_PRIMARY_SUBNET xprj-vpc ncc-hub default
Aggiorna la VPC spoke tra progetti con il filtro Include-Export
Accedi al progetto in cui il VPC NON fa parte del progetto NCC Hub. In Cloud Shell, utilizza questo comando per configurare una VPC come spoke NCC.
- HUB_URI deve essere l'URI di un hub in un progetto diverso.
- VPC_URI deve trovarsi nello stesso progetto dello spoke
- VPC-network specifica che il VPC in questo progetto tra più progetti si unirà all'hub NCC in un altro progetto
- Importa solo l'intervallo di subnet 10.100.2.0/24 nella tabella delle route dell'hub NCC
- Prendi nota del valore "ETAG" dall'output. Questo valore viene generato da NCC e dovrai fornirlo all'amministratore dell'hub NCC. L'amministratore dell'hub NCC dovrà fare riferimento a questo valore quando accetterà la richiesta di adesione all'hub da parte del braccio tra progetti.
gcloud network-connectivity spokes linked-vpc-network update xproj-spoke \
--hub=projects/[YOUR-PROJECT-NAME]/locations/global/hubs/ncc-hub \
--global \
--include-export-ranges=10.100.2.0/24
Update request issued for: [xprj-vpc]
Waiting for operation [projects]/xproject/locations/global/operations/operation-1742936388803-6313100521cae-020ac5d2-58
52fbba] to complete...done.
Updated spoke [xprj-vpc].
createTime: '2025-02-14T14:25:41.996129250Z'
etag: '4'
fieldPathsPendingUpdate:
- linked_vpc_network.include_export_ranges
group: projects/xxxxxxxx/locations/global/hubs/ncc-hub/groups/default
hub: projects/xxxxxxxx/locations/global/hubs/ncc-hub
linkedVpcNetwork:
includeExportRanges:
- 10.100.2.0/24
uri: https://www.googleapis.com/compute/v1/projects/xproject/global/networks/vpc1-spoke
name: projects/xproject/locations/global/spokes/xprj-vpc
reasons:
- code: UPDATE_PENDING_REVIEW
message: Spoke update is Pending Review
spokeType: VPC_NETWORK
state: ACTIVE
uniqueId: 182e0f8f-91cf-481c-a081-ea6f7e40fb0a
updateTime: '2025-03-25T20:59:51.995734879Z'
Identifica i raggi tra progetti aggiornati da esaminare
Accedi al progetto che ospita l'hub NCC. In Cloud Shell, utilizza questo comando per controllare lo stato dell'aggiornamento dello spoke VPC tra progetti.
- Qual è il valore ETAG? Questo valore deve corrispondere all'output dell'aggiornamento dello spoke VPC.
gcloud network-connectivity hubs list-spokes ncc-hub \
--filter="reasons:UPDATE_PENDING_REVIEW" \
--format=yaml
Accetta le modifiche aggiornate dal raggio tra progetti
Utilizza il comando per accettare la richiesta di partecipazione all'hub NCC da parte dello spoke tra progetti
gcloud network-connectivity hubs accept-spoke-update ncc-hub \
--spoke=https://www.googleapis.com/networkconnectivity/v1/projects/xproject/locations/global/spokes/xproj-spoke \
--spoke-etag={etag value}
(Facoltativo) Rifiutare le modifiche aggiornate dal raggio tra progetti
Utilizza il comando per rifiutare la richiesta di adesione all'hub NCC del spoke tra progetti
gcloud network-connectivity hubs reject-spoke-update ncc-hub \
--spoke=https://www.googleapis.com/networkconnectivity/v1/projects/xproject/locations/global/spokes/xproj-spoke \
--details="not today" \
--spoke-etag={etag value}
Verifica che lo spoke tra progetti sia stato aggiunto all'hub NCC
gcloud network-connectivity hubs list-spokes ncc-hub \ --filter="name:xproj-spoke"
7. Private NAT tra VPC
Panoramica
In questa sezione configurerai la NAT privata per intervalli di subnet sovrapposti tra due VPC. Tieni presente che la NAT privata tra VPC richiede NCC.
Nella sezione precedente, VPC2 e VPC3 sono configurati con un intervallo di subnet sovrapposto di "10.3.3.0/24". Entrambi i VPC sono configurati come spoke NCC per escludere l'inserimento della subnet sovrapposta nella tabella di route dell'hub NCC, il che significa che non esiste un percorso di dati di livello 3 per raggiungere gli host che si trovano in quella subnet.
Utilizza questi comandi nel progetto hub NCC per trovare gli intervalli di subnet sovrapposti.
gcloud compute networks subnets list --network vpc2-ncc
gcloud compute networks subnets list --network vpc3-ncc
In vpc2-ncc, qual è il nome della subnet che contiene l'intervallo IP che si sovrappone?
*Prendi nota e salva il nome della subnet da qualche parte. Configura il NAT di origine per questo intervallo.
Configurare Private NAT
Dedica un intervallo di subnet routabile al traffico NAT di origine dalla subnet sovrapposta di VPC2. Configurando un intervallo di subnet non sovrapposto utilizzando il flag "–purpose=PRIVATE_NAT".
gcloud beta compute networks subnets create ncc2-spoke-nat \
--network=vpc2-ncc \
--region=us-central1 \
--range=10.10.10.0/29 \
--purpose=PRIVATE_NAT
Crea un router cloud dedicato per eseguire il NAT privato
gcloud compute routers create private-nat-cr \
--network vpc2-ncc \
--region us-central1
Configura il router cloud in modo che esegui la NAT dell'intervallo sovrapposto 10.3.3.0/24 da vpc2-ncc. Nella configurazione di esempio riportata di seguito, "overlapping-vpc3" è il nome della sottorete sovrapposta. La parola chiave "ALL" specifica che tutti gli intervalli IP nella subnet verranno sottoposti a NAT di origine.
gcloud beta compute routers nats create ncc2-nat \
--router=private-nat-cr \
--type=PRIVATE \
--nat-custom-subnet-ip-ranges=overlapping-vpc3:ALL \
--router-region=us-central1
I passaggi precedenti hanno creato un pool di intervalli IP NAT e la subnet specifica che verrà tradotta. In questo passaggio, crea la regola NAT "1" che traduce i pacchetti di rete corrispondenti al traffico proveniente dall'intervallo di subnet sovrapposto se la rete di destinazione segue un percorso dalla tabella di routing dell'hub NCC.
gcloud beta compute routers nats rules create 1 \
--router=private-nat-cr \
--region=us-central1 \
--match='nexthop.hub == "//networkconnectivity.googleapis.com/projects/$projectname/locations/global/hubs/ncc-hub"' \
--source-nat-active-ranges=ncc2-spoke-nat \
--nat=ncc2-nat
Verificare il percorso dati per Private NAT
gcloud beta compute routers nats describe ncc2-nat --router=private-nat-cr
Output di esempio
enableDynamicPortAllocation: true
enableEndpointIndependentMapping: false
endpointTypes:
- ENDPOINT_TYPE_VM
name: ncc2-nat
rules:
- action:
sourceNatActiveRanges:
- https://www.googleapis.com/compute/beta/projects/xxxxxxxx/regions/us-central1/subnetworks/ncc2-spoke-nat
match: nexthop.hub == "//networkconnectivity.googleapis.com/projects/xxxxxxxx/locations/global/hubs/ncc-hub"
ruleNumber: 1
sourceSubnetworkIpRangesToNat: LIST_OF_SUBNETWORKS
subnetworks:
- name: https://www.googleapis.com/compute/beta/projects/xxxxxxxx/regions/us-central1/subnetworks/overlapping-vpc3
sourceIpRangesToNat:
- ALL_IP_RANGES
type: PRIVATE
Facoltativamente,
- Passare alla console web
- vai a "Servizi di rete > Cloud NAT > ncc2-nat"
Verifica che l'allocazione dinamica delle porte sia attiva per impostazione predefinita.
Successivamente, verificherai il percorso dati che utilizza il percorso NAT privato configurato per VPC2.
Apri una sessione SSH su "vm1-vpc1-ncc" e utilizza il comando tcpdump riportato di seguito per acquisire i pacchetti provenienti dall'intervallo del pool NAT "10.10.10.0/29".
vm1-vpc1-ncc
sudo tcpdump -i any net 10.10.10.0/29 -n
Al momento della stesura di questo codelab, il NAT privato non supporta i pacchetti ICMP. Esegui una sessione SSH su "pNat-vm-vpc2" e utilizza il comando curl come mostrato di seguito per connetterti a "vm1-vpc1-ncc" sulla porta TCP 80.
pnat-vm-vpc2
curl 10.1.1.2 -v
Esamina l'output di tcpdump su "vm1-vpc1-ncc". Qual è l'indirizzo IP di origine che ha generato la sessione TCP al nostro server web su "vm1-vpc1-ncc"?
tcpdump: data link type LINUX_SLL2
tcpdump: verbose output suppressed, use -v[v]... for full protocol decode
listening on any, link-type LINUX_SLL2 (Linux cooked v2), snapshot length 262144 bytes
19:05:27.504761 ens4 In IP 10.10.10.2.1024 > 10.1.1.2:80: Flags [S], seq 2386228656, win 65320, options [mss 1420,sackOK,TS val 3955849029 ecr 0,nop,wscale 7], length 0
19:05:27.504805 ens4 Out IP 10.1.1.2:80 > 10.10.10.2.1024: Flags [S.], seq 48316785, ack 2386228657, win 64768, options [mss 1420,sackOK,TS val 1815983704 ecr 3955849029,nop,wscale 7], length 0
<output snipped>
8. Supporto delle subnet IPv6 per i NCC
Network Connectivity Center supporta lo scambio di subnet IPv6 e lo scambio di route dinamiche tra gli spoke VPC NCC e gli spoke ibride. In questa sezione, configura NCC in modo che supporti la modalità di scambio di route di subnet IPv6 e IPv4/IPv6 a doppio stack.
Crea una nuova VPC per IPv6 che si unirà a NCC-Hub come spoke VPC
gcloud compute networks create vpc5-ncc \
--subnet-mode custom \
--enable-ula-internal-ipv6
gcloud compute networks subnets create vpc4-ipv4-subnet1 \
--network vpc5-ncc \
--range 10.5.5.0/24 \
--region us-central1
Utilizza questo comando per configurare VPC5 come spoke NCC ed escludere l'esportazione della route della subnet IPv4 nella tabella delle route dell'hub. Esporta la rete ULA IPv6 nella tabella dei route dell'hub NCC.
gcloud network-connectivity spokes linked-vpc-network create vpc5-spoke5 \
--hub=ncc-hub \
--vpc-network=vpc5-ncc \
--include-export-ranges=ALL_IPV6_RANGES
--exclude-export-ranges=10.5.5.0/24
--global
Abilita VPC1 e VPC4 per gli indirizzi locali univoci (ULA) IPv6 privati. Google Cloud assegnerà automaticamente tutti gli indirizzi ULA dall'intervallo fd20::/20.
gcloud compute networks update vpc-ncc4 \
--enable-ula-internal-ipv6
gcloud compute networks update vpc-ncc1 \
--enable-ula-internal-ipv6
Crea una subnet ipv6 nativa e una subnet ipv4_v6 a doppio stack in VPC1
gcloud compute networks subnets create vpc1-ipv6-sn1 \
--network=vpc-ncc1 \
--stack-type=IPV6_ONLY \
--ipv6-access-type=INTERNAL \
--region=us-central1
gcloud compute networks subnets create vpc1-ipv64-sn2 \
--network=vpc-ncc1 \
--range=10.10.10.0/24 \
--stack-type=IPV4_IPV6 \
--ipv6-access-type=INTERNAL \
--region=us-east1
Crea una subnet ipv6 nativa e una subnet ipv4_v6 a doppio stack in VPC4
gcloud compute networks subnets create vpc4-ipv6-sn1 \
--network=vpc-ncc4 \
--stack-type=IPV6_ONLY \
--ipv6-access-type=INTERNAL \
--region=us-central1
gcloud compute networks subnets create vpc4-ipv64-sn2 \
--network=vpc-ncc4 \
--range=10.40.40.0/24 \
--stack-type=IPV4_IPV6 \
--ipv6-access-type=INTERNAL \
--region=us-east1
In VPC1, crea una regola firewall VPC IPv6 per consentire il traffico proveniente dall'intervallo ULA IPv6.
gcloud compute firewall-rules create allow-icmpv6-ula-ncc1 \
--network=vpc-ncc1 \
--action=allow \
--direction=ingress \
--rules=all \
--source-ranges=fd20::/20
In VPC4, crea una regola firewall VPC IPv6 per consentire il traffico proveniente dall'intervallo ULA IPv6.
gcloud compute firewall-rules create allow-icmpv6-ula-ncc4 \
--network=vpc-ncc4 \
--action=allow \
--direction=ingress \
--rules=all \
--source-ranges=fd20::/20
Crea tre istanze GCE IPv6 per verificare la connettività del percorso dati nella sezione successiva
gcloud compute instances create vpc4-ipv6-vm \
--zone us-central1-a \
--subnet=vpc4-ipv6-sn1 \
--stack-type=IPV6_ONLY
gcloud compute instances create vpc1-ipv6-vm \
--zone us-central1-a \
--subnet=vpc1-ipv6-sn1 \
--stack-type=IPV6_ONLY
gcloud compute instances create vpc1-dual-stack-vm \
--zone us-east1-b \
--network=vpc-ncc1 \
--subnet=vpc2-ipv64-sn2 \
--stack-type=IPV4_IPV6
Controllare l'hub NCC per le subnet IPv6
Controlla la tabella di route dell'hub NCC per le subnet ULA IPv6.
gcloud network-connectivity hubs route-tables routes list --route_table=default \
--hub=ncc-hub \
--filter="IP_CIDR_RANGE:fd20"
Tieni presente che l'output del comando riportato sopra non ha elencato le subnet IPv6. Per impostazione predefinita, le subnet IPv6 degli spoke VPC NON sono incluse per l'esportazione nella tabella di routing dell'hub NCC.
Listed 0 items.
Utilizza i comandi gcloud riportati di seguito per aggiornare i spoke VPC1 e VPC4 in modo da esportare le subnet IPv6 nella tabella delle route dell'hub NCC.
gcloud network-connectivity spokes linked-vpc-network update vpc1-spoke1 \
--global \
--include-export-ranges=ALL_IPV6_RANGES
gcloud network-connectivity spokes linked-vpc-network update vpc4-spoke4 \
--global \
--include-export-ranges=ALL_IPV6_RANGES
Controlla di nuovo la tabella delle route dell'hub NCC per le subnet ULA IPv6.
gcloud network-connectivity hubs route-tables routes list --route_table=default \
--hub=ncc-hub \
--filter="IP_CIDR_RANGE:fd20"
Output di esempio
IP_CIDR_RANGE PRIORITY LOCATION STATE TYPE SITE_TO_SITE NEXT_HOP HUB ROUTE_TABLE
fd20:c95:95d2:1:0:0:0:0/64 us-central1 ACTIVE VPC_PRIMARY_SUBNET N/A vpc-ncc4 ncc-hub default
fd20:90:6768:1000:0:0:0:0/64 us-east1 ACTIVE VPC_PRIMARY_SUBNET N/A vpc-ncc1 ncc-hub default
fd20:c95:95d2:1000:0:0:0:0/64 us-east1 ACTIVE VPC_PRIMARY_SUBNET N/A vpc-ncc4 ncc-hub default
fd20:90:6768:0:0:0:0:0/64 us-central1 ACTIVE VPC_PRIMARY_SUBNET N/A vpc-ncc1 ncc-hub default
9. Verificare la connettività del percorso dei dati
Connettività del percorso dati IPv4
Fai riferimento al diagramma e verifica il percorso dei dati IPv4 tra ogni macchina virtuale.
Accedi tramite SSH a "vm1-vpc1-ncc" e avvia il dump TCP per tracciare i pacchetti ICMP da "vm2-vpc2-ncc". Ti ricordiamo che questa VM si trova in VPC2.
vm1-vpc1-ncc
sudo tcpdump -i any icmp -v -e -n
Stabilisci una sessione SSH con "vm1-vpc2-ncc" ed esegui un "ping" sull'indirizzo IP di "vm1-vpc1-ncc".
vm1-vpc2-ncc
ping 10.1.1.2
Stabilisci una connessione SSH a "vm1-vpc2-ncc" e "ping" l'indirizzo IP di "vm1-vpc4-ncc".
vm1-vpc2-ncc
ping 240.0.0.2
Connettività del percorso dati IPv6
Fai riferimento al diagramma e verifica il percorso dati IP64 tra ogni macchina virtuale.
Utilizza il comando gcloud per elencare l'indirizzo IP di ogni istanza con IPv6 abilitato.
gcloud compute instances list --filter="INTERNAL_IP:fd20"
Esempio di output
NAME ZONE MACHINE_TYPE PREEMPTIBLE INTERNAL_IP EXTERNAL_IP STATUS
vpc1-ipv6-vm us-central1-a n1-standard-1 fd20:90:6768:0:0:1:0:0/96 RUNNING
vpc4-ipv6-vm us-central1-a n1-standard-1 fd20:c95:95d2:1:0:1:0:0/96 RUNNING
vpc1-dual-stack-vm us-east1-b n1-standard-1 10.10.10.3 XXX.196.137.107 RUNNING
fd20:90:6768:1000:0:1:0:0/96
Stabilisci una sessione SSH con "vpc1-dualstack-vm" ed esegui "ping" sull'indirizzo IPv6 di "vpc1-ipv6-vm" per convalidare la connettività IPv6 all'interno di una VPC globale
ping fd20:90:6768:1000:0:1::
Stabilisci una sessione SSH con "vpc1-dualstack-vm" ed esegui "ping" sull'indirizzo IPv6 di "vpc4-ipv6-vm" per convalidare la connettività IPv6 tramite una connessione NCC.
ping fd20:c95:95d2:1:0:1::
10. Esegui la pulizia
Accedi a Cloud Shell ed elimina le istanze VM nelle reti del sito hub e dei siti branch
Eliminare le configurazioni NAT VPC private
gcloud beta compute routers nats rules delete 1 \
--nat=ncc2-nat \
--router=private-nat-cr \
--region=us-central1 \
--quiet
gcloud beta compute routers nats delete ncc2-nat \
--router=private-nat-cr \
--router-region=us-central1 \
--quiet
gcloud compute routers delete private-nat-cr \
--region=us-central1 \
--quiet
Eliminare gli spoke NCC
gcloud network-connectivity spokes delete vpc1-spoke1 --global --quiet
gcloud network-connectivity spokes delete vpc2-spoke2 --global --quiet
gcloud network-connectivity spokes delete vpc3-spoke3 --global --quiet
gcloud network-connectivity spokes delete vpc4-spoke4 --global --quiet
Rifiutare uno spoke tra progetti
Rifiuta lo spoke VPC tra progetti dall'hub NCC.
gcloud network-connectivity spokes reject projects/$xprojname/locations/global/spokes/xproj-spoke \--details="cleanup" \
--global
Eliminare l'hub NCC
gcloud network-connectivity hubs delete ncc-hub --quiet
Eliminare le regole firewall
gcloud compute firewall-rules delete ncc1-vpc-internal --quiet
gcloud compute firewall-rules delete ncc2-vpc-internal --quiet
gcloud compute firewall-rules delete ncc3-vpc-internal --quiet
gcloud compute firewall-rules delete ncc4-vpc-internal --quiet
gcloud compute firewall-rules delete ncc1-vpc-iap --quiet
gcloud compute firewall-rules delete ncc2-vpc-iap --quiet
gcloud compute firewall-rules delete ncc3-vpc-iap --quiet
gcloud compute firewall-rules delete ncc4-vpc-iap --quiet
gcloud compute firewall-rules delete allow-icmpv6-ula-ncc1
gcloud compute firewall-rules delete allow-icmpv6-ula-ncc4
Eliminare le istanze GCE
gcloud compute instances delete vm1-vpc1-ncc --zone=us-central1-a --quiet
gcloud compute instances delete vm2-vpc2-ncc --zone=us-central1-a --quiet
gcloud compute instances delete pnat-vm-vpc2 --zone=us-central1-a --quiet
gcloud compute instances delete vm1-vpc4-ncc --zone=us-east1-b --quiet
gcloud compute instances delete vpc4-ipv6-vm --zone us-central1-a --quiet
gcloud compute instances delete vpc2-dual-stack-vm --zone us-east1-b --quiet
gcloud compute instances delete vpc2-ipv6-vm --zone us-central1-a --quiet
Eliminare le subnet VPC
gcloud compute networks subnets delete ncc2-spoke-nat --region us-central1 --quiet
gcloud compute networks subnets delete vpc1-ncc-subnet1 --region us-central1 --quiet
gcloud compute networks subnets delete vpc1-ncc-subnet2 --region us-central1 --quiet
gcloud compute networks subnets delete vpc1-ncc-subnet3 --region us-central1 --quiet
gcloud compute networks subnets delete vpc2-ncc-subnet1 --region us-central1 --quiet
gcloud compute networks subnets delete overlapping-vpc2 --region us-central1 --quiet
gcloud compute networks subnets delete overlapping-vpc3 --region us-central1 --quiet
gcloud compute networks subnets delete benchmark-testing-rfc2544 --region us-east1 --quiet
gcloud compute networks subnets delete class-e-rfc5735 --region us-east1 --quiet
gcloud compute networks subnets delete ietf-protcol-assignment-rfc6890 --region us-east1 --quiet
gcloud compute networks subnets delete ipv6-4-relay-rfc7526 --region us-east1 --quiet
gcloud compute networks subnets delete pupi --region us-east1 --quiet
gcloud compute networks subnets delete test-net-1-rfc5737 --region us-east1 --quiet
gcloud compute networks subnets delete test-net-2-rfc5737 --region us-east1 --quiet
gcloud compute networks subnets delete test-net-3-rfc5737 --region us-east1 --quiet
gcloud compute networks subnets delete vpc1-ipv64-sn2 --region=us-east1 --quiet
gcloud compute networks subnets delete vpc1-ipv6-sn1 --region=us-central1 --quiet
gcloud compute networks subnets delete vpc4-ipv64-sn2 --region=us-east1 --quiet
gcloud compute networks subnets delete vpc4-ipv6-sn1 --region=us-central1 --quiet
Eliminare i VPC
gcloud compute networks delete vpc1-ncc vpc2-ncc vpc3-ncc vpc4-ncc
--quiet
11. Complimenti!
Hai completato il lab di Network Connectivity Center.
Argomenti trattati
- Rete di peering VPC full mesh configurata con hub NCC
- Filtro di esclusione per spoke NCC
- Assistenza per gli spoke tra progetti
- Private NAT tra VPC
Passaggi successivi
©Google, LLC o le sue società consociate. Tutti i diritti riservati. Distribuzione vietata.