1. Introduzione
Panoramica
In questo lab esplorerai alcune delle funzionalità di Network Connectivity Center.
Network Connectivity Center (NCC) è un modello di piano di controllo hub and spoke per la gestione della connettività di rete in Google Cloud. La risorsa hub fornisce un modello di gestione della connettività centralizzata per collegare gli spoke. Al momento, NCC supporta le seguenti risorse di rete come spoke:
- Collegamenti VLAN
- Appliance router
- VPN ad alta disponibilità
I codelab richiedono l'utilizzo della soluzione SD-WAN SaaS flexiWAN che semplifica il deployment e la gestione della WAN.
Cosa creerai
In questo codelab, creerai una topologia SD-WAN hub and spoke per simulare siti di filiali remote che attraverseranno la rete backbone di Google per la comunicazione tra il sito e il cloud.
- Eseguirai il deployment di una coppia di VM GCE configurate per l'agente SD-WAN flexiWAN nella VPC hub che rappresenta gli headend per il traffico in entrata e in uscita verso Google Cloud.
- Esegui il deployment di due router SD-WAN flexiWAN remoti per rappresentare due diversi VPC dei siti branch
- Per i test del percorso dati, configurerai tre VM GCE da simulare su client e server on prem ospitati su Google Cloud
Cosa imparerai a fare
- Utilizzo di NCC per interconnettere filiali remote utilizzando una soluzione WAN software-defined open source
- Esperienza pratica con una soluzione WAN software-defined open source
Che cosa ti serve
- Conoscenza della rete VPC Google Cloud
- Conoscenza del router Cloud e del routing BGP
2. Obiettivi
- Configura l'ambiente Google Cloud
- Esegui il deployment di istanze flexiWAN Edge in Google Cloud
- Crea un hub NCC e un NVA flexiWAN Edge come spoke
- Configura e gestisci le istanze flexiWAN utilizzando flexiManage
- Configura lo scambio di route BGP tra vpc-app-svcs e l'NVA flexiWAN
- Crea un sito remoto che simuli un ufficio remoto del cliente o un data center
- Stabilisci un tunnel IPSEC tra il sito remoto e l'NVA
- Verificare che le appliance siano state implementate correttamente
- Convalida del trasferimento dei dati dal sito al cloud
- Ripulire le risorse utilizzate
Questo tutorial richiede la creazione di un account flexiManage senza costi per autenticare, eseguire l'onboarding e gestire le istanze flexiEdge.
Prima di iniziare
Utilizzo della console Google Cloud e di Cloud Shell
Per interagire con Google Cloud, utilizzeremo sia la console Google Cloud che Cloud Shell durante questo lab.
Google Cloud Console
Puoi accedere alla console Cloud all'indirizzo https://console.cloud.google.com.
Configura i seguenti elementi in Google Cloud per semplificare la configurazione di Network Connectivity Center:
Nella console Google Cloud, nella pagina di selezione del progetto, seleziona o crea un progetto Google Cloud.
Avvia Cloud Shell. Questo Codelab utilizza le variabili $per facilitare l'implementazione della configurazione di gcloud in Cloud Shell.
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=[YOUR-PROJECT-NAME]
echo $projectname
Ruoli IAM
NCC richiede i ruoli IAM per accedere ad API specifiche. Assicurati di configurare l'utente con i ruoli IAM NCC come richiesto.
Nome ruolo | Descrizione | Autorizzazioni |
networkconnectivity.networkAdmin | Consente agli amministratori di rete di gestire hub e spoke. | networkconnectivity.hubs.networkconnectivity.spokes. |
networkconnectivity.networkSpokeManager | Consente di aggiungere e gestire gli spoke in un hub. Da utilizzare in VPC condiviso in cui il progetto host è proprietario dell'hub, ma altri amministratori in altri progetti possono aggiungere spoke per i propri allegati all'hub. | networkconnectivity.spokes.** |
networkconnectivity.networkUsernetworkconnectivity.networkViewer | Consente agli utenti della rete di visualizzare diversi attributi di hub e spoke. | networkconnectivity.hubs.getnetworkconnectivity.hubs.listnetworkconnectivity.spokes.getnetworkconnectivity.spokes.listnetworkconnectivity.spokes.aggregatedList |
3. Configurare l'ambiente del lab di rete
Panoramica
In questa sezione eseguiremo il deployment delle reti VPC e delle regole firewall.
Simula le reti dei siti branch on-premise
Questa rete VPC contiene subnet per le istanze VM on-premise.
Crea le reti e le subnet dei siti on-premise:
gcloud compute networks create site1-vpc \
--subnet-mode custom
gcloud compute networks create s1-inside-vpc \
--subnet-mode custom
gcloud compute networks subnets create site1-subnet \
--network site1-vpc \
--range 10.10.0.0/24 \
--region us-central1
gcloud compute networks subnets create s1-inside-subnet \
--network s1-inside-vpc \
--range 10.10.1.0/24 \
--region us-central1
Crea regole firewall per site1-vpc per consentire:
- SSH, interno, IAP
- ESP, UDP/500, UDP/4500
- Intervallo 10.0.0.0/8
- Intervallo 192.168.0.0/16
gcloud compute firewall-rules create site1-ssh \--network site1-vpc \
--allow tcp:22
gcloud compute firewall-rules create site1-internal \
--network site1-vpc \
--allow all \
--source-ranges 10.0.0.0/8
gcloud compute firewall-rules create site1-cloud \
--network site1-vpc \
--allow all \
--source-ranges 192.168.0.0/16
gcloud compute firewall-rules create site1-vpn \
--network site1-vpc \
--allow esp,udp:500,udp:4500 \
--target-tags router
gcloud compute firewall-rules create site1-iap \
--network site1-vpc --allow tcp:22 --source-ranges=35.235.240.0/20
Crea regole firewall s1-inside-vpc per consentire:
- SSH, interno, IAP
- Intervallo 10.0.0.0/8
- Intervallo 192.168.0.0/16
gcloud compute firewall-rules create s1-inside-ssh \
--network s1-inside-vpc \
--allow tcp:22
gcloud compute firewall-rules create s1-inside-internal \
--network s1-inside-vpc \
--allow all \
--source-ranges 10.0.0.0/8
gcloud compute firewall-rules create s1-inside-cloud \
--network s1-inside-vpc \
--allow all \
--source-ranges 192.168.0.0/16
gcloud compute firewall-rules create s1-inside-iap \
--network site2-vpc --allow tcp:22 --source-ranges=35.235.240.0/20
A scopo di test, crea le istanze s1-inside-vm
e s2-inside-vm
gcloud compute instances create s1-vm \
--zone=us-central1-a \
--machine-type=e2-micro \
--network-interface subnet=s1-inside-subnet,private-network-ip=10.10.1.3,no-address
Simulare l'ambiente di rete cloud Google
Per attivare il traffico site-to-site tra regioni tramite la rete hub-vpc
e gli spoke, devi abilitare l'instradamento globale nella rete hub-vpc
. Scopri di più sullo scambio di route di NCC.
- Crea la rete e le subnet
hub-vpc
:
gcloud compute networks create hub-vpc \
--subnet-mode custom \
--bgp-routing-mode=global
gcloud compute networks subnets create hub-subnet1 \
--network hub-vpc \
--range 10.1.0.0/24 \
--region us-central1
gcloud compute networks subnets create hub-subnet2 \
--network hub-vpc \
--range 10.2.0.0/24 \
--region us-east4
- Crea la rete e le subnet
workload-vpc
:
gcloud compute networks create workload-vpc \
--subnet-mode custom \
--bgp-routing-mode=global
gcloud compute networks subnets create workload-subnet1 \
--network workload-vpc \
--range 192.168.235.0/24 \
--region us-central1
- Crea regole firewall Hub-VPC per consentire:
- SSH
- ESP, UDP/500, UDP/4500
- intervallo interno 10.0.0.0/8 (che copre la porta TCP 179 richiesta per la sessione BGP dal router Cloud all'appliance router)
gcloud compute firewall-rules create hub-ssh \
--network hub-vpc \
--allow tcp:22
gcloud compute firewall-rules create hub-vpn \
--network hub-vpc \
--allow esp,udp:500,udp:4500 \
--target-tags router
gcloud compute firewall-rules create hub-internal \
--network hub-vpc \
--allow all \
--source-ranges 192.168.0.0/16
gcloud compute firewall-rules create hub-iap \
--network hub-vpc --allow tcp:22 --source-ranges=35.235.240.0/20
- Crea regole firewall Workload-VPC per consentire:
- SSH
- intervallo interno 192.168.0.0/16 (che copre la porta TCP 179 richiesta per la sessione BGP dal router cloud all'appliance router)
gcloud compute firewall-rules create workload-ssh \
--network workload-vpc \
--allow tcp:22
gcloud compute firewall-rules create workload-internal \
--network workload-vpc \
--allow all \
--source-ranges 192.168.0.0/16
gcloud compute firewall-rules create workload-onprem \
--network hub-vpc \
--allow all \
--source-ranges 10.0.0.0/8
gcloud compute firewall-rules create workload-iap \
--network workload-vpc --allow tcp:22 --source-ranges=35.235.240.0/20
- Attiva Cloud NAT nel VPC del workload per consentire alla VM workload1 di scaricare i pacchetti creando un router cloud e un gateway NAT
gcloud compute routers create cloud-router-usc-central-1-nat \
--network workload-vpc \
--region us-central1
gcloud compute routers nats create cloudnat-us-central1 \
--router=cloud-router-usc-central-1-nat \
--auto-allocate-nat-external-ips \
--nat-all-subnet-ip-ranges \
--region us-central1
- Crea
workload1-vm
in "us-central1-a" in
workload-VPC
, che utilizzerai per verificare la connettività del sito al cloud
gcloud compute instances create workload1-vm \
--project=$projectname \
--machine-type=e2-micro \
--image-family debian-10 \
--image-project debian-cloud \
--zone us-central1-a \
--private-network-ip 192.168.235.3 \
--no-address \
--subnet=workload-subnet1 \
--metadata startup-script="#! /bin/bash
sudo apt-get update
sudo apt-get install apache2 -y
sudo service apache2 restart
echo 'Welcome to Workload VM1 !!' | tee /var/www/html/index.html
EOF"
4. Configurare le appliance on-premise per SD-WAN
Crea la VM on-prem per SD-WAN (appliance)
Nella sezione seguente, creeremo site1-nva che fungerà da router on-premise.
Creazione istanze
Crea l'appliance site1-router
denominata site1-nva
gcloud compute instances create site1-nva \
--zone=us-central1-a \
--machine-type=e2-medium \
--network-interface subnet=site1-subnet \
--network-interface subnet=s1-inside-subnet,no-address \
--create-disk=auto-delete=yes,boot=yes,device-name=flex-gcp-nva-1,image=projects/ubuntu-os-cloud/global/images/ubuntu-1804-bionic-v20220901,mode=rw,size=20,type=projects/$projectname/zones/us-central1-a/diskTypes/pd-balanced \
--no-shielded-secure-boot \
--shielded-vtpm \
--shielded-integrity-monitoring \
--reservation-affinity=any \
--can-ip-forward
5. Installa flexiWAN su site1-nva
Apri una connessione SSH a site1-nva. Se si verifica un timeout, riprova.
gcloud compute ssh site1-nva --zone=us-central1-a
Installa flexiWAN su site1-nva
sudo su
sudo curl -sL https://deb.flexiWAN.com/setup | sudo bash -
apt install flexiWAN-router -y
Prepara la VM per la registrazione del piano di controllo flexiWAN.
Al termine dell'installazione di flexiWAN, esegui il comando fwsystem_checker per preparare la VM al funzionamento di flexiWAN. Questo comando controlla i requisiti di sistema e aiuta a correggere gli errori di configurazione nel sistema.
- Seleziona l'opzione
2
per una configurazione rapida e silenziosa - esci con 0.
- Non chiudere la finestra di Cloud Shell.
root@site-1-nva-1:/home/user# fwsystem_checker <output snipped> [0] - quit and use fixed parameters 1 - check system configuration 2 - configure system silently 3 - configure system interactively 4 - restore system checker settings to default ------------------------------------------------ Choose: 2 <output snipped> [0] - quit and use fixed parameters 1 - check system configuration 2 - configure system silently 3 - configure system interactively 4 - restore system checker settings to default ------------------------------------------------ Choose: 0 Please wait.. Done. === system checker ended ====
Lascia aperta la sessione per i passaggi successivi
6. Registra site1-nva con il controller SD-WAN
Questi passaggi sono necessari per completare il provisioning dell'NVA flexiWAN, che viene amministrato dalla console flexiManage. Prima di procedere, assicurati che l'organizzazione flexiWAN sia configurata.
Autentica l'NVA flexiWAN appena dispiegato con flexiManage utilizzando un token di sicurezza accedendo all'account flexiManage. Lo stesso token può essere riutilizzato in tutti gli appliance router.
Seleziona Inventario → Token,crea un token e seleziona Copia
Torna a Cloud Shell (site1-nva) e incolla il token nella directory /etc/flexiWAN/agent/token.txt eseguendo quanto segue
nano /etc/flexiWAN/agent/token.txt
#Paste the generated token obtain from flexiManage
#Exit session with CTRL+X and Select Y to save then enter
Attivare i router del sito nella console flexiManage
Accedi alla console flexiManage per attivare il sito1-nva sul controller
Nel riquadro a sinistra, seleziona Inventario → Dispositivi, fai clic sul dispositivo "Sconosciuto".
Inserisci il nome host di site1-nva e approva il dispositivo facendo scorrere il cursore verso destra.
Seleziona la scheda "Interfacce".
Individua la colonna "Assegnato", fai clic su "No" e modifica l'impostazione in "Sì".
Seleziona la scheda Firewall e fai clic sul segno "+" per aggiungere una regola del firewall in entrata.
Seleziona l'interfaccia WAN per applicare la regola SSH come descritto di seguito
Fai clic su "Aggiorna dispositivo".
Avvia il sito1-nva dal controller flexiWAN. Torna a Inventario → Dispositivi → site1-nva seleziona "Avvia dispositivo"
Stato: Sincronizzazione
Stato: Sincronizzato
L'indicatore di avviso è visibile in Risoluzione dei problemi → Notifiche. Dopo averli visualizzati, selezionali tutti e poi contrassegnali come letti
7. Configura gli appliance SD-WAN Hub
Nella sezione seguente creerai e registrerai i router Hub (hub-r1) con il controller flexiWAN come eseguito in precedenza con le route del sito.
Apri una nuova scheda e crea una sessione Cloud Shell, aggiorna le variabili $per facilitare l'implementazione della configurazione gcloud
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=[YOUR-PROJECT-NAME]
echo $projectname
Creare istanze NVA hub
Crea l'appliance hub-r1:
gcloud compute instances create hub-r1 \
--zone=us-central1-a \
--machine-type=e2-medium \
--network-interface subnet=hub-subnet1 \
--network-interface subnet=workload-subnet1,no-address \
--can-ip-forward \
--create-disk=auto-delete=yes,boot=yes,device-name=flex-gcp-nva-1,image=projects/ubuntu-os-cloud/global/images/ubuntu-1804-bionic-v20220901,mode=rw,size=20,type=projects/$projectname/zones/us-central1-a/diskTypes/pd-balanced \
--no-shielded-secure-boot \
--shielded-vtpm \
--shielded-integrity-monitoring \
--reservation-affinity=any
8. Installa flexiWAN sulle istanze Hub per hub-r1
Apri una connessione SSH a hub-r1
gcloud compute ssh hub-r1 --zone=us-central1-a
Installa l'agente flexiWAN su entrambi gli hub-r1
sudo su
sudo curl -sL https://deb.flexiWAN.com/setup | sudo bash -
apt install flexiWAN-router -y
Prepara le VM hub-r1 per la registrazione a flexiWAN.
Al termine dell'installazione di flexiWAN, esegui il comando fwsystem_checker
per preparare la VM al funzionamento di flexiWAN. Questo comando controlla i requisiti di sistema e aiuta a correggere gli errori di configurazione nel sistema.
root@hub-r1:/home/user# fwsystem_checker
- Seleziona l'opzione
2
per una configurazione rapida e silenziosa - esci con 0.
- Non chiudere la finestra di Cloud Shell.
9. Registra le VM hub-r1 sul controller FlexManage
Autentica l'NVA flexiWAN appena dispiegato con flexiManage utilizzando un token di sicurezza accedendo all'account flexiManage.
- Seleziona Inventario → Token e copia il token.
Torna a Cloud Shell (hub-r1) e incolla il token nella directory /etc/flexiWAN/agent/token.txt eseguendo i seguenti passaggi
nano /etc/flexiWAN/agent/token.txt
#Paste the generated token obtain from flexiManage
#Exit session with CTRL+X and Select Y to save then enter
Attiva i router hub hub-r1 nella console flexiManage
Accedi alla console flexiManage
- Vai a Inventario → Dispositivi.
- Individua e prendi nota che il nome host per hub-r1 è "unknown"
Seleziona il dispositivo sconosciuto con il nome host hub-r1
- Inserisci il nome host di hub-r1
- Approva il dispositivo, fai scorrere il cursore verso destra.
Seleziona la scheda Interfacce.
- Trova la colonna "Assegnato"
- Accanto alla riga dell'interfaccia, fai clic su "No" per impostare l'opzione su "Sì".
Seleziona la scheda Firewall.
- Fai clic su "+" per aggiungere una regola firewall in entrata
- Seleziona l'interfaccia WAN a cui ereditare la regola
- Consenti la porta SSH 22 con il protocollo TCP
- Fai clic su "Aggiorna dispositivo".
Avvia l'appliance hub-r1 per SD-WAN dal controller di flexiWAN
- Torna a Inventario → Dispositivi → hub-r1
Seleziona "Avvia dispositivo".
- Attendi il completamento della sincronizzazione e prendi nota dello stato "in esecuzione".
10. Network Connectivity Center nell'hub Google Cloud
Abilita i servizi API
Se non è ancora abilitata, abilita l'API Network Connectivity:
gcloud services enable networkconnectivity.googleapis.com
Crea l'hub NCC
gcloud network-connectivity hubs create ncc-hub
Create request issued for: [ncc-hub]
Waiting for operation [projects/user-3p-dev/locations/global/operations/operation-1668793629598-5edc24b7ee3ce-dd4c765b-5ca79556] to complete...done.
Created hub [ncc-hub]
Configura entrambe le appliance router come spoke NCC
Individua l'URI e l'indirizzo IP di entrambi gli hub-r1 e prendi nota dell'output. Avrai bisogno di queste informazioni nel passaggio successivo.
Assicurati di annotare l'indirizzo IP dell'istanza hub-r1.
gcloud compute instances describe hub-r1 \
--zone=us-central1-a \
--format="value(selfLink.scope(projects))"
gcloud compute instances describe hub-r1 --zone=us-central1-a | grep "networkIP"
Aggiungi il vnic networkIP
di hub-r1 come spoke. Per impostazione predefinita, il trasferimento di dati site-to-site è disattivato.
gcloud network-connectivity spokes linked-router-appliances create s2c-wrk-cr1 \
--hub=ncc-hub \
--router-appliance=instance="https://www.googleapis.com/compute/projects/$projectname/zones/us-central1-a/instances/hub-r1",ip=192.168.235.4 \
--region=us-central1 \
--site-to-site-data-transfer
Configura il router Cloud per stabilire BGP con Hub-R1
Nel passaggio successivo, crea il router Cloud e annuncia la subnet VPC del workload 192.168.235.0/24
Crea il router Cloud in us-central1 che comunicherà con BGP con hub-r1
gcloud compute routers create wrk-cr1 \
--region=us-central1 \
--network=workload-vpc \
--asn=65002 \
--set-advertisement-groups=all_subnets
La configurazione delle appliance router come spoke NCC consente al router cloud di negoziare BGP sulle interfacce virtuali.
Crea due interfacce sul router cloud che scambieranno messaggi BGP con hub-r1.
Gli indirizzi IP vengono selezionati dalla subnet del workload e possono essere modificati se necessario.
gcloud compute routers add-interface wrk-cr1 \
--region=us-central1 \
--subnetwork=workload-subnet1 \
--interface-name=int0 \
--ip-address=192.168.235.101
gcloud compute routers add-interface wrk-cr1 \
--region=us-central1 \
--subnetwork=workload-subnet1 \
--interface-name=int1 \
--ip-address=192.168.235.102 \
--redundant-interface=int0
Configura l'interfaccia del router Cloud per stabilire il BGP con la vNIC-1 di hub-r1, aggiorna l'indirizzo IP peer con l'indirizzo IP della rete hub-r1. Tieni presente che viene utilizzato lo stesso indirizzo IP per int0 e int1.
gcloud compute routers add-bgp-peer wrk-cr1 \
--peer-name=hub-cr1-bgp-peer-0 \
--interface=int0 \
--peer-ip-address=192.168.235.4 \
--peer-asn=64111 \
--instance=hub-r1 \
--instance-zone=us-central1-a \
--region=us-central1
gcloud compute routers add-bgp-peer wrk-cr1 \
--peer-name=hub-cr1-bgp-peer-1 \
--interface=int1 \
--peer-ip-address=192.168.235.4 \
--peer-asn=64111 \
--instance=hub-r1 \
--instance-zone=us-central1-a \
--region=us-central1
Verifica lo stato BGP. A questo punto del lab di codice, BGP è in "stato di connessione" perché l'appliance router di rete non è stata configurata per BGP.
gcloud compute routers get-status wrk-cr1 --region=us-central1
11. Configura le appliance router Hub per BGP
Configura hub-r1 per BGP
Assicurati di accedere alla console flexiManage
Vai a Inventario → Dispositivi → hub-r1 e seleziona il dispositivo con HostName:hub-r1
- Fai clic sulla scheda "Routing".
- Fai clic su "Configurazione BGP".
- Disattiva "Ridistribuisci route OSPF"
- Configura hub-r1 per BGP con questi parametri e fai clic su "Salva".
Seleziona la scheda "Interfacce", individua l'interfaccia LAN e trova la colonna "Routing".
- Fai clic su "nessuno" per aprire il menu e selezionare BGP come protocollo di routing.
- Nella parte superiore della pagina, fai clic su "Aggiorna dispositivo".
12. Scambio di route BGP tra appliance router
Stabilire l'ASN locale per i siti remoti
Configura un ASN BGP locale per il sito1-nva. Una volta configurato, stabiliremo un tunnel IPSEC tra i siti remoti e i router hub.
Seleziona il dispositivo con HostName:site1-nva
- Fai clic sulla scheda "Routing".
- Fai clic su "Configurazione BGP".
- Disattiva "Ridistribuisci route OSPF"
- ASN locale 7269 → Salva
- Aggiorna dispositivo
- Scheda Interfacce → Routing → BGP
- Aggiorna dispositivo
Configura i tunnel VPN tra gli appliance Site1 e Hub1
Assicurati di accedere alla console flexiManage
- Vai a Inventario → Dispositivi.
- Seleziona la casella accanto al nome host di site1-nva e hub-r1 per creare un tunnel VPN tra questa coppia di NVA.
- Fai clic su Azioni → Crea tunnel e configura quanto segue
- Seleziona Crea tunnel.
Verifica che "site1-nva" abbia appreso i route per le subnet 192.168.235.0/24 e 192.168.236.0/24
- Seleziona Inventario → Dispositivi → site1-nva e fai clic sulla scheda "Routing".
Nell'esempio di output riportato di seguito, flexiWAN ha creato automaticamente il tunnel utilizzando l'indirizzo IP dell'host 10.100.0.6
13. Verificare la connettività del percorso dei dati
Verifica la connettività del sito al cloud da on-prem
Fai riferimento al diagramma. Verifica che il percorso dei dati tra s1-vm e workload1-vm
Configura le route statiche VPC per il sito al cloud
Site1-VPC on-premise simula una rete di data center on-premise.
Entrambe le appliance router Site-1-nva utilizzano la connettività VPN per raggiungere la rete dell'hub.
Per il caso d'uso del sito al cloud**,** crea route statiche per la destinazione 192.168.0.0/16 utilizzando l'appliance router come hop successivo per raggiungere le reti nella rete cloud Google Cloud.
In s1-inside-vpc,crea una route statica per la destinazione cloud (192.168.0.0/16):
gcloud compute routes create site1-subnet-route \
--network=s1-inside-vpc \
--destination-range=192.168.0.0/16 \
--next-hop-instance=site1-nva \
--next-hop-instance-zone=us-central1-a
In CloudShell, cerca l'indirizzo IP di workload1-vmnee." Ti servirà per testare la connettività da "s1-vm".
gcloud compute instances describe workload1-vm --zone=us-central1-a | grep "networkIP"
Accedi tramite SSH a "s1-vm" e utilizza il comando "curl" per stabilire una sessione TCP con l'indirizzo IP della VM workload1.
s1-vm:~$ curl 192.168.235.3 -vv * Trying 192.168.235.3:80... * Connected to 192.168.235.3 (192.168.235.3) port 80 (#0) > GET / HTTP/1.1 > Host: 192.168.235.3 > User-Agent: curl/7.74.0 > Accept: */* > * Mark bundle as not supporting multiuse < HTTP/1.1 200 OK < Date: Wed, 07 Dec 2022 15:12:08 GMT < Server: Apache/2.4.54 (Debian) < Last-Modified: Tue, 06 Dec 2022 00:57:46 GMT < ETag: "1f-5ef1e4acfa1d9" < Accept-Ranges: bytes < Content-Length: 31 < Content-Type: text/html < Page served from: workload1-vm * Connection #0 to host 192.168.235.3 left intact
14. Esegui la pulizia
Elimina le risorse on-premise
Accedi a Cloud Shell ed elimina le istanze VM nelle reti del sito hub e dei siti branch
#onprem instances
gcloud compute instances delete s1-vm --zone=us-central1-a --quiet
#delete on prem firewall rules
gcloud compute firewall-rules delete site1-ssh --quiet
gcloud compute firewall-rules delete site1-internal --quiet
gcloud compute firewall-rules delete site1-cloud --quiet
gcloud compute firewall-rules delete site1-vpn --quiet
gcloud compute firewall-rules delete site1-iap --quiet
#delete on prem subnets
gcloud compute networks subnets delete site1-subnet --quiet
gcloud compute networks subnets delete s1-inside-subnet --quiet
gcloud compute networks subnets delete s1-inside-subnet --quiet
#delete on prem vpcs
gcloud compute networks delete site1-vpc --quiet
gcloud compute networks delete s1-inside-vpc --quiet
Elimina le risorse Cloud Hub
Accedi a Cloud Shell ed elimina le istanze VM nelle reti del sito hub e dei siti branch
#delete ncc spokes
gcloud network-connectivity spokes delete s2c-wrk-cr1 --region us-central1 --quiet
#delete ncc hub
gcloud network-connectivity hubs delete ncc-hub --quiet
#delete hub instances
gcloud compute instances delete hub-r1 --zone=us-central1-a --quiet
#delete hub firewall rule
gcloud compute firewall-rules delete hub-ssh --quiet
gcloud compute firewall-rules delete hub-vpn --quiet
gcloud compute firewall-rules delete hub-internal --quiet
gcloud compute firewall-rules delete hub-iap --quiet
gcloud compute firewall-rules create workload-ssh --quiet
gcloud compute firewall-rules create workload-internal --quiet
gcloud compute firewall-rules create workload-onprem --quiet
gcloud compute firewall-rules create workload-iap --quiet
#delete hub subnets
gcloud compute networks subnets delete workload-subnet1 --quiet
gcloud compute networks subnets delete hub-subnet1 --quiet
#delete hub vpcs
gcloud compute networks delete workload-vpc --quiet
gcloud compute networks delete hub-vpc --quiet
15. Complimenti!
Hai completato il lab di Network Connectivity Center.
Argomenti trattati
- È stata configurata l'integrazione di Software-Defined WAN per il sito NCC con il cloud
Passaggi successivi
- Panoramica di Network Connectivity Center
- Documentazione di Network Connectivity Center
- Risorse flexiWAN
- Repository GitLab di flexiWAN
©Google, LLC o le sue società consociate. Tutti i diritti riservati. Distribuzione vietata.