1. Introducción
Descripción general
En este lab, explorarás algunas de las funciones de Network Connectivity Center.
Network Connectivity Center (NCC) es un modelo de plano de control de concentrador y radio para administrar la conectividad de red en Google Cloud. El recurso de concentrador proporciona un modelo de administración de conectividad centralizado para conectar radios. Actualmente, NCC admite los siguientes recursos de red como radios:
- Adjuntos de VLAN
- Dispositivos del router
- VPN con alta disponibilidad
Los codelabs requieren el uso de la solución de SD-WAN de flexiWAN SaaS que simplifica la implementación y la administración de WAN.
Qué compilarás
En este codelab, compilarás una topología de SD-WAN de concentrador y radio para simular sitios de sucursales remotas que atravesarán la red troncal de Google para la comunicación del sitio a la nube.
- Implementarás un par de VMs de GCE configuradas para el agente de SD-WAN de flexiWAN en la VPC central que representa los extremos para el tráfico entrante y saliente a GCP.
- Implementa dos routers SD-WAN flexiWAN remotos para representar dos VPC de sitios de sucursales diferentes
- Para las pruebas de la ruta de datos, configurarás tres VMs de GCE para simular clientes y servidores locales alojados en GCP.
Qué aprenderás
- Usa NCC para interconectar sucursales remotas con una solución de WAN definida por software de código abierto
- Experiencia práctica con una solución de WAN definida por software de código abierto
Requisitos
- Conocimientos de la red de VPC de GCP
- Conocimientos de Cloud Router y enrutamiento de BGP
2. Objetivos
- Configura el entorno de GCP
- Implementa instancias de flexiWAN Edge en GCP
- Establece un concentrador de NCC y un NVA de Edge de flexiWAN como un radio
- Configura y administra instancias de flexiWAN con flexiManage
- Configura el intercambio de rutas de BGP entre vpc-app-svcs y la NVA de flexiWAN
- Crea un sitio remoto que simule una sucursal remota de un cliente o un centro de datos
- Establece un túnel IPsec entre el sitio remoto y la NVA
- Verifica que los dispositivos se hayan implementado correctamente
- Valida la transferencia de datos del sitio a la nube
- Limpia los recursos utilizados
Para realizar este instructivo, debes crear una cuenta de flexiManage gratuita para autenticar, integrar y administrar instancias de flexiEdge.
Antes de comenzar
Usa la consola de Google Cloud y Cloud Shell
Para interactuar con GCP, usaremos la consola de Google Cloud y Cloud Shell a lo largo de este lab.
Google Cloud Console
Puedes acceder a la consola de Cloud en https://console.cloud.google.com.
Configura los siguientes elementos en Google Cloud para facilitar la configuración de Network Connectivity Center:
En la página del selector de proyectos de Google Cloud Console, selecciona o crea un proyecto de Google Cloud.
Inicia Cloud Shell. En este codelab, se usan $variables para ayudar a implementar la configuración de gcloud en Cloud Shell.
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=[YOUR-PROJECT-NAME]
echo $projectname
Funciones de IAM
NCC requiere roles de IAM para acceder a APIs específicas. Asegúrate de configurar al usuario con los roles de IAM de NCC según sea necesario.
Nombre del rol | Descripción | Permisos |
networkconnectivity.networkAdmin | Permite que los administradores de red administren concentradores y radios. | networkconnectivity.hubs.networkconnectivity.spokes. |
networkconnectivity.networkSpokeManager | Permite agregar y administrar radios en un concentrador. Se usa en la VPC compartida, en la que el proyecto host es propietario del concentrador, pero otros administradores de otros proyectos pueden agregar radios para sus archivos adjuntos al concentrador. | networkconnectivity.spokes.** |
networkconnectivity.networkUsernetworkconnectivity.networkViewer | Permite que los usuarios de la red vean diferentes atributos de los nodos y los radios. | networkconnectivity.hubs.getnetworkconnectivity.hubs.listnetworkconnectivity.spokes.getnetworkconnectivity.spokes.listnetworkconnectivity.spokes.aggregatedList |
3. Configura el entorno del lab de red
Descripción general
En esta sección, implementaremos las redes de VPC y las reglas de firewall.
Simula las redes de los sitios de sucursales locales
Esta red de VPC contiene subredes para instancias de VM locales.
Crea las redes y subredes del sitio local:
gcloud compute networks create site1-vpc \
--subnet-mode custom
gcloud compute networks create s1-inside-vpc \
--subnet-mode custom
gcloud compute networks subnets create site1-subnet \
--network site1-vpc \
--range 10.10.0.0/24 \
--region us-central1
gcloud compute networks subnets create s1-inside-subnet \
--network s1-inside-vpc \
--range 10.10.1.0/24 \
--region us-central1
Crea reglas de firewall de site1-vpc para permitir lo siguiente:
- SSH, interno, IAP
- ESP, UDP/500, UDP/4500
- Rango 10.0.0.0/8
- Rango 192.168.0.0/16
gcloud compute firewall-rules create site1-ssh \--network site1-vpc \
--allow tcp:22
gcloud compute firewall-rules create site1-internal \
--network site1-vpc \
--allow all \
--source-ranges 10.0.0.0/8
gcloud compute firewall-rules create site1-cloud \
--network site1-vpc \
--allow all \
--source-ranges 192.168.0.0/16
gcloud compute firewall-rules create site1-vpn \
--network site1-vpc \
--allow esp,udp:500,udp:4500 \
--target-tags router
gcloud compute firewall-rules create site1-iap \
--network site1-vpc --allow tcp:22 --source-ranges=35.235.240.0/20
Crea reglas de firewall s1-inside-vpc para permitir lo siguiente:
- SSH, interno, IAP
- Rango 10.0.0.0/8
- Rango 192.168.0.0/16
gcloud compute firewall-rules create s1-inside-ssh \
--network s1-inside-vpc \
--allow tcp:22
gcloud compute firewall-rules create s1-inside-internal \
--network s1-inside-vpc \
--allow all \
--source-ranges 10.0.0.0/8
gcloud compute firewall-rules create s1-inside-cloud \
--network s1-inside-vpc \
--allow all \
--source-ranges 192.168.0.0/16
gcloud compute firewall-rules create s1-inside-iap \
--network site2-vpc --allow tcp:22 --source-ranges=35.235.240.0/20
Para realizar pruebas, crea las instancias s1-inside-vm
y s2-inside-vm
.
gcloud compute instances create s1-vm \
--zone=us-central1-a \
--machine-type=e2-micro \
--network-interface subnet=s1-inside-subnet,private-network-ip=10.10.1.3,no-address
Cómo simular el entorno de red de Cloud de GCP
Para habilitar el tráfico entre sitios de múltiples regiones a través de la red de hub-vpc
y los radios, debes habilitar el enrutamiento global en la red de hub-vpc
. Obtén más información sobre el intercambio de rutas de NCC.
- Crea una red y subredes de
hub-vpc
:
gcloud compute networks create hub-vpc \
--subnet-mode custom \
--bgp-routing-mode=global
gcloud compute networks subnets create hub-subnet1 \
--network hub-vpc \
--range 10.1.0.0/24 \
--region us-central1
gcloud compute networks subnets create hub-subnet2 \
--network hub-vpc \
--range 10.2.0.0/24 \
--region us-east4
- Crea una red y subredes de
workload-vpc
:
gcloud compute networks create workload-vpc \
--subnet-mode custom \
--bgp-routing-mode=global
gcloud compute networks subnets create workload-subnet1 \
--network workload-vpc \
--range 192.168.235.0/24 \
--region us-central1
- Crea reglas de firewall de Hub-VPC para permitir lo siguiente:
- SSH
- ESP, UDP/500, UDP/4500
- rango interno 10.0.0.0/8 (que abarca el puerto TCP 179 necesario para la sesión de BGP del router en la nube al dispositivo de router)
gcloud compute firewall-rules create hub-ssh \
--network hub-vpc \
--allow tcp:22
gcloud compute firewall-rules create hub-vpn \
--network hub-vpc \
--allow esp,udp:500,udp:4500 \
--target-tags router
gcloud compute firewall-rules create hub-internal \
--network hub-vpc \
--allow all \
--source-ranges 192.168.0.0/16
gcloud compute firewall-rules create hub-iap \
--network hub-vpc --allow tcp:22 --source-ranges=35.235.240.0/20
- Crea reglas de firewall de Workload-VPC para permitir lo siguiente:
- SSH
- rango interno 192.168.0.0/16 (que abarca el puerto TCP 179 necesario para la sesión de BGP del router en la nube al dispositivo de router)
gcloud compute firewall-rules create workload-ssh \
--network workload-vpc \
--allow tcp:22
gcloud compute firewall-rules create workload-internal \
--network workload-vpc \
--allow all \
--source-ranges 192.168.0.0/16
gcloud compute firewall-rules create workload-onprem \
--network hub-vpc \
--allow all \
--source-ranges 10.0.0.0/8
gcloud compute firewall-rules create workload-iap \
--network workload-vpc --allow tcp:22 --source-ranges=35.235.240.0/20
- Habilita Cloud NAT en la VPC de la carga de trabajo para permitir que workload1-vm descargue paquetes creando un Cloud Router y una puerta de enlace de NAT
gcloud compute routers create cloud-router-usc-central-1-nat \
--network workload-vpc \
--region us-central1
gcloud compute routers nats create cloudnat-us-central1 \
--router=cloud-router-usc-central-1-nat \
--auto-allocate-nat-external-ips \
--nat-all-subnet-ip-ranges \
--region us-central1
- Crea el
workload1-vm
in "us-central1-a" in
workload-VPC
. Usarás este host para verificar la conectividad del sitio a la nube.
gcloud compute instances create workload1-vm \
--project=$projectname \
--machine-type=e2-micro \
--image-family debian-10 \
--image-project debian-cloud \
--zone us-central1-a \
--private-network-ip 192.168.235.3 \
--no-address \
--subnet=workload-subnet1 \
--metadata startup-script="#! /bin/bash
sudo apt-get update
sudo apt-get install apache2 -y
sudo service apache2 restart
echo 'Welcome to Workload VM1 !!' | tee /var/www/html/index.html
EOF"
4. Cómo configurar dispositivos locales para SD-WAN
Crea la VM local para SDWAN (dispositivos)
En la siguiente sección, crearemos site1-nva que actuará como routers locales.
Crear instancias
Crea el dispositivo site1-router
llamado site1-nva.
gcloud compute instances create site1-nva \
--zone=us-central1-a \
--machine-type=e2-medium \
--network-interface subnet=site1-subnet \
--network-interface subnet=s1-inside-subnet,no-address \
--create-disk=auto-delete=yes,boot=yes,device-name=flex-gcp-nva-1,image=projects/ubuntu-os-cloud/global/images/ubuntu-1804-bionic-v20220901,mode=rw,size=20,type=projects/$projectname/zones/us-central1-a/diskTypes/pd-balanced \
--no-shielded-secure-boot \
--shielded-vtpm \
--shielded-integrity-monitoring \
--reservation-affinity=any \
--can-ip-forward
5. Instala flexiWAN en site1-nva
Abre una conexión SSH a site1-nva. Si se agota el tiempo de espera, vuelve a intentarlo.
gcloud compute ssh site1-nva --zone=us-central1-a
Instala flexiWAN en site1-nva
sudo su
sudo curl -sL https://deb.flexiWAN.com/setup | sudo bash -
apt install flexiWAN-router -y
Prepara la VM para el registro del plano de control de flexiWAN.
Una vez que se complete la instalación de flexiWAN, ejecuta el comando fwsystem_checker para preparar la VM para el funcionamiento de flexiWAN. Este comando verifica los requisitos del sistema y ayuda a corregir errores de configuración.
- Selecciona la opción
2
para una configuración rápida y silenciosa. - y, luego, sal con 0.
- No cierres la ventana de Cloud Shell.
root@site-1-nva-1:/home/user# fwsystem_checker <output snipped> [0] - quit and use fixed parameters 1 - check system configuration 2 - configure system silently 3 - configure system interactively 4 - restore system checker settings to default ------------------------------------------------ Choose: 2 <output snipped> [0] - quit and use fixed parameters 1 - check system configuration 2 - configure system silently 3 - configure system interactively 4 - restore system checker settings to default ------------------------------------------------ Choose: 0 Please wait.. Done. === system checker ended ====
Deja la sesión abierta para los siguientes pasos
6. Registra site1-nva con el controlador de SD-WAN
Estos pasos son necesarios para completar el aprovisionamiento de la NVA de flexiWAN, que se administra desde la consola de flexiManage. Asegúrate de que la organización de flexiWAN esté configurada antes de continuar.
Accede a la cuenta de flexiManage para autenticar el NVA de flexiWAN recién implementado con flexiManage mediante un token de seguridad. Se puede volver a usar el mismo token en todos los dispositivos router.
Selecciona Inventario → Tokens,crea un token y selecciona Copiar.
Regresa a Cloud Shell (site1-nva) y pega el token en el directorio /etc/flexiWAN/agent/token.txt. Para ello, haz lo siguiente:
nano /etc/flexiWAN/agent/token.txt
#Paste the generated token obtain from flexiManage
#Exit session with CTRL+X and Select Y to save then enter
Activa los routers de sitios en la consola de flexiManage
Accede a la consola de flexiManage para activar site1-nva en el controlador.
En el panel izquierdo, selecciona Inventario → Dispositivos y haz clic en el dispositivo "Desconocido".
Ingresa el nombre de host de site1-nva y desliza el dial hacia la derecha para aprobar el dispositivo.
Selecciona la pestaña "Interfaces".
Busca la columna "Asignado", haz clic en "No" y cambia el parámetro de configuración a "Sí".
Selecciona la pestaña Firewall y haz clic en el signo “+” para agregar una regla de firewall entrante.
Selecciona la interfaz WAN para aplicar la regla de SSH como se describe a continuación.
Haz clic en "Actualizar dispositivo".
Inicia el site1-nva desde el controlador flexiWAN. Regresa a Inventario → Dispositivos → site1-nva y selecciona "Iniciar dispositivo".
Estado: Sincronizando
Estado: Sincronizado
Puedes ver el indicador de advertencia en Solución de problemas → Notificaciones. Una vez que los veas, selecciona todos y, luego, márcalos como leídos.
7. Configura dispositivos SD-WAN de Hub
En la siguiente sección, crearás y registrarás los routers de Hub (hub-r1) con el controlador flexiWAN como se ejecutó anteriormente con las rutas del sitio.
Abre una pestaña nueva y crea una sesión de Cloud Shell. Actualiza las $variables para ayudar a la implementación de la configuración de gcloud.
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=[YOUR-PROJECT-NAME]
echo $projectname
Crea instancias de NVA de concentrador
Crea el dispositivo hub-r1:
gcloud compute instances create hub-r1 \
--zone=us-central1-a \
--machine-type=e2-medium \
--network-interface subnet=hub-subnet1 \
--network-interface subnet=workload-subnet1,no-address \
--can-ip-forward \
--create-disk=auto-delete=yes,boot=yes,device-name=flex-gcp-nva-1,image=projects/ubuntu-os-cloud/global/images/ubuntu-1804-bionic-v20220901,mode=rw,size=20,type=projects/$projectname/zones/us-central1-a/diskTypes/pd-balanced \
--no-shielded-secure-boot \
--shielded-vtpm \
--shielded-integrity-monitoring \
--reservation-affinity=any
8. Instala flexiWAN en instancias de Hub para hub-r1
Abre una conexión SSH a hub-r1.
gcloud compute ssh hub-r1 --zone=us-central1-a
Instala el agente de flexiWAN en ambos nodos hub-r1
sudo su
sudo curl -sL https://deb.flexiWAN.com/setup | sudo bash -
apt install flexiWAN-router -y
Prepara las VMs de hub-r1 para el registro de flexiWAN.
Una vez completada la instalación de flexiWAN, ejecuta el comando fwsystem_checker
para preparar la VM para el funcionamiento de flexiWAN. Este comando verifica los requisitos del sistema y ayuda a corregir errores de configuración.
root@hub-r1:/home/user# fwsystem_checker
- Selecciona la opción
2
para una configuración rápida y silenciosa. - y, luego, sal con 0.
- No cierres la ventana de Cloud Shell.
9. Registra las VMs de hub-r1 en el controlador de FlexManage
Accede a la cuenta de flexiManage para autenticar la NVA de flexiWAN recién implementada con flexiManage mediante un token de seguridad.
- Selecciona Inventario → Tokens y copia el token.
Regresa a Cloud Shell (hub-r1) y pega el token en el directorio /etc/flexiWAN/agent/token.txt. Para ello, haz lo siguiente:
nano /etc/flexiWAN/agent/token.txt
#Paste the generated token obtain from flexiManage
#Exit session with CTRL+X and Select Y to save then enter
Activa los routers Hub hub-r1 en la consola de flexiManage
Accede a la consola de flexiManage
- Navega a Inventario → Dispositivos.
- Busca y anota que el nombre de host de hub-r1 es "unknown".
Selecciona el dispositivo desconocido con el nombre de host hub-r1.
- Ingresa el nombre de host de hub-r1.
- Aprueba el dispositivo. Desliza el dial hacia la derecha.
Selecciona la pestaña Interfaces.
- Busca la columna "Asignado".
- Junto a la fila de la interfaz, haz clic en "No" para cambiar el parámetro de configuración a "Sí".
Selecciona la pestaña Firewall.
- Haz clic en “+” para agregar una regla de firewall entrante.
- Selecciona la interfaz WAN para heredar la regla.
- Permite el puerto 22 de SSH con el protocolo TCP
- Haz clic en "Actualizar dispositivo".
Inicia el dispositivo hub-r1 para SD-WAN desde el controlador de flexiWAN.
- Regresa a Inventario → Dispositivos → hub-r1.
Selecciona "Iniciar dispositivo".
- Espera a que se complete la sincronización y observa el estado "running".
10. Network Connectivity Center en GCP Hub
Habilita los servicios de API
Habilita la API de Network Connectivity en caso de que aún no esté habilitada:
gcloud services enable networkconnectivity.googleapis.com
Crea el concentrador de NCC
gcloud network-connectivity hubs create ncc-hub
Create request issued for: [ncc-hub]
Waiting for operation [projects/user-3p-dev/locations/global/operations/operation-1668793629598-5edc24b7ee3ce-dd4c765b-5ca79556] to complete...done.
Created hub [ncc-hub]
Configura ambos dispositivos de router como un radio de NCC
Busca el URI y la dirección IP de hub-r1 y anota el resultado. Necesitarás esta información en el siguiente paso.
Asegúrate de anotar la dirección IP de la instancia de hub-r1.
gcloud compute instances describe hub-r1 \
--zone=us-central1-a \
--format="value(selfLink.scope(projects))"
gcloud compute instances describe hub-r1 --zone=us-central1-a | grep "networkIP"
Agrega el vnic networkIP
de hub-r1 como un radio. De forma predeterminada, la transferencia de datos de sitio a sitio está inhabilitada.
gcloud network-connectivity spokes linked-router-appliances create s2c-wrk-cr1 \
--hub=ncc-hub \
--router-appliance=instance="https://www.googleapis.com/compute/projects/$projectname/zones/us-central1-a/instances/hub-r1",ip=192.168.235.4 \
--region=us-central1 \
--site-to-site-data-transfer
Configura Cloud Router para establecer BGP con Hub-R1
En el siguiente paso, crea el Cloud Router y anuncia la subred de VPC de la carga de trabajo 192.168.235.0/24.
Crea el router en la nube en us-central1 que se comunicará con BGP con hub-r1
gcloud compute routers create wrk-cr1 \
--region=us-central1 \
--network=workload-vpc \
--asn=65002 \
--set-advertisement-groups=all_subnets
Si configuras los dispositivos de router como radios de NCC, el router en la nube podrá negociar BGP en interfaces virtuales.
Crea dos interfaces en el router en la nube que intercambiarán mensajes de BGP con hub-r1.
Las direcciones IP se seleccionan de la subred de la carga de trabajo y se pueden cambiar si es necesario.
gcloud compute routers add-interface wrk-cr1 \
--region=us-central1 \
--subnetwork=workload-subnet1 \
--interface-name=int0 \
--ip-address=192.168.235.101
gcloud compute routers add-interface wrk-cr1 \
--region=us-central1 \
--subnetwork=workload-subnet1 \
--interface-name=int1 \
--ip-address=192.168.235.102 \
--redundant-interface=int0
Configura la interfaz de Cloud Router para establecer BGP con la vNIC-1 de hub-r1, actualiza la dirección IP del par con la dirección IP de la red de hub-r1. Ten en cuenta que se usa la misma dirección IP para int0 e int1.
gcloud compute routers add-bgp-peer wrk-cr1 \
--peer-name=hub-cr1-bgp-peer-0 \
--interface=int0 \
--peer-ip-address=192.168.235.4 \
--peer-asn=64111 \
--instance=hub-r1 \
--instance-zone=us-central1-a \
--region=us-central1
gcloud compute routers add-bgp-peer wrk-cr1 \
--peer-name=hub-cr1-bgp-peer-1 \
--interface=int1 \
--peer-ip-address=192.168.235.4 \
--peer-asn=64111 \
--instance=hub-r1 \
--instance-zone=us-central1-a \
--region=us-central1
Verifica el estado de BGP. En este punto del codelab, BGP está en “estado de conexión” porque el dispositivo router de red no se configuró para BGP.
gcloud compute routers get-status wrk-cr1 --region=us-central1
11. Configura dispositivos de router Hub para BGP
Configura hub-r1 para BGP
Asegúrate de acceder a la consola de flexiManage
Navega a Inventario → Dispositivos → hub-r1 y selecciona el dispositivo con el HostName:hub-r1.
- Haz clic en la pestaña "Enrutamiento".
- Haz clic en “Configuración de BGP”.
- Inhabilita “Redistribuir rutas OSPF”.
- Configura hub-r1 para BGP con estos parámetros y haz clic en "Guardar".
Selecciona la pestaña "Interfaces", busca la interfaz LAN y encuentra la columna "Enrutamiento".
- Haz clic en "none" para abrir el menú y seleccionar BGP como el protocolo de enrutamiento.
- En la parte superior de la página, haz clic en “Actualizar dispositivo”.
12. Intercambio de rutas de BGP entre dispositivos de router
Establece un ASN local para sitios remotos
Configura un ASN de BGP local para site1-nva. Una vez configurado, estableceremos un túnel IPSEC entre los sitios remotos y los routers de concentrador.
Selecciona el dispositivo con el HostName:site1-nva.
- Haz clic en la pestaña "Enrutamiento".
- Haz clic en “Configuración de BGP”.
- Inhabilita “Redistribuir rutas OSPF”.
- ASN local 7269 → Guardar
- Actualiza el dispositivo
- Pestaña Interfaces → Enrutamiento → BGP
- Actualiza el dispositivo
Configura túneles VPN entre los dispositivos Site1 y Hub1
Asegúrate de acceder a la consola de flexiManage
- Navega a Inventario → Dispositivos.
- Selecciona la casilla junto al nombre de host de site1-nva y hub-r1 para crear un túnel VPN entre este par de NVA.
- Haz clic en Actions→ Create Tunnels y configura lo siguiente:
- Selecciona Crear túneles.
Verifica que "site1-nva" haya aprendido rutas a la subred 192.168.235.0/24 y 192.168.236.0/24.
- Selecciona Inventario → Dispositivos → site1-nva y haz clic en la pestaña "Enrutamiento".
En el siguiente resultado de ejemplo, flexiWAN creó automáticamente el túnel con la dirección IP del host 10.100.0.6
13. Verifica la conectividad de la ruta de acceso a los datos
Verifica la conectividad de sitio a nube desde el entorno local
Consulta el diagrama y verifica que la ruta de datos entre s1-vm y workload1-vm
Cómo configurar rutas estáticas de VPC para el sitio a la nube
La Site1-VPC local simula una red de centro de datos local.
Ambos dispositivos de router de Site-1-nva usan conectividad de VPN para llegar a la red del concentrador.
Para el caso de uso de sitio a nube, crea rutas estáticas al destino 192.168.0.0/16 con el dispositivo router como el siguiente salto para llegar a las redes de la red de nube de GCP.
En s1-inside-vpc, crea una ruta estática para el destino de la nube (192.168.0.0/16):
gcloud compute routes create site1-subnet-route \
--network=s1-inside-vpc \
--destination-range=192.168.0.0/16 \
--next-hop-instance=site1-nva \
--next-hop-instance-zone=us-central1-a
En Cloud Shell, busca la dirección IP de workload1-vmnee. La necesitarás para probar la conectividad desde "s1-vm".
gcloud compute instances describe workload1-vm --zone=us-central1-a | grep "networkIP"
Establece una conexión SSH a "s1-vm" y usa el comando "curl" para establecer una sesión TCP a la dirección IP de workload1-VM.
s1-vm:~$ curl 192.168.235.3 -vv * Trying 192.168.235.3:80... * Connected to 192.168.235.3 (192.168.235.3) port 80 (#0) > GET / HTTP/1.1 > Host: 192.168.235.3 > User-Agent: curl/7.74.0 > Accept: */* > * Mark bundle as not supporting multiuse < HTTP/1.1 200 OK < Date: Wed, 07 Dec 2022 15:12:08 GMT < Server: Apache/2.4.54 (Debian) < Last-Modified: Tue, 06 Dec 2022 00:57:46 GMT < ETag: "1f-5ef1e4acfa1d9" < Accept-Ranges: bytes < Content-Length: 31 < Content-Type: text/html < Page served from: workload1-vm * Connection #0 to host 192.168.235.3 left intact
14. Realiza una limpieza
Borra los recursos locales
Accede a Cloud Shell y borra las instancias de VM en las redes del sitio principal y de la sucursal.
#onprem instances
gcloud compute instances delete s1-vm --zone=us-central1-a --quiet
#delete on prem firewall rules
gcloud compute firewall-rules delete site1-ssh --quiet
gcloud compute firewall-rules delete site1-internal --quiet
gcloud compute firewall-rules delete site1-cloud --quiet
gcloud compute firewall-rules delete site1-vpn --quiet
gcloud compute firewall-rules delete site1-iap --quiet
#delete on prem subnets
gcloud compute networks subnets delete site1-subnet --quiet
gcloud compute networks subnets delete s1-inside-subnet --quiet
gcloud compute networks subnets delete s1-inside-subnet --quiet
#delete on prem vpcs
gcloud compute networks delete site1-vpc --quiet
gcloud compute networks delete s1-inside-vpc --quiet
Borra los recursos de Cloud Hub
Accede a Cloud Shell y borra las instancias de VM en las redes del sitio principal y de la sucursal.
#delete ncc spokes
gcloud network-connectivity spokes delete s2c-wrk-cr1 --region us-central1 --quiet
#delete ncc hub
gcloud network-connectivity hubs delete ncc-hub --quiet
#delete hub instances
gcloud compute instances delete hub-r1 --zone=us-central1-a --quiet
#delete hub firewall rule
gcloud compute firewall-rules delete hub-ssh --quiet
gcloud compute firewall-rules delete hub-vpn --quiet
gcloud compute firewall-rules delete hub-internal --quiet
gcloud compute firewall-rules delete hub-iap --quiet
gcloud compute firewall-rules create workload-ssh --quiet
gcloud compute firewall-rules create workload-internal --quiet
gcloud compute firewall-rules create workload-onprem --quiet
gcloud compute firewall-rules create workload-iap --quiet
#delete hub subnets
gcloud compute networks subnets delete workload-subnet1 --quiet
gcloud compute networks subnets delete hub-subnet1 --quiet
#delete hub vpcs
gcloud compute networks delete workload-vpc --quiet
gcloud compute networks delete hub-vpc --quiet
15. ¡Felicitaciones!
Completaste el lab de Network Connectivity Center.
Temas que se abordaron
- Se configuró la integración de WAN definida por software para el sitio de NCC a la nube
Próximos pasos
- Descripción general de Network Connectivity Center
- Documentación de Network Connectivity Center
- Recursos de flexiWAN
- Repositorio de GitLab de flexiWAN
©Google, LLC o sus afiliados. Todos los derechos reservados. Do not distribute.