Moduł: usługa Site-to-site z użyciem urządzenia FlexiWAN SD-WAN NCC

1. Wprowadzenie

Omówienie

W tym module poznasz niektóre funkcje Network Connectivity Center.

Network Connectivity Center (NCC) to model platformy sterującej centrum i promieni do zarządzania połączeniami sieciowymi w Google Cloud. Zasób centrum udostępnia scentralizowany model zarządzania połączeniami do łączenia promieni. Obecnie NCC obsługuje jako promienie następujące zasoby sieciowe:

  • Przyłącza VLAN
  • Routery (urządzenia)
  • Sieć VPN o wysokiej dostępności

Codelabs wymaga użycia rozwiązania SD-WAN flexiWAN SaaS, które upraszcza wdrażanie sieci WAN i zarządzanie nią. flexWAN to rozwiązanie typu open source dotyczące SD-WAN i SASE.

Co utworzysz

W ramach tego ćwiczenia w Codelabs zbudujesz centrum i topologię SD-WAN, aby symulować odległe witryny oddziałów, które będą przemierzać sieć szkieletową Google pod kątem komunikacji między chmurą i lokalizacją.

  1. Wdrożysz parę maszyn wirtualnych GCE skonfigurowanych pod kątem „flexiWAN” Agent SD-WAN w centralnej sieci VPC, który reprezentuje punkty końcowe dla ruchu przychodzącego i wychodzącego do GCP.
  2. Wdróż 2 zdalne routery flexiWAN SD-WAN reprezentujące 2 różne sieci VPC oddziału
  3. Na potrzeby testowania ścieżki danych skonfigurujesz 3 maszyny wirtualne GCE, aby przeprowadzać symulacje w lokalnych klientach i na serwerach hostowanych w GCP

84e31c667a487f7a.png

Czego się nauczysz

  • Używanie NCC do łączenia zdalnych oddziałów z wykorzystaniem zdefiniowanego programowo rozwiązania WAN typu open source
  • Praktyczne doświadczenie w zakresie oprogramowania typu open source zdefiniowanego jako oprogramowanie WAN

Czego potrzebujesz

  • Wiedza na temat sieci VPC GCP
  • Wiedza na temat routera Cloud Router i routingu BGP
  • Ćwiczenia z programowania wymagają 6 środowisk VPC. Sprawdź Limity:Sieci i w razie potrzeby poproś o dodatkowe sieci. Zrzut ekranu poniżej:

6bc606cb34bce7e8.png

2. Cele

  • Konfigurowanie środowiska GCP
  • Wdrażanie instancji flexiWAN Edge w GCP
  • Utwórz centrum NCC i promienie flexiWAN Edge NVA
  • Konfigurowanie instancji flexiWAN i zarządzanie nimi za pomocą flexiManage
  • Skonfiguruj wymianę tras BGP między vpc-app-svcs a flexiWAN NVA
  • Utwórz witrynę zdalną symulującą zdalną oddział klienta lub centrum danych
  • Utworzysz tunel IPSEC między witryną zdalną a NVA
  • Sprawdź, czy urządzenia zostały wdrożone
  • Weryfikacja przenoszenia danych z witryny do chmury
  • Zweryfikuj przenoszenie danych z witryn do witryn
  • Usuń używane zasoby

Ten samouczek wymaga utworzenia bezpłatnego konta FlexiManage na potrzeby uwierzytelniania, rejestracji i zarządzania instancjami FlexiEdge.

Zanim zaczniesz

Korzystanie z konsoli Google Cloud i Cloud Shell

W tym module będziemy używać zarówno konsoli Google Cloud, jak i Cloud Shell.

Konsola Google Cloud

Konsola Cloud jest dostępna na stronie https://console.cloud.google.com.

Aby ułatwić sobie konfigurowanie Network Connectivity Center, skonfiguruj te elementy w Google Cloud:

W konsoli Google Cloud na stronie selektora projektów wybierz lub utwórz projekt Google Cloud.

Uruchom Cloud Shell. W tym ćwiczeniach z programowania korzystamy ze zmiennych $variables, aby ułatwić implementację konfiguracji gcloud w Cloud Shell.

gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=[YOUR-PROJECT-NAME]
echo $projectname

Role uprawnień

NCC wymaga ról uprawnień dostępu do określonych interfejsów API. Pamiętaj, aby skonfigurować dla użytkownika odpowiednie role uprawnień NCC.

Nazwa roli

Opis

Uprawnienia

networkconnectivity.networkAdmin

Umożliwia administratorom sieci zarządzanie centrum i promieniami.

networkconnectivity.hubs.networkconnectivity.spokes.

networkconnectivity.networkSpokeManager

Umożliwia dodawanie promieni w centrum i zarządzanie nimi. Do użycia we współdzielonym środowisku VPC, w którym główny projekt jest właścicielem centrum, ale inni administratorzy w innych projektach mogą dodawać do centrum promienie swoich przyłączy.

networkconnectivity.spokes.**

networkconnectivity.networkUsernetworkconnectivity.networkViewer

Umożliwia użytkownikom sieci wyświetlanie różnych atrybutów centrum i promieni.

networkconnectivity.hubs.getnetworkconnectivity.hubs.listnetworkconnectivity.spokes.getnetworkconnectivity.spokes.listnetworkconnectivity.spokes.aggregatedList

3. Skonfiguruj środowisko Network Lab

Omówienie

W tej sekcji wdrożymy sieci VPC i reguły zapory sieciowej.

377d97bf3066f259.png

Symulowanie lokalnych sieci oddziałów

Ta sieć VPC zawiera podsieci dla lokalnych instancji maszyn wirtualnych.

Utwórz sieci i podsieci witryny lokalnej:

gcloud compute networks create site1-vpc \
--subnet-mode custom

gcloud compute networks create site2-vpc \
--subnet-mode custom

gcloud compute networks create s1-inside-vpc \
--subnet-mode custom

gcloud compute networks create s2-inside-vpc \
--subnet-mode custom

gcloud compute networks subnets create site1-subnet \
--network site1-vpc \
--range 10.10.0.0/24 \
--region us-central1

gcloud compute networks subnets create site2-subnet \
--network site2-vpc \
--range 10.20.0.0/24 \
--region us-east4

gcloud compute networks subnets create s1-inside-subnet \
--network s1-inside-vpc \
--range 10.10.1.0/24 \
--region us-central1

gcloud compute networks subnets create s2-inside-subnet \
--network s2-inside-vpc \
--range 10.20.1.0/24 \
--region us-east4

Utwórz reguły zapory sieciowej site1-vpc, które zezwalają na:

  • SSH, wewnętrzny, IAP
  • ESP, UDP/500, UDP/4500
  • Zakres 10.0.0.0/8
  • zakres 192.168.0.0/16
gcloud compute firewall-rules create site1-ssh \--network site1-vpc \
--allow tcp:22

gcloud compute firewall-rules create site1-internal \
--network site1-vpc \
--allow all \
--source-ranges 10.0.0.0/8

gcloud compute firewall-rules create site1-cloud \
--network site1-vpc \
--allow all \
--source-ranges 192.168.0.0/16

gcloud compute firewall-rules create site1-vpn \
--network site1-vpc \
--allow esp,udp:500,udp:4500 \
--target-tags router

gcloud compute firewall-rules create site1-iap \
--network site1-vpc --allow tcp:22 --source-ranges=35.235.240.0/20

Utwórz reguły zapory sieciowej site2-vpc zezwalające na:

  • SSH, wewnętrzny, IAP
  • Zakres 10.0.0.0/8
  • zakres 192.168.0.0/16
gcloud compute firewall-rules create site2-ssh \
--network site2-vpc \
--allow tcp:22

gcloud compute firewall-rules create site2-internal \
--network site2-vpc \
--allow all \
--source-ranges 10.0.0.0/8

gcloud compute firewall-rules create site2-cloud \
--network site1-vpc \
--allow all \
--source-ranges 192.168.0.0/16

gcloud compute firewall-rules create site2-vpn \
--network site1-vpc \
--allow esp,udp:500,udp:4500 \
--target-tags router

gcloud compute firewall-rules create site2-iap \
--network site2-vpc --allow tcp:22 --source-ranges=35.235.240.0/20

Utwórz reguły zapory sieciowej s1-inside-vpc, które zezwalają na:

  • SSH, wewnętrzny, IAP
  • Zakres 10.0.0.0/8
  • zakres 192.168.0.0/16
gcloud compute firewall-rules create s1-inside-ssh \
--network s1-inside-vpc \
--allow tcp:22

gcloud compute firewall-rules create s1-inside-internal \
--network s1-inside-vpc \
--allow all \
--source-ranges 10.0.0.0/8

gcloud compute firewall-rules create s1-inside-cloud \
--network s1-inside-vpc  \
--allow all \
--source-ranges 192.168.0.0/16

gcloud compute firewall-rules create s1-inside-iap \
--network site2-vpc --allow tcp:22 --source-ranges=35.235.240.0/20

Utwórz reguły zapory sieciowej s2-inside-vpc, które zezwalają na:

  • SSH, wewnętrzny, IAP
  • Zakres 10.0.0.0/8
  • zakres 192.168.0.0/16
gcloud compute firewall-rules create s2-inside-ssh \
--network s2-inside-vpc \
--allow tcp:22

gcloud compute firewall-rules create s2-inside-internal \
--network s2-inside-vpc \
--allow all \
--source-ranges 10.0.0.0/8

gcloud compute firewall-rules create s2-inside-cloud \
--network s2-inside-vpc  \
--allow all \
--source-ranges 192.168.0.0/16

gcloud compute firewall-rules create s2-inside-iap \
--network site2-vpc --allow tcp:22 --source-ranges=35.235.240.0/20

Do celów testowych utwórz instancje s1-inside-vm i s2-inside-vm

gcloud compute instances create s1-vm \
--zone=us-central1-a \
--machine-type=e2-micro \
--network-interface subnet=s1-inside-subnet,private-network-ip=10.10.1.3,no-address

gcloud compute instances create s2-vm \
--zone=us-east4-b \
--machine-type=e2-micro \
--network-interface subnet=s2-inside-subnet,private-network-ip=10.20.1.3,no-address

Symuluj środowisko sieciowe GCP w chmurze

Aby umożliwić ruch między witrynami a lokalizacją przez sieć hub-vpc i promienie, musisz włączyć routing globalny w sieci hub-vpc. Więcej informacji znajdziesz w artykule na temat wymiany tras NCC.

  1. Utwórz sieć i podsieci hub-vpc:
gcloud compute networks create hub-vpc \
--subnet-mode custom \
--bgp-routing-mode=global

gcloud compute networks subnets create hub-subnet1 \
--network hub-vpc \
--range 10.1.0.0/24 \
--region us-central1

gcloud compute networks subnets create hub-subnet2 \
--network hub-vpc \
--range 10.2.0.0/24 \
--region us-east4
  1. Utwórz sieć i podsieci workload-vpc:
gcloud compute networks create workload-vpc \
--subnet-mode custom \
--bgp-routing-mode=global

gcloud compute networks subnets create workload-subnet1 \
--network workload-vpc \
--range 192.168.235.0/24 \
--region us-central1

gcloud compute networks subnets create workload-subnet2 \
--network workload-vpc \
--range 192.168.236.0/24 \
--region us-east4
  1. Utwórz reguły zapory sieciowej Hub-VPC zezwalające na:
  • SSH
  • ESP, UDP/500, UDP/4500
  • wewnętrzny zakres 10.0.0.0/8 (obejmujący port TCP 179 wymagany dla sesji BGP od routera Cloud Router do routera)
gcloud compute firewall-rules create hub-ssh \
--network hub-vpc \
--allow tcp:22

gcloud compute firewall-rules create hub-vpn \
--network hub-vpc \
--allow esp,udp:500,udp:4500 \
--target-tags router

gcloud compute firewall-rules create hub-internal \
--network hub-vpc \
--allow all \
--source-ranges 192.168.0.0/16

gcloud compute firewall-rules create hub-iap \
--network hub-vpc --allow tcp:22 --source-ranges=35.235.240.0/20
  1. Utwórz reguły zapory sieciowej VPC-VPC, które zezwalają na:
  • SSH
  • wewnętrzny zakres 192.168.0.0/16 (obejmujący port TCP 179 wymagany na potrzeby sesji BGP od routera Cloud Router do routera)
gcloud compute firewall-rules create workload-ssh \
--network workload-vpc \
--allow tcp:22

gcloud compute firewall-rules create workload-internal \
--network workload-vpc \
--allow all \
--source-ranges 192.168.0.0/16

gcloud compute --project=$projectname firewall-rules create allow-from-site-1-2 --direction=INGRESS --priority=1000 --network=workload-vpc --action=ALLOW --rules=all --source-ranges=10.10.1.0/24,10.20.1.0/24

gcloud compute firewall-rules create workload-onprem \
--network hub-vpc \
--allow all \
--source-ranges 10.0.0.0/8

gcloud compute firewall-rules create workload-iap \
--network workload-vpc --allow tcp:22 --source-ranges=35.235.240.0/20
  1. Włącz Cloud NAT w VPC VPC, aby umożliwić zadaniu 1-vm pobieranie pakietów przez utworzenie routera Cloud Router i bramy NAT
gcloud compute routers create cloud-router-usc-central-1-nat \
    --network workload-vpc \
    --region us-central1
gcloud compute routers nats create cloudnat-us-central1 \
    --router=cloud-router-usc-central-1-nat \
    --auto-allocate-nat-external-ips \
    --nat-all-subnet-ip-ranges \
    --region us-central1
  1. Utwórz workload1-vm in "us-central1-a" in workload-VPC. Będziesz używać tego hosta do weryfikowania połączenia witryny z chmurą
gcloud compute instances create workload1-vm \
    --project=$projectname \
    --machine-type=e2-micro \
    --image-family debian-10 \
    --image-project debian-cloud \
    --zone us-central1-a \
    --private-network-ip 192.168.235.3 \
        --no-address \
    --subnet=workload-subnet1 \
    --metadata startup-script="#! /bin/bash
      sudo apt-get update
      sudo apt-get install apache2 -y
      sudo service apache2 restart
      echo 'Welcome to Workload VM1 !!' | tee /var/www/html/index.html
      EOF"

4. Skonfiguruj lokalne urządzenia na potrzeby SD-WAN

ec754b89e375f3cc.png

Tworzenie lokalnej maszyny wirtualnej na potrzeby SDWAN (urządzenia)

W następnej sekcji utworzymy routery site1-nva i site2-nva działające jako routery lokalne.

Tworzenie instancji

Utwórz urządzenie site1-router o nazwie site1-nva.

gcloud compute instances create site1-nva \
--zone=us-central1-a \
--machine-type=e2-medium \
--network-interface subnet=site1-subnet \
--network-interface subnet=s1-inside-subnet,no-address \
--create-disk=auto-delete=yes,boot=yes,device-name=flex-gcp-nva-1,image=projects/ubuntu-os-cloud/global/images/ubuntu-1804-bionic-v20220901,mode=rw,size=20,type=projects/$projectname/zones/us-central1-a/diskTypes/pd-balanced \
--no-shielded-secure-boot \
--shielded-vtpm \
--shielded-integrity-monitoring \
--reservation-affinity=any \
--can-ip-forward

Utwórz urządzenie site2-router o nazwie site2-nva.

gcloud compute instances create site2-nva \
--zone=us-east4-b \
--machine-type=e2-medium \
--network-interface subnet=site2-subnet \
--network-interface subnet=s2-inside-subnet,no-address \
--create-disk=auto-delete=yes,boot=yes,device-name=flex-gcp-nva-1,image=projects/ubuntu-os-cloud/global/images/ubuntu-1804-bionic-v20220901,mode=rw,size=20,type=projects/$projectname/zones/us-east4-a/diskTypes/pd-balanced \
--no-shielded-secure-boot \
--shielded-vtpm \
--shielded-integrity-monitoring \
--reservation-affinity=any \
--can-ip-forward 

5. Zainstaluj flexiWAN w witrynie site1-nva

Otwórz połączenie SSH z site1-nva, jeśli nastąpi ponowne przekroczenie limitu czasu

gcloud compute ssh site1-nva --zone=us-central1-a

Zainstaluj flexiWAN w witrynie site1-nva

sudo su 

sudo curl -sL https://deb.flexiwan.com/setup | sudo bash -
apt install flexiwan-router -y

Przygotuj maszynę wirtualną do rejestracji platformy sterującej flexiWAN.

Po zakończeniu instalacji flexiWAN uruchom polecenie fwsystem_checker, aby sprawdzić konfigurację systemu. To polecenie pozwala sprawdzić wymagania systemowe i poprawić błędy konfiguracji systemu.

  • Wybierz opcję 2, aby przeprowadzić szybką i dyskretną konfigurację.
  • kończy się z 0.
  • Nie zamykaj okna Cloud Shell.
root@site-1-nva-1:/home/user# fwsystem_checker
 
<output snipped>

        [0] - quit and use fixed parameters
         1  - check system configuration
         2  - configure system silently
         3  - configure system interactively
         4  - restore system checker settings to default
        ------------------------------------------------
Choose: 2

<output snipped>

        [0] - quit and use fixed parameters
         1  - check system configuration
         2  - configure system silently
         3  - configure system interactively
         4  - restore system checker settings to default
        ------------------------------------------------
Choose: 0
Please wait..
Done.
=== system checker ended ====

Aby wykonać poniższe kroki, pozostaw sesję otwartą

6. Rejestrowanie obiektu site1-nva za pomocą kontrolera SD-WAN

Wykonanie tych czynności jest niezbędne do udostępnienia flexiWAN NVA w konsoli flexiManage. Zanim przejdziesz dalej, skonfiguruj organizację flexiWAN.

Uwierzytelnij nowo wdrożoną sieć flexiWAN NVA za pomocą flexiManage za pomocą tokena zabezpieczeń, logując się na konto flexiManage. Ten sam token można ponownie wykorzystać na wszystkich routerach.

Wybierz Zasoby reklamowe → Tokeny,utwórz token i zaznacz kopię

12c173b589d220ee.png

Wróć do Cloud Shell (site1-nva) i wklej token do katalogu /etc/flexiwan/agent/token.txt, wykonując te czynności

nano /etc/flexiwan/agent/token.txt
#Paste the generated token obtain from flexiManage
#Exit session with CTRL+X and Select Y to save then enter

22e1cf5bad3d3086.png

Aktywuj routery witryn w konsoli flexiManage

Zaloguj się do konsoli flexiManage, aby aktywować site1-nva na kontrolerze

W panelu po lewej stronie wybierz Zasoby reklamowe → Urządzenia, a następnie kliknij urządzenie „Nieznane”.

f7719c28f78e907a.png

Wpisz nazwę hosta site1-nva i zatwierdź urządzenie, przesuwając pokrętło w prawo.

9a6c6c45e1cad732.png

Wybierz kartę Interfejsy.

Odszukaj „Przypisane” i kliknij „Nie”. i zmień ustawienie na „Tak”.

a8772059968af13e.png

Wybierz kartę Zapora sieciowa i kliknij znak „+”, aby dodać regułę przychodzącej zapory sieciowej.

Wybierz interfejs WAN, aby zastosować regułę SSH w sposób opisany poniżej.

df03b8a6c817ccd2.png

Kliknij „Zaktualizuj urządzenie”.

96b9feb77b8517cd.png

Uruchom obiekt site1-nva na kontrolerze flexiWAN. Wróć do Zasoby reklamowe → Urządzenia → site1-nva wybierz „Uruchom urządzenie”

708215cf91ffc09.png

Stan – synchronizacja

918d72eeacc386fa.png

Stan – Zsynchronizowano

5135096dbff49819.png

Wskaźnik ostrzeżenia znajdziesz w sekcji Rozwiązywanie problemów → Powiadomienia. Po wyświetleniu zaznacz wszystko, a następnie oznacz jako przeczytane

9e79db3572f91925.png

7. Zainstaluj flexiWAN w witrynie site2-nva

Otwórz nową kartę i utwórz sesję Cloud Shell. Zaktualizuj $variables, aby ułatwić implementację konfiguracji gcloud

gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=[YOUR-PROJECT-NAME]
echo $projectname

Otwórz połączenie SSH z site2-nva, jeśli nastąpi ponowne przekroczenie limitu czasu

gcloud compute ssh site2-nva --zone=us-east4-b

Zainstaluj flexiWAN w witrynie site2-nva

sudo su 

sudo curl -sL https://deb.flexiwan.com/setup | sudo bash -
apt install flexiwan-router -y

Przygotuj maszynę wirtualną do rejestracji platformy sterującej flexiWAN.

Po zakończeniu instalacji flexiWAN uruchom polecenie fwsystem_checker, aby sprawdzić konfigurację systemu. To polecenie pozwala sprawdzić wymagania systemowe i poprawić błędy konfiguracji systemu.

  • Wybierz opcję 2, aby przeprowadzić szybką i dyskretną konfigurację.
  • kończy się z 0.
  • Nie zamykaj okna Cloud Shell.
root@site2-nva:/home/user# fwsystem_checker
 
<output snipped>

        [0] - quit and use fixed parameters
         1  - check system configuration
         2  - configure system silently
         3  - configure system interactively
         4  - restore system checker settings to default
        ------------------------------------------------
Choose: 2

<output snipped>

        [0] - quit and use fixed parameters
         1  - check system configuration
         2  - configure system silently
         3  - configure system interactively
         4  - restore system checker settings to default
        ------------------------------------------------
Choose: 0
Please wait..
Done.
=== system checker ended ====

8. Zarejestruj site2-nva za pomocą kontrolera SD-WAN

Wykonanie tych czynności jest niezbędne do udostępnienia flexiWAN NVA w konsoli flexiManage. Zanim przejdziesz dalej, skonfiguruj organizację flexiWAN.

Uwierzytelnij nowo wdrożoną sieć flexiWAN NVA za pomocą flexiManage za pomocą tokena zabezpieczeń, logując się na konto flexiManage. Ten sam token można ponownie wykorzystać na wszystkich routerach.

Wybierz Zasoby reklamowe → Tokeny, utwórz token i wybierz Kopiuj.

12c173b589d220ee.png

Wróć do Cloud Shell (site2-nva) i wklej token do katalogu /etc/flexiwan/agent/token.txt, wykonując te czynności

nano /etc/flexiwan/agent/token.txt
#Paste the generated token obtain from flexiManage
#Exit session with CTRL+X and Select Y to save then enter

22e1cf5bad3d3086.png

Aktywowanie routerów witryn w konsoli flexiManage

Zaloguj się do konsoli flexiManage, aby aktywować site2-nva na kontrolerze

W panelu po lewej stronie wybierz Zasoby reklamowe → Urządzenia, a następnie kliknij urządzenie „Nieznane”.

c98696cf67043ec2.png

Wpisz nazwę hosta site2-nva i zatwierdź urządzenie, przesuwając pokrętło w prawo.

de418da3f581e0bd.png

Wybierz kartę Interfejsy.

Odszukaj „Przypisane” i kliknij „Nie”. i zmień ustawienie na „Tak”.

eee6a98dba7b2a04.png

Wybierz Karta Zapora sieciowa i kliknij znak „+”, aby dodać regułę przychodzącej zapory sieciowej. Wybierz interfejs WAN, aby zastosować regułę SSH w sposób opisany poniżej.

df03b8a6c817ccd2.png

Kliknij „Zaktualizuj urządzenie”.

96b9feb77b8517cd.png

Uruchom obiekt site2-nva na kontrolerze flexiWAN. Wróć do Asortymentu → Urządzenia → site2-nva wybierz „Uruchom urządzenie”

c80291bb430dce7d.png

Satus – synchronizacja

da9c08ebfbd1265e.png

Stan – Zsynchronizowano

5135096dbff49819.png

Wskaźnik ostrzeżenia znajdziesz w sekcji Rozwiązywanie problemów → Powiadomienia. Po wyświetleniu zaznacz wszystko, a następnie oznacz jako przeczytane

2c21322b87d848b

9. Skonfiguruj urządzenia centrali SDWAN

W następnej sekcji utworzysz i zarejestrujesz routery centralne (hub-r1 i hub-r2) za pomocą kontrolera flexiWAN, tak jak wcześniej w przypadku tras lokalizacji.

Otwórz nową kartę i utwórz sesję Cloud Shell. Zaktualizuj $variables, aby ułatwić implementację konfiguracji gcloud

gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=[YOUR-PROJECT-NAME]
echo $projectname

Tworzenie instancji NVA centrum

Utwórz urządzenie hub-r1:

gcloud compute instances create hub-r1 \
--zone=us-central1-a \
--machine-type=e2-medium \
--network-interface subnet=hub-subnet1 \
--network-interface subnet=workload-subnet1,no-address \
--can-ip-forward \
--create-disk=auto-delete=yes,boot=yes,device-name=flex-gcp-nva-1,image=projects/ubuntu-os-cloud/global/images/ubuntu-1804-bionic-v20220901,mode=rw,size=20,type=projects/$projectname/zones/us-central1-a/diskTypes/pd-balanced \
--no-shielded-secure-boot \
--shielded-vtpm \
--shielded-integrity-monitoring \
--reservation-affinity=any

Utwórz urządzenie hub-r2:

gcloud compute instances create hub-r2 \
--zone=us-east4-b \
--machine-type=e2-medium \
--network-interface subnet=hub-subnet2 \
--network-interface subnet=workload-subnet2,no-address \
--can-ip-forward \
--create-disk=auto-delete=yes,boot=yes,device-name=flex-gcp-nva-1,image=projects/ubuntu-os-cloud/global/images/ubuntu-1804-bionic-v20220901,mode=rw,size=20,type=projects/$projectname/zones/us-east4-a/diskTypes/pd-balanced \
--no-shielded-secure-boot \
--shielded-vtpm \
--shielded-integrity-monitoring \
--reservation-affinity=any

10. Instalowanie flexiWAN w instancjach centrum dla hub-r1

Otwórz połączenie SSH z hub-r1

gcloud compute ssh hub-r1 --zone=us-central1-a

Zainstaluj agenta flexiWAN w centrum r1

sudo su
sudo curl -sL https://deb.flexiwan.com/setup | sudo bash -
apt install flexiwan-router -y

Przygotuj maszyny wirtualne Hub-r1 do rejestracji flexiWAN.

Po zakończeniu instalacji flexiWAN uruchom polecenie fwsystem_checker, aby sprawdzić konfigurację systemu. To polecenie pozwala sprawdzić wymagania systemowe i poprawić błędy konfiguracji systemu.

root@hub-r1:/home/user# fwsystem_checker
  • Wybierz opcję 2, aby przeprowadzić szybką i dyskretną konfigurację.
  • kończy się z 0.
  • Nie zamykaj okna Cloud Shell.

11. Rejestrowanie maszyn wirtualnych hub-r1 na kontrolerze flexiManage

Uwierzytelnij nowo wdrożoną sieć flexiWAN NVA za pomocą flexiManage za pomocą tokena zabezpieczeń, logując się na konto flexiManage.

  • Wybierz Zasoby reklamowe → Tokeny i skopiuj token.

Wróć do Cloud Shell (hub-r1) i wklej token do katalogu /etc/flexiwan/agent/token.txt, wykonując te czynności

nano /etc/flexiwan/agent/token.txt
#Paste the generated token obtain from flexiManage
#Exit session with CTRL+X and Select Y to save then enter

12. Instalowanie flexiWAN w instancjach centrum dla hub-r2

Otwórz połączenie SSH z hub-r2

gcloud compute ssh hub-r2 --zone=us-east4-b

Zainstaluj agenta flexiWAN w centrum r2

sudo su
sudo curl -sL https://deb.flexiwan.com/setup | sudo bash -
apt install flexiwan-router -y

Przygotuj maszyny wirtualne Hub-r2 do rejestracji flexiWAN.

Po zakończeniu instalacji flexiWAN uruchom polecenie fwsystem_checker, aby sprawdzić konfigurację systemu. To polecenie pozwala sprawdzić wymagania systemowe i poprawić błędy konfiguracji systemu.

root@hub-r2:/home/user# fwsystem_checker
  • Wybierz opcję 2, aby przeprowadzić szybką i dyskretną konfigurację.
  • kończy się z 0.
  • Nie zamykaj okna Cloud Shell.

13. Rejestrowanie maszyn wirtualnych hub-r2 na kontrolerze flexiManage

Uwierzytelnij nowo wdrożoną sieć flexiWAN NVA za pomocą flexiManage za pomocą tokena zabezpieczeń, logując się na konto flexiManage.

  • Wybierz Zasoby reklamowe → Tokeny i skopiuj token.

Wróć do Cloud Shell (hub-r2) i wklej token do katalogu /etc/flexiwan/agent/token.txt, wykonując te czynności

nano /etc/flexiwan/agent/token.txt
#Paste the generated token obtain from flexiManage
#Exit session with CTRL+X and Select Y to save then enter

Aktywuj routery centralne Hub-r1 w konsoli flexiManage

Zaloguj się do konsoli flexiManage

  • Kliknij Zasoby reklamowe → Urządzenia.
  • Znajdź i zaznacz nazwę hosta dla hub-r1 i hub-r2 jako „nieznane”

1a88ffa4409ad3c0.png

Wybierz nieznane urządzenie z nazwą hosta hub-r1.

  • Wpisz nazwę hosta hub-r1.
  • Zatwierdź urządzenie, przesuń pokrętło w prawo.

Wybierz kartę Interfejsy.

  • Znajdź kolumnę „Przypisane”.
  • Obok wiersza interfejsu kliknij „Nie”, aby zmienić ustawienie na „Tak”.

Kliknij kartę Zapora sieciowa.

  • Kliknij „+”. w celu dodania reguły zapory sieciowej dla ruchu przychodzącego
  • Wybierz interfejs WAN, aby odziedziczyć regułę
  • Zezwalaj na port 22 SSH z protokołem TCP
  • Kliknij „Zaktualizuj urządzenie”.

Uruchom urządzenie hub-r1 na potrzeby SD-WAN z kontrolera FlexiWAN

  • Wróć do Asortymentu → Urządzenia → Hub-r1

Wybierz Uruchom urządzenie.

  • Poczekaj na zakończenie synchronizacji i zanotuj komunikat „uruchomiono” stan

Aktywuj routery centralne Hub-r2 w konsoli flexiManage

Wybierz nieznane urządzenie z nazwą hosta hub-r2.

  • Wpisz nazwę hosta hub-r2.
  • Podłącz urządzenie, przesuń pokrętło w prawo.

Wybierz kartę Interfejsy

  • Znajdź kolumnę „Przypisane”.
  • Obok wiersza interfejsu kliknij „Nie”, aby zmienić ustawienie na „Tak”.

Kliknij kartę Zapora sieciowa.

  • Kliknij „+”. w celu dodania reguły zapory sieciowej dla ruchu przychodzącego
  • Wybierz interfejs WAN, aby odziedziczyć regułę
  • Zezwalaj na port 22 SSH z protokołem TCP
  • Kliknij Dodaj regułę.
  • Kliknij „Zaktualizuj urządzenie”.

Uruchom urządzenie hub-r2 na potrzeby SD-WAN z kontrolera FlexiWAN

  • Wróć do Asortymentu → Urządzenia → Hub-r2, wybierz „Uruchom urządzenie”
  • Poczekaj na zakończenie synchronizacji i zanotuj komunikat „uruchomiono” stan

14. Network Connectivity Center w GCP Hub

802fe0ef1e98c563.png

Włącz usługi API

Włącz interfejs Network Connectivity API, jeśli nie jest jeszcze włączony:

gcloud services enable networkconnectivity.googleapis.com

Tworzenie centrum NCC

gcloud network-connectivity hubs create ncc-hub
Create request issued for: [ncc-hub]
Waiting for operation [projects/user-3p-dev/locations/global/operations/operation-1668793629598-5edc24b7ee3ce-dd4c765b-5ca79556] to complete...done.     
Created hub [ncc-hub]

Skonfiguruj oba urządzenia routera jako promień NCC

Znajdź identyfikator URI oraz adres IP serwerów Hub-r1 oraz Hub-r2 i zanotuj dane wyjściowe. Będziesz potrzebować tych informacji w następnym kroku.

Pamiętaj, aby zanotować adres IP (192.168.x.x) instancji hub-r1 i Hub-r2.

gcloud compute instances describe hub-r1 \
--zone=us-central1-a \
--format="value(selfLink.scope(projects))"

gcloud compute instances describe hub-r1 --zone=us-central1-a | grep "networkIP"
gcloud compute instances describe hub-r2 \
--zone=us-east4-b \
--format="value(selfLink.scope(projects))"

gcloud compute instances describe hub-r2 --zone=us-east4-b | grep "networkIP"

Dodaj vnic networkIP (192.168.x.x) centrum-r1 jako promień i włącz przesyłanie danych między lokalizacjami

gcloud network-connectivity spokes linked-router-appliances create s2s-wrk-cr1 \
--hub=ncc-hub \
--router-appliance=instance="https://www.googleapis.com/compute/projects/$projectname/zones/us-central1-a/instances/hub-r1",ip=192.168.235.4 \
--region=us-central1 \
--site-to-site-data-transfer

Dodaj vnic networkIP (192.168.x.x) centrum-r2 jako promień i włącz przesyłanie danych między lokalizacjami

gcloud network-connectivity spokes linked-router-appliances create s2s-wrk-cr2 \
--hub=ncc-hub \
--router-appliance=instance=/projects/$projectname/zones/us-east4-b/instances/hub-r2,ip=192.168.236.101 \
--region=us-east4 \
--site-to-site-data-transfer

Skonfiguruj Cloud Router, aby ustanowić BGP z Hub-R1

W kolejnym kroku utwórz router Cloud Router i ogłosisz podsieć VPC zadania 192.168.235.0/24

Utwórz router chmury w regionie us-central1, który będzie komunikować się z BGP za pomocą hub-r1

gcloud compute routers create wrk-cr1 \
--region=us-central1 \
--network=workload-vpc \
--asn=65002 \
--set-advertisement-groups=all_subnets \
--advertisement-mode=custom

Dzięki skonfigurowaniu routerów jako promieni NCC umożliwia routerowi Cloud Router negocjowanie BGP w interfejsach wirtualnych.

Utwórz na routerze Cloud Router 2 interfejsy, które będą wymieniać wiadomości BGP z centrum r1.

Adresy IP są wybierane z podsieci zadania oraz z listy & można zmienić w razie potrzeby.

gcloud compute routers add-interface wrk-cr1 \
--region=us-central1 \
--subnetwork=workload-subnet1 \
--interface-name=int0 \
--ip-address=192.168.235.101 

gcloud compute routers add-interface wrk-cr1 \
--region=us-central1 \
--subnetwork=workload-subnet1 \
--interface-name=int1 \
--ip-address=192.168.235.102 \
--redundant-interface=int0

Skonfiguruj interfejs routera Cloud Router, aby ustanowić BGP z użyciem karty vNIC-1 centrum r1, a adres IP peera w adresie IP centrali r1 networkIP . Pamiętaj, że ten sam adres IP jest używany w przypadku parametrów int0 & int1.

gcloud compute routers add-bgp-peer wrk-cr1 \
    --peer-name=hub-cr1-bgp-peer-0 \
    --interface=int0 \
    --peer-ip-address=192.168.235.4 \
    --peer-asn=64111 \
    --instance=hub-r1 \
    --instance-zone=us-central1-a \
    --region=us-central1

gcloud compute routers add-bgp-peer wrk-cr1 \
    --peer-name=hub-cr1-bgp-peer-1 \
    --interface=int1 \
    --peer-ip-address=192.168.235.4 \
    --peer-asn=64111 \
    --instance=hub-r1 \
    --instance-zone=us-central1-a \
    --region=us-central1

Sprawdź stan BGP – w tym momencie w laboratorium kodu BGP to „stan połączenia” ponieważ router sieciowy nie został skonfigurowany pod kątem BGP.

gcloud compute routers get-status wrk-cr1 --region=us-central1

Skonfiguruj zadanie Workload-cr2, aby ustanowić sesję BGP z użyciem Hub-R2

W kolejnym kroku utwórz router Cloud Router i ogłosisz podsieć VPC zadania 192.168.236.0/24

Utwórz router chmury w regionie us-east4, który będzie komunikować się z BGP przy użyciu hub-r2

gcloud compute routers create wrk-cr2 \
--region=us-east4 \
--network=workload-vpc \
--asn=65002 \
--set-advertisement-groups=all_subnets \
--advertisement-mode=custom

Utwórz parę interfejsów na routerze Cloud Router, która będzie wymieniać wiadomości BGP z centrum-r2, adresy IP są wybierane z podsieci zadania można zmienić w razie potrzeby.

gcloud compute routers add-interface wrk-cr2 \
--region=us-east4 \
--subnetwork=workload-subnet2 \
--interface-name=int0 \
--ip-address=192.168.236.5 


gcloud compute routers add-interface wrk-cr2 \
--region=us-east4 \
--subnetwork=workload-subnet2 \
--interface-name=int1 \
--ip-address=192.168.236.6 \
--redundant-interface=int0

Skonfiguruj interfejs routera Cloud Router, aby ustanowić BGP z użyciem karty vNIC-1 hub-r2, zaktualizuj adres IP peera o adres IP hub-r1 networkIP . Pamiętaj, że ten sam adres IP jest używany w przypadku parametrów int0 & int1.

gcloud compute routers add-bgp-peer wrk-cr2 \
    --peer-name=hub-cr2-bgp-peer-0 \
    --interface=int0 \
    --peer-ip-address=192.168.236.101 \
    --peer-asn=64112 \
    --instance=hub-r2 \
    --instance-zone=us-east4-b \
    --region=us-east4

gcloud compute routers add-bgp-peer wrk-cr2 \
    --peer-name=hub-cr2-bgp-peer-1 \
    --interface=int1 \
    --peer-ip-address=192.168.236.101 \
    --peer-asn=64112 \
    --instance=hub-r2 \
    --instance-zone=us-east4-b \
    --region=us-east4

Sprawdź stan BGP – w tym momencie w laboratorium kodu BGP to „stan połączenia” ponieważ router sieciowy nie został skonfigurowany pod kątem BGP.

gcloud compute routers get-status wrk-cr2 --region=us-east4

15. Konfigurowanie urządzeń routera centralnego na potrzeby BGP

Skonfiguruj hub-r1 na potrzeby BGP

Pamiętaj, aby zalogować się do konsoli flexiManage

Wybierz Zasoby reklamoweUrządzeniahub-r1 i wybierz urządzenie o nazwie HostName:hub-r1.

  • Kliknij kartę „Routing”.
  • Kliknij „BGP Configuration” (Konfiguracja BGP”.
  • Wyłącz „Redystrybucja tras OSPF”
  • Skonfiguruj hub-r1 na potrzeby BGP z tymi parametrami i kliknij „Zapisz”

8D470056f620717f.png

Wybierz „Interfejsy”. znajdź interfejs LAN i znajdź kolumnę „Routing”.

  • Kliknij „none” (brak). aby otworzyć menu pozwalające wybrać BGP jako protokół routingu

82310aab05e9e414.png

  • U góry strony kliknij „Zaktualizuj urządzenie”.

Skonfiguruj hub-r2 na potrzeby BGP

Pamiętaj, aby zalogować się do konsoli flexiManage

Wybierz Zasoby reklamowe → Urządzeniahub-r2,wybierz urządzenie o nazwie HostName:hub-r2.

  • Kliknij kartę „Routing”.
  • Kliknij „BGP Configuration” (Konfiguracja BGP”.
  • Wyłącz „Redystrybucja tras OSPF”
  • Skonfiguruj hub-r2 na potrzeby BGP z tymi parametrami i kliknij „Zapisz”

8ecb14e2c046012e.png

Wybierz „Interfejsy”. znajdź interfejs LAN, znajdź kolumnę „Routing”.

  • Kliknij „brak”. aby otworzyć menu, w którym możesz wybrać BGP jako protokół routingu

41a381f81f2b500e.png

  • U góry strony kliknij „Zaktualizuj urządzenie”.

Wybierz „routing”. Tab

  • Potwierdź, że hub-r2 zapamiętał trasę BGP z wrk-cr2

ddf3e811b193ec10.png

16. Wymiana tras BGP między routerami

Ustal lokalny identyfikator ASN dla witryn zdalnych

Skonfiguruj lokalny identyfikator ASN BGP dla site1-nva i site2-nva. Po skonfigurowaniu ustanowimy tunel IPSEC między lokalizacjami zdalnymi i routerami centrali.

Wybierz urządzenie z wartością HostName:site1-nva.

  • Kliknij kartę „Routing”.
  • Kliknij „BGP Configuration” (Konfiguracja BGP”.
  • Wyłącz „Redystrybucja tras OSPF”
  • Włączono BGP
  • Lokalny ASN 7269 → Zapisz
  • Zaktualizuj urządzenie
  • Karta interfejsów → LAN → Routing → BGP
  • Zaktualizuj urządzenie

Wybierz urządzenie z wartością HostName:site2-nva.

  • Kliknij kartę „Routing”.
  • Kliknij „BGP Configuration” (Konfiguracja BGP”.
  • Wyłącz „Redystrybucja tras OSPF”
  • Włączono BGP
  • Lokalny ASN 7270 → Zapisz
  • Zaktualizuj urządzenie
  • Karta interfejsów → LAN → Routing → BGP
  • Zaktualizuj urządzenie

Konfigurowanie tuneli VPN między witryną a urządzeniami centralnymi

Pamiętaj, aby zalogować się do konsoli flexiManage

  • Kliknij Zasoby reklamowe → Urządzenia.
  • Zaznacz pole obok nazwy hosta site1-nva i hub-r1, aby utworzyć tunel VPN między tą parą NVA.
  • Kliknij Działania → Utwórz tunele i skonfiguruj

d870b4049a0e7fcf.png

c50d794442c0bdd0.png

  • Wybierz Utwórz tunele.
  • Usuń znaczniki wyboru z witryn site1-nva i ub-r1.

Powtórz te kroki, aby utworzyć tunel między site2-nva i centrum-r2, wybierając odpowiednie parametry.

37c86e17b74e98ca.png

Sprawdź, czy między każdą parą NVA ustanowiono parę tuneli.

  • W panelu bocznym po lewej stronie kliknij „zasoby reklamowe”. i kliknij „Tunnels”. i znajdź kolumnę stanu,

a31e7a73aff53b66.png

Sprawdź, czy „site1-nva” zapamiętane trasy do podsieci 192.168.235.0/24 i 192.168.236.0/24

  • Wybierz Zasoby reklamowe → Urządzenia → site1-nva i kliknij kartę „Routing”.

W przykładowych danych wyjściowych poniżej funkcja flexiWAN automatycznie utworzyła tunel przy użyciu adresu IP hosta 10.100.0.6 cef8dee200ac600a.png

17. Zweryfikuj połączenia ścieżki danych

Zweryfikuj połączenie witryny z chmurą ze swojej lokalizacji

Zapoznaj się z diagramem. Sprawdź, czy ścieżka danych między maszynami wirtualnymi s1-vm i workload1-vm

2a403992934279b3.png

Konfigurowanie statycznych tras VPC dla połączenia między witryną a chmurą

Lokalna sieć Site1-VPC i Site2-VPC symuluje sieć lokalnego centrum danych.

Zarówno router Site-1-nva, jak i site-2-nva, korzystają z połączenia VPN, aby łączyć się z siecią centrali.

W przypadku zastosowania z witryny do chmury** utwórz trasy statyczne do miejsca docelowego 192.168.0.0/16, używając routera jako następnego przeskoku umożliwiającego dotarcie do sieci w sieci w chmurze GCP.

Na serwerze s1-inside-vpc utwórz trasę statyczną dla usługi Cloud Identity (192.168.0.0/16):

gcloud compute routes create site1-subnet-route  \
--network=s1-inside-vpc \
--destination-range=192.168.0.0/16  \
--next-hop-instance=site1-nva \
--next-hop-instance-zone=us-central1-a

W konsoli s2-inside-vpc utwórz trasę statyczną dla Cloud Identity (192.168.0.0/16):

gcloud compute routes create site2-subnet-route  \
--network=s2-inside-vpc \
--destination-range=192.168.0.0/16  \
--next-hop-instance=site2-nva \
--next-hop-instance-zone=us-east4-b

W Cloud Shell wyszukaj adres IP „workload1-vm”. Będzie ono potrzebne do przetestowania połączenia z maszyny wirtualnej „s1-vm”.

gcloud compute instances describe workload1-vm --zone=us-central1-a | grep "networkIP"

Otwórz połączenie SSH z maszyną wirtualną s1-vm, jeśli nastąpi ponowne przekroczenie limitu czasu

gcloud compute ssh s1-vm --zone=us-central1-a

Połącz się z instancją „s1-vm” przez SSH i użyj polecenia „curl”, aby ustanowić sesję TCP z adresem IP instancji Workload1-VM.

s1-vm:~$ curl 192.168.235.3 -vv
*   Trying 192.168.235.3:80...
* Connected to 192.168.235.3 (192.168.235.3) port 80 (#0)
> GET / HTTP/1.1
> Host: 192.168.235.3
> User-Agent: curl/7.74.0
> Accept: */*
> 
* Mark bundle as not supporting multiuse
< HTTP/1.1 200 OK
< Date: Wed, 07 Dec 2022 15:12:08 GMT
< Server: Apache/2.4.54 (Debian)
< Last-Modified: Tue, 06 Dec 2022 00:57:46 GMT
< ETag: "1f-5ef1e4acfa1d9"
< Accept-Ranges: bytes
< Content-Length: 31
< Content-Type: text/html
< 
Page served from: workload1-vm
* Connection #0 to host 192.168.235.3 left intact

Sprawdzanie połączenia witryny z witryną

Korzystając z diagrama, sprawdź, czy ścieżka danych między maszynami s1-vm i s2-vm

1a7ec558ab1ecd37.png

Konfigurowanie statycznych tras VPC dla połączeń między lokalizacjami

Aby kierować ruch między witrynami 1 a lokalizacją 2 przez globalną sieć GCP, utwórz trasy statyczne do docelowych podsieci witryny zdalnych i użyj w następnym przeskoku urządzenia na routerze lokalnym.

W późniejszym kroku sieć VPC zadania zostanie skonfigurowana z użyciem NCC, aby umożliwić przesyłanie danych z witryn do witryn.

W sieci s1-inside-vpc utwórz statyczną trasę do podsieci site2 (10.20.1.0/24):

gcloud compute routes create site1-sn1-route  \
--network=s1-inside-vpc \
--destination-range=10.20.1.0/24  \
--next-hop-instance=site1-nva \
--next-hop-instance-zone=us-central1-a

W sieci s2-inside-vpc utwórz statyczną trasę do podsieci site1 (10.10.1.0/24):

gcloud compute routes create site2-sn1-route  \
--network=s2-inside-vpc \
--destination-range=10.10.1.0/24  \
--next-hop-instance=site2-nva \
--next-hop-instance-zone=us-east4-b

W Cloud Shell wyszukaj adres IP instancji „s2-vm”. Będzie Ci to potrzebne do testowania połączeń z S1-vm.

gcloud compute instances describe s2-vm --zone=us-east4-b | grep networkIP

Otwórz połączenie SSH z maszyną wirtualną s1-vm, jeśli nastąpi ponowne przekroczenie limitu czasu

gcloud compute ssh s1-vm --zone=us-central1-a

SSH do „s1-vm” i „ping” adres IP instancji „s2-vm”.

s1-vm:~$ ping 10.20.1.3
PING 10.20.1.3 (10.20.1.3) 56(84) bytes of data.
64 bytes from 10.20.1.3: icmp_seq=1 ttl=60 time=99.1 ms
64 bytes from 10.20.1.3: icmp_seq=2 ttl=60 time=94.3 ms
64 bytes from 10.20.1.3: icmp_seq=3 ttl=60 time=92.4 ms
64 bytes from 10.20.1.3: icmp_seq=4 ttl=60 time=90.9 ms
64 bytes from 10.20.1.3: icmp_seq=5 ttl=60 time=89.7 ms

18. Czyszczenie

Logowanie się do Cloud Shell i usuwanie instancji maszyn wirtualnych w sieciach witryny centrum i gałęzi

#on prem instances
gcloud compute instances delete s1-vm --zone=us-central1-a --quiet
gcloud compute instances delete s2-vm --zone=us-east4-b --quiet

#delete on prem firewall rules
gcloud compute firewall-rules delete site1-ssh --quiet
gcloud compute firewall-rules delete site1-internal --quiet
gcloud compute firewall-rules delete site1-cloud --quiet
gcloud compute firewall-rules delete site1-vpn  --quiet
gcloud compute firewall-rules delete site1-iap --quiet
gcloud compute firewall-rules delete site2-ssh --quiet
gcloud compute firewall-rules delete site2-internal --quiet
gcloud compute firewall-rules delete site2-cloud --quiet
gcloud compute firewall-rules delete site2-vpn  --quiet
gcloud compute firewall-rules delete site2-iap --quiet
gcloud compute firewall-rules delete allow-from-site-1-2 --quiet
gcloud compute firewall-rules delete s2-inside-cloud s2-inside-internal s2-inside-ssh --quiet
gcloud compute firewall-rules delete s1-inside-cloud s1-inside-iap s1-inside-internal s1-inside-ssh s2-inside-cloud s2-inside-iap s2-inside-internal s2-inside-ssh --quiet


#delete ncc spokes
gcloud network-connectivity spokes delete s2s-wrk-cr1 --region us-central1 --quiet
gcloud network-connectivity spokes delete s2s-wrk-cr2 --region us-east4 --quiet

#delete ncc hub
gcloud network-connectivity hubs delete ncc-hub --quiet

#delete the cloud router
gcloud compute routers delete wrk-cr1 --region=us-central1 --quiet
gcloud compute routers delete wrk-cr2 --region=us-east4 --quiet

#delete the instances

gcloud compute instances delete hub-r1 --zone=us-central1-a --quiet
gcloud compute instances delete hub-r2 --zone=us-east4-b --quiet
gcloud compute instances delete workload1-vm --zone=us-central1-a --quiet
gcloud compute instances delete site1-nva --zone=us-central1-a --quiet
gcloud compute instances delete site2-nva --zone=us-east4-b --quiet

#delete on prem subnets

gcloud compute networks subnets delete hub-subnet1 s1-inside-subnet site1-subnet workload-subnet1 --region=us-central1 --quiet

gcloud compute networks subnets delete hub-subnet2 s2-inside-subnet  site2-subnet workload-subnet2 --region=us-east4 --quiet 

#delete hub firewall rule
gcloud compute firewall-rules delete hub-ssh --quiet
gcloud compute firewall-rules delete hub-vpn --quiet
gcloud compute firewall-rules delete hub-internal --quiet
gcloud compute firewall-rules delete hub-iap --quiet

gcloud compute firewall-rules delete workload-ssh --quiet
gcloud compute firewall-rules delete workload-internal --quiet
gcloud compute firewall-rules delete workload-onprem --quiet
gcloud compute firewall-rules delete workload-iap --quiet

#delete on vpcs
gcloud compute networks delete hub-vpc s1-inside-vpc s2-inside-vpc site2-vpc workload-vpc --quiet 

19. Gratulacje!

Udało Ci się ukończyć laboratorium Network Connectivity Center.

Co zostało omówione

  • Skonfigurowana programowalna integracja WAN z lokalizacją NCC na potrzeby witryny NCC w chmurze
  • Skonfigurowana programowa integracja z siecią WAN definiowaną programowo dla witryn NCC

Następne kroki

© Google, LLC lub jej podmioty stowarzyszone. Wszelkie prawa zastrzeżone. Nie rozpowszechniać.