1. Wprowadzenie
Omówienie
W tym module poznasz niektóre funkcje Network Connectivity Center.
Network Connectivity Center (NCC) to model platformy sterującej typu „centrum i promienie” do zarządzania połączeniami sieciowymi w Google Cloud. Zasób centrum zapewnia scentralizowany model zarządzania połączeniami, który umożliwia łączenie promieni. NCC obsługuje obecnie te zasoby sieciowe jako promienie:
- Przyłącza VLAN
- Routery (urządzenia)
- Sieć VPN o wysokiej dostępności
Ćwiczenia wymagają użycia rozwiązania SaaS flexiWAN SD-WAN , które upraszcza wdrażanie sieci WAN i zarządzanie nią.
Co utworzysz
W tym ćwiczeniu utworzysz topologię SD-WAN typu „centrum” i „promień”, aby symulować zdalne oddziały, które będą korzystać z sieci szkieletowej Google do komunikacji między witryną a chmurą.
- W sieci VPC centrum wdrożysz parę maszyn wirtualnych GCE skonfigurowanych pod kątem agenta flexiWAN SD-WAN, które będą reprezentować punkty końcowe ruchu przychodzącego i wychodzącego do GCP.
- Wdróż 2 zdalne routery flexiWAN SD-WAN, aby reprezentowały 2 różne sieci VPC w oddziałach.
- W przypadku testowania ścieżki danych skonfigurujesz 3 maszyny wirtualne GCE, aby symulować klientów lokalnych i serwer hostowany w GCP.
Czego się nauczysz
- Łączenie zdalnych oddziałów za pomocą NCC przy użyciu rozwiązania SD-WAN typu open source
- Praktyczne doświadczenie z rozwiązaniem SD-WAN opartym na oprogramowaniu open source
Czego potrzebujesz
- znajomość sieci VPC GCP,
- Znajomość routera Cloud Router i routingu BGP
2. Cele
- Konfigurowanie środowiska GCP
- Wdrażanie instancji flexiWAN Edge w GCP
- Utwórz centrum NCC i wirtualne urządzenie sieciowe flexiWAN Edge jako promień
- Konfigurowanie instancji flexiWAN i zarządzanie nimi za pomocą flexiManage
- Skonfiguruj wymianę tras BGP między siecią vpc-app-svcs a wirtualnym urządzeniem sieciowym flexiWAN.
- Utwórz witrynę zdalną symulującą zdalny oddział klienta lub centrum danych
- Nawiązywanie tunelu IPsec między witryną zdalną a wirtualnym urządzeniem sieciowym
- Sprawdź, czy urządzenia zostały wdrożone
- Weryfikowanie przesyłania danych z witryny do chmury
- Zwalnianie miejsca używanych zasobów
Ten samouczek wymaga utworzenia bezpłatnego konta flexiManage w celu uwierzytelniania, wdrażania i zarządzania instancjami flexiEdge.
Zanim zaczniesz
Korzystanie z konsoli Google Cloud i Cloud Shell
Aby korzystać z GCP, w tym module będziemy używać zarówno konsoli Google Cloud, jak i Cloud Shell.
Google Cloud Console
Konsola Cloud jest dostępna pod adresem https://console.cloud.google.com.
Skonfiguruj w Google Cloud te elementy, aby ułatwić sobie konfigurowanie Network Connectivity Center:
W konsoli Google Cloud na stronie selektora projektów wybierz lub utwórz projekt w chmurze Google Cloud.
Uruchom Cloud Shell. To ćwiczenie wykorzystuje $zmienne, aby ułatwić implementację konfiguracji gcloud w Cloud Shell.
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=[YOUR-PROJECT-NAME]
echo $projectname
Role uprawnień
Aby uzyskać dostęp do określonych interfejsów API, NCC wymaga ról uprawnień. W razie potrzeby skonfiguruj użytkownika z rolami IAM usługi NCC.
Nazwa roli | Opis | Uprawnienia |
networkconnectivity.networkAdmin | Umożliwia administratorom sieci zarządzanie centrum i promieniami. | networkconnectivity.hubs.networkconnectivity.spokes. |
networkconnectivity.networkSpokeManager | Umożliwia dodawanie i zarządzanie promieniami w centrum. Do użycia we współdzielonym środowisku VPC, w którym główny projekt jest właścicielem centrum, ale inni administratorzy w innych projektach mogą dodawać promienie do swoich połączeń z centrum. | networkconnectivity.spokes.** |
networkconnectivity.networkUsernetworkconnectivity.networkViewer | Umożliwia użytkownikom sieci wyświetlanie różnych atrybutów centrum i promieni. | networkconnectivity.hubs.getnetworkconnectivity.hubs.listnetworkconnectivity.spokes.getnetworkconnectivity.spokes.listnetworkconnectivity.spokes.aggregatedList |
3. Konfigurowanie środowiska laboratorium sieciowego
Omówienie
W tej sekcji wdrożymy sieci VPC i reguły zapory sieciowej.

Symulowanie sieci lokalnych oddziałów
Ta sieć VPC zawiera podsieci dla lokalnych instancji maszyn wirtualnych.
Utwórz sieci i podsieci witryny lokalnej:
gcloud compute networks create site1-vpc \
--subnet-mode custom
gcloud compute networks create s1-inside-vpc \
--subnet-mode custom
gcloud compute networks subnets create site1-subnet \
--network site1-vpc \
--range 10.10.0.0/24 \
--region us-central1
gcloud compute networks subnets create s1-inside-subnet \
--network s1-inside-vpc \
--range 10.10.1.0/24 \
--region us-central1
Utwórz reguły zapory sieciowej site1-vpc, które zezwalają na:
- SSH, wewnętrzne, IAP
- ESP, UDP/500, UDP/4500
- Zakres 10.0.0.0/8
- zakres 192.168.0.0/16,
gcloud compute firewall-rules create site1-ssh \--network site1-vpc \
--allow tcp:22
gcloud compute firewall-rules create site1-internal \
--network site1-vpc \
--allow all \
--source-ranges 10.0.0.0/8
gcloud compute firewall-rules create site1-cloud \
--network site1-vpc \
--allow all \
--source-ranges 192.168.0.0/16
gcloud compute firewall-rules create site1-vpn \
--network site1-vpc \
--allow esp,udp:500,udp:4500 \
--target-tags router
gcloud compute firewall-rules create site1-iap \
--network site1-vpc --allow tcp:22 --source-ranges=35.235.240.0/20
Utwórz reguły zapory sieciowej s1-inside-vpc, które zezwalają na:
- SSH, wewnętrzne, IAP
- Zakres 10.0.0.0/8
- zakres 192.168.0.0/16,
gcloud compute firewall-rules create s1-inside-ssh \
--network s1-inside-vpc \
--allow tcp:22
gcloud compute firewall-rules create s1-inside-internal \
--network s1-inside-vpc \
--allow all \
--source-ranges 10.0.0.0/8
gcloud compute firewall-rules create s1-inside-cloud \
--network s1-inside-vpc \
--allow all \
--source-ranges 192.168.0.0/16
gcloud compute firewall-rules create s1-inside-iap \
--network site2-vpc --allow tcp:22 --source-ranges=35.235.240.0/20
Na potrzeby testów utwórz instancje s1-inside-vm i s2-inside-vm.
gcloud compute instances create s1-vm \
--zone=us-central1-a \
--machine-type=e2-micro \
--network-interface subnet=s1-inside-subnet,private-network-ip=10.10.1.3,no-address
Symulowanie środowiska sieciowego GCP Cloud
Aby włączyć ruch między regionami w sieci hub-vpc i jej odgałęzieniach, musisz włączyć routing globalny w sieci hub-vpc. Więcej informacji znajdziesz w artykule o wymianie tras w NCC.
- Utwórz sieć
hub-vpci podsieci:
gcloud compute networks create hub-vpc \
--subnet-mode custom \
--bgp-routing-mode=global
gcloud compute networks subnets create hub-subnet1 \
--network hub-vpc \
--range 10.1.0.0/24 \
--region us-central1
gcloud compute networks subnets create hub-subnet2 \
--network hub-vpc \
--range 10.2.0.0/24 \
--region us-east4
- Utwórz sieć
workload-vpci podsieci:
gcloud compute networks create workload-vpc \
--subnet-mode custom \
--bgp-routing-mode=global
gcloud compute networks subnets create workload-subnet1 \
--network workload-vpc \
--range 192.168.235.0/24 \
--region us-central1
- Utwórz reguły zapory sieciowej sieci VPC koncentratora, aby zezwalać na:
- SSH
- ESP, UDP/500, UDP/4500
- wewnętrzny zakres 10.0.0.0/8 (który obejmuje port TCP 179 wymagany w przypadku sesji BGP z routera Cloud Router do urządzenia routera);
gcloud compute firewall-rules create hub-ssh \
--network hub-vpc \
--allow tcp:22
gcloud compute firewall-rules create hub-vpn \
--network hub-vpc \
--allow esp,udp:500,udp:4500 \
--target-tags router
gcloud compute firewall-rules create hub-internal \
--network hub-vpc \
--allow all \
--source-ranges 192.168.0.0/16
gcloud compute firewall-rules create hub-iap \
--network hub-vpc --allow tcp:22 --source-ranges=35.235.240.0/20
- Utwórz reguły zapory sieciowej Workload-VPC, które zezwalają na:
- SSH
- wewnętrzny zakres 192.168.0.0/16 (który obejmuje port TCP 179 wymagany w przypadku sesji BGP z routera Cloud Router do urządzenia routera);
gcloud compute firewall-rules create workload-ssh \
--network workload-vpc \
--allow tcp:22
gcloud compute firewall-rules create workload-internal \
--network workload-vpc \
--allow all \
--source-ranges 192.168.0.0/16
gcloud compute firewall-rules create workload-onprem \
--network hub-vpc \
--allow all \
--source-ranges 10.0.0.0/8
gcloud compute firewall-rules create workload-iap \
--network workload-vpc --allow tcp:22 --source-ranges=35.235.240.0/20
- Włącz Cloud NAT w sieci VPC zadań, aby umożliwić pobieranie pakietów przez maszynę wirtualną workload1-vm, tworząc router Cloud Router i bramę NAT.
gcloud compute routers create cloud-router-usc-central-1-nat \
--network workload-vpc \
--region us-central1
gcloud compute routers nats create cloudnat-us-central1 \
--router=cloud-router-usc-central-1-nat \
--auto-allocate-nat-external-ips \
--nat-all-subnet-ip-ranges \
--region us-central1
- Utwórz hosta
workload1-vmin "us-central1-a" inworkload-VPC. Będzie on służyć do weryfikowania połączenia między witryną a chmurą.
gcloud compute instances create workload1-vm \
--project=$projectname \
--machine-type=e2-micro \
--image-family debian-10 \
--image-project debian-cloud \
--zone us-central1-a \
--private-network-ip 192.168.235.3 \
--no-address \
--subnet=workload-subnet1 \
--metadata startup-script="#! /bin/bash
sudo apt-get update
sudo apt-get install apache2 -y
sudo service apache2 restart
echo 'Welcome to Workload VM1 !!' | tee /var/www/html/index.html
EOF"
4. Konfigurowanie urządzeń lokalnych dla SD-WAN

Tworzenie lokalnej maszyny wirtualnej na potrzeby SD-WAN (urządzenia)
W następnej sekcji utworzymy sieć site1-nva, która będzie pełnić rolę routerów lokalnych.
Tworzenie instancji
Utwórz urządzenie site1-router o nazwie site1-nva.
gcloud compute instances create site1-nva \
--zone=us-central1-a \
--machine-type=e2-medium \
--network-interface subnet=site1-subnet \
--network-interface subnet=s1-inside-subnet,no-address \
--create-disk=auto-delete=yes,boot=yes,device-name=flex-gcp-nva-1,image=projects/ubuntu-os-cloud/global/images/ubuntu-1804-bionic-v20220901,mode=rw,size=20,type=projects/$projectname/zones/us-central1-a/diskTypes/pd-balanced \
--no-shielded-secure-boot \
--shielded-vtpm \
--shielded-integrity-monitoring \
--reservation-affinity=any \
--can-ip-forward
5. Instalowanie flexiWAN w witrynie1-nva
Otwórz połączenie SSH z urządzeniem site1-nva. Jeśli przekroczono limit czasu, spróbuj ponownie.
gcloud compute ssh site1-nva --zone=us-central1-a
Instalowanie flexiWAN w witrynie1-nva
sudo su
sudo curl -sL https://deb.flexiWAN.com/setup | sudo bash -
apt install flexiWAN-router -y
Przygotuj maszynę wirtualną do rejestracji platformy sterującej flexiWAN.
Po zakończeniu instalacji flexiWAN uruchom polecenie fwsystem_checker, aby przygotować maszynę wirtualną do działania flexiWAN. To polecenie sprawdza wymagania systemowe i pomaga naprawić błędy konfiguracji w systemie.
- Wybierz opcję
2, aby szybko i cicho skonfigurować urządzenie. - następnie wyjdź z niej, wpisując 0.
- Nie zamykaj okna Cloud Shell.
root@site-1-nva-1:/home/user# fwsystem_checker
<output snipped>
[0] - quit and use fixed parameters
1 - check system configuration
2 - configure system silently
3 - configure system interactively
4 - restore system checker settings to default
------------------------------------------------
Choose: 2
<output snipped>
[0] - quit and use fixed parameters
1 - check system configuration
2 - configure system silently
3 - configure system interactively
4 - restore system checker settings to default
------------------------------------------------
Choose: 0
Please wait..
Done.
=== system checker ended ====
Nie zamykaj sesji, aby wykonać kolejne czynności.
6. Zarejestruj witrynę site1-nva w kontrolerze SD-WAN.
Te czynności są wymagane do ukończenia aprowizacji wirtualnego urządzenia sieciowego flexiWAN, którym zarządza się z konsoli flexiManage. Zanim przejdziesz dalej, upewnij się, że organizacja flexiWAN jest skonfigurowana.
Uwierzytelnij nowo wdrożoną wirtualną sieć flexiWAN za pomocą flexiManage, używając tokena zabezpieczającego. W tym celu zaloguj się na konto flexiManage. Ten sam token może być używany na wszystkich routerach.
Wybierz Zasoby reklamowe → Tokeny,utwórz token i kliknij „Kopiuj”.

Wróć do Cloud Shell (site1-nva) i wklej token do katalogu /etc/flexiWAN/agent/token.txt, wykonując te czynności:
nano /etc/flexiWAN/agent/token.txt
#Paste the generated token obtain from flexiManage
#Exit session with CTRL+X and Select Y to save then enter

Aktywuj routery witryn w konsoli flexiManage
Zaloguj się w konsoli flexiManage, aby aktywować witrynę1-nva na kontrolerze.
W panelu po lewej stronie wybierz Zasoby → Urządzenia, a następnie kliknij urządzenie „Nieznane”.

Wpisz nazwę hosta urządzenia site1-nva i zatwierdź urządzenie, przesuwając pokrętło w prawo.

Wybierz kartę Interfejsy.
Znajdź kolumnę „Przypisano”, kliknij „Nie” i zmień ustawienie na „Tak”.

Wybierz kartę Zapora sieciowa i kliknij znak „+”, aby dodać regułę zapory sieciowej ruchu przychodzącego.
Wybierz interfejs sieci WAN, do którego chcesz zastosować regułę SSH, zgodnie z opisem poniżej.

Kliknij Zaktualizuj urządzenie.
Uruchom sieć site1-nva z kontrolera flexiWAN. Wróć do Inventory → Devices → site1-nva (Inwentarz → Urządzenia → site1-nva) i kliknij ‘Start Device' (Uruchom urządzenie).
Stan – Synchronizuję

Stan – Zsynchronizowano

Wskaźnik ostrzegawczy jest widoczny w sekcji Rozwiązywanie problemów → Powiadomienia. Po wyświetleniu wszystkich wiadomości wybierz je i oznacz jako przeczytane.

7. Konfigurowanie urządzeń SD-WAN w węźle
W następnej sekcji utworzysz i zarejestrujesz routery centrum (hub-r1) w kontrolerze flexiWAN, tak jak wcześniej w przypadku routerów witryny.
Otwórz nową kartę i utwórz sesję Cloud Shell. Zaktualizuj zmienne, aby ułatwić wdrożenie konfiguracji gcloud.
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=[YOUR-PROJECT-NAME]
echo $projectname
Tworzenie instancji wirtualnych urządzeń sieciowych w centrum
Utwórz urządzenie hub-r1:
gcloud compute instances create hub-r1 \
--zone=us-central1-a \
--machine-type=e2-medium \
--network-interface subnet=hub-subnet1 \
--network-interface subnet=workload-subnet1,no-address \
--can-ip-forward \
--create-disk=auto-delete=yes,boot=yes,device-name=flex-gcp-nva-1,image=projects/ubuntu-os-cloud/global/images/ubuntu-1804-bionic-v20220901,mode=rw,size=20,type=projects/$projectname/zones/us-central1-a/diskTypes/pd-balanced \
--no-shielded-secure-boot \
--shielded-vtpm \
--shielded-integrity-monitoring \
--reservation-affinity=any
8. Instalowanie flexiWAN na instancjach Hub dla hub-r1
Otwórz połączenie SSH z węzłem hub-r1.
gcloud compute ssh hub-r1 --zone=us-central1-a
Zainstaluj agenta flexiWAN na obu urządzeniach hub-r1
sudo su
sudo curl -sL https://deb.flexiWAN.com/setup | sudo bash -
apt install flexiWAN-router -y
Przygotuj maszyny wirtualne hub-r1 do rejestracji w flexiWAN.
Po zakończeniu instalacji flexiWAN uruchom polecenie fwsystem_checker, aby przygotować maszynę wirtualną do działania flexiWAN. To polecenie sprawdza wymagania systemowe i pomaga naprawić błędy konfiguracji w systemie.
root@hub-r1:/home/user# fwsystem_checker
- Wybierz opcję
2, aby szybko i cicho skonfigurować urządzenie. - następnie wyjdź z niej, wpisując 0.
- Nie zamykaj okna Cloud Shell.
9. Rejestrowanie maszyn wirtualnych hub-r1 na kontrolerze FlexManage
Uwierzytelnij nowo wdrożoną wirtualną sieć flexiWAN za pomocą flexiManage, używając tokena zabezpieczającego. W tym celu zaloguj się na konto flexiManage.
- Kliknij Zasoby reklamowe → Tokeny i skopiuj token.
Wróć do Cloud Shell (hub-r1) i wklej token do katalogu /etc/flexiWAN/agent/token.txt, wykonując te czynności:
nano /etc/flexiWAN/agent/token.txt
#Paste the generated token obtain from flexiManage
#Exit session with CTRL+X and Select Y to save then enter
Aktywuj routery centralne hub-r1 w konsoli flexiManage
Logowanie się w konsoli flexiManage
- Kliknij Zasoby reklamowe → Urządzenia.
- Znajdź i zanotuj nazwę hosta dla hub-r1 to „unknown”.

Wybierz nieokreślone urządzenie o nazwie hosta hub-r1.
- Wpisz nazwę hosta hub-r1.
- Zatwierdź urządzenie, przesuwając pokrętło w prawo.
Kliknij kartę Interfejsy.
- Znajdź kolumnę „Przypisano”.
- Obok wiersza interfejsu kliknij „Nie”, aby zmienić ustawienie na „Tak”.
Wybierz kartę Zapora sieciowa.
- Kliknij „+”, aby dodać regułę zapory sieciowej dla ruchu przychodzącego.
- Wybierz interfejs sieci WAN, który ma dziedziczyć regułę.
- Zezwalaj na port SSH 22 z protokołem TCP
- Kliknij Zaktualizuj urządzenie.
Uruchom urządzenie hub-r1 dla SD-WAN z kontrolera flexiWAN
- Wróć do sekcji Asortyment → Urządzenia → hub-r1.
Wybierz „Uruchom urządzenie”.
- Poczekaj na zakończenie synchronizacji i zwróć uwagę na stan „trwa”.
10. Network Connectivity Center w GCP Hub

Włączanie usług API
Włącz interfejs Network Connectivity API, jeśli nie jest jeszcze włączony:
gcloud services enable networkconnectivity.googleapis.com
Tworzenie centrum NCC
gcloud network-connectivity hubs create ncc-hub
Create request issued for: [ncc-hub]
Waiting for operation [projects/user-3p-dev/locations/global/operations/operation-1668793629598-5edc24b7ee3ce-dd4c765b-5ca79556] to complete...done.
Created hub [ncc-hub]
Skonfiguruj oba urządzenia routera jako promień NCC
Znajdź identyfikator URI i adres IP obu węzłów hub-r1 i zanotuj dane wyjściowe. Te informacje będą potrzebne w następnym kroku.
Zapisz adres IP instancji hub-r1.
gcloud compute instances describe hub-r1 \
--zone=us-central1-a \
--format="value(selfLink.scope(projects))"
gcloud compute instances describe hub-r1 --zone=us-central1-a | grep "networkIP"
Dodaj interfejs sieciowy maszyny wirtualnej hub-r1 networkIP jako sieć typu spoke. Domyślnie przenoszenie danych witryn między lokalizacjami jest wyłączone.
gcloud network-connectivity spokes linked-router-appliances create s2c-wrk-cr1 \
--hub=ncc-hub \
--router-appliance=instance="https://www.googleapis.com/compute/projects/$projectname/zones/us-central1-a/instances/hub-r1",ip=192.168.235.4 \
--region=us-central1 \
--site-to-site-data-transfer
Skonfiguruj router Cloud Router, aby ustanowić sesję BGP z routerem Hub-R1
W następnym kroku utwórz router Cloud Router i ogłoś podsieć VPC zadania 192.168.235.0/24.
Utwórz router Cloud Router w regionie us-central1, który będzie komunikować się z protokołem BGP z routerem hub-r1.
gcloud compute routers create wrk-cr1 \
--region=us-central1 \
--network=workload-vpc \
--asn=65002 \
--set-advertisement-groups=all_subnets
Skonfigurowanie urządzeń routera jako węzła NCC umożliwia routerowi Cloud Router negocjowanie protokołu BGP na interfejsach wirtualnych.
Utwórz 2 interfejsy na routerze Cloud Router, które będą wymieniać wiadomości BGP z routerem hub-r1.
Adresy IP są wybierane z podsieci zbioru zadań i w razie potrzeby można je zmienić.
gcloud compute routers add-interface wrk-cr1 \
--region=us-central1 \
--subnetwork=workload-subnet1 \
--interface-name=int0 \
--ip-address=192.168.235.101
gcloud compute routers add-interface wrk-cr1 \
--region=us-central1 \
--subnetwork=workload-subnet1 \
--interface-name=int1 \
--ip-address=192.168.235.102 \
--redundant-interface=int0
Skonfiguruj interfejs routera Cloud Router, aby ustanowić sesję BGP z interfejsem vNIC-1 routera hub-r1, i zaktualizuj adres IP peera za pomocą adresu IP sieciowego routera hub-r1. Pamiętaj, że ten sam adres IP jest używany w przypadku interfejsów int0 i int1.
gcloud compute routers add-bgp-peer wrk-cr1 \
--peer-name=hub-cr1-bgp-peer-0 \
--interface=int0 \
--peer-ip-address=192.168.235.4 \
--peer-asn=64111 \
--instance=hub-r1 \
--instance-zone=us-central1-a \
--region=us-central1
gcloud compute routers add-bgp-peer wrk-cr1 \
--peer-name=hub-cr1-bgp-peer-1 \
--interface=int1 \
--peer-ip-address=192.168.235.4 \
--peer-asn=64111 \
--instance=hub-r1 \
--instance-zone=us-central1-a \
--region=us-central1
Sprawdź stan BGP. Na tym etapie laboratorium BGP jest w stanie „connect state”, ponieważ urządzenie routera sieciowego nie zostało skonfigurowane pod kątem BGP.
gcloud compute routers get-status wrk-cr1 --region=us-central1
11. Konfigurowanie urządzeń routera centrum pod kątem protokołu BGP
Konfigurowanie routera hub-r1 na potrzeby BGP
Zaloguj się w konsoli flexiManage.
Kliknij Zasoby reklamowe → Urządzenia → hub-r1 i wybierz urządzenie o nazwie HostName:hub-r1.
- Kliknij kartę „Routing”.
- Kliknij „Konfiguracja BGP”.
- Wyłącz „Redistribute OSPF Routes”
- Skonfiguruj hub-r1 dla BGP z tymi parametrami i kliknij „Zapisz”.

Wybierz kartę „Interfejsy”, znajdź interfejs LAN i kolumnę „Routing”.
- Kliknij „brak”, aby otworzyć menu i wybrać BGP jako protokół routingu.

- U góry strony kliknij „Zaktualizuj urządzenie”.
12. Wymiana tras protokołu BGP między routerami wirtualnymi
Ustanawianie lokalnego identyfikatora ASN dla witryn zdalnych
Skonfiguruj lokalny numer ASN BGP dla witryny site1-nva. Po skonfigurowaniu ustanowimy tunel IPSEC między witrynami zdalnymi a routerami koncentratora.
Wybierz urządzenie z wartością HostName:site1-nva.
- Kliknij kartę „Routing”.
- Kliknij „Konfiguracja BGP”.
- Wyłącz „Redistribute OSPF Routes”
- Lokalny ASN 7269 → Zapisz
- Zaktualizuj urządzenie
- Karta Interfejsy → Routing → BGP
- Zaktualizuj urządzenie
Konfigurowanie tuneli VPN między urządzeniami Site1 i Hub1
Zaloguj się w konsoli flexiManage.
- Kliknij Zasoby reklamowe → Urządzenia.
- Zaznacz pole obok nazwy hosta site1-nva i hub-r1, aby utworzyć tunel VPN między tą parą wirtualnych urządzeń sieciowych.
- Kliknij Działania → Utwórz tunele i skonfiguruj te ustawienia:

- Kliknij Utwórz tunele.
Sprawdź, czy „site1-nva” nauczył się tras do podsieci 192.168.235.0/24 i 192.168.236.0/24.
- Wybierz Asortyment → Urządzenia → site1-nva i kliknij kartę „Routing”.
W przykładzie poniżej flexiWAN automatycznie utworzył tunel przy użyciu adresu IP hosta 10.100.0.6. 
13. Sprawdzanie łączności ścieżki danych
Sprawdzanie połączenia z witryny z chmurą z lokalnego środowiska
Zapoznaj się z diagramem. Sprawdź, czy ścieżka danych między s1-vm a workload1-vm

Konfigurowanie tras statycznych VPC dla połączenia z lokalizacji do chmury
Sieć lokalna Site1-VPC symuluje sieć lokalnego centrum danych.
Oba urządzenia routera Site-1-nva korzystają z połączenia VPN, aby uzyskać dostęp do sieci centralnej.
W przypadku scenariusza użycia typu sieć lokalna – chmura** utwórz trasy statyczne do miejsca docelowego 192.168.0.0/16, używając routera wirtualnego jako następnego przeskoku, aby dotrzeć do sieci w sieci chmury GCP.
Na instancji s1-inside-vpc utwórz trasę statyczną do miejsca docelowego w chmurze (192.168.0.0/16):
gcloud compute routes create site1-subnet-route \
--network=s1-inside-vpc \
--destination-range=192.168.0.0/16 \
--next-hop-instance=site1-nva \
--next-hop-instance-zone=us-central1-a
W Cloud Shell wyszukaj adres IP workload1-vmnee. Będzie Ci to potrzebne do przetestowania połączenia z instancji „s1-vm”.
gcloud compute instances describe workload1-vm --zone=us-central1-a | grep "networkIP"
Połącz się przez SSH z maszyną wirtualną s1-vm i użyj polecenia curl, aby nawiązać sesję TCP z adresem IP maszyny wirtualnej workload1-VM.
s1-vm:~$ curl 192.168.235.3 -vv * Trying 192.168.235.3:80... * Connected to 192.168.235.3 (192.168.235.3) port 80 (#0) > GET / HTTP/1.1 > Host: 192.168.235.3 > User-Agent: curl/7.74.0 > Accept: */* > * Mark bundle as not supporting multiuse < HTTP/1.1 200 OK < Date: Wed, 07 Dec 2022 15:12:08 GMT < Server: Apache/2.4.54 (Debian) < Last-Modified: Tue, 06 Dec 2022 00:57:46 GMT < ETag: "1f-5ef1e4acfa1d9" < Accept-Ranges: bytes < Content-Length: 31 < Content-Type: text/html < Page served from: workload1-vm * Connection #0 to host 192.168.235.3 left intact
14. Czyszczenie
Usuwanie zasobów lokalnych
Zaloguj się w Cloud Shell i usuń instancje maszyn wirtualnych w sieciach witryn centralnej i oddziału.
#onprem instances
gcloud compute instances delete s1-vm --zone=us-central1-a --quiet
#delete on prem firewall rules
gcloud compute firewall-rules delete site1-ssh --quiet
gcloud compute firewall-rules delete site1-internal --quiet
gcloud compute firewall-rules delete site1-cloud --quiet
gcloud compute firewall-rules delete site1-vpn --quiet
gcloud compute firewall-rules delete site1-iap --quiet
#delete on prem subnets
gcloud compute networks subnets delete site1-subnet --quiet
gcloud compute networks subnets delete s1-inside-subnet --quiet
gcloud compute networks subnets delete s1-inside-subnet --quiet
#delete on prem vpcs
gcloud compute networks delete site1-vpc --quiet
gcloud compute networks delete s1-inside-vpc --quiet
Usuwanie zasobów Cloud Hub
Zaloguj się w Cloud Shell i usuń instancje maszyn wirtualnych w sieciach witryn centralnej i oddziału.
#delete ncc spokes
gcloud network-connectivity spokes delete s2c-wrk-cr1 --region us-central1 --quiet
#delete ncc hub
gcloud network-connectivity hubs delete ncc-hub --quiet
#delete hub instances
gcloud compute instances delete hub-r1 --zone=us-central1-a --quiet
#delete hub firewall rule
gcloud compute firewall-rules delete hub-ssh --quiet
gcloud compute firewall-rules delete hub-vpn --quiet
gcloud compute firewall-rules delete hub-internal --quiet
gcloud compute firewall-rules delete hub-iap --quiet
gcloud compute firewall-rules create workload-ssh --quiet
gcloud compute firewall-rules create workload-internal --quiet
gcloud compute firewall-rules create workload-onprem --quiet
gcloud compute firewall-rules create workload-iap --quiet
#delete hub subnets
gcloud compute networks subnets delete workload-subnet1 --quiet
gcloud compute networks subnets delete hub-subnet1 --quiet
#delete hub vpcs
gcloud compute networks delete workload-vpc --quiet
gcloud compute networks delete hub-vpc --quiet
15. Gratulacje!
Laboratorium Network Connectivity Center zostało ukończone.
Omówione kwestie
- Skonfigurowana integracja sieci SD-WAN dla połączenia lokalizacji NCC z chmurą
Następne kroki
- Omówienie Network Connectivity Center
- Dokumentacja Network Connectivity Center
- zasoby flexiWAN,
- Repozytorium flexiWAN GitLab
© Google LLC lub jej podmioty stowarzyszone. Wszelkie prawa zastrzeżone. Nie rozpowszechniać.



