1. Введение
Обзор
В этой лабораторной работе вы изучите некоторые функции Центра управления сетевыми подключениями.
Центр управления сетевыми подключениями (NCC) — это модель управления с использованием архитектуры «звезда» для управления сетевыми подключениями в Google Cloud. Ресурс «звезда» предоставляет централизованную модель управления подключениями для соединения «звезд». В настоящее время NCC поддерживает следующие сетевые ресурсы в качестве «звезд»:
- Подключение VLAN
- Маршрутизаторы
- HA VPN
Для работы Codelabs требуется использование решения flexiWAN SaaS SD-WAN , которое упрощает развертывание и управление WAN-сетью.
Что вы построите
В этом практическом занятии вы создадите топологию SD-WAN типа «звезда» для имитации удаленных филиалов, которые будут использовать магистральную сеть Google для связи между сайтом и облаком.
- Вам потребуется развернуть пару виртуальных машин GCE, настроенных для агента flexiWAN SD-WAN, в центральной VPC, которые будут представлять собой головные станции для входящего и исходящего трафика в GCP.
- Разверните два удаленных маршрутизатора flexiWAN SD-WAN, чтобы представить две разные VPC филиалов.
- Для тестирования пути передачи данных вам потребуется настроить три виртуальные машины GCE для имитации локальных клиентов и сервера, размещенных в GCP.
Что вы узнаете
- Использование NCC для соединения удаленных филиалов с помощью решения на основе программно-определяемой глобальной сети (SDN) с открытым исходным кодом.
- Практический опыт работы с программно-определяемым решением WAN с открытым исходным кодом.
Что вам понадобится
- Знание сети GCP VPC
- Знание Cloud Router и маршрутизации BGP.
2. Цели
- Настройка среды GCP
- Разверните экземпляры flexiWAN Edge в GCP.
- Создайте NCC Hub и flexiWAN Edge NVA в качестве периферийного узла.
- Настраивайте и управляйте экземплярами flexiWAN с помощью flexiManage.
- Настройте обмен маршрутами BGP между vpc-app-svcs и flexiWAN NVA.
- Создайте удаленный объект, имитирующий удаленный филиал клиента или центр обработки данных.
- Создайте IPSEC-туннель между удаленным объектом и NVA.
- Проверьте успешность развертывания устройств.
- Проверка передачи данных с сайта в облако.
- Очистка использованных ресурсов
Для прохождения аутентификации, подключения и управления экземплярами flexiEdge в рамках этого руководства необходимо создать бесплатную учетную запись flexiManage .
Прежде чем начать
Использование консоли Google Cloud и Cloud Shell
Для взаимодействия с GCP в ходе этой лабораторной работы мы будем использовать как консоль Google Cloud, так и Cloud Shell.
Консоль Google Cloud
Доступ к консоли Cloud Console можно получить по адресу https://console.cloud.google.com .
Для упрощения настройки Центра сетевого подключения настройте следующие элементы в Google Cloud:
В консоли Google Cloud на странице выбора проекта выберите или создайте проект Google Cloud.
Запустите Cloud Shell . В этом практическом занятии используются переменные `$variables` для упрощения настройки gcloud в Cloud Shell.
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=[YOUR-PROJECT-NAME]
echo $projectname
Роли IAM
Для доступа к определенным API в NCC требуются роли IAM. Убедитесь, что вы настроили пользователя с необходимыми ролями IAM в NCC.
Название роли | Описание | Разрешения |
networkconnectivity.networkAdmin | Позволяет сетевым администраторам управлять системой "центр-периферия". | networkconnectivity.hubs. networkconnectivity.spokes. |
networkconnectivity.networkSpokeManager | Позволяет добавлять и управлять периферийными узлами в хабе. Предназначен для использования в общей виртуальной частной сети (Shared VPC), где хаб принадлежит хост-проекту, но другие администраторы в других проектах могут добавлять периферийные узлы для своих подключений к хабу. | networkconnectivity.spokes.** |
networkconnectivity.networkUsernetworkconnectivity.networkViewer | Позволяет пользователям сети просматривать различные атрибуты центральной и периферийной сетей. | networkconnectivity.hubs.getnetworkconnectivity.hubs.listnetworkconnectivity.spokes.getnetworkconnectivity.spokes.listnetworkconnectivity.spokes.aggregatedList |
3. Настройка среды сетевой лаборатории
Обзор
В этом разделе мы развернем сети VPC и правила брандмауэра.

Имитация локальных сетей филиалов
Эта сеть VPC содержит подсети для локальных экземпляров виртуальных машин.
Создайте локальные сети и подсети:
gcloud compute networks create site1-vpc \
--subnet-mode custom
gcloud compute networks create s1-inside-vpc \
--subnet-mode custom
gcloud compute networks subnets create site1-subnet \
--network site1-vpc \
--range 10.10.0.0/24 \
--region us-central1
gcloud compute networks subnets create s1-inside-subnet \
--network s1-inside-vpc \
--range 10.10.1.0/24 \
--region us-central1
Создайте правила брандмауэра site1-vpc , разрешающие:
- SSH, внутренний, IAP
- ESP, UDP/500, UDP/4500
- диапазон 10.0.0.0/8
- 192.168.0.0/16 диапазон
gcloud compute firewall-rules create site1-ssh \--network site1-vpc \
--allow tcp:22
gcloud compute firewall-rules create site1-internal \
--network site1-vpc \
--allow all \
--source-ranges 10.0.0.0/8
gcloud compute firewall-rules create site1-cloud \
--network site1-vpc \
--allow all \
--source-ranges 192.168.0.0/16
gcloud compute firewall-rules create site1-vpn \
--network site1-vpc \
--allow esp,udp:500,udp:4500 \
--target-tags router
gcloud compute firewall-rules create site1-iap \
--network site1-vpc --allow tcp:22 --source-ranges=35.235.240.0/20
Создайте правила брандмауэра s1-inside-vpc , разрешающие:
- SSH, внутренний, IAP
- диапазон 10.0.0.0/8
- 192.168.0.0/16 диапазон
gcloud compute firewall-rules create s1-inside-ssh \
--network s1-inside-vpc \
--allow tcp:22
gcloud compute firewall-rules create s1-inside-internal \
--network s1-inside-vpc \
--allow all \
--source-ranges 10.0.0.0/8
gcloud compute firewall-rules create s1-inside-cloud \
--network s1-inside-vpc \
--allow all \
--source-ranges 192.168.0.0/16
gcloud compute firewall-rules create s1-inside-iap \
--network site2-vpc --allow tcp:22 --source-ranges=35.235.240.0/20
Для целей тестирования создайте экземпляры s1-inside-vm и s2-inside-vm
gcloud compute instances create s1-vm \
--zone=us-central1-a \
--machine-type=e2-micro \
--network-interface subnet=s1-inside-subnet,private-network-ip=10.10.1.3,no-address
Имитация сетевой среды облака GCP
Для обеспечения межрегионального трафика между площадками через сеть hub-vpc и периферийные узлы необходимо включить глобальную маршрутизацию в сети hub-vpc . Подробнее см. в разделе « Обмен маршрутами NCC».
- Создайте сеть и подсети
hub-vpc:
gcloud compute networks create hub-vpc \
--subnet-mode custom \
--bgp-routing-mode=global
gcloud compute networks subnets create hub-subnet1 \
--network hub-vpc \
--range 10.1.0.0/24 \
--region us-central1
gcloud compute networks subnets create hub-subnet2 \
--network hub-vpc \
--range 10.2.0.0/24 \
--region us-east4
- Создайте сеть и подсети
workload-vpc:
gcloud compute networks create workload-vpc \
--subnet-mode custom \
--bgp-routing-mode=global
gcloud compute networks subnets create workload-subnet1 \
--network workload-vpc \
--range 192.168.235.0/24 \
--region us-central1
- Создайте правила брандмауэра Hub-VPC, разрешающие:
- SSH
- ESP, UDP/500, UDP/4500
- Внутренний диапазон 10.0.0.0/8 (который охватывает TCP-порт 179, необходимый для сессии BGP от облачного маршрутизатора к маршрутизатору)
gcloud compute firewall-rules create hub-ssh \
--network hub-vpc \
--allow tcp:22
gcloud compute firewall-rules create hub-vpn \
--network hub-vpc \
--allow esp,udp:500,udp:4500 \
--target-tags router
gcloud compute firewall-rules create hub-internal \
--network hub-vpc \
--allow all \
--source-ranges 192.168.0.0/16
gcloud compute firewall-rules create hub-iap \
--network hub-vpc --allow tcp:22 --source-ranges=35.235.240.0/20
- Создайте правила брандмауэра Workload-VPC, разрешающие:
- SSH
- Внутренний диапазон 192.168.0.0/16 (который охватывает TCP-порт 179, необходимый для сессии BGP от облачного маршрутизатора к маршрутизатору)
gcloud compute firewall-rules create workload-ssh \
--network workload-vpc \
--allow tcp:22
gcloud compute firewall-rules create workload-internal \
--network workload-vpc \
--allow all \
--source-ranges 192.168.0.0/16
gcloud compute firewall-rules create workload-onprem \
--network hub-vpc \
--allow all \
--source-ranges 10.0.0.0/8
gcloud compute firewall-rules create workload-iap \
--network workload-vpc --allow tcp:22 --source-ranges=35.235.240.0/20
- Включите Cloud NAT в VPC рабочей нагрузки, чтобы разрешить виртуальной машине рабочей нагрузки 1 загружать пакеты, создав Cloud Router и NAT Gateway.
gcloud compute routers create cloud-router-usc-central-1-nat \
--network workload-vpc \
--region us-central1
gcloud compute routers nats create cloudnat-us-central1 \
--router=cloud-router-usc-central-1-nat \
--auto-allocate-nat-external-ips \
--nat-all-subnet-ip-ranges \
--region us-central1
- Создайте виртуальную машину
workload1-vmin "us-central1-a" inworkload-VPC. Вы будете использовать этот хост для проверки подключения сайта к облаку.
gcloud compute instances create workload1-vm \
--project=$projectname \
--machine-type=e2-micro \
--image-family debian-10 \
--image-project debian-cloud \
--zone us-central1-a \
--private-network-ip 192.168.235.3 \
--no-address \
--subnet=workload-subnet1 \
--metadata startup-script="#! /bin/bash
sudo apt-get update
sudo apt-get install apache2 -y
sudo service apache2 restart
echo 'Welcome to Workload VM1 !!' | tee /var/www/html/index.html
EOF"
4. Настройка локальных устройств для SD-WAN

Создание локальной виртуальной машины для SDWAN (устройств).
В следующем разделе мы создадим конфигурацию site1-nva, которая будет выполнять функции локальных маршрутизаторов.
Создание экземпляров
Создайте виртуальное устройство site1-router с именем site1-nva.
gcloud compute instances create site1-nva \
--zone=us-central1-a \
--machine-type=e2-medium \
--network-interface subnet=site1-subnet \
--network-interface subnet=s1-inside-subnet,no-address \
--create-disk=auto-delete=yes,boot=yes,device-name=flex-gcp-nva-1,image=projects/ubuntu-os-cloud/global/images/ubuntu-1804-bionic-v20220901,mode=rw,size=20,type=projects/$projectname/zones/us-central1-a/diskTypes/pd-balanced \
--no-shielded-secure-boot \
--shielded-vtpm \
--shielded-integrity-monitoring \
--reservation-affinity=any \
--can-ip-forward
5. Установите flexiWAN на site1-nva
Установите SSH-соединение с site1-nva, если произойдет таймаут, попробуйте снова.
gcloud compute ssh site1-nva --zone=us-central1-a
Установите flexiWAN на site1-nva
sudo su
sudo curl -sL https://deb.flexiWAN.com/setup | sudo bash -
apt install flexiWAN-router -y
Подготовьте виртуальную машину к регистрации в плоскости управления flexiWAN.
После завершения установки flexiWAN выполните команду fwsystem_checker , чтобы подготовить виртуальную машину к работе с flexiWAN. Эта команда проверяет системные требования и помогает исправить ошибки конфигурации в вашей системе.
- Выберите вариант
2для быстрой и бесшумной настройки. - Затем завершите работу с кодом 0 .
- Не закрывайте окно облачной оболочки.
root@site-1-nva-1:/home/user# fwsystem_checker
<output snipped>
[0] - quit and use fixed parameters
1 - check system configuration
2 - configure system silently
3 - configure system interactively
4 - restore system checker settings to default
------------------------------------------------
Choose: 2
<output snipped>
[0] - quit and use fixed parameters
1 - check system configuration
2 - configure system silently
3 - configure system interactively
4 - restore system checker settings to default
------------------------------------------------
Choose: 0
Please wait..
Done.
=== system checker ended ====
Оставьте сессию открытой для выполнения следующих шагов.
6. Зарегистрируйте site1-nva в контроллере SD-WAN.
Эти шаги необходимы для завершения настройки виртуального устройства flexiWAN NVA, администрируемого из консоли flexiManage . Перед продолжением убедитесь, что организация flexiWAN настроена.
Для аутентификации недавно развернутого сетевого модуля flexiWAN NVA в системе flexiManage используйте токен безопасности, войдя в свою учетную запись flexiManage. Один и тот же токен можно использовать для всех маршрутизаторов.
Выберите «Инвентарь» → «Токены», создайте токен и выберите «Копировать».

Вернитесь в Cloud Shell (site1-nva) и вставьте токен в каталог /etc/flexiWAN/agent/token.txt, выполнив следующие действия.
nano /etc/flexiWAN/agent/token.txt
#Paste the generated token obtain from flexiManage
#Exit session with CTRL+X and Select Y to save then enter

Активируйте маршрутизаторы сайта в консоли flexiManage.
Войдите в консоль flexiManage, чтобы активировать site1-nva на контроллере.
В левой панели выберите «Инвентаризация» → «Устройства» и щелкните устройство «Неизвестное» .

Введите имя хоста site1-nva и подтвердите устройство, переместив ползунок вправо.

Выберите вкладку « Интерфейсы» .
Найдите столбец « Назначено », нажмите « Нет » и измените значение на « Да ».

Выберите вкладку «Брандмауэр» и нажмите знак «+» , чтобы добавить правило брандмауэра для входящего трафика.
Выберите WAN-интерфейс, чтобы применить правило SSH, как описано ниже.

Нажмите « Обновить устройство »
Запустите site1-nva с контроллера flexiWAN. Вернитесь в раздел «Инвентаризация» → «Устройства» → site1-nva и выберите «Запустить устройство».
Статус - Синхронизация

Статус - Синхронизировано

Предупреждающий индикатор можно просмотреть в разделе «Устранение неполадок» → «Уведомления» . После просмотра выберите все уведомления и отметьте их как прочитанные.

7. Настройка центральных SDWAN-устройств
В следующем разделе вы создадите и зарегистрируете маршрутизаторы Hub (hub-r1) в контроллере flexiWAN, как это было сделано ранее с маршрутами сайта.
Откройте новую вкладку и создайте сессию Cloud Shell , обновите переменные $variables для упрощения настройки gcloud.
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=[YOUR-PROJECT-NAME]
echo $projectname
Создание экземпляров Hub NVA
Создайте виртуальное устройство hub-r1 :
gcloud compute instances create hub-r1 \
--zone=us-central1-a \
--machine-type=e2-medium \
--network-interface subnet=hub-subnet1 \
--network-interface subnet=workload-subnet1,no-address \
--can-ip-forward \
--create-disk=auto-delete=yes,boot=yes,device-name=flex-gcp-nva-1,image=projects/ubuntu-os-cloud/global/images/ubuntu-1804-bionic-v20220901,mode=rw,size=20,type=projects/$projectname/zones/us-central1-a/diskTypes/pd-balanced \
--no-shielded-secure-boot \
--shielded-vtpm \
--shielded-integrity-monitoring \
--reservation-affinity=any
8. Установите flexiWAN на экземплярах Hub для hub-r1.
Откройте SSH-соединение с hub-r1.
gcloud compute ssh hub-r1 --zone=us-central1-a
Установите агент flexiWAN на оба маршрутизатора hub-r1.
sudo su
sudo curl -sL https://deb.flexiWAN.com/setup | sudo bash -
apt install flexiWAN-router -y
Подготовьте виртуальные машины hub-r1 для регистрации в flexiWAN.
После завершения установки flexiWAN выполните команду fwsystem_checker , чтобы подготовить виртуальную машину к работе с flexiWAN. Эта команда проверяет системные требования и помогает исправить ошибки конфигурации в вашей системе.
root@hub-r1:/home/user# fwsystem_checker
- Выберите вариант
2для быстрой и бесшумной настройки. - Затем завершите работу с кодом 0 .
- Не закрывайте окно облачной оболочки.
9. Зарегистрируйте виртуальные машины hub-r1 на контроллере FlexManage.
Для аутентификации недавно развернутого сетевого виртуального устройства flexiWAN NVA в системе flexiManage используйте токен безопасности, войдя в свою учетную запись flexiManage.
- Выберите «Инвентарь» → «Токены» и скопируйте токен.
Вернитесь в Cloud Shell (hub-r1) и вставьте токен в каталог /etc/flexiWAN/agent/token.txt, выполнив следующие действия.
nano /etc/flexiWAN/agent/token.txt
#Paste the generated token obtain from flexiManage
#Exit session with CTRL+X and Select Y to save then enter
Активируйте маршрутизаторы-концентраторы hub-r1 в консоли flexiManage.
Войдите в консоль flexiManage.
- Перейдите в раздел «Инвентарь» → «Устройства».
- Найдите и запишите, что имя хоста для hub-r1 — «неизвестно».

Выберите неизвестное устройство с именем хоста hub-r1.
- Введите имя хоста hub-r1
- Подтвердите работу устройства, переместив ползунок вправо.
Выберите вкладку « Интерфейсы» .
- Найдите столбец «Назначено».
- Рядом со строкой интерфейса нажмите «Нет» , чтобы изменить настройку на «Да».
Выберите вкладку «Брандмауэр» .
- Нажмите « + », чтобы добавить правило входящего трафика в брандмауэр.
- Выберите WAN-интерфейс, для которого будет действовать правило наследования.
- Разрешите использование SSH-порта 22 с протоколом TCP.
- Нажмите « Обновить устройство »
Запустите устройство hub-r1 для SD-WAN из контроллера flexiWAN.
- Вернуться к списку → Устройства → hub-r1
Выберите « Запустить устройство ».
- Дождитесь завершения синхронизации и обратите внимание на статус " работает ".
10. Центр сетевого подключения на GCP Hub

Включить API-сервисы
Включите API для подключения к сети, если он еще не включен:
gcloud services enable networkconnectivity.googleapis.com
Создайте центр NCC.
gcloud network-connectivity hubs create ncc-hub
Create request issued for: [ncc-hub]
Waiting for operation [projects/user-3p-dev/locations/global/operations/operation-1668793629598-5edc24b7ee3ce-dd4c765b-5ca79556] to complete...done.
Created hub [ncc-hub]
Настройте оба маршрутизатора как периферийные устройства NCC.
Найдите URI и IP-адрес для обоих маршрутизаторов hub-r1 и запишите результат. Эта информация понадобится вам на следующем шаге.
Обязательно запишите IP-адрес экземпляра hub-r1.
gcloud compute instances describe hub-r1 \
--zone=us-central1-a \
--format="value(selfLink.scope(projects))"
gcloud compute instances describe hub-r1 --zone=us-central1-a | grep "networkIP"
Добавьте networkIP vnic маршрутизатора hub-r1 в качестве периферийного узла. По умолчанию передача данных между узлами отключена.
gcloud network-connectivity spokes linked-router-appliances create s2c-wrk-cr1 \
--hub=ncc-hub \
--router-appliance=instance="https://www.googleapis.com/compute/projects/$projectname/zones/us-central1-a/instances/hub-r1",ip=192.168.235.4 \
--region=us-central1 \
--site-to-site-data-transfer
Настройте Cloud Router для установления соединения BGP с Hub-R1.
На следующем шаге создайте облачный маршрутизатор и объявите подсеть VPC для рабочей нагрузки 192.168.235.0/24.
Создайте в us-central1 облачный маршрутизатор, который будет взаимодействовать по протоколу BGP с hub-r1.
gcloud compute routers create wrk-cr1 \
--region=us-central1 \
--network=workload-vpc \
--asn=65002 \
--set-advertisement-groups=all_subnets
Настройка маршрутизаторов в режиме NCC Spoke позволяет облачному маршрутизатору согласовывать протокол BGP на виртуальных интерфейсах.
Создайте два интерфейса на облачном маршрутизаторе, которые будут обмениваться сообщениями BGP с хабом R1.
IP-адреса выбираются из подсети рабочей нагрузки и могут быть изменены при необходимости.
gcloud compute routers add-interface wrk-cr1 \
--region=us-central1 \
--subnetwork=workload-subnet1 \
--interface-name=int0 \
--ip-address=192.168.235.101
gcloud compute routers add-interface wrk-cr1 \
--region=us-central1 \
--subnetwork=workload-subnet1 \
--interface-name=int1 \
--ip-address=192.168.235.102 \
--redundant-interface=int0
Настройте интерфейс Cloud Router для установления BGP-соединения с vNIC-1 маршрутизатора hub-r1, обновите параметр peer-ip-address, указав IP-адрес сети hub-r1 networkIP. Обратите внимание, что для int0 и int1 используется один и тот же IP-адрес.
gcloud compute routers add-bgp-peer wrk-cr1 \
--peer-name=hub-cr1-bgp-peer-0 \
--interface=int0 \
--peer-ip-address=192.168.235.4 \
--peer-asn=64111 \
--instance=hub-r1 \
--instance-zone=us-central1-a \
--region=us-central1
gcloud compute routers add-bgp-peer wrk-cr1 \
--peer-name=hub-cr1-bgp-peer-1 \
--interface=int1 \
--peer-ip-address=192.168.235.4 \
--peer-asn=64111 \
--instance=hub-r1 \
--instance-zone=us-central1-a \
--region=us-central1
Проверьте состояние BGP. На данном этапе выполнения лабораторной работы BGP находится в состоянии "connect", поскольку сетевой маршрутизатор не настроен для работы с BGP.
gcloud compute routers get-status wrk-cr1 --region=us-central1
11. Настройка маршрутизаторов-концентраторов для работы с BGP.
Настройте hub-r1 для BGP.
Обязательно войдите в консоль flexiManage.
Перейдите в раздел «Инвентаризация» → «Устройства» → «hub-r1» и выберите устройство с именем хоста: hub-r1.
- Перейдите на вкладку «Маршрутизация».
- Нажмите на кнопку «Конфигурация BGP».
- Отключить функцию "Перераспределять маршруты OSPF"
- Настройте hub-r1 для BGP, используя следующие параметры, и нажмите «Сохранить».

Выберите вкладку « Интерфейсы », найдите интерфейс LAN, затем столбец « Маршрутизация ».
- Нажмите « нет », чтобы открыть меню и выбрать BGP в качестве протокола маршрутизации.

- В верхней части страницы нажмите «Обновить устройство».
12. Обмен маршрутами BGP между маршрутизаторами.
Создать локальную автономную сеть для удаленных объектов.
Настройте локальный BGP ASN для site1-nva, после чего установим IPSEC-туннель между удаленными площадками и центральными маршрутизаторами.
Выберите устройство с именем хоста HostName:site1-nva
- Перейдите на вкладку «Маршрутизация».
- Нажмите на кнопку «Конфигурация BGP».
- Отключить функцию "Перераспределять маршруты OSPF"
- Локальный ASN 7269 → Сохранить
- Обновить устройство
- Вкладка «Интерфейсы» → «Маршрутизация» → «BGP»
- Обновить устройство
Настройка VPN-туннелей между устройствами Site1 и Hub1.
Обязательно войдите в консоль flexiManage.
- Перейдите в раздел «Инвентарь» → «Устройства».
- Установите флажок рядом с именем хоста site1-nva и hub-r1 , чтобы создать VPN-туннель между этой парой сетевых адаптеров.
- Нажмите « Действия» → «Создать туннели» и настройте следующие параметры.

- Выберите «Создать туннели» .
Убедитесь, что "site1-nva" изучил маршруты к подсетям 192.168.235.0/24 и 192.168.236.0/24.
- Выберите «Инвентаризация» → «Устройства» → site1-nva и перейдите на вкладку «Маршрутизация».
В приведенном ниже примере выходных данных flexiWAN автоматически создал туннель, используя IP-адрес хоста 10.100.0.6. 
13. Проверьте подключение канала передачи данных.
Проверьте подключение сайта к облаку из локальной среды.
Обратитесь к схеме и убедитесь, что путь передачи данных между s1-vm и workload1-vm правильный.

Настройка статических маршрутов VPC для связи «сайт — облако».
Локальная среда Site1-VPC имитирует сеть локального центра обработки данных.
Оба маршрутизатора Site-1-nva используют VPN-соединение для доступа к центральной сети.
Для сценария "сайт-облако"** создайте статические маршруты к целевому адресу 192.168.0.0/16, используя маршрутизатор в качестве следующего узла для доступа к сетям в облачной сети GCP.
На сервере s1-inside-vpc создайте статический маршрут для облачного назначения (192.168.0.0/16):
gcloud compute routes create site1-subnet-route \
--network=s1-inside-vpc \
--destination-range=192.168.0.0/16 \
--next-hop-instance=site1-nva \
--next-hop-instance-zone=us-central1-a
В CloudShell найдите IP-адрес рабочей нагрузки workload1-vmnee . Он понадобится вам для проверки подключения с виртуальной машины " s1-vm ".
gcloud compute instances describe workload1-vm --zone=us-central1-a | grep "networkIP"
Подключитесь по SSH к виртуальной машине " s1-vm" и используйте команду " curl" для установления TCP-соединения с IP-адресом виртуальной машины workload1-VM.
s1-vm:~$ curl 192.168.235.3 -vv * Trying 192.168.235.3:80... * Connected to 192.168.235.3 (192.168.235.3) port 80 (#0) > GET / HTTP/1.1 > Host: 192.168.235.3 > User-Agent: curl/7.74.0 > Accept: */* > * Mark bundle as not supporting multiuse < HTTP/1.1 200 OK < Date: Wed, 07 Dec 2022 15:12:08 GMT < Server: Apache/2.4.54 (Debian) < Last-Modified: Tue, 06 Dec 2022 00:57:46 GMT < ETag: "1f-5ef1e4acfa1d9" < Accept-Ranges: bytes < Content-Length: 31 < Content-Type: text/html < Page served from: workload1-vm * Connection #0 to host 192.168.235.3 left intact
14. Уборка
Удалите локальные ресурсы.
Войдите в облачную оболочку и удалите экземпляры виртуальных машин в сетях центрального узла и филиалов.
#onprem instances
gcloud compute instances delete s1-vm --zone=us-central1-a --quiet
#delete on prem firewall rules
gcloud compute firewall-rules delete site1-ssh --quiet
gcloud compute firewall-rules delete site1-internal --quiet
gcloud compute firewall-rules delete site1-cloud --quiet
gcloud compute firewall-rules delete site1-vpn --quiet
gcloud compute firewall-rules delete site1-iap --quiet
#delete on prem subnets
gcloud compute networks subnets delete site1-subnet --quiet
gcloud compute networks subnets delete s1-inside-subnet --quiet
gcloud compute networks subnets delete s1-inside-subnet --quiet
#delete on prem vpcs
gcloud compute networks delete site1-vpc --quiet
gcloud compute networks delete s1-inside-vpc --quiet
Удалите ресурсы Cloud Hub.
Войдите в облачную оболочку и удалите экземпляры виртуальных машин в сетях центрального узла и филиалов.
#delete ncc spokes
gcloud network-connectivity spokes delete s2c-wrk-cr1 --region us-central1 --quiet
#delete ncc hub
gcloud network-connectivity hubs delete ncc-hub --quiet
#delete hub instances
gcloud compute instances delete hub-r1 --zone=us-central1-a --quiet
#delete hub firewall rule
gcloud compute firewall-rules delete hub-ssh --quiet
gcloud compute firewall-rules delete hub-vpn --quiet
gcloud compute firewall-rules delete hub-internal --quiet
gcloud compute firewall-rules delete hub-iap --quiet
gcloud compute firewall-rules create workload-ssh --quiet
gcloud compute firewall-rules create workload-internal --quiet
gcloud compute firewall-rules create workload-onprem --quiet
gcloud compute firewall-rules create workload-iap --quiet
#delete hub subnets
gcloud compute networks subnets delete workload-subnet1 --quiet
gcloud compute networks subnets delete hub-subnet1 --quiet
#delete hub vpcs
gcloud compute networks delete workload-vpc --quiet
gcloud compute networks delete hub-vpc --quiet
15. Поздравляем!
Вы завершили лабораторную работу в Центре сетевого подключения!
Что вы осветили
- Настроенная интеграция программно-определяемой глобальной сети (SDN) для связи NCC с облаком.
Следующие шаги
- Обзор центра сетевого подключения
- Документация Центра сетевого подключения
- ресурсы flexiWAN
- flexiWAN GitLab Repo
©Google, LLC или ее аффилированные лица. Все права защищены. Распространение запрещено.



