Лабораторная работа: NCC VPC в качестве узла,Лаборатория: NCC VPC в качестве узла

1. Введение

Обзор

В ходе этой лабораторной работы пользователи изучат, как можно использовать Центр сетевых подключений (NCC) для установления масштабируемого соединения между VPC посредством поддержки узлов VPC. Когда пользователи определяют VPC как луч VPC, это позволяет им подключать его к нескольким сетям VPC вместе через концентратор NCC. NCC с конфигурацией лучевого узла VPC снижает операционную сложность управления парными соединениями между VPC посредством пиринга VPC вместо использования модели централизованного управления соединениями.

Напомним, что Центр сетевых подключений (NCC) — это звездообразная модель плоскости управления для управления сетевыми подключениями в Google Cloud. Ресурс концентратора обеспечивает централизованную модель управления подключениями для соединения периферийных устройств.

Что ты построишь

В этой лабораторной работе вы построите логическую звездообразную топологию с концентратором NCC, которая будет реализовывать полностью объединенную структуру соединений VPC между тремя отдельными VPC.

Что вы узнаете

  • Полное соединение Mesh VPC с NCC
  • Частный NAT через VPC

Что вам понадобится

  • Знание сети GCP VPC.
  • Знание Cloud Router и маршрутизации BGP.
  • Два отдельных проекта GCP
  • Для этой Codelab требуется 5 VPC. Один из этих VPC должен находиться в отдельном проекте, а не в хабе NCC.
  • Проверьте свою «Квоту: Сети» и при необходимости запросите дополнительные сети, скриншот ниже:

6d1b99c6da87fd84.png

Цели

  • Настройка среды GCP
  • Настройка центра сетевых подключений с использованием VPC в качестве распределенного
  • Проверка пути к данным
  • Изучите возможности обслуживания NCC
  • Очистите использованные ресурсы

Прежде чем начать

Облачная консоль Google и Cloud Shell

Для взаимодействия с GCP на протяжении всей лабораторной работы мы будем использовать как Google Cloud Console, так и Cloud Shell.

Проект NCC Hub Google Cloud Console

Доступ к облачной консоли можно получить по адресу https://console.cloud.google.com .

Настройте следующие элементы в Google Cloud, чтобы упростить настройку Центра сетевых подключений:

В консоли Google Cloud на странице выбора проекта выберите или создайте проект Google Cloud.

Запустите Cloud Shell . В этом Codelab используются переменные $variables для облегчения реализации конфигурации gcloud в Cloud Shell.

gcloud auth list
gcloud config list project
gcloud config set project [HUB-PROJECT-NAME]
projectname=[HUB-PROJECT-NAME]
echo $projectname
gcloud config set compute/zone us-central1-a
gcloud config set compute/region us-central1

Роли IAM

NCC требуются роли IAM для доступа к определенным API. Обязательно настройте для своего пользователя роли NCC IAM по мере необходимости.

Роль/Описание

Разрешения

networkconnectivity.networkAdmin — позволяет сетевым администраторам управлять концентратором и периферийными устройствами.

networkconnectivity.hubs. сетевое подключение.спицы.

networkconnectivity.networkSpokeManager — позволяет добавлять периферийные устройства в концентраторе и управлять ими. Используется в общем VPC, где хост-проект владеет хабом, но другие администраторы в других проектах могут добавлять периферийные устройства для своих вложений в хаб.

networkconnectivity.спицы.**

networkconnectivity.networkUsernetworkconnectivity.networkViewer — позволяет пользователям сети просматривать различные атрибуты концентратора и периферийных устройств.

networkconnectivity.hubs.getnetworkconnectivity.hubs.listnetworkconnectivity.spokes.getnetworkconnectivity.spokes.listnetworkconnectivity.spokes.aggregatedList

2. Настройте сетевое окружение.

Обзор

В этом разделе мы развернем сети VPC и правила брандмауэра в одном проекте. Логическая диаграмма иллюстрирует сетевое окружение, которое будет настроено на этом этапе.

Чтобы продемонстрировать поддержку нескольких проектов, на более позднем этапе мы развернем правила VPC и брандмауэра в другом проекте.

245f1002db33ca98.png

Создайте VPC и подсети

Сеть VPC содержит подсети, в которых вы установите виртуальную машину GCE для проверки пути к данным.

gcloud compute networks create vpc1-ncc --subnet-mode custom
gcloud compute networks create vpc2-ncc --subnet-mode custom
gcloud compute networks create vpc3-ncc --subnet-mode custom
gcloud compute networks create vpc4-ncc --subnet-mode custom

gcloud compute networks subnets create vpc1-ncc-subnet1 \
--network vpc1-ncc --range 10.1.1.0/24 --region us-central1

gcloud compute networks subnets create vpc1-ncc-subnet2 \
--network vpc1-ncc --range 10.1.2.0/25 --region us-central1

gcloud compute networks subnets create vpc1-ncc-subnet3 \
--network vpc1-ncc --range 10.1.2.128/25 --region us-central1

gcloud compute networks subnets create vpc2-ncc-subnet1 \
--network vpc2-ncc --range 10.2.2.0/24 --region us-central1

Диапазоны подсетей, поддерживаемые VPC

NCC поддерживает все допустимые диапазоны подсетей IPv4, за исключением общедоступных IP-адресов, используемых в частном порядке. На этом этапе создайте действительные диапазоны IP-адресов в VPC4, которые будут импортированы в таблицу маршрутов концентратора.

gcloud compute networks subnets create benchmark-testing-rfc2544 \
--network vpc4-ncc --range 198.18.0.0/15 --region us-east1

gcloud compute networks subnets create class-e-rfc5735 \
--network vpc4-ncc --range 240.0.0.0/4 --region us-east1

gcloud compute networks subnets create ietf-protcol-assignment-rfc6890 \
--network vpc4-ncc --range 192.0.0.0/24 --region us-east1

gcloud compute networks subnets create ipv6-4-relay-rfc7526 \
--network vpc4-ncc --range 192.88.99.0/24 --region us-east1

gcloud compute networks subnets create pupi \
--network vpc4-ncc --range 50.50.50.0/24 --region us-east1

gcloud compute networks subnets create test-net-1-rfc5737 \
--network vpc4-ncc --range 192.0.2.0/24 --region us-east1

gcloud compute networks subnets create test-net-2-rfc5737 \
--network vpc4-ncc --range 198.51.100.0/24 --region us-east1

gcloud compute networks subnets create test-net-3-rfc5737 \
--network vpc4-ncc --range 203.0.113.0/24 --region us-east1

Создание перекрывающихся диапазонов подсетей

NCC не будет импортировать перекрывающиеся диапазоны IP-адресов в таблицу маршрутов концентратора. Пользователи обойдут это ограничение на более позднем этапе. А пока создайте два перекрывающихся диапазона IP-адресов для VPC2 и VPC3.

gcloud compute networks subnets create overlapping-vpc2 \
--network vpc3-ncc --range 10.3.3.0/24 --region us-central1

gcloud compute networks subnets create overlapping-vpc3 \
--network vpc2-ncc --range 10.3.3.0/24 --region us-central1

Настройка правил брандмауэра VPC

Настройте правила брандмауэра на каждом VPC, чтобы разрешить

  • SSH
  • Внутренний IAP
  • Диапазон 10.0.0.0/8
gcloud compute firewall-rules create ncc1-vpc-internal \
--network vpc1-ncc \
--allow all \
--source-ranges 10.0.0.0/8

gcloud compute firewall-rules create ncc2-vpc-internal \
--network vpc2-ncc \
--allow all \
--source-ranges 10.0.0.0/8

gcloud compute firewall-rules create ncc3-vpc-internal \
--network vpc3-ncc \
--allow all \
--source-ranges 10.0.0.0/8

gcloud compute firewall-rules create ncc4-vpc-internal \
--network vpc4-ncc \
--allow all \
--source-ranges 10.0.0.0/8

gcloud compute firewall-rules create ncc1-vpc-iap \
--network vpc1-ncc \
--allow all \
--source-ranges 35.235.240.0/20

gcloud compute firewall-rules create ncc2-vpc-iap \
--network vpc2-ncc \
--allow=tcp:22 \
--source-ranges 35.235.240.0/20

gcloud compute firewall-rules create ncc3-vpc-iap \
--network vpc3-ncc \
--allow=tcp:22  \
--source-ranges 35.235.240.0/20

gcloud compute firewall-rules create ncc4-vpc-iap \
--network vpc4-ncc \
--allow=tcp:22  \
--source-ranges 35.235.240.0/20

Настройка виртуальной машины GCE в каждом VPC

Вам понадобится временный доступ к Интернету для установки пакетов на «vm1-vpc1-ncc».

Создайте четыре виртуальные машины, каждая виртуальная машина будет закреплена за одним из ранее созданных VPC.

gcloud compute instances create vm1-vpc1-ncc \
--subnet vpc1-ncc-subnet1 \
--metadata=startup-script='#!/bin/bash
  apt-get update
  apt-get install apache2 -y
  apt-get install tcpdump -y
  service apache2 restart
  echo "
<h3>Web Server: www-vm1</h3>" | tee /var/www/html/index.html'


gcloud compute instances create vm2-vpc2-ncc \
--zone us-central1-a \
--subnet vpc2-ncc-subnet1 \
--no-address 

gcloud compute instances create pnat-vm-vpc2 \
--zone us-central1-a \
--subnet overlapping-vpc3 \
--no-address 


gcloud compute instances create vm1-vpc4-ncc \
--zone us-east1-b \
--subnet class-e-rfc5735 \
--no-address

3. Концентратор центра сетевых подключений

Обзор

В этом разделе мы настроим концентратор NCC с помощью команд gcloud. Концентратор NCC будет служить плоскостью управления, ответственной за построение конфигурации маршрутизации между каждым лучом VPC.

8acc7651f52e251e.png

Включить службы API

Включите API сетевого подключения, если он еще не включен:

gcloud services enable networkconnectivity.googleapis.com

Создать центр NCC

Создайте концентратор NCC с помощью команды gcloud.

gcloud network-connectivity hubs create ncc-hub

Пример вывода

Create request issued for: [ncc-hub]
Waiting for operation [projects/user-3p-dev/locations/global/operations/operation-1668793629598-5edc24b7ee3ce-dd4c765b-5ca79556] to complete...done.     
Created hub [ncc-hub]

Опишите недавно созданный хаб NCC. Запишите имя и связанный путь.

gcloud network-connectivity hubs describe ncc-hub
gcloud network-connectivity hubs describe ncc-hub
createTime: '2023-11-02T02:28:34.890423230Z'
name: projects/user-3p-dev/locations/global/hubs/ncc-hub
routeTables:
- projects/user-3p-dev/locations/global/hubs/ncc-hub/routeTables/default
state: ACTIVE
uniqueId: de749c4c-0ef8-4888-8622-1ea2d67450f8
updateTime: '2023-11-02T02:28:48.613853463Z'

NCC Hub представил таблицу маршрутизации, которая определяет плоскость управления для создания возможности подключения к данным. Найдите имя таблицы маршрутизации NCC Hub.

 gcloud network-connectivity hubs route-tables list --hub=ncc-hub
NAME: default
HUB: ncc-hub
DESCRIPTION:

Найдите URI таблицы маршрутов по умолчанию NCC.

gcloud network-connectivity hubs route-tables describe default --hub=ncc-hub
createTime: '2023-02-24T17:32:58.786269098Z'
name: projects/user-3p-dev/locations/global/hubs/ncc-hub/routeTables/default
state: ACTIVE
uid: eb1fdc35-2209-46f3-a8d6-ad7245bfae0b
updateTime: '2023-02-24T17:33:01.852456186Z'

Перечислите содержимое таблицы маршрутизации по умолчанию NCC Hub. Примечание* Таблица маршрутов NCC Hub будет пустой до тех пор, пока не будут отключены периферийные устройства.

gcloud network-connectivity hubs route-tables routes list --hub=ncc-hub --route_table=default

Таблица маршрутов NCC Hub должна быть пустой.

4. NCC со спицами VPC

Обзор

В этом разделе вы настроите три VPC в качестве Spoke NCC с помощью команд gcloud.

a70bc80037927bb0.png

Настройка VPC в качестве распределенного узла NCC

Настройте следующие VPC в качестве Spoke NCC в следующем порядке.

  • ВПК4
  • ВПК1
  • ВПК2
  • ВПК3

Настройте VPC4 как периферию NCC и назначьте его ранее созданному концентратору NCC. Для вызовов API-интерфейса NCC требуется указать местоположение. Флаг «–global» упрощает синтаксис gcloud, позволяя пользователю не указывать полный путь URI при настройке нового лучевого узла NCC.

gcloud network-connectivity spokes linked-vpc-network create vpc4-spoke4 \
--hub=ncc-hub \
--vpc-network=vpc4-ncc \
--global

Настройте VPC1 как распределенный сервер NCC.

Администраторы могут исключить экспорт маршрутов подсети из лучевого узла VPC в таблицу маршрутов концентратора NCC. В этой части работы с кодом создайте правило исключения экспорта на основе сводного префикса, чтобы предотвратить экспорт подсети VPC1 в таблицу маршрутов NCC Hub.

Используйте эту команду gcloud, чтобы получить список всех подсетей, принадлежащих VPC1.

gcloud config set accessibility/screen_reader false
gcloud compute networks subnets list --network=vpc1-ncc

Обратите внимание на пару подсетей /25, ранее созданную в разделе настройки.

NAME              REGION       NETWORK   RANGE          STACK_TYPE  
vpc1-ncc-subnet1  us-central1  vpc1-ncc  10.1.1.0/24    IPV4_ONLY
vpc1-ncc-subnet2  us-central1  vpc1-ncc  10.1.2.0/25    IPV4_ONLY
vpc1-ncc-subnet3  us-central1  vpc1-ncc  10.1.2.128/25  IPV4_ONLY

Настройте VPC1 как луч NCC и исключите пару подсетей /25 из импорта в таблицу маршрутизации концентратора, используя ключевое слово «export-exclude-ranges», чтобы отфильтровать сводный маршрут /24 из этого конкретного диапазона.

gcloud network-connectivity spokes linked-vpc-network create vpc1-spoke1 \
--hub=ncc-hub \
--vpc-network=vpc1-ncc \
--exclude-export-ranges=10.1.2.0/24 \
--global 

Примечание* Пользователи могут фильтровать до 16 уникальных диапазонов IP-адресов для каждого узла NCC.

Перечислите содержимое таблицы маршрутизации по умолчанию NCC Hub. Что случилось с парой подсетей /25 в таблице маршрутизации NCC Hub?

gcloud network-connectivity hubs route-tables routes list --hub=ncc-hub --route_table=default --filter="NEXT_HOP:vpc1-ncc"
IP_CIDR_RANGE  STATE   TYPE                  NEXT_HOP  HUB      ROUTE_TABLE
10.1.1.0/24    ACTIVE  VPC_PRIMARY_SUBNET    vpc1-ncc  ncc-hub  default

Настройка VPC2 в качестве распределенного узла NCC

gcloud network-connectivity spokes linked-vpc-network create vpc2-spoke2 \
--hub=ncc-hub \
--vpc-network=vpc2-ncc \
--global

Настройте VPC3 как периферию NCC и назначьте его ранее созданному концентратору NCC.

gcloud  network-connectivity spokes linked-vpc-network create vpc3-spoke3 \
--hub=ncc-hub \
--vpc-network=vpc3-ncc \
--global

Что случилось?

ERROR: (gcloud.network-connectivity.spokes.linked-vpc-network.create) Invalid resource state for "https://www.googleapis.com/compute/v1/projects/xxxxxxxx/global/networks/vpc3-ncc": 10.3.3.0/24 (SUBNETWORK) overlaps with 10.3.3.0/24 (SUBNETWORK) from "projects/user-3p-dev/global/networks/vpc2-ncc" (peer)

NCC Hub обнаружил перекрытие диапазона IP-адресов с VPC2. Напомним, что VPC2 и VPC3 были настроены с одной и той же IP-подсетью 10.3.3.0/24.

Фильтрация перекрывающихся диапазонов IP-адресов с помощью функции «Исключить экспорт»

На момент написания этой кодовой лаборатории это известная проблема, из-за которой пользователям приходится удалять и заново создавать периферийные устройства NCC, чтобы внести изменения в конфигурацию фильтра экспорта.

gcloud network-connectivity spokes delete vpc2-spoke2 --global --quiet

Примечание. Для удаления распределенного сегмента VPC, связанного с определенным VPC, требуется 10-минутный период восстановления, чтобы заново создать новый распределенный сегмент, ссылающийся на тот же VPC.

gcloud  network-connectivity spokes linked-vpc-network create vpc2-spoke2 \
--hub=ncc-hub \
--vpc-network=vpc2-ncc \
--exclude-export-ranges=10.3.3.0/24 \
--global

Настройте VPC3 как периферию NCC и назначьте его ранее созданному концентратору NCC. Эта попытка добавить VPC3 в качестве периферии к NCC должна увенчаться успехом.

gcloud network-connectivity spokes linked-vpc-network create vpc3-spoke3 \
--hub=ncc-hub \
--vpc-network=vpc3-ncc \
--exclude-export-ranges=10.3.3.0/24 \
--global

Выведите содержимое таблицы маршрутизации по умолчанию NCC Hub и проверьте выходные данные.

gcloud network-connectivity hubs route-tables routes list --hub=ncc-hub --route_table=default

Перекрывающиеся диапазоны IP-адресов VPC2 и VPC3 исключаются. Таблица маршрутизации NCC Hub поддерживает все допустимые типы диапазонов IPv4, за исключением общедоступных IP-адресов, используемых в частном порядке (PUPI).

5. NCC со спицами перекрестного проекта

Обзор

На данный момент вы настроили периферийные устройства NCC, которые принадлежат тому же проекту, что и концентратор. В этом разделе вы настроите VPC в качестве Spoke NCC из отдельного проекта, отличного от NCC Hub, с помощью команд gcloud.

Это позволяет владельцам проектов, которые управляют своими собственными VPC, участвовать в подключении к сети с помощью NCC Hub.

e1190fa898c5097d.png

Кросс-проект: Google Cloud Console и Cloud Shell

Для взаимодействия с GCP на протяжении всей лабораторной работы мы будем использовать как Google Cloud Console, так и Cloud Shell.

Кросс-проектная консоль Google Cloud

Доступ к облачной консоли можно получить по адресу https://console.cloud.google.com .

Настройте следующие элементы в Google Cloud, чтобы упростить настройку Центра сетевых подключений:

В консоли Google Cloud на странице выбора проекта выберите или создайте проект Google Cloud.

Запустите Cloud Shell . В этом Codelab используются переменные $variables для облегчения реализации конфигурации gcloud в Cloud Shell.

gcloud auth list
gcloud config list project
gcloud config set project [YOUR-CROSSPROJECT-NAME]
xprojname=[YOUR-CROSSPROJECT-NAME]
echo $xprojname
gcloud config set compute/zone us-central1-a
gcloud config set compute/region us-central1

Роли IAM

NCC требуются роли IAM для доступа к определенным API. Обязательно настройте для своего пользователя роли NCC IAM по мере необходимости.

Как минимум, администратору перекрестного проекта должна быть предоставлена ​​роль IAM: «networkconnectivity.networkSpokeManager».

В таблице ниже для справки перечислены роли IAM, необходимые для администратора NCC Hub и Spoke.

Роль/Описание

Разрешения

networkconnectivity.networkAdmin — позволяет сетевым администраторам управлять концентратором и периферийными устройствами.

networkconnectivity.hubs. сетевое подключение.спицы.

networkconnectivity.networkSpokeManager — позволяет добавлять периферийные устройства в концентраторе и управлять ими. Используется в общем VPC, где хост-проект владеет хабом, но другие администраторы в других проектах могут добавлять периферийные устройства для своих вложений в хаб.

networkconnectivity.спицы.**

networkconnectivity.networkUsernetworkconnectivity.networkViewer — позволяет пользователям сети просматривать различные атрибуты концентратора и периферийных устройств.

networkconnectivity.hubs.getnetworkconnectivity.hubs.listnetworkconnectivity.spokes.getnetworkconnectivity.spokes.listnetworkconnectivity.spokes.aggregatedList

Создайте VPC и подсети в перекрестном проекте.

Сеть VPC содержит подсети, в которых вы установите виртуальную машину GCE для проверки пути к данным.

gcloud compute networks create xproject-vpc \
--subnet-mode custom

gcloud compute networks subnets create xprj-net-1 \
--network xproject-vpc \
--range 10.100.1.0/24 \
--region us-central1

URI проекта NCC Hub

Используйте эту команду gcloud, чтобы найти URI NCC Hub. Путь URI понадобится вам для настройки межпроектного узла NCC на следующем шаге.

gcloud network-connectivity hubs describe ncc-hub

Межпроектный разговорный VPC

Войдите в другой проект, где VPC НЕ является частью проекта NCC Hub. В CloudShell используйте эту команду, чтобы настроить VPC в качестве распределенного сервера NCC.

  • HUB_URI должен быть URI хаба в другом проекте.
  • VPC_URI должен находиться в том же проекте, что и распределенный сервер.
  • Сеть VPC указывает, что VPC в этом кросс-проекте присоединится к NCC Hub в другом проекте.
gcloud network-connectivity spokes linked-vpc-network create xproj-spoke \
--hub=projects/[YOUR-PROJECT-NAME]/locations/global/hubs/ncc-hub \
--global \
--vpc-network=xproject-vpc

.

Create request issued for: [xproj-spoke]
Waiting for operation [projects/xproject/locations/global/operations/operation-1689790411247-600dafd351158-2b862329-19b747f1] to complete...done.                           
Created spoke [xproj-spoke].
createTime: '2023-07-19T18:13:31.388500663Z'
hub: projects/[YOUR-PROJECT-NAME]/locations/global/hubs/ncc-hub
linkedVpcNetwork:
  uri: https://www.googleapis.com/compute/v1/projects/xproject/global/networks/xproject-vpc
name: projects/xproject/locations/global/spokes/xproj-spoke
reasons:
- code: PENDING_REVIEW
  message: Spoke is Pending Review
spokeType: VPC_NETWORK
state: INACTIVE
uniqueId: 46b4d091-89e2-4760-a15d-c244dcb7ad69
updateTime: '2023-07-19T18:13:38.652800902Z'

О каком состоянии кросс-проекта говорил НКК? Почему?

6. Отклонить или принять предложение перекрестного проекта

Обзор

Администраторы NCC Hub должны явно принять перекрестный проект, чтобы присоединиться к концентратору. Это не позволяет владельцам проектов подключать несанкционированные периферийные устройства NCC к глобальной таблице маршрутизации NCC. После того как луч был принят или отклонен, его впоследствии можно отклонять или принимать столько раз, сколько необходимо, выполнив приведенные выше команды.

Вернитесь в проект, в котором расположен концентратор NCC, войдя в облачную оболочку.

Определите перекрестные компоненты проекта для рассмотрения

gcloud network-connectivity hubs list-spokes ncc-hub \
 --filter="reason:PENDING_REVIEW"

Принятие спицы

gcloud network-connectivity spokes accept xproj-spoke --global

Необязательно: Отклонение спикера

gcloud network-connectivity spokes reject xproj-spoke \
--global \
--details="some reason to reject"

Список активных спиц на Hub

gcloud network-connectivity hubs list-spokes ncc-hub \
 --filter="state:ACTIVE"
NAME            PROJECT          LOCATION  TYPE         STATE   STATE REASON
Xproj-spoke     xproj            global    VPC_NETWORK  ACTIVE
vpc4-spoke4     user-3p-dev      global    VPC_NETWORK  ACTIVE
vpc1-spoke1     user-3p-dev      global    VPC_NETWORK  ACTIVE
vpc2-spoke2     user-3p-dev      global    VPC_NETWORK  ACTIVE
vpc3-spoke3     user-3p-dev      global    VPC_NETWORK  ACTIVE

Получение списка маршрутов подсети в концентраторе

Из выходных данных вы можете увидеть маршруты подсети от перекрестного узла VPC?

gcloud network-connectivity hubs route-tables routes list \
--route_table=default \
--hub=ncc-hub \
--filter="NEXT_HOP:xprj-vpc"
IP_CIDR_RANGE  STATE   TYPE                NEXT_HOP  HUB      ROUTE_TABLE
10.100.0.0/16  ACTIVE  VPC_PRIMARY_SUBNET  xprj-vpc  ncc-hub  default

7. Частный NAT между VPC

Обзор

В этом разделе вы настроите частный NAT для перекрытия диапазонов подсетей между двумя VPC. Обратите внимание, что для частного NAT между VPC требуется NCC.

В предыдущем разделе VPC2 и VPC3 настроены с перекрывающимся диапазоном подсетей «10.3.3.0/24». Оба VPC настроены как луч NCC, чтобы исключить вставку перекрывающейся подсети в таблицу маршрутов концентратора NCC, что означает отсутствие пути данных уровня 3 для достижения хостов, находящихся в этой подсети.

Используйте эти команды в проекте концентратора NCC, чтобы найти перекрывающиеся диапазоны подсетей.

gcloud compute networks subnets list --network vpc2-ncc

gcloud compute networks subnets list --network vpc3-ncc

Какое имя подсети в vpc2-ncc содержит перекрывающийся диапазон IP-адресов?

*Запишите и сохраните где-нибудь имя подсети. Вы настроите исходный NAT для этого диапазона.

Настройка частного NAT

Выделите диапазон маршрутизируемых подсетей для источника трафика NAT из перекрывающейся подсети VPC2. Настроив непересекающийся диапазон подсетей с помощью флага «–function=PRIVATE_NAT».

gcloud compute networks subnets create ncc2-spoke-nat \
--network=vpc2-ncc \
--region=us-central1 \
--range=10.10.10.0/29 \
--purpose=PRIVATE_NAT

Создайте выделенный облачный маршрутизатор для выполнения частного NAT.

gcloud compute routers create private-nat-cr \
--network vpc2-ncc \
--region us-central1

Настройте облачный маршрутизатор для использования NAT в перекрывающемся диапазоне 10.3.3.0/24 из vpc2-ncc. В приведенном ниже примере конфигурации «overlapping-vpc3» — это имя перекрывающейся подсети. Ключевое слово «ALL» указывает, что все диапазоны IP-адресов в подсети будут использовать исходный NAT.

gcloud compute routers nats create ncc2-nat \
--router=private-nat-cr \
--type=PRIVATE \
--nat-custom-subnet-ip-ranges=overlapping-vpc3:ALL \
--router-region=us-central1

На предыдущих шагах был создан пул диапазонов IP-адресов NAT и конкретная подсеть, которая будет преобразована. На этом этапе создайте правило NAT «1», которое преобразует сетевые пакеты, соответствующие трафику, полученному из перекрывающегося диапазона подсетей, если сеть назначения выбирает путь из таблицы маршрутизации концентратора NCC.

gcloud compute routers nats rules create 1 \
--router=private-nat-cr \
--region=us-central1 \
--match='nexthop.hub == "//networkconnectivity.googleapis.com/projects/$projectname/locations/global/hubs/ncc-hub"' \
--source-nat-active-ranges=ncc2-spoke-nat \
--nat=ncc2-nat

Проверьте частный NAT

gcloud compute routers nats describe ncc2-nat --router=private-nat-cr

Пример вывода

enableDynamicPortAllocation: true
enableEndpointIndependentMapping: false
endpointTypes:
- ENDPOINT_TYPE_VM
name: ncc2-nat
rules:
- action:
    sourceNatActiveRanges:
    - https://www.googleapis.com/compute/projects/yueri-3p-dev/regions/us-central1/subnetworks/ncc2-spoke-nat
  match: nexthop.hub == "//networkconnectivity.googleapis.com/projects/yueri-3p-dev/locations/global/hubs/ncc-hub"
  ruleNumber: 1
sourceSubnetworkIpRangesToNat: LIST_OF_SUBNETWORKS
subnetworks:
- name: https://www.googleapis.com/compute/projects/yueri-3p-dev/regions/us-central1/subnetworks/overlapping-vpc3
  sourceIpRangesToNat:
  - ALL_IP_RANGES
type: PRIVATE

Опционально,

  • Переключиться на веб-консоль
  • перейдите в «Сетевые службы > Cloud NAT > ncc2-nat ».

Убедитесь, что динамическое выделение портов включено по умолчанию.

114050bb65e0c4e2.png

Далее вы проверите путь к данным, который использует частный путь NAT, настроенный для VPC2.

5035b181aeaa30a8.png

Откройте сеанс SSH для «vm1-vpc1-ncc» и используйте приведенную ниже команду tcpdump для захвата пакетов, полученных из диапазона пула NAT «10.10.10.0/29».

vm1-vpc1-ncc

sudo tcpdump -i any net 10.10.10.0/29 -n

На момент написания этой лаборатории частный NAT не поддерживал пакеты ICMP. Сеанс SSH с « pNat-vm-vpc2» и используйте команду Curl, как показано ниже, для подключения к « vm1-vpc1-ncc» через порт TCP 80.

pnat-vm-vpc2

curl 10.1.1.2 -v 

Проверьте выходные данные tcpdump на «vm1-vpc1-ncc». Каков исходный IP-адрес, с которого был инициирован сеанс TCP с нашим веб-сервером на «vm1-vpc1-ncc».

tcpdump: data link type LINUX_SLL2
tcpdump: verbose output suppressed, use -v[v]... for full protocol decode
listening on any, link-type LINUX_SLL2 (Linux cooked v2), snapshot length 262144 bytes
19:05:27.504761 ens4  In  IP 10.10.10.2.1024 > 10.1.1.2:80: Flags [S], seq 2386228656, win 65320, options [mss 1420,sackOK,TS val 3955849029 ecr 0,nop,wscale 7], length 0
19:05:27.504805 ens4  Out IP 10.1.1.2:80 > 10.10.10.2.1024: Flags [S.], seq 48316785, ack 2386228657, win 64768, options [mss 1420,sackOK,TS val 1815983704 ecr 3955849029,nop,wscale 7], length 0
<output snipped>

8. Проверьте подключение к каналу данных.

Обратитесь к схеме и проверьте путь данных между каждой виртуальной машиной.

424df0ebe4510ebb.png

SSH к « vm1-vpc1-ncc» и запустите дамп TCP, чтобы отслеживать пакеты ICMP от «vm2-vpc2-ncc». Напоминаем, что эта виртуальная машина находится на VPC2.

vm1-vpc1-ncc

sudo tcpdump -i any icmp -v -e -n

Установите сеанс SSH с « vm1-vpc2-ncc» и «пингуйте» IP-адрес « vm1-vpc1-ncc ».

vm1-vpc2-ncc

ping 10.1.1.2

Установите SSH для « vm1-vpc2-ncc» и «пингуйте» IP-адрес « vm1-vpc4-ncc ».

vm1-vpc2-ncc

ping 240.0.0.2

9. Очистка

Войдите в облачную оболочку и удалите экземпляры виртуальных машин в сетях концентратора и филиала.

Удаление частных конфигураций VPC Nat

gcloud compute routers nats rules delete 1 \
--nat=ncc2-nat \
--router=private-nat-cr \
--region=us-central1 \
--quiet

gcloud compute routers nats delete ncc2-nat \
--router=private-nat-cr \
--router-region=us-central1 \
--quiet

gcloud compute routers delete private-nat-cr \
--region=us-central1 \
--quiet

Удалить спицы ncc

gcloud network-connectivity spokes delete vpc1-spoke1 --global --quiet

gcloud network-connectivity spokes delete vpc2-spoke2 --global --quiet

gcloud network-connectivity spokes delete vpc3-spoke3 --global --quiet

gcloud network-connectivity spokes delete vpc4-spoke4 --global --quiet

Отклонить спицу перекрестного проекта

Отклонить перекрестный проект VPC из концентратора NCC.

gcloud network-connectivity spokes reject projects/$xprojname/locations/global/spokes/xproj-spoke \--details="cleanup" \
--global

Удалить концентратор NCC

gcloud network-connectivity hubs delete ncc-hub --quiet

Удалить правила брандмауэра

gcloud compute firewall-rules delete ncc1-vpc-internal --quiet
gcloud compute firewall-rules delete ncc2-vpc-internal --quiet
gcloud compute firewall-rules delete ncc3-vpc-internal --quiet
gcloud compute firewall-rules delete ncc4-vpc-internal --quiet
gcloud compute firewall-rules delete ncc1-vpc-iap --quiet
gcloud compute firewall-rules delete ncc2-vpc-iap --quiet
gcloud compute firewall-rules delete ncc3-vpc-iap --quiet
gcloud compute firewall-rules delete ncc4-vpc-iap --quiet

Удаление экземпляров GCE

gcloud compute instances delete vm1-vpc1-ncc --zone=us-central1-a --quiet
gcloud compute instances delete vm2-vpc2-ncc --zone=us-central1-a --quiet
gcloud compute instances delete pnat-vm-vpc2 --zone=us-central1-a --quiet
gcloud compute instances delete vm1-vpc4-ncc --zone=us-east1-b --quiet

Удаление подсетей VPC

gcloud compute networks subnets delete ncc2-spoke-nat --region us-central1 --quiet
gcloud compute networks subnets delete vpc1-ncc-subnet1 --region us-central1 --quiet
gcloud compute networks subnets delete vpc1-ncc-subnet2 --region us-central1 --quiet
gcloud compute networks subnets delete vpc1-ncc-subnet3 --region us-central1 --quiet
gcloud compute networks subnets delete vpc2-ncc-subnet1 --region us-central1 --quiet
gcloud compute networks subnets delete overlapping-vpc2 --region us-central1 --quiet 
gcloud compute networks subnets delete overlapping-vpc3 --region us-central1 --quiet

gcloud compute networks subnets delete benchmark-testing-rfc2544 --region us-east1 --quiet
gcloud compute networks subnets delete class-e-rfc5735 --region us-east1 --quiet
gcloud compute networks subnets delete ietf-protcol-assignment-rfc6890 --region us-east1 --quiet
gcloud compute networks subnets delete ipv6-4-relay-rfc7526 --region us-east1 --quiet
gcloud compute networks subnets delete pupi --region us-east1 --quiet
gcloud compute networks subnets delete test-net-1-rfc5737 --region us-east1 --quiet
gcloud compute networks subnets delete test-net-2-rfc5737 --region us-east1 --quiet
gcloud compute networks subnets delete test-net-3-rfc5737 --region us-east1 --quiet

Удаление VPC

gcloud compute networks delete vpc1-ncc vpc2-ncc vpc3-ncc vpc4-ncc 
--quiet 

10. Поздравляем!

Вы завершили лабораторную работу Центра сетевых подключений!

Что вы покрыли

  • Настроенная пиринговая сеть Full Mesh VPC с концентратором NCC
  • Фильтр исключения спиц NCC
  • Межпроектная поддержка
  • Частный NAT между VPC

Следующие шаги

©Google, LLC или ее дочерние компании. Все права защищены. Не распространяйте.