Частный сервис Connect 64

1. Введение

Private Service Connect революционизирует способы использования сервисов в экосистеме Google Cloud, обеспечивая полную поддержку IPv6-адресации наряду с IPv4. Он сочетает в себе повышенную безопасность, упрощенное подключение, улучшенную производительность и централизованное управление, что делает его идеальным решением для предприятий, стремящихся к надежной, эффективной и стабильной модели использования сервисов, готовой к будущему сетевых технологий. Независимо от того, создаете ли вы гибридное облако, используете сервисы внутри организации или обращаетесь к сторонним сервисам, PSC предлагает беспрепятственный и безопасный путь для использования всего потенциала Google Cloud, одновременно предоставляя преимущества IPv6.

Что вы узнаете

  • Основные преимущества PSC 64
  • Поддержка перевода в рамках Private Service Connect 64.
  • Обзор Dual Stack ULA
  • Требования к сети
  • Создайте сервис для работы с частными сервисами.
  • Создайте конечную точку подключения частной службы.
  • Установите соединение с конечной точкой Private Service Connect из виртуальной машины IPv4.
  • Установите соединение с конечной точкой Private Service Connect с виртуальной машины, поддерживающей два стека технологий.

Что вам понадобится

  • Проект Google Cloud с правами владельца.

2. Что вы построите

Вам потребуется создать сеть Producer для развертывания веб-сервера Apache в качестве опубликованной службы через Private Service Connect (PSC). После публикации вам необходимо выполнить следующие действия для проверки доступа к службе Producer:

  • В экземпляре IPv4 GCE в потребительской VPC направьте конечную точку IPv4 PSC для связи со службой производителя.
  • В виртуальной частной сети потребителя (VPC) с двухстековым экземпляром GCE нацельтесь на конечную точку IPv6 PSC для доступа к сервису производителя.

Основные преимущества PSC 64

  • Бесшовная интеграция: PSC легко интегрируется с сетями VPC, настроенными для IPv6, что позволяет использовать преимущества адресации IPv6 для ваших сервисных подключений.
  • Поддержка двойного стека: PSC поддерживает конфигурации с двойным стеком, позволяя одновременно использовать IPv4 и IPv6 в одной и той же VPC, обеспечивая гибкость и перспективность вашей сети.
  • Упрощенный переход: PSC упрощает переход на IPv6, позволяя постепенно внедрять IPv6 параллельно с существующей инфраструктурой IPv4.
  • Поддержка производителя: производителю не требуется использовать двойной стек протоколов, вместо этого потребитель может развернуть конечную точку PSC с поддержкой IPv4 или IPv6.

3. Поддержка перевода в Private Service Connect 64 и 66.

Потребительские соображения

IP-версия конечной точки может быть либо IPv4, либо IPv6, но не обе одновременно. Потребители могут использовать IPv4-адрес, если подсеть адреса поддерживает один стек протоколов . Потребители могут использовать IPv4- или IPv6-адрес, если подсеть адреса поддерживает два стека протоколов. Потребители могут подключать к одному и тому же сервисному соединению как IPv4, так и IPv6-адреса, что может быть полезно при миграции сервисов на IPv6.

Соображения производителя

Версия IP-адреса в правиле пересылки производителя определяет версию IP-адреса сервисного соединения и исходящего трафика через это соединение. Версия IP-адреса сервисного соединения может быть либо IPv4, либо IPv6, но не обе одновременно. Производители могут использовать IPv4-адрес, если подсеть адреса является одностековой. Производители могут использовать IPv4- или IPv6-адрес, если подсеть адреса является двухстековой.

IP-версия IP-адреса правила пересылки производителя должна быть совместима с типом стека подсети NAT подключаемого сервиса.

  • Если правило пересылки данных производителем использует IPv4, подсеть NAT может быть одностековой или двухстековой.
  • Если правило пересылки данных производителем использует IPv6, то подсеть NAT должна поддерживать двойной стек протоколов.

Для поддерживаемых конфигураций возможны следующие комбинации:

  • Подключение конечной точки IPv4 к службе IPv4
  • Подключение конечной точки IPv6 к службе IPv6
  • Подключение конечной точки IPv6 к службе IPv4. В этой конфигурации Private Service Connect автоматически выполняет преобразование между двумя версиями IP-адресов.

Следующая функция не поддерживается:

Private Service Connect не поддерживает подключение конечной точки IPv4 к сервисному подключению IPv6. В этом случае создание конечной точки завершается с ошибкой, указанной ниже:

Правило переадресации Private Service Connect с адресом IPv4 не может быть нацелено на подключение к службе IPv6.

4. Обзор ULA с двойным стеком

Google Cloud поддерживает создание частных подсетей IPv6 и виртуальных машин ULA. RFC 4193 определяет схему адресации IPv6 для локальной связи, идеально подходящую для внутрисетевого взаимодействия VPC. Адреса ULA не маршрутизируются глобально, поэтому ваши виртуальные машины полностью изолированы от интернета, обеспечивая поведение, аналогичное RFC 1918, с использованием IPv6. Google Cloud позволяет создавать префиксы ULA для сети VPC /48, так что все ваши подсети IPv6 ULA /64 будут назначены из этого диапазона сети VPC.

Аналогично глобальным уникальным внешним IPv6-адресам, поддерживаемым Google Cloud, каждая подсеть ULA с поддержкой IPv6 получит подсеть /64 из диапазона /48 сети VPC ULA, а каждой виртуальной машине будет назначен адрес /96 из этой подсети.

RFC4193 определяет адресное пространство IPv6 в диапазоне fc00::/7. Адреса ULA могут свободно выделяться и использоваться внутри частных сетей/сайтов. Google Cloud назначает все адреса ULA из диапазона fd20::/20. Эти адреса маршрутизируются только в пределах VPC и не маршрутизируются в глобальном интернете IPv6.

Адреса ULA, назначаемые Google Cloud, гарантированно уникальны во всех сетях VPC. Google Cloud гарантирует, что двум сетям VPC не будет назначен один и тот же префикс ULA. Это устраняет проблему перекрывающихся диапазонов в сетях VPC.

Вы можете либо позволить Google Cloud автоматически назначить вашей сети префикс /48, либо выбрать конкретный префикс IPv6 для этого диапазона. Если указанный вами префикс IPv6 уже назначен другой VPC или вашей локальной сети, вы можете выбрать другой диапазон.

5. Требования к сети

Ниже приведено описание сетевых требований для потребительской и производственной сетей:

Потребительская сеть (все компоненты развернуты в us-central1)

Компоненты

Описание

ВПК

Для работы сети с поддержкой двух стеков требуется VPC в пользовательском режиме с включенной функцией ULA.

Конечная точка PSC

  • Конечная точка IPv4 PSC используется для доступа к службе производителя.
  • Конечная точка IPv6 PSC используется для доступа к службе производителя.

Подсеть(и)

IPv4 и двойной стек

GCE

IPv4 и двойной стек

Сеть производителей (все компоненты развернуты в us-central1)

Компоненты

Описание

ВПК

Пользовательский режим VPC, ULA отключена

Подсеть NAT PSC

IPv4. Пакеты из потребительской сети VPC преобразуются с помощью NAT источника (SNAT), так что их исходные IP-адреса источника преобразуются в IP-адреса источника из подсети NAT в сети VPC производителя.

правило пересылки PSC

IPv4. Внутренний балансировщик сетевой нагрузки с функцией сквозной передачи.

Проверка здоровья

Правило входящего трафика, применимое к экземплярам, ​​подвергающимся балансировке нагрузки, разрешающее трафик от систем проверки работоспособности Google Cloud (130.211.0.0/22 ​​и 35.191.0.0/16).

Бэкенд-сервис

Серверная служба выступает в качестве связующего звена между балансировщиком нагрузки и серверными ресурсами. В данном руководстве серверная служба связана с группой неуправляемых экземпляров.

Неуправляемая группа экземпляров

Поддерживает виртуальные машины, требующие индивидуальной настройки или оптимизации. Не поддерживает автоматическое масштабирование.

6. Топология Codelab

b52931afd997d61.png

7. Настройка и требования

Настройка среды для самостоятельного обучения

  1. Войдите в консоль Google Cloud и создайте новый проект или используйте существующий. Если у вас еще нет учетной записи Gmail или Google Workspace, вам необходимо ее создать .

fbef9caa1602edd0.png

a99b7ace416376c4.png

5e3ff691252acf41.png

  • Название проекта — это отображаемое имя участников данного проекта. Это строка символов, не используемая API Google. Вы всегда можете его изменить.
  • Идентификатор проекта уникален для всех проектов Google Cloud и является неизменяемым (его нельзя изменить после установки). Консоль Cloud автоматически генерирует уникальную строку; обычно вам неважно, какая она. В большинстве практических заданий вам потребуется указать идентификатор вашего проекта (обычно обозначается как PROJECT_ID ). Если сгенерированный идентификатор вас не устраивает, вы можете сгенерировать другой случайный идентификатор. В качестве альтернативы вы можете попробовать свой собственный и посмотреть, доступен ли он. После этого шага его нельзя изменить, и он сохраняется на протяжении всего проекта.
  • К вашему сведению, существует третье значение — номер проекта , которое используется некоторыми API. Подробнее обо всех трех значениях можно узнать в документации .
  1. Далее вам потребуется включить оплату в консоли Cloud для использования ресурсов/API Cloud. Выполнение этого практического задания не потребует больших затрат, если вообще потребует. Чтобы отключить ресурсы и избежать дополнительных расходов после завершения этого урока, вы можете удалить созданные ресурсы или удалить проект. Новые пользователи Google Cloud имеют право на бесплатную пробную версию стоимостью 300 долларов США .

Запустить Cloud Shell

Хотя Google Cloud можно управлять удаленно с ноутбука, в этом практическом занятии вы будете использовать Google Cloud Shell — среду командной строки, работающую в облаке.

В консоли Google Cloud нажмите на значок Cloud Shell на панели инструментов в правом верхнем углу:

55efc1aaa7a4d3ad.png

Подготовка и подключение к среде займут всего несколько минут. После завершения вы должны увидеть примерно следующее:

7ffe5cbb04455448.png

Эта виртуальная машина содержит все необходимые инструменты разработки. Она предоставляет постоянный домашний каталог объемом 5 ГБ и работает в облаке Google, что значительно повышает производительность сети и аутентификацию. Вся работа в этом практическом задании может выполняться в браузере. Вам не нужно ничего устанавливать.

8. Прежде чем начать

Включить API

Внутри Cloud Shell убедитесь, что идентификатор вашего проекта указан правильно:

gcloud config list project
gcloud config set project [YOUR-PROJECT-ID]
project=[YOUR-PROJECT-ID]
region=us-central1
echo $project
echo $region

Включите все необходимые службы:

gcloud services enable compute.googleapis.com

9. Создайте сеть VPC для производителей.

Сеть VPC

Внутри Cloud Shell выполните следующие действия:

gcloud compute networks create producer-vpc --subnet-mode custom

Создание подсетей

Подсеть PSC будет связана с подключением к службе PSC для целей трансляции сетевых адресов (NAT). Для производственных сценариев размер этой подсети должен быть соответствующим образом рассчитан для поддержки объема входящего трафика от всех подключенных конечных точек PSC. Дополнительную информацию см. в документации по расчету размера подсети PSC NAT.

Внутри Cloud Shell создайте подсеть PSC NAT:

gcloud compute networks subnets create producer-psc-nat-subnet --network producer-vpc --range 172.16.10.0/28 --region $region --purpose=PRIVATE_SERVICE_CONNECT

Внутри Cloud Shell создайте подсеть правила пересылки производителя:

gcloud compute networks subnets create producer-psc-fr-subnet --network producer-vpc --range 172.16.20.0/28 --region $region --enable-private-ip-google-access

Внутри Cloud Shell создайте подсеть виртуальных машин-производителей:

gcloud compute networks subnets create producer-psc-vm-subnet --network producer-vpc --range 172.16.30.0/28 --region $region --enable-private-ip-google-access

Создайте публичный NAT-шлюз.

Для загрузки Apache виртуальной машине-производителю требуется доступ в интернет, однако у экземпляра GCE нет внешнего IP-адреса; поэтому Cloud NAT обеспечит исходящий трафик из интернета для загрузки пакетов.

Внутри Cloud Shell создайте Cloud Router:

gcloud compute routers create producer-cloud-router --network producer-vpc --region us-central1

Внутри Cloud Shell создайте шлюз Cloud NAT, обеспечивающий исходящий трафик из интернета:

gcloud compute routers nats create producer-nat-gw --router=producer-cloud-router --auto-allocate-nat-external-ips --nat-all-subnet-ip-ranges --region us-central1

Создание политики и правил сетевого брандмауэра

Внутри Cloud Shell выполните следующие действия:

gcloud compute network-firewall-policies create producer-vpc-policy --global

gcloud compute network-firewall-policies associations create --firewall-policy producer-vpc-policy --network producer-vpc --name producer-vpc --global-firewall-policy

Чтобы разрешить IAP подключаться к вашим виртуальным машинам, создайте правило брандмауэра, которое:

  • Применяется ко всем экземплярам виртуальных машин, к которым вы хотите обеспечить доступ с помощью IAP.
  • Разрешает входящий трафик из диапазона IP-адресов 35.235.240.0/20. Этот диапазон содержит все IP-адреса, которые IAP использует для пересылки TCP-трафика.

Внутри Cloud Shell выполните следующие действия:

gcloud compute network-firewall-policies rules create 1000 --action ALLOW --firewall-policy producer-vpc-policy --description "SSH with IAP" --direction INGRESS --src-ip-ranges 35.235.240.0/20 --layer4-configs tcp:22  --global-firewall-policy

Следующее правило брандмауэра разрешает трафик из диапазона проверок работоспособности ко всем экземплярам в сети. В производственной среде это правило брандмауэра следует ограничить только экземплярами, связанными с конкретной службой-производителем.

Внутри Cloud Shell выполните следующие действия:

gcloud compute network-firewall-policies rules create 2000 --action ALLOW --firewall-policy producer-vpc-policy --description "allow traffic from health check probe range" --direction INGRESS --src-ip-ranges 130.211.0.0/22,35.191.0.0/16 --layer4-configs tcp:80 --global-firewall-policy

Следующее правило брандмауэра разрешает трафик из диапазона подсети NAT PSC ко всем экземплярам в сети. В производственной среде это правило брандмауэра следует ограничить только экземплярами, связанными с конкретной службой производителя.

Внутри Cloud Shell выполните следующие действия:

gcloud compute network-firewall-policies rules create 2001 --action ALLOW --firewall-policy producer-vpc-policy --description "allow traffic from PSC NAT subnet" --direction INGRESS --src-ip-ranges 172.16.10.0/28 --global-firewall-policy --layer4-configs=tcp

Создайте виртуальную машину производителя.

Внутри Cloud Shell создайте веб-сервер Apache для виртуальной машины-производителя:

gcloud compute instances create producer-vm \
    --project=$project \
    --machine-type=e2-micro \
    --image-family debian-12 \
    --no-address \
    --image-project debian-cloud \
    --zone us-central1-a \
    --subnet=producer-psc-vm-subnet \
    --metadata startup-script="#! /bin/bash
      sudo apt-get update
      sudo apt-get install apache2 -y
      sudo service apache2 restart
      echo 'Welcome to Producer-VM !!' | tee /var/www/html/index.html
      EOF"

Внутри Cloud Shell создайте группу неуправляемых экземпляров, состоящую из экземпляра producer-vm и экземпляра проверки работоспособности:

gcloud compute instance-groups unmanaged create producer-instance-group --zone=us-central1-a

gcloud compute instance-groups unmanaged add-instances producer-instance-group  --zone=us-central1-a --instances=producer-vm

gcloud compute health-checks create http hc-http-80 --port=80

10. Создать сервис для производителей.

Создание компонентов балансировки нагрузки

Внутри Cloud Shell выполните следующие действия:

gcloud compute backend-services create producer-backend-svc --load-balancing-scheme=internal --protocol=tcp --region=us-central1 --health-checks=hc-http-80

gcloud compute backend-services add-backend producer-backend-svc --region=us-central1 --instance-group=producer-instance-group --instance-group-zone=us-central1-a

В приведенном ниже синтаксисе создайте правило пересылки (внутренний балансировщик нагрузки сети) с предопределенным IP-адресом 172.16.2.3, связанным с бэкэнд-сервисом producer-backend-svc.

В оболочке Cloud Shell выполните следующие действия:

gcloud compute forwarding-rules create producer-fr --region=us-central1 --load-balancing-scheme=internal --network=producer-vpc --subnet=producer-psc-fr-subnet --address=172.16.20.3 --ip-protocol=TCP --ports=all --backend-service=producer-backend-svc --backend-service-region=us-central1

Создать вложение услуги

Внутри Cloud Shell создайте подключение к службе:

gcloud compute service-attachments create ipv4-producer-svc-attachment --region=$region --producer-forwarding-rule=producer-fr --connection-preference=ACCEPT_AUTOMATIC --nat-subnets=producer-psc-nat-subnet

Далее получите и запишите информацию о подключении к службе, указанную в URI selfLink, начиная с projects, чтобы настроить конечную точку PSC в среде потребителя.

selfLink: projects/<your-project-id>/regions/us-central1/serviceAttachments/ipv4-producer-svc-attachment

Внутри Cloud Shell выполните следующие действия:

gcloud compute service-attachments describe ipv4-producer-svc-attachment --region=$region

Пример ожидаемого результата

user@cloudshell:~ (projectid)$ gcloud compute service-attachments describe ipv4-producer-svc-attachment --region=$region
connectionPreference: ACCEPT_AUTOMATIC
creationTimestamp: '2024-08-26T07:08:01.625-07:00'
description: ''
enableProxyProtocol: false
fingerprint: USOMy1eQKyM=
id: '1401660514263708334'
kind: compute#serviceAttachment
name: ipv4-producer-svc-attachment
natSubnets:
- https://www.googleapis.com/compute/v1/projects/projectid/regions/us-central1/subnetworks/producer-psc-nat-subnet
pscServiceAttachmentId:
  high: '85245007652455400'
  low: '1401660514263708334'
reconcileConnections: false
region: https://www.googleapis.com/compute/v1/projects/projectid/regions/us-central1
selfLink: https://www.googleapis.com/compute/v1/projects/projectid/regions/us-central1/serviceAttachments/ipv4-producer-svc-attachment
targetService: https://www.googleapis.com/compute/v1/projects/projectid/regions/us-central1/forwardingRules/producer-fr

В консоли Cloud перейдите по следующему пути:

Сетевые службы → Подключение к частной службе → Опубликованные службы

9166d64204ec31c3.png

1b5feeca51b6533e.png

11. Создайте потребительскую VPC-сеть.

Сеть VPC

Внутри Cloud Shell создайте VPC для потребителей с включенной поддержкой IPv6 ULA:

gcloud compute networks create consumer-vpc \
    --subnet-mode=custom \
    --enable-ula-internal-ipv6

Google выделяет для Consumer VPC уникальную в глобальном масштабе подсеть /48. Чтобы просмотреть информацию о выделенной подсети, выполните следующие действия:

В консоли Cloud перейдите по следующему пути:

VPC-сети

c847bd7c20e3677d.png

Создать подсеть

Внутри Cloud Shell создайте подсеть IPv4 GCE:

gcloud compute networks subnets create consumer-v4-subnet --network consumer-vpc --range=192.168.10.0/28 --region $region --enable-private-ip-google-access

Внутри Cloud Shell создайте подсеть конечных точек IPv4 PSC:

gcloud compute networks subnets create psc-ipv4-endpoint-subnet --network consumer-vpc --range=192.168.11.0/28 --region $region --enable-private-ip-google-access

Внутри Cloud Shell создайте подсеть GCE с поддержкой двух стеков:

gcloud compute networks subnets create consumer-dual-stack-subnet --network consumer-vpc --range=192.168.20.0/28 --stack-type=IPV4_IPV6 --ipv6-access-type=INTERNAL --region $region --enable-private-ip-google-access

Внутри Cloud Shell создайте подсеть конечных точек PSC с поддержкой двух стеков:

gcloud compute networks subnets create psc-dual-stack-endpoint-subnet --network consumer-vpc --range=192.168.21.0/28 --stack-type=IPV4_IPV6 --ipv6-access-type=INTERNAL --region $region --enable-private-ip-google-access

Создание политики и правил сетевого брандмауэра

Внутри Cloud Shell выполните следующие действия:

gcloud compute network-firewall-policies create consumer-vpc-policy --global

gcloud compute network-firewall-policies associations create --firewall-policy consumer-vpc-policy --network consumer-vpc --name consumer-vpc --global-firewall-policy

gcloud compute network-firewall-policies rules create 1000 --action ALLOW --firewall-policy consumer-vpc-policy --description "SSH with IAP" --direction INGRESS --src-ip-ranges 35.235.240.0/20 --layer4-configs tcp:22  --global-firewall-policy

Для доступа к сети потребителя требуется только SSH-соединение через точку доступа IAP.

12. Создайте виртуальную машину, конечную точку PSC и проверьте подключение по протоколу IPv4.

Создание тестовой виртуальной машины

Внутри Cloud Shell создайте экземпляр IPv4 GCE в подсети IPv4:

gcloud compute instances create consumer-vm-ipv4 --zone=us-central1-a --subnet=consumer-v4-subnet --no-address

Создание статического IP-адреса для конечной точки PSC

Внутри Cloud Shell создайте статический IP-адрес для конечной точки PSC.

gcloud compute addresses create psc-ipv4-endpoint-ip --region=$region --subnet=psc-ipv4-endpoint-subnet --addresses 192.168.11.13

Создайте конечную точку IPv4 PSC.

Внутри Cloud Shell создайте конечную точку PSC, обновив URI в поле SERVICE ATTACHMENT на URI, полученный при создании Service Attachment.

gcloud compute forwarding-rules create psc-ipv4-endpoint --region=$region --network=consumer-vpc --address=psc-ipv4-endpoint-ip --target-service-attachment=[SERVICE ATTACHMENT URI]

Проверьте конечную точку PSC.

Давайте убедимся, что производитель принял конечную точку PSC. В консоли Cloud перейдите по следующему пути:

Сетевые службы → Подключение к частной службе → Подключенные конечные точки

ac858b2db226e58a.png

Проверка подключения

Внутри Cloud Shell подключитесь по SSH к экземпляру GCE, consumer-vm-ipv4.

gcloud compute ssh --zone us-central1-a "consumer-vm-ipv4" --tunnel-through-iap --project $project

Теперь, когда вы вошли в систему GCE, выполните команду curl для доступа к конечной точке psc: psc-ipv4-endpoint 192.168.11.13

Внутри экземпляра GCE consumer-vm-ipv4 выполните команду curl:

curl 192.168.11.13

Ожидаемый результат:

user@consumer-vm-ipv4:~$ curl 192.168.11.13
Welcome to Producer-VM !!

Внутри экземпляра consumer-vm-ipv4 GCE выполните выход из системы, выполнив команду exit, после чего вы вернетесь в Cloud Shell.

exit

Ожидаемый результат:

user@consumer-vm-ipv4:~$ exit
logout
Connection to compute.6833450446005281720 closed.

13. Создайте виртуальную машину, конечную точку PSC и протестируйте подключение к двум стекам технологий.

Создание тестовой виртуальной машины с поддержкой двух стеков технологий.

Внутри Cloud Shell создайте экземпляр GCE с поддержкой двух стеков технологий в подсети, предназначенной для работы с двумя стеками технологий:

gcloud compute instances create consumer-vm-ipv4-ipv6 --zone=us-central1-a --subnet=consumer-dual-stack-subnet --no-address --stack-type=IPV4_IPV6

Создание статического IPv6-адреса для конечной точки PSC

Внутри Cloud Shell создайте статический IPv6-адрес для конечной точки PSC:

gcloud compute addresses create psc-ipv6-endpoint-ip --region=$region --subnet=psc-dual-stack-endpoint-subnet --ip-version=IPV6

Получите статический IPv6-адрес конечной точки PSC.

Внутри Cloud Shell получите IPv6-адрес PSC, который вы будете использовать для доступа к сервису Producer:

gcloud compute addresses describe psc-ipv6-endpoint-ip --region=us-central1 | grep -i address:

Пример выходных данных:

user@cloudshell$ gcloud compute addresses describe psc-ipv6-endpoint-ip --region=us-central1 | grep -i address:
address: 'fd20:2eb:7252:2::'

Создайте конечную точку IPv6 PSC.

Внутри Cloud Shell создайте конечную точку PSC, обновив URI в поле SERVICE ATTACHMENT на URI, полученный при создании Service Attachment.

gcloud compute forwarding-rules create psc-ipv6-endpoint --region=$region --network=consumer-vpc --address=psc-ipv6-endpoint-ip --target-service-attachment=[SERVICE ATTACHMENT URI]

Проверьте конечную точку PSC.

Давайте убедимся, что производитель принял конечную точку PSC. В консоли Cloud перейдите по следующему пути:

Сетевые службы → Подключение к частной службе → Подключенные конечные точки

957b74e89f3ad837.png

Проверка подключения

Внутри Cloud Shell подключитесь по SSH к двухстековому экземпляру GCE, consumer-vm-ipv4-ipv6, и выполните команду curl к конечной точке потребителей PSC IPv6, psc-ipv6-endpoint, чтобы проверить доступ к службе Producer.

gcloud compute ssh --zone us-central1-a "consumer-vm-ipv4-ipv6" --tunnel-through-iap --project $project

Теперь, когда вы вошли в систему в экземпляре GCE с поддержкой двух стеков IPv6, выполните команду curl к конечной точке psc, psc-dual-stack-endpoint, используя IPv6-адреса, указанные на предыдущем шаге.

Внутри экземпляра GCE consumer-vm-ipv4-ipv6 выполните команду curl для доступа к конечной точке IPv6 PSC, указанной на шаге «Получение статического IPv6 для конечной точки PSC».

curl -6 http://[insert-your-ipv6-psc-endpoint]

Ожидаемый результат:

user@consumer-vm-ipv4-ipv6$ curl -6 http://[fd20:2eb:7252:2::]
Welcome to Producer-VM !!

Внутри экземпляра GCE consumer-vm-ipv4-ipv6 выполните выход из системы, выполнив команду exit, после чего вы вернетесь в Cloud Shell.

exit

Ожидаемый результат:

user@consumer-vm-ipv4-ipv6:~$ exit
logout
Connection to compute.6162185519072639197 closed.

14. Этапы очистки

Из одного терминала Cloud Shell удалите компоненты лаборатории.

gcloud compute service-attachments delete ipv4-producer-svc-attachment --region=us-central1 -q

gcloud compute forwarding-rules delete psc-ipv6-endpoint psc-ipv4-endpoint --region=us-central1 -q

gcloud compute instances delete consumer-vm-ipv4 consumer-vm-ipv4-ipv6 --zone=us-central1-a -q

gcloud compute network-firewall-policies rules delete 1000 --firewall-policy=consumer-vpc-policy --global-firewall-policy -q

gcloud compute network-firewall-policies associations delete --firewall-policy=consumer-vpc-policy  --name=consumer-vpc --global-firewall-policy -q

gcloud compute network-firewall-policies delete consumer-vpc-policy --global -q

gcloud compute addresses delete psc-ipv4-endpoint-ip psc-ipv6-endpoint-ip --region=us-central1 -q

gcloud compute networks subnets delete consumer-v4-subnet psc-ipv4-endpoint-subnet consumer-dual-stack-subnet psc-dual-stack-endpoint-subnet --region=us-central1 -q

gcloud compute networks delete consumer-vpc -q

gcloud compute forwarding-rules delete producer-fr --region=us-central1 -q

gcloud compute backend-services delete producer-backend-svc --region=us-central1 -q

gcloud compute health-checks delete hc-http-80 -q

gcloud compute network-firewall-policies rules delete 2001 --firewall-policy producer-vpc-policy --global-firewall-policy -q

gcloud compute network-firewall-policies rules delete 2000 --firewall-policy producer-vpc-policy --global-firewall-policy -q

gcloud compute network-firewall-policies rules delete 1000 --firewall-policy producer-vpc-policy --global-firewall-policy -q

gcloud compute network-firewall-policies associations delete --firewall-policy=producer-vpc-policy  --name=producer-vpc --global-firewall-policy -q

gcloud compute network-firewall-policies delete producer-vpc-policy --global -q

gcloud compute instance-groups unmanaged delete producer-instance-group --zone=us-central1-a -q

gcloud compute instances delete producer-vm --zone=us-central1-a -q

gcloud compute routers nats delete producer-nat-gw --router=producer-cloud-router --router-region=us-central1 -q

gcloud compute routers delete producer-cloud-router --region=us-central1 -q

gcloud compute networks subnets delete producer-psc-fr-subnet  producer-psc-vm-subnet producer-psc-nat-subnet --region=us-central1 -q

gcloud compute networks delete producer-vpc -q

15. Поздравляем!

Поздравляем, вы успешно настроили и проверили Private Service Connect 64.

Вы создали инфраструктуру производителя, научились создавать конечные точки потребителя по протоколам IPv4 и IPv6 в сети VPC потребителя, что обеспечило подключение к сервису производителя.

Cosmopup считает, что Codelabs — это круто!!

c911c127bffdee57.jpeg

Что дальше?

Посмотрите некоторые из этих практических занятий по программированию...

Дополнительная литература и видеоматериалы

Справочная документация