实践:通过 SD-WAN 设备从 NCC 站点到云端

1. 简介

概览

在本实验中,您将探索 Network Connectivity Center 的部分功能。

Network Connectivity Center (NCC) 是 Google Cloud 中用于管理网络连接的中心辐射型控制平面模型。hub 资源提供集中式连接管理模型来连接 spoke。NCC 目前支持将以下网络资源用作 Spoke:

  • VLAN 连接
  • 路由器设备
  • 高可用性 VPN

这些 Codelab 需要使用 flexiWAN SaaS SD-WAN 解决方案,该解决方案可简化 WAN 部署和管理。

构建内容

在此 Codelab 中,您将构建一个中心辐射型 SD-WAN 拓扑,以模拟将穿越 Google 骨干网络进行站点到云通信的远程分支站点。

  1. 您将在中心 VPC 中部署一对配置为 flexiWAN SD-WAN 代理的 GCE 虚拟机,它们代表着到 GCP 的入站和出站流量的接头。
  2. 部署两个远程 flexiWAN SD-WAN 路由器,以代表两个不同的分支机构网站 VPC
  3. 对于数据路径测试,您将配置三个 GCE 虚拟机,以在 GCP 上托管的本地客户端和服务器上进行模拟

2669f7a724db9d89.png

学习内容

  • 使用 NCC 通过开源软件定义型 WAN 解决方案连接远程分支办公室
  • 亲身体验开源软件定义的 WAN 解决方案

所需条件

  • 熟悉 GCP VPC 网络
  • 了解 Cloud Router 和 BGP 路由

2. 目标

  • 设置 GCP 环境
  • 在 GCP 中部署 flexiWAN Edge 实例
  • 建立 NCC Hub 并将 flexiWAN Edge NVA 用作 spoke
  • 使用 flexiManage 配置和管理 flexiWAN 实例
  • 在 vpc-app-svcs 和 flexiWAN NVA 之间配置 BGP 路由交换
  • 创建一个远程站点来模拟客户的远程分支机构或数据中心
  • 在远程站点和 NVA 之间建立 IPsec 隧道
  • 验证设备是否已成功部署
  • 验证网站到云端的数据传输
  • 清理已使用的资源

本教程要求您创建一个免费的 flexiManage 账号 ,以便进行身份验证、设置和管理 flexiEdge 实例。

准备工作

使用 Google Cloud 控制台和 Cloud Shell

在本实验中,我们将使用 Google Cloud 控制台和 Cloud Shell 与 GCP 进行交互。

Google Cloud Console

您可以访问 https://console.cloud.google.com 来使用 Cloud 控制台。

在 Google Cloud 中设置以下各项,以便更轻松地配置 Network Connectivity Center:

在 Google Cloud Console 的“项目选择器”页面上,选择或创建一个 Google Cloud 项目。

启动 Cloud Shell。此 Codelab 使用 $variables 来帮助在 Cloud Shell 中实现 gcloud 配置。

gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=[YOUR-PROJECT-NAME]
echo $projectname

IAM 角色

NCC 需要 IAM 角色才能访问特定 API。请务必根据需要为用户配置 NCC IAM 角色。

角色名称

说明

权限

networkconnectivity.networkAdmin

允许网络管理员管理 Hub 和 Spoke。

networkconnectivity.hubs.networkconnectivity.spokes.

networkconnectivity.networkSpokeManager

允许在 Hub 中添加和管理 Spoke。适用于共享 VPC 场景,其中宿主项目拥有 Hub,但其他项目中的其他管理员可以为其关联添加 spoke。

networkconnectivity.spokes.**

networkconnectivity.networkUsernetworkconnectivity.networkViewer

允许影音平台用户查看枢纽和辐条的不同属性。

networkconnectivity.hubs.getnetworkconnectivity.hubs.listnetworkconnectivity.spokes.getnetworkconnectivity.spokes.listnetworkconnectivity.spokes.aggregatedList

3. 设置网络实验环境

概览

在本部分中,我们将部署 VPC 网络和防火墙规则。

a716849cffa67d48.png

模拟本地分支站点网络

此 VPC 网络包含适用于本地虚拟机实例的子网。

创建本地站点网络和子网:

gcloud compute networks create site1-vpc \
--subnet-mode custom

gcloud compute networks create s1-inside-vpc \
--subnet-mode custom

gcloud compute networks subnets create site1-subnet \
--network site1-vpc \
--range 10.10.0.0/24 \
--region us-central1

gcloud compute networks subnets create s1-inside-subnet \
--network s1-inside-vpc \
--range 10.10.1.0/24 \
--region us-central1

创建 site1-vpc 防火墙规则,以允许:

  • SSH、内部、IAP
  • ESP、UDP/500、UDP/4500
  • 10.0.0.0/8 范围
  • 192.168.0.0/16 范围
gcloud compute firewall-rules create site1-ssh \--network site1-vpc \
--allow tcp:22

gcloud compute firewall-rules create site1-internal \
--network site1-vpc \
--allow all \
--source-ranges 10.0.0.0/8

gcloud compute firewall-rules create site1-cloud \
--network site1-vpc \
--allow all \
--source-ranges 192.168.0.0/16

gcloud compute firewall-rules create site1-vpn \
--network site1-vpc \
--allow esp,udp:500,udp:4500 \
--target-tags router

gcloud compute firewall-rules create site1-iap \
--network site1-vpc --allow tcp:22 --source-ranges=35.235.240.0/20

创建 s1-inside-vpc 防火墙规则,以允许:

  • SSH、内部、IAP
  • 10.0.0.0/8 范围
  • 192.168.0.0/16 范围
gcloud compute firewall-rules create s1-inside-ssh \
--network s1-inside-vpc \
--allow tcp:22

gcloud compute firewall-rules create s1-inside-internal \
--network s1-inside-vpc \
--allow all \
--source-ranges 10.0.0.0/8

gcloud compute firewall-rules create s1-inside-cloud \
--network s1-inside-vpc  \
--allow all \
--source-ranges 192.168.0.0/16

gcloud compute firewall-rules create s1-inside-iap \
--network site2-vpc --allow tcp:22 --source-ranges=35.235.240.0/20

出于测试目的,请创建 s1-inside-vms2-inside-vm 实例

gcloud compute instances create s1-vm \
--zone=us-central1-a \
--machine-type=e2-micro \
--network-interface subnet=s1-inside-subnet,private-network-ip=10.10.1.3,no-address

模拟 GCP 云网络环境

如需通过 hub-vpc 网络和 Spoke 启用跨区域站点到站点流量,您必须在 hub-vpc 网络中启用全局路由。如需了解详情,请参阅 NCC 路由交换

  1. 创建 hub-vpc 网络和子网:
gcloud compute networks create hub-vpc \
--subnet-mode custom \
--bgp-routing-mode=global

gcloud compute networks subnets create hub-subnet1 \
--network hub-vpc \
--range 10.1.0.0/24 \
--region us-central1

gcloud compute networks subnets create hub-subnet2 \
--network hub-vpc \
--range 10.2.0.0/24 \
--region us-east4
  1. 创建 workload-vpc 网络和子网:
gcloud compute networks create workload-vpc \
--subnet-mode custom \
--bgp-routing-mode=global

gcloud compute networks subnets create workload-subnet1 \
--network workload-vpc \
--range 192.168.235.0/24 \
--region us-central1
  1. 创建枢纽 VPC 防火墙规则以允许:
  • SSH
  • ESP、UDP/500、UDP/4500
  • 内部 10.0.0.0/8 范围(涵盖从 Cloud Router 到路由器设备的 BGP 会话所需的 TCP 端口 179)
gcloud compute firewall-rules create hub-ssh \
--network hub-vpc \
--allow tcp:22

gcloud compute firewall-rules create hub-vpn \
--network hub-vpc \
--allow esp,udp:500,udp:4500 \
--target-tags router

gcloud compute firewall-rules create hub-internal \
--network hub-vpc \
--allow all \
--source-ranges 192.168.0.0/16

gcloud compute firewall-rules create hub-iap \
--network hub-vpc --allow tcp:22 --source-ranges=35.235.240.0/20
  1. 创建工作负载-VPC 防火墙规则以允许:
  • SSH
  • 内部 192.168.0.0/16 范围(涵盖从 Cloud Router 到路由器设备的 BGP 会话所需的 TCP 端口 179)
gcloud compute firewall-rules create workload-ssh \
--network workload-vpc \
--allow tcp:22

gcloud compute firewall-rules create workload-internal \
--network workload-vpc \
--allow all \
--source-ranges 192.168.0.0/16

gcloud compute firewall-rules create workload-onprem \
--network hub-vpc \
--allow all \
--source-ranges 10.0.0.0/8

gcloud compute firewall-rules create workload-iap \
--network workload-vpc --allow tcp:22 --source-ranges=35.235.240.0/20
  1. 在 workload-VPC 中启用 Cloud NAT,以便通过创建 Cloud Router 路由器和 NAT 网关来允许 workload1-vm 下载软件包
gcloud compute routers create cloud-router-usc-central-1-nat \
    --network workload-vpc \
    --region us-central1
gcloud compute routers nats create cloudnat-us-central1 \
    --router=cloud-router-usc-central-1-nat \
    --auto-allocate-nat-external-ips \
    --nat-all-subnet-ip-ranges \
    --region us-central1
  1. 创建 workload1-vm in "us-central1-a" in workload-VPC,您将使用此主机来验证网站与云的连接性
gcloud compute instances create workload1-vm \
    --project=$projectname \
    --machine-type=e2-micro \
    --image-family debian-10 \
    --image-project debian-cloud \
    --zone us-central1-a \
    --private-network-ip 192.168.235.3 \
        --no-address \
    --subnet=workload-subnet1 \
    --metadata startup-script="#! /bin/bash
      sudo apt-get update
      sudo apt-get install apache2 -y
      sudo service apache2 restart
      echo 'Welcome to Workload VM1 !!' | tee /var/www/html/index.html
      EOF"

4. 设置 SD-WAN 的本地设备

80061623e9950756.png

为 SDWAN(设备)创建本地虚拟机

在下一部分中,我们将创建 site1-nva,以用作本地路由器。

创建实例

创建名为 site1-nvasite1-router 设备

gcloud compute instances create site1-nva \
--zone=us-central1-a \
--machine-type=e2-medium \
--network-interface subnet=site1-subnet \
--network-interface subnet=s1-inside-subnet,no-address \
--create-disk=auto-delete=yes,boot=yes,device-name=flex-gcp-nva-1,image=projects/ubuntu-os-cloud/global/images/ubuntu-1804-bionic-v20220901,mode=rw,size=20,type=projects/$projectname/zones/us-central1-a/diskTypes/pd-balanced \
--no-shielded-secure-boot \
--shielded-vtpm \
--shielded-integrity-monitoring \
--reservation-affinity=any \
--can-ip-forward

5. 在 site1-nva 上安装 flexiWAN

打开与 site1-nva 的 SSH 连接,如果超时,请重试

gcloud compute ssh site1-nva --zone=us-central1-a

在 site1-nva 上安装 flexiWAN

sudo su 

sudo curl -sL https://deb.flexiWAN.com/setup | sudo bash -
apt install flexiWAN-router -y

为 flexiWAN 控制平面注册准备虚拟机。

flexiWAN 安装完成后,运行 fwsystem_checker 命令,为虚拟机做好 flexiWAN 操作准备。此命令用于检查系统要求,并有助于修复系统中的配置错误。

  • 选择选项 2 以快速安静地进行配置
  • 之后,使用 0 退出。
  • 请勿关闭 Cloud Shell 窗口。
root@site-1-nva-1:/home/user# fwsystem_checker
 
<output snipped>

        [0] - quit and use fixed parameters
         1  - check system configuration
         2  - configure system silently
         3  - configure system interactively
         4  - restore system checker settings to default
        ------------------------------------------------
Choose: 2

<output snipped>

        [0] - quit and use fixed parameters
         1  - check system configuration
         2  - configure system silently
         3  - configure system interactively
         4  - restore system checker settings to default
        ------------------------------------------------
Choose: 0
Please wait..
Done.
=== system checker ended ====

请不要关闭会话,以便执行后续步骤

6. 将 site1-nva 注册到 SD-WAN 控制器

您必须完成以下步骤,才能完成 flexiWAN NVA 的预配。该 NVA 通过 flexiManage 控制台进行管理。请先确保已设置 flexiWAN 组织,然后再继续操作。

登录 flexiManage 账号,使用安全令牌通过 flexiManage 对新部署的 flexiWAN NVA 进行身份验证。同一令牌可在所有路由器设备中重复使用。

依次选择广告资源 → 令牌,创建令牌,然后选择“复制”

12c173b589d220ee.png

返回 Cloud Shell (site1-nva),然后执行以下操作,将令牌粘贴到 /etc/flexiWAN/agent/token.txt 目录中

nano /etc/flexiWAN/agent/token.txt
#Paste the generated token obtain from flexiManage
#Exit session with CTRL+X and Select Y to save then enter

22e1cf5bad3d3086.png

在 flexiManage 控制台中启用网站路由器

登录 flexiManage 控制台,在控制器上激活 site1-nva

在左侧面板中,依次选择广告资源 → 设备,然后点击“未知”设备

f7719c28f78e907a.png

输入 site1-nva 的主机名,然后向右滑动滑块以批准设备。

9a6c6c45e1cad732.png

选择“接口”标签页

找到“已分配”列,点击“”,然后将设置更改为“

a8772059968af13e.png

选择“防火墙”标签页,然后点击 “+” 号以添加入站防火墙规则

选择要应用 SSH 规则的 WAN 接口,如下所述

df03b8a6c817ccd2.png

点击更新设备

96b9feb77b8517cd.png

从 flexiWAN 控制器启动 site1-nva。返回到广告资源 → 设备 → site1-nva,然后选择“启动设备”

708215cf91ffc09.png

状态 - 同步中

918d72eeacc386fa.png

状态 - 已同步

5135096dbff49819.png

您可以在问题排查 → 通知下查看警告指示器。查看后,全选并标记为已读

9e79db3572f91925.png

7. 设置 Hub SD-WAN 设备

在下一部分中,您将创建 Hub 路由器 (hub-r1) 并将其注册到 flexiWAN 控制器,就像之前为网站路由执行的操作一样。

打开一个新标签页并创建一个 Cloud Shell 会话,更新 $variables 以帮助实现 gcloud 配置

gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=[YOUR-PROJECT-NAME]
echo $projectname

创建 Hub NVA 实例

创建 hub-r1 设备:

gcloud compute instances create hub-r1 \
--zone=us-central1-a \
--machine-type=e2-medium \
--network-interface subnet=hub-subnet1 \
--network-interface subnet=workload-subnet1,no-address \
--can-ip-forward \
--create-disk=auto-delete=yes,boot=yes,device-name=flex-gcp-nva-1,image=projects/ubuntu-os-cloud/global/images/ubuntu-1804-bionic-v20220901,mode=rw,size=20,type=projects/$projectname/zones/us-central1-a/diskTypes/pd-balanced \
--no-shielded-secure-boot \
--shielded-vtpm \
--shielded-integrity-monitoring \
--reservation-affinity=any

8. 在 hub-r1 的 Hub 实例上安装 flexiWAN

打开与 hub-r1 的 SSH 连接

gcloud compute ssh hub-r1 --zone=us-central1-a

在两个 hub-r1 上安装 flexiWAN 代理

sudo su
sudo curl -sL https://deb.flexiWAN.com/setup | sudo bash -
apt install flexiWAN-router -y

准备 hub-r1 虚拟机以进行 flexiWAN 注册。

flexiWAN 安装完成后,运行 fwsystem_checker 命令,为虚拟机做好 flexiWAN 操作准备。此命令用于检查系统要求,并有助于修复系统中的配置错误。

root@hub-r1:/home/user# fwsystem_checker
  • 选择选项 2 以快速安静地进行配置
  • 之后,使用 0 退出。
  • 请勿关闭 Cloud Shell 窗口。

9. 在 FlexManage 控制器上注册 hub-r1 虚拟机

登录 flexiManage 账号,使用安全令牌通过 flexiManage 对新部署的 flexiWAN NVA 进行身份验证。

  • 依次选择广告资源 → 令牌,然后复制令牌

返回 Cloud Shell (hub-r1),然后执行以下操作,将令牌粘贴到 /etc/flexiWAN/agent/token.txt 目录中

nano /etc/flexiWAN/agent/token.txt
#Paste the generated token obtain from flexiManage
#Exit session with CTRL+X and Select Y to save then enter

在 flexiManage 控制台中激活集线器路由器 hub-r1

登录 flexiManage 控制台

  • 依次前往广告资源 → 设备
  • 找到并记下 hub-r1 的主机名为“unknown”

1a88ffa4409ad3c0.png

选择主机名为 hub-r1 的“未知设备”

  • 输入 hub-r1 的主机名
  • 批准设备,将滑块向右滑动。

选择接口标签页

  • 找到“已分配”
  • 点击接口行旁边的“否”,将设置更改为“是”

选择防火墙标签页

  • 点击“+”以添加入站防火墙规则
  • 选择要继承规则的 WAN 接口
  • 允许使用 TCP 协议的 SSH 端口 22
  • 点击更新设备

通过 flexiWAN 控制器启动用于 SD-WAN 的 hub-r1 设备

  • 返回到目录 → 设备 → hub-r1

选择“启动设备

  • 等待同步完成,并记下“正在运行”状态

10. GCP Hub 上的 Network Connectivity Center

a5a454f4a30df82e.png

启用 API 服务

如果尚未启用 Network Connectivity API,请启用该 API:

gcloud services enable networkconnectivity.googleapis.com

创建 NCC Hub

gcloud network-connectivity hubs create ncc-hub
Create request issued for: [ncc-hub]
Waiting for operation [projects/user-3p-dev/locations/global/operations/operation-1668793629598-5edc24b7ee3ce-dd4c765b-5ca79556] to complete...done.     
Created hub [ncc-hub]

将两个路由器设备配置为 NCC spoke

找到 hub-r1 的 URI 和 IP 地址,并记下输出。您将在下一步中用到此信息。

请务必记下 hub-r1 实例的 IP 地址。

gcloud compute instances describe hub-r1 \
--zone=us-central1-a \
--format="value(selfLink.scope(projects))"

gcloud compute instances describe hub-r1 --zone=us-central1-a | grep "networkIP"

将 hub-r1 的 vnic networkIP 添加为 spoke。默认情况下,站点到站点数据传输处于停用状态。

gcloud network-connectivity spokes linked-router-appliances create s2c-wrk-cr1 \
--hub=ncc-hub \
--router-appliance=instance="https://www.googleapis.com/compute/projects/$projectname/zones/us-central1-a/instances/hub-r1",ip=192.168.235.4 \
--region=us-central1 \
--site-to-site-data-transfer

配置 Cloud Router 以与 Hub-R1 建立 BGP

在下一步中,创建 Cloud Router 并通告工作负载 VPC 子网 192.168.235.0/24

在 us-central1 中创建将通过 BGP 与 hub-r1 通信的 Cloud Router 路由器

gcloud compute routers create wrk-cr1 \
--region=us-central1 \
--network=workload-vpc \
--asn=65002 \
--set-advertisement-groups=all_subnets

通过将路由器设备配置为 NCC Spoke,Cloud Router 便可在虚拟接口上协商 BGP。

在 Cloud Router 上创建两个接口,用于与 hub-r1 交换 BGP 消息。

IP 地址从工作负载子网中选择,可根据需要进行更改。

gcloud compute routers add-interface wrk-cr1 \
--region=us-central1 \
--subnetwork=workload-subnet1 \
--interface-name=int0 \
--ip-address=192.168.235.101 

gcloud compute routers add-interface wrk-cr1 \
--region=us-central1 \
--subnetwork=workload-subnet1 \
--interface-name=int1 \
--ip-address=192.168.235.102 \
--redundant-interface=int0

配置 Cloud Router 接口以与 hub-r1 的 vNIC-1 建立 BGP,将 peer-ip-address 更新为 hub-r1 networkIP 的 IP 地址。请注意,int0 和 int1 使用相同的 IP 地址。

gcloud compute routers add-bgp-peer wrk-cr1 \
    --peer-name=hub-cr1-bgp-peer-0 \
    --interface=int0 \
    --peer-ip-address=192.168.235.4 \
    --peer-asn=64111 \
    --instance=hub-r1 \
    --instance-zone=us-central1-a \
    --region=us-central1

gcloud compute routers add-bgp-peer wrk-cr1 \
    --peer-name=hub-cr1-bgp-peer-1 \
    --interface=int1 \
    --peer-ip-address=192.168.235.4 \
    --peer-asn=64111 \
    --instance=hub-r1 \
    --instance-zone=us-central1-a \
    --region=us-central1

验证 BGP 状态。在本 Codelab 的此时刻,由于网络路由器设备尚未配置 BGP,因此 BGP 处于“连接状态”。

gcloud compute routers get-status wrk-cr1 --region=us-central1

11. 为 BGP 配置 Hub 路由器设备

为 BGP 配置 hub-r1

请务必登录 flexiManage 控制台

依次前往 Inventory(目录)→ Devices(设备)→ hub-r1,然后选择HostName:hub-r1(主机名:hub-r1)对应的设备

  • 点击“路由”标签页
  • 点击 “BGP 配置”
  • 停用“重新分配 OSPF 路由”
  • 使用以下参数为 BGP 配置 hub-r1,然后点击“保存”

8d470056f620717f.png

选择“接口”标签页,找到 LAN 接口,然后找到“路由”列

  • 点击“none”(无)打开菜单,选择 BGP 作为路由协议

82310aab05e9e414.png

  • 在页面顶部,点击“更新设备”

12. 路由器设备之间的 BGP 路由交换

为远程站点建立本地 ASN

为 site1-nva 配置本地 BGP ASN,配置完成后,我们将在远程站点和集线器路由器之间建立 IPSEC 隧道。

选择HostName:site1-nva 对应的设备

  • 点击“路由”标签页
  • 点击 “BGP 配置”
  • 停用“重新分配 OSPF 路由”
  • 本地 ASN 7269 → 保存
  • 更新设备
  • “接口”标签页 →“路由”→“BGP”
  • 更新设备

在 Site1 和 Hub1 设备之间配置 VPN 隧道

请务必登录 flexiManage 控制台

  • 依次前往广告资源 → 设备
  • 选中 site1-nvahub-r1 的主机名旁边的复选框,以便在这对 NVA 之间建立 VPN 隧道
  • 依次点击 Actions→ Create Tunnels,然后配置以下内容

d870b4049a0e7fcf.png

c50d794442c0bdd0.png

  • 选择创建隧道

验证“site1-nva”是否学习了到子网 192.168.235.0/24 和 192.168.236.0/24 的路由

  • 依次选择广告资源 → 设备 → site1-nva,然后点击“路由”标签页

在以下示例输出中,flexiWAN 使用主机 IP 地址 10.100.0.6 自动创建了隧道cef8dee200ac600a.png

13. 验证数据路径连接性

从本地验证站点到云的连接

请参阅图表,验证 s1-vmworkload1-vm 之间的数据路径

e96022cff4642fc9.png

为站点到云配置 VPC 静态路由

本地 Site1-VPC 模拟本地数据中心网络。

两个 Site-1-nva 路由器设备都使用 VPN 连接来访问枢纽网络。

对于站点到云用例,请使用路由器设备作为下一个跃点创建到 192.168.0.0/16 目的地的静态路由,以便访问 GCP 云网络中的网络。

s1-inside-vpc 上,为云端目的地 (192.168.0.0/16) 创建静态路由:

gcloud compute routes create site1-subnet-route  \
--network=s1-inside-vpc \
--destination-range=192.168.0.0/16  \
--next-hop-instance=site1-nva \
--next-hop-instance-zone=us-central1-a

在 Cloud Shell 中,查找 workload1-vmnee 的 IP 地址。您需要此信息来测试“s1-vm”的连接。

gcloud compute instances describe workload1-vm --zone=us-central1-a | grep "networkIP"

通过 SSH 连接到“s1-vm”,然后使用“curl”命令向 workload1-VM IP 地址建立 TCP 会话。

s1-vm:~$ curl 192.168.235.3 -vv
*   Trying 192.168.235.3:80...
* Connected to 192.168.235.3 (192.168.235.3) port 80 (#0)
> GET / HTTP/1.1
> Host: 192.168.235.3
> User-Agent: curl/7.74.0
> Accept: */*
> 
* Mark bundle as not supporting multiuse
< HTTP/1.1 200 OK
< Date: Wed, 07 Dec 2022 15:12:08 GMT
< Server: Apache/2.4.54 (Debian)
< Last-Modified: Tue, 06 Dec 2022 00:57:46 GMT
< ETag: "1f-5ef1e4acfa1d9"
< Accept-Ranges: bytes
< Content-Length: 31
< Content-Type: text/html
< 
Page served from: workload1-vm
* Connection #0 to host 192.168.235.3 left intact

14. 清理

删除本地资源

登录 Cloud Shell,然后删除中心站点网络和分支站点网络中的虚拟机实例

#onprem instances
gcloud compute instances delete s1-vm --zone=us-central1-a --quiet


#delete on prem firewall rules
gcloud compute firewall-rules delete site1-ssh --quiet
gcloud compute firewall-rules delete site1-internal --quiet
gcloud compute firewall-rules delete site1-cloud --quiet
gcloud compute firewall-rules delete site1-vpn  --quiet
gcloud compute firewall-rules delete site1-iap --quiet


#delete on prem subnets
gcloud compute networks subnets delete site1-subnet --quiet
gcloud compute networks subnets delete s1-inside-subnet --quiet
gcloud compute networks subnets delete s1-inside-subnet --quiet


#delete on prem vpcs
gcloud compute networks delete site1-vpc --quiet
gcloud compute networks delete s1-inside-vpc --quiet

删除 Cloud Hub 资源

登录 Cloud Shell,然后删除中心站点网络和分支站点网络中的虚拟机实例

#delete ncc spokes
gcloud network-connectivity spokes delete s2c-wrk-cr1 --region us-central1 --quiet

#delete ncc hub
gcloud network-connectivity hubs delete ncc-hub --quiet


#delete hub instances
gcloud compute instances delete hub-r1 --zone=us-central1-a --quiet


#delete hub firewall rule
gcloud compute firewall-rules delete hub-ssh --quiet
gcloud compute firewall-rules delete hub-vpn --quiet
gcloud compute firewall-rules delete hub-internal --quiet
gcloud compute firewall-rules delete hub-iap --quiet

gcloud compute firewall-rules create workload-ssh --quiet
gcloud compute firewall-rules create workload-internal --quiet
gcloud compute firewall-rules create workload-onprem --quiet
gcloud compute firewall-rules create workload-iap --quiet

#delete hub subnets
gcloud compute networks subnets delete workload-subnet1 --quiet

gcloud compute networks subnets delete hub-subnet1 --quiet

#delete hub vpcs
gcloud compute networks delete workload-vpc --quiet
gcloud compute networks delete hub-vpc --quiet

15. 恭喜!

您已完成 Network Connectivity Center 实验!

所学内容

  • 为 NCC 网站到云配置了软件定义 WAN 集成

后续步骤

©Google, LLC 或其关联公司。保留所有权利。不得分发。