۱. مقدمه
نمای کلی
در این آزمایش، برخی از ویژگیهای مرکز اتصال شبکه (Network Connectivity Center) را بررسی خواهید کرد.
مرکز اتصال شبکه (NCC) یک مدل صفحه کنترل هاب و اقماری برای مدیریت اتصال شبکه در Google Cloud است. منبع هاب یک مدل مدیریت اتصال متمرکز برای اتصال اقماریها فراهم میکند. NCC در حال حاضر از منابع شبکه زیر به عنوان اقماریها پشتیبانی میکند:
- پیوستهای VLAN
- لوازم خانگی روتر
- ویپیان HA
Codelabs استفاده از راهکار flexiWAN SaaS SD-WAN را الزامی میداند که استقرار و مدیریت WAN را ساده میکند. flexWAN یک راهکار متنباز SD-WAN و SASE است.
آنچه خواهید ساخت
در این آزمایشگاه کد، شما یک توپولوژی هاب و اسپوک SD-WAN خواهید ساخت تا سایتهای شعبه از راه دور را که از شبکه اصلی گوگل برای ارتباط سایت به ابر و سایت به سایت عبور میکنند، شبیهسازی کنید.
- شما یک جفت ماشین مجازی GCE پیکربندی شده برای عامل SD-WAN "flexiWAN" را در VPC هاب مستقر خواهید کرد که نشان دهنده سرگروههای ترافیک ورودی و خروجی به GCP است.
- دو روتر SD-WAN از راه دور flexiWAN را برای نمایش VPC دو سایت شعبه مختلف مستقر کنید
- برای آزمایش مسیر داده، سه ماشین مجازی GCE را برای شبیهسازی روی کلاینتهای اولیه و سرور میزبانیشده روی GCP پیکربندی خواهید کرد.
آنچه یاد خواهید گرفت
- استفاده از NCC برای اتصال دفاتر شعب از راه دور با استفاده از یک راهکار WAN متنباز مبتنی بر نرمافزار
- تجربه عملی با یک راهکار WAN مبتنی بر نرمافزار متنباز
آنچه نیاز دارید
- آشنایی با شبکه GCP VPC
- آشنایی با Cloud Router و مسیریابی BGP
- Codelab به ۶ VPC نیاز دارد. Quota:Networks خود را بررسی کنید و در صورت لزوم، شبکههای اضافی درخواست کنید ، تصویر زیر:

۲. اهداف
- راهاندازی محیط GCP
- پیادهسازی نمونههای flexiWAN Edge در GCP
- یک هاب NCC و flexiWAN Edge NVA به عنوان رابط ایجاد کنید.
- پیکربندی و مدیریت نمونههای flexiWAN با استفاده از flexiManage
- پیکربندی تبادل مسیر BGP بین vpc-app-svcs و flexiWAN NVA
- ایجاد یک سایت از راه دور که یک شعبه از راه دور مشتری یا یک مرکز داده را شبیهسازی میکند
- ایجاد یک تونل IPSEC بین سایت راه دور و NVA
- تأیید کنید که لوازم خانگی با موفقیت مستقر شدهاند
- اعتبارسنجی انتقال داده سایت به فضای ابری
- اعتبارسنجی انتقال داده سایت به سایت
- منابع استفاده شده را پاکسازی کنید
این آموزش نیاز به ایجاد یک حساب کاربری رایگان flexiManage برای احراز هویت، راهاندازی و مدیریت نمونههای flexiEdge دارد.
قبل از اینکه شروع کنی
استفاده از کنسول ابری گوگل و پوسته ابری
برای تعامل با GCP، در طول این آزمایش از هر دو کنسول ابری گوگل و پوسته ابری استفاده خواهیم کرد.
کنسول ابری گوگل
کنسول ابری از طریق آدرس https://console.cloud.google.com قابل دسترسی است.
برای آسانتر کردن پیکربندی Network Connectivity Center، موارد زیر را در Google Cloud تنظیم کنید:
در کنسول گوگل کلود، در صفحه انتخاب پروژه، یک پروژه گوگل کلود را انتخاب یا ایجاد کنید.
Cloud Shell را اجرا کنید. این Codelab از $variables برای کمک به پیادهسازی پیکربندی gcloud در Cloud Shell استفاده میکند.
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=[YOUR-PROJECT-NAME]
echo $projectname
نقشهای IAM
NCC برای دسترسی به APIهای خاص به نقشهای IAM نیاز دارد. حتماً کاربر خود را با نقشهای IAM NCC در صورت نیاز پیکربندی کنید.
نام نقش | توضیحات | مجوزها |
اتصال شبکه.مدیر شبکه | به مدیران شبکه اجازه میدهد تا هاب و اسپوکها را مدیریت کنند. | اتصال شبکه.هابها. اتصال شبکه.اسپوکها. |
networkconnectivity.networkSpokeManager | امکان افزودن و مدیریت اسپوکها در یک هاب را فراهم میکند. برای استفاده در VPC اشتراکی که در آن پروژه میزبان مالک هاب است، اما سایر مدیران در پروژههای دیگر میتوانند اسپوکهایی را برای پیوستهای خود به هاب اضافه کنند. | اتصال شبکه.اسپوک.** |
اتصال شبکه.کاربر شبکهاتصال شبکه.بیننده شبکه | به کاربران شبکه اجازه میدهد تا ویژگیهای مختلف هاب و اسپوک را مشاهده کنند. | اتصال شبکه.هابها.دریافت اتصال شبکه.هابها.لیست اتصال شبکه.پرهها.دریافت اتصال شبکه.لیست اتصال شبکه.پرهها.لیست اتصال شبکه.پرهها.لیست تجمیعی |
۳. راهاندازی محیط آزمایشگاهی شبکه
نمای کلی
در این بخش، شبکههای VPC و قوانین فایروال را پیادهسازی خواهیم کرد.

شبکههای سایت شعبه On-Prem را شبیهسازی کنید
این شبکه VPC شامل زیرشبکههایی برای نمونههای ماشین مجازی داخلی است.
شبکهها و زیرشبکههای سایت داخلی را ایجاد کنید:
gcloud compute networks create site1-vpc \
--subnet-mode custom
gcloud compute networks create site2-vpc \
--subnet-mode custom
gcloud compute networks create s1-inside-vpc \
--subnet-mode custom
gcloud compute networks create s2-inside-vpc \
--subnet-mode custom
gcloud compute networks subnets create site1-subnet \
--network site1-vpc \
--range 10.10.0.0/24 \
--region us-central1
gcloud compute networks subnets create site2-subnet \
--network site2-vpc \
--range 10.20.0.0/24 \
--region us-east4
gcloud compute networks subnets create s1-inside-subnet \
--network s1-inside-vpc \
--range 10.10.1.0/24 \
--region us-central1
gcloud compute networks subnets create s2-inside-subnet \
--network s2-inside-vpc \
--range 10.20.1.0/24 \
--region us-east4
قوانین فایروال site1-vpc را طوری ایجاد کنید که موارد زیر را مجاز بداند:
- SSH، داخلی، IAP
- ESP، UDP/500، UDP/4500
- محدوده ۱۰.۰.۰.۰/۸
- محدوده ۱۹۲.۱۶۸.۰.۰/۱۶
gcloud compute firewall-rules create site1-ssh \--network site1-vpc \
--allow tcp:22
gcloud compute firewall-rules create site1-internal \
--network site1-vpc \
--allow all \
--source-ranges 10.0.0.0/8
gcloud compute firewall-rules create site1-cloud \
--network site1-vpc \
--allow all \
--source-ranges 192.168.0.0/16
gcloud compute firewall-rules create site1-vpn \
--network site1-vpc \
--allow esp,udp:500,udp:4500 \
--target-tags router
gcloud compute firewall-rules create site1-iap \
--network site1-vpc --allow tcp:22 --source-ranges=35.235.240.0/20
قوانین فایروال site2-vpc را طوری ایجاد کنید که موارد زیر را مجاز بداند:
- SSH، داخلی، IAP
- محدوده ۱۰.۰.۰.۰/۸
- محدوده ۱۹۲.۱۶۸.۰.۰/۱۶
gcloud compute firewall-rules create site2-ssh \
--network site2-vpc \
--allow tcp:22
gcloud compute firewall-rules create site2-internal \
--network site2-vpc \
--allow all \
--source-ranges 10.0.0.0/8
gcloud compute firewall-rules create site2-cloud \
--network site1-vpc \
--allow all \
--source-ranges 192.168.0.0/16
gcloud compute firewall-rules create site2-vpn \
--network site1-vpc \
--allow esp,udp:500,udp:4500 \
--target-tags router
gcloud compute firewall-rules create site2-iap \
--network site2-vpc --allow tcp:22 --source-ranges=35.235.240.0/20
قوانین فایروال s1-inside-vpc را طوری ایجاد کنید که موارد زیر را مجاز بداند:
- SSH، داخلی، IAP
- محدوده ۱۰.۰.۰.۰/۸
- محدوده ۱۹۲.۱۶۸.۰.۰/۱۶
gcloud compute firewall-rules create s1-inside-ssh \
--network s1-inside-vpc \
--allow tcp:22
gcloud compute firewall-rules create s1-inside-internal \
--network s1-inside-vpc \
--allow all \
--source-ranges 10.0.0.0/8
gcloud compute firewall-rules create s1-inside-cloud \
--network s1-inside-vpc \
--allow all \
--source-ranges 192.168.0.0/16
gcloud compute firewall-rules create s1-inside-iap \
--network site2-vpc --allow tcp:22 --source-ranges=35.235.240.0/20
قوانین فایروال s2-inside-vpc را طوری ایجاد کنید که موارد زیر را مجاز بداند:
- SSH، داخلی، IAP
- محدوده ۱۰.۰.۰.۰/۸
- محدوده ۱۹۲.۱۶۸.۰.۰/۱۶
gcloud compute firewall-rules create s2-inside-ssh \
--network s2-inside-vpc \
--allow tcp:22
gcloud compute firewall-rules create s2-inside-internal \
--network s2-inside-vpc \
--allow all \
--source-ranges 10.0.0.0/8
gcloud compute firewall-rules create s2-inside-cloud \
--network s2-inside-vpc \
--allow all \
--source-ranges 192.168.0.0/16
gcloud compute firewall-rules create s2-inside-iap \
--network site2-vpc --allow tcp:22 --source-ranges=35.235.240.0/20
برای اهداف آزمایشی، نمونههای s1-inside-vm و s2-inside-vm را ایجاد کنید.
gcloud compute instances create s1-vm \
--zone=us-central1-a \
--machine-type=e2-micro \
--network-interface subnet=s1-inside-subnet,private-network-ip=10.10.1.3,no-address
gcloud compute instances create s2-vm \
--zone=us-east4-b \
--machine-type=e2-micro \
--network-interface subnet=s2-inside-subnet,private-network-ip=10.20.1.3,no-address
شبیهسازی محیط شبکه ابری GCP
برای فعال کردن ترافیک سایت به سایت بین منطقهای از طریق شبکه hub-vpc و اسپوکها، باید مسیریابی سراسری را در شبکه hub-vpc فعال کنید. برای اطلاعات بیشتر به NCC route exchange مراجعه کنید.
- ایجاد شبکه و زیرشبکههای
hub-vpc:
gcloud compute networks create hub-vpc \
--subnet-mode custom \
--bgp-routing-mode=global
gcloud compute networks subnets create hub-subnet1 \
--network hub-vpc \
--range 10.1.0.0/24 \
--region us-central1
gcloud compute networks subnets create hub-subnet2 \
--network hub-vpc \
--range 10.2.0.0/24 \
--region us-east4
- ایجاد شبکه و زیرشبکههای
workload-vpc:
gcloud compute networks create workload-vpc \
--subnet-mode custom \
--bgp-routing-mode=global
gcloud compute networks subnets create workload-subnet1 \
--network workload-vpc \
--range 192.168.235.0/24 \
--region us-central1
gcloud compute networks subnets create workload-subnet2 \
--network workload-vpc \
--range 192.168.236.0/24 \
--region us-east4
- قوانین فایروال Hub-VPC را طوری ایجاد کنید که موارد زیر را مجاز بداند:
- اساساچ
- ESP، UDP/500، UDP/4500
- محدوده داخلی 10.0.0.0/8 (که پورت TCP 179 مورد نیاز برای جلسه BGP از روتر ابری به دستگاه روتر را پوشش میدهد)
gcloud compute firewall-rules create hub-ssh \
--network hub-vpc \
--allow tcp:22
gcloud compute firewall-rules create hub-vpn \
--network hub-vpc \
--allow esp,udp:500,udp:4500 \
--target-tags router
gcloud compute firewall-rules create hub-internal \
--network hub-vpc \
--allow all \
--source-ranges 192.168.0.0/16
gcloud compute firewall-rules create hub-iap \
--network hub-vpc --allow tcp:22 --source-ranges=35.235.240.0/20
- قوانین فایروال Workload-VPC را طوری ایجاد کنید که موارد زیر را مجاز بداند:
- اساساچ
- محدوده داخلی ۱۹۲.۱۶۸.۰.۰/۱۶ (که پورت TCP ۱۷۹ مورد نیاز برای جلسه BGP از روتر ابری به دستگاه روتر را پوشش میدهد)
gcloud compute firewall-rules create workload-ssh \
--network workload-vpc \
--allow tcp:22
gcloud compute firewall-rules create workload-internal \
--network workload-vpc \
--allow all \
--source-ranges 192.168.0.0/16
gcloud compute --project=$projectname firewall-rules create allow-from-site-1-2 --direction=INGRESS --priority=1000 --network=workload-vpc --action=ALLOW --rules=all --source-ranges=10.10.1.0/24,10.20.1.0/24
gcloud compute firewall-rules create workload-onprem \
--network hub-vpc \
--allow all \
--source-ranges 10.0.0.0/8
gcloud compute firewall-rules create workload-iap \
--network workload-vpc --allow tcp:22 --source-ranges=35.235.240.0/20
- فعال کردن Cloud NAT در workload-VPC تا به workload1-vm اجازه دهد با ایجاد یک Cloud Router و NAT Gateway بستهها را دانلود کند.
gcloud compute routers create cloud-router-usc-central-1-nat \
--network workload-vpc \
--region us-central1
gcloud compute routers nats create cloudnat-us-central1 \
--router=cloud-router-usc-central-1-nat \
--auto-allocate-nat-external-ips \
--nat-all-subnet-ip-ranges \
--region us-central1
-
workload1-vmراin "us-central1-a" inworkload-VPCایجاد کنید، از این میزبان برای تأیید اتصال سایت به ابر استفاده خواهید کرد.
gcloud compute instances create workload1-vm \
--project=$projectname \
--machine-type=e2-micro \
--image-family debian-10 \
--image-project debian-cloud \
--zone us-central1-a \
--private-network-ip 192.168.235.3 \
--no-address \
--subnet=workload-subnet1 \
--metadata startup-script="#! /bin/bash
sudo apt-get update
sudo apt-get install apache2 -y
sudo service apache2 restart
echo 'Welcome to Workload VM1 !!' | tee /var/www/html/index.html
EOF"
۴. راهاندازی روی دستگاههای Prem برای SD-WAN

ایجاد ماشین مجازی On-Prem برای SDWAN (لوازم خانگی)
در بخش بعدی، ما روترهای site1-nva و site2-nva را ایجاد خواهیم کرد که به عنوان روترهای داخلی عمل میکنند.
ایجاد نمونهها
دستگاه site1-router را با نام site1-nva ایجاد کنید.
gcloud compute instances create site1-nva \
--zone=us-central1-a \
--machine-type=e2-medium \
--network-interface subnet=site1-subnet \
--network-interface subnet=s1-inside-subnet,no-address \
--create-disk=auto-delete=yes,boot=yes,device-name=flex-gcp-nva-1,image=projects/ubuntu-os-cloud/global/images/ubuntu-1804-bionic-v20220901,mode=rw,size=20,type=projects/$projectname/zones/us-central1-a/diskTypes/pd-balanced \
--no-shielded-secure-boot \
--shielded-vtpm \
--shielded-integrity-monitoring \
--reservation-affinity=any \
--can-ip-forward
دستگاه site2-router را با نام site2-nva ایجاد کنید.
gcloud compute instances create site2-nva \
--zone=us-east4-b \
--machine-type=e2-medium \
--network-interface subnet=site2-subnet \
--network-interface subnet=s2-inside-subnet,no-address \
--create-disk=auto-delete=yes,boot=yes,device-name=flex-gcp-nva-1,image=projects/ubuntu-os-cloud/global/images/ubuntu-1804-bionic-v20220901,mode=rw,size=20,type=projects/$projectname/zones/us-east4-a/diskTypes/pd-balanced \
--no-shielded-secure-boot \
--shielded-vtpm \
--shielded-integrity-monitoring \
--reservation-affinity=any \
--can-ip-forward
۵. نصب flexiWAN در site1-nva
یک اتصال SSH به site1-nva باز کنید، در صورت اتمام مهلت، دوباره امتحان کنید
gcloud compute ssh site1-nva --zone=us-central1-a
نصب flexiWAN در site1-nva
sudo su
sudo curl -sL https://deb.flexiwan.com/setup | sudo bash -
apt install flexiwan-router -y
ماشین مجازی را برای ثبت صفحه کنترل flexiWAN آماده کنید.
پس از اتمام نصب flexiWAN، دستور fwsystem_checker را اجرا کنید تا پیکربندی سیستم خود را بررسی کنید. این دستور نیازمندیهای سیستم را بررسی کرده و به رفع خطاهای پیکربندی در سیستم شما کمک میکند.
- برای پیکربندی سریع و بیصدا، گزینه
2را انتخاب کنید - بعد از آن با 0 خارج شوید.
- پنجره پوسته ابری را نبندید.
root@site-1-nva-1:/home/user# fwsystem_checker
<output snipped>
[0] - quit and use fixed parameters
1 - check system configuration
2 - configure system silently
3 - configure system interactively
4 - restore system checker settings to default
------------------------------------------------
Choose: 2
<output snipped>
[0] - quit and use fixed parameters
1 - check system configuration
2 - configure system silently
3 - configure system interactively
4 - restore system checker settings to default
------------------------------------------------
Choose: 0
Please wait..
Done.
=== system checker ended ====
جلسه را برای مراحل زیر باز بگذارید
۶. ثبت site1-nva با کنترلر SD-WAN
این مراحل برای تکمیل آمادهسازی flexiWAN مورد نیاز است. NVA از کنسول flexiManage مدیریت میشود. قبل از ادامه، مطمئن شوید که سازمان flexiWAN راهاندازی شده است.
با ورود به حساب کاربری flexiManage، با استفاده از یک توکن امنیتی، flexiWAN NVA تازه مستقر شده را با flexiManage تأیید اعتبار کنید. همین توکن را میتوان در تمام دستگاههای روتر دوباره استفاده کرد.
موجودی → توکنها را انتخاب کنید، یک توکن ایجاد کنید و کپی آن را انتخاب کنید.

به Cloud Shell (site1-nva) برگردید و توکن را با انجام مراحل زیر در دایرکتوری /etc/flexiwan/agent/token.txt قرار دهید.
nano /etc/flexiwan/agent/token.txt
#Paste the generated token obtain from flexiManage
#Exit session with CTRL+X and Select Y to save then enter

روترهای سایت را در کنسول flexiManage فعال کنید
برای فعال کردن site1-nva روی کنترلر، به کنسول flexiManage وارد شوید.
در پنل سمت چپ، گزینهی «موجودی → دستگاهها» را انتخاب کنید ، روی دستگاه «ناشناخته» کلیک کنید.

نام میزبان site1-nva را وارد کنید و با کشیدن دکمه به سمت راست، دستگاه را تأیید کنید.

برگه « رابطها» را انتخاب کنید
ستون « اختصاص داده شده » را پیدا کنید و روی « خیر » کلیک کنید و تنظیمات را به « بله » تغییر دهید

تب فایروال را انتخاب کنید و برای اضافه کردن یک قانون فایروال ورودی، روی علامت "+" کلیک کنید.
رابط WAN را برای اعمال قانون ssh همانطور که در زیر توضیح داده شده است، انتخاب کنید.

روی « بهروزرسانی دستگاه » کلیک کنید
site1-nva را از کنترلر flexiWAN شروع کنید. به Inventory → Devices → site1-nva برگردید و 'Start Device' را انتخاب کنید.
وضعیت - همگامسازی

وضعیت - همگامسازی شده

نشانگر هشدار در مسیر عیبیابی → اعلانها قابل مشاهده است. پس از مشاهده، همه را انتخاب کرده و سپس به عنوان خوانده شده علامتگذاری کنید.

۷. نصب flexiWAN در site2-nva
یک تب جدید باز کنید و یک جلسه Cloud Shell ایجاد کنید، متغیر $variables را برای کمک به پیادهسازی پیکربندی gcloud بهروزرسانی کنید.
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=[YOUR-PROJECT-NAME]
echo $projectname
یک اتصال SSH به site2-nva باز کنید، در صورت اتمام مهلت، دوباره امتحان کنید
gcloud compute ssh site2-nva --zone=us-east4-b
نصب flexiWAN روی site2-nva
sudo su
sudo curl -sL https://deb.flexiwan.com/setup | sudo bash -
apt install flexiwan-router -y
ماشین مجازی را برای ثبت صفحه کنترل flexiWAN آماده کنید.
پس از اتمام نصب flexiWAN، دستور fwsystem_checker را اجرا کنید تا پیکربندی سیستم خود را بررسی کنید. این دستور نیازمندیهای سیستم را بررسی کرده و به رفع خطاهای پیکربندی در سیستم شما کمک میکند.
- برای پیکربندی سریع و بیصدا، گزینه
2را انتخاب کنید - بعد از آن با 0 خارج شوید.
- پنجره پوسته ابری را نبندید.
root@site2-nva:/home/user# fwsystem_checker
<output snipped>
[0] - quit and use fixed parameters
1 - check system configuration
2 - configure system silently
3 - configure system interactively
4 - restore system checker settings to default
------------------------------------------------
Choose: 2
<output snipped>
[0] - quit and use fixed parameters
1 - check system configuration
2 - configure system silently
3 - configure system interactively
4 - restore system checker settings to default
------------------------------------------------
Choose: 0
Please wait..
Done.
=== system checker ended ====
۸. ثبت site2-nva با کنترلر SD-WAN
این مراحل برای تکمیل آمادهسازی flexiWAN مورد نیاز است. NVA از کنسول flexiManage مدیریت میشود. قبل از ادامه، مطمئن شوید که سازمان flexiWAN راهاندازی شده است.
با ورود به حساب کاربری flexiManage، با استفاده از یک توکن امنیتی، flexiWAN NVA تازه مستقر شده را با flexiManage تأیید اعتبار کنید. همین توکن را میتوان در تمام دستگاههای روتر دوباره استفاده کرد.
موجودی → توکنها را انتخاب کنید ، یک توکن ایجاد کنید و کپی آن را انتخاب کنید

به Cloud Shell (site2-nva) برگردید و توکن را با انجام مراحل زیر در دایرکتوری /etc/flexiwan/agent/token.txt قرار دهید.
nano /etc/flexiwan/agent/token.txt
#Paste the generated token obtain from flexiManage
#Exit session with CTRL+X and Select Y to save then enter

روترهای سایت را از کنسول flexiManage فعال کنید
برای فعال کردن site2-nva روی کنترلر، به کنسول flexiManage وارد شوید.
در پنل سمت چپ، گزینهی «موجودی → دستگاهها» را انتخاب کنید ، روی دستگاه «ناشناخته» کلیک کنید.

نام میزبان site2-nva را وارد کنید و با کشیدن دکمه به سمت راست، دستگاه را تأیید کنید.

برگه « رابطها» را انتخاب کنید
ستون « اختصاص داده شده » را پیدا کنید و روی « خیر » کلیک کنید و تنظیمات را به « بله » تغییر دهید

تب فایروال را انتخاب کنید و روی علامت "+" کلیک کنید تا یک قانون فایروال ورودی اضافه شود. رابط WAN را برای اعمال قانون ssh همانطور که در زیر توضیح داده شده است انتخاب کنید.

روی « بهروزرسانی دستگاه » کلیک کنید
site2-nva را از کنترلر flexiWAN شروع کنید. به Inventory → Devices → site2-nva برگردید و گزینه «Start Device» را انتخاب کنید.
ساتوس - همگامسازی

وضعیت - همگامسازی شده

نشانگر هشدار در مسیر عیبیابی → اعلانها قابل مشاهده است. پس از مشاهده، همه را انتخاب کرده و سپس به عنوان خوانده شده علامتگذاری کنید.

۹. راهاندازی هاب لوازم SDWAN
در بخش بعدی، روترهای هاب (hub-r1 و hub-r2) را با کنترلر flexiWAN همانطور که قبلاً با مسیرهای سایت اجرا شده بود، ایجاد و ثبت خواهید کرد.
یک تب جدید باز کنید و یک جلسه Cloud Shell ایجاد کنید، متغیر $variables را برای کمک به پیادهسازی پیکربندی gcloud بهروزرسانی کنید.
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=[YOUR-PROJECT-NAME]
echo $projectname
ایجاد نمونههای NVA هاب
دستگاه hub-r1 را ایجاد کنید:
gcloud compute instances create hub-r1 \
--zone=us-central1-a \
--machine-type=e2-medium \
--network-interface subnet=hub-subnet1 \
--network-interface subnet=workload-subnet1,no-address \
--can-ip-forward \
--create-disk=auto-delete=yes,boot=yes,device-name=flex-gcp-nva-1,image=projects/ubuntu-os-cloud/global/images/ubuntu-1804-bionic-v20220901,mode=rw,size=20,type=projects/$projectname/zones/us-central1-a/diskTypes/pd-balanced \
--no-shielded-secure-boot \
--shielded-vtpm \
--shielded-integrity-monitoring \
--reservation-affinity=any
دستگاه hub-r2 را ایجاد کنید:
gcloud compute instances create hub-r2 \
--zone=us-east4-b \
--machine-type=e2-medium \
--network-interface subnet=hub-subnet2 \
--network-interface subnet=workload-subnet2,no-address \
--can-ip-forward \
--create-disk=auto-delete=yes,boot=yes,device-name=flex-gcp-nva-1,image=projects/ubuntu-os-cloud/global/images/ubuntu-1804-bionic-v20220901,mode=rw,size=20,type=projects/$projectname/zones/us-east4-a/diskTypes/pd-balanced \
--no-shielded-secure-boot \
--shielded-vtpm \
--shielded-integrity-monitoring \
--reservation-affinity=any
۱۰. نصب flexiWAN روی Hub Instances برای hub-r1
یک اتصال SSH به hub-r1 باز کنید
gcloud compute ssh hub-r1 --zone=us-central1-a
عامل flexiWAN را روی هر دو hub-r1 نصب کنید
sudo su
sudo curl -sL https://deb.flexiwan.com/setup | sudo bash -
apt install flexiwan-router -y
ماشینهای مجازی hub-r1 را برای ثبت flexiWAN آماده کنید.
پس از اتمام نصب flexiWAN، دستور fwsystem_checker را اجرا کنید تا پیکربندی سیستم خود را بررسی کنید. این دستور نیازمندیهای سیستم را بررسی کرده و به رفع خطاهای پیکربندی در سیستم شما کمک میکند.
root@hub-r1:/home/user# fwsystem_checker
- برای پیکربندی سریع و بیصدا، گزینه
2را انتخاب کنید - بعد از آن با 0 خارج شوید.
- پنجره پوسته ابری را نبندید.
۱۱. ماشینهای مجازی hub-r1 را روی کنترلر flexiManage ثبت کنید
با ورود به حساب flexiManage، با استفاده از یک توکن امنیتی، flexiWAN NVA تازه مستقر شده را با flexiManage تأیید اعتبار کنید.
- موجودی → توکنها را انتخاب کنید و توکن را کپی کنید.
به Cloud Shell (hub-r1) برگردید و توکن را با انجام مراحل زیر در دایرکتوری /etc/flexiwan/agent/token.txt قرار دهید.
nano /etc/flexiwan/agent/token.txt
#Paste the generated token obtain from flexiManage
#Exit session with CTRL+X and Select Y to save then enter
۱۲. نصب flexiWAN روی Hub Instances برای hub-r2
یک اتصال SSH به hub-r2 باز کنید
gcloud compute ssh hub-r2 --zone=us-east4-b
عامل flexiWAN را روی هر دو hub-r2 نصب کنید
sudo su
sudo curl -sL https://deb.flexiwan.com/setup | sudo bash -
apt install flexiwan-router -y
ماشینهای مجازی hub-r2 را برای ثبت flexiWAN آماده کنید.
پس از اتمام نصب flexiWAN، دستور fwsystem_checker را اجرا کنید تا پیکربندی سیستم خود را بررسی کنید. این دستور نیازمندیهای سیستم را بررسی کرده و به رفع خطاهای پیکربندی در سیستم شما کمک میکند.
root@hub-r2:/home/user# fwsystem_checker
- برای پیکربندی سریع و بیصدا، گزینه
2را انتخاب کنید - بعد از آن با 0 خارج شوید.
- پنجره پوسته ابری را نبندید.
۱۳. ماشینهای مجازی hub-r2 را روی کنترلر flexiManage ثبت کنید
با ورود به حساب flexiManage، با استفاده از یک توکن امنیتی، flexiWAN NVA تازه مستقر شده را با flexiManage تأیید اعتبار کنید.
- موجودی → توکنها را انتخاب کنید و توکن را کپی کنید.
به Cloud Shell (hub-r2) برگردید و توکن را با انجام مراحل زیر در دایرکتوری /etc/flexiwan/agent/token.txt قرار دهید.
nano /etc/flexiwan/agent/token.txt
#Paste the generated token obtain from flexiManage
#Exit session with CTRL+X and Select Y to save then enter
روترهای هاب hub-r1 را در کنسول flexiManage فعال کنید
وارد کنسول flexiManage شوید
- به موجودی → دستگاهها بروید
- پیدا کنید و توجه داشته باشید که نام میزبان برای hub-r1 و hub-r2 هر دو "ناشناخته" هستند.

دستگاه ناشناخته را با نام میزبان hub-r1 انتخاب کنید
- نام میزبان hub-r1 را وارد کنید
- دستگاه را تأیید کنید ، دکمه چرخان را به سمت راست بکشید.
برگه رابطها را انتخاب کنید
- ستون "اختصاص داده شده" را پیدا کنید
- در کنار ردیف رابط، روی «خیر» کلیک کنید تا تنظیمات به «بله» تغییر کند.
برگه فایروال را انتخاب کنید
- برای افزودن قانون فایروال ورودی، روی « + » کلیک کنید
- رابط WAN را برای ارث بری از قانون انتخاب کنید
- پورت ۲۲ SSH را با پروتکل TCP مجاز کنید
- روی « بهروزرسانی دستگاه » کلیک کنید
دستگاه hub-r1 را برای SD-WAN از کنترلر flexiWAN راهاندازی کنید.
- بازگشت به موجودی → دستگاهها → hub-r1
« شروع دستگاه » را انتخاب کنید
- منتظر بمانید تا همگامسازی کامل شود و وضعیت « در حال اجرا » را یادداشت کنید
روترهای هاب hub-r2 را در کنسول flexiManage فعال کنید
دستگاه ناشناخته را با استفاده از hostname hub-r2 انتخاب کنید.
- نام میزبان hub-r2 را وارد کنید
- دستگاه را تأیید کنید ، دکمه چرخان را به سمت راست بکشید.
برگه رابطها را انتخاب کنید
- ستون "اختصاص داده شده" را پیدا کنید
- در کنار ردیف رابط، روی «خیر» کلیک کنید تا تنظیمات به «بله» تغییر کند.
برگه فایروال را انتخاب کنید
- برای افزودن قانون فایروال ورودی، روی « + » کلیک کنید
- رابط WAN را برای ارث بری از قانون انتخاب کنید
- پورت ۲۲ SSH را با پروتکل TCP مجاز کنید
- روی افزودن قانون کلیک کنید
- روی « بهروزرسانی دستگاه » کلیک کنید
دستگاه hub-r2 را برای SD-WAN از کنترلر flexiWAN شروع کنید
- به فهرست موجودی → دستگاهها → hub-r2 برگردید، «شروع دستگاه » را انتخاب کنید
- منتظر بمانید تا همگامسازی کامل شود و وضعیت « در حال اجرا » را یادداشت کنید
۱۴. مرکز اتصال شبکه در مرکز GCP

فعال کردن سرویسهای API
اگر هنوز API اتصال شبکه فعال نشده است، آن را فعال کنید:
gcloud services enable networkconnectivity.googleapis.com
ایجاد مرکز NCC
gcloud network-connectivity hubs create ncc-hub
Create request issued for: [ncc-hub]
Waiting for operation [projects/user-3p-dev/locations/global/operations/operation-1668793629598-5edc24b7ee3ce-dd4c765b-5ca79556] to complete...done.
Created hub [ncc-hub]
هر دو دستگاه روتر را به عنوان یک NCC spoke پیکربندی کنید
آدرس URL و IP مربوط به hub-r1 و hub-r2 را پیدا کنید و خروجی را یادداشت کنید. در مرحله بعدی به این اطلاعات نیاز خواهید داشت.
حتماً آدرس IP (192.168.xx) مربوط به نمونههای hub-r1 و hub-r2 را یادداشت کنید.
gcloud compute instances describe hub-r1 \
--zone=us-central1-a \
--format="value(selfLink.scope(projects))"
gcloud compute instances describe hub-r1 --zone=us-central1-a | grep "networkIP"
gcloud compute instances describe hub-r2 \
--zone=us-east4-b \
--format="value(selfLink.scope(projects))"
gcloud compute instances describe hub-r2 --zone=us-east4-b | grep "networkIP"
networkIP vnic مربوط به hub-r1 (192.168.xx) را به عنوان یک اسپوک اضافه کنید و انتقال داده سایت به سایت را فعال کنید.
gcloud network-connectivity spokes linked-router-appliances create s2s-wrk-cr1 \
--hub=ncc-hub \
--router-appliance=instance="https://www.googleapis.com/compute/projects/$projectname/zones/us-central1-a/instances/hub-r1",ip=192.168.235.4 \
--region=us-central1 \
--site-to-site-data-transfer
networkIP vnic مربوط به hub-r2 (192.168.xx) را به عنوان یک اسپوک اضافه کنید و انتقال داده سایت به سایت را فعال کنید.
gcloud network-connectivity spokes linked-router-appliances create s2s-wrk-cr2 \
--hub=ncc-hub \
--router-appliance=instance=/projects/$projectname/zones/us-east4-b/instances/hub-r2,ip=192.168.236.101 \
--region=us-east4 \
--site-to-site-data-transfer
پیکربندی روتر ابری برای برقراری BGP با Hub-R1
در مرحله بعد، روتر ابری را ایجاد کنید و زیرشبکه VPC با حجم کار ۱۹۲.۱۶۸.۲۳۵.۰/۲۴ را اعلام کنید.
روتر ابری را در us-central1 ایجاد کنید که با hub-r1 با BGP ارتباط برقرار کند.
gcloud compute routers create wrk-cr1 \
--region=us-central1 \
--network=workload-vpc \
--asn=65002 \
--set-advertisement-groups=all_subnets \
--advertisement-mode=custom
با پیکربندی دستگاههای روتر به عنوان NCC Spoke، این امر روتر ابری را قادر میسازد تا BGP را روی رابطهای مجازی مذاکره کند.
دو رابط روی روتر ابری ایجاد کنید که پیامهای BGP را با hub-r1 رد و بدل کنند.
آدرسهای IP از زیرشبکه بار کاری انتخاب میشوند و در صورت نیاز میتوان آنها را تغییر داد.
gcloud compute routers add-interface wrk-cr1 \
--region=us-central1 \
--subnetwork=workload-subnet1 \
--interface-name=int0 \
--ip-address=192.168.235.101
gcloud compute routers add-interface wrk-cr1 \
--region=us-central1 \
--subnetwork=workload-subnet1 \
--interface-name=int1 \
--ip-address=192.168.235.102 \
--redundant-interface=int0
رابط Cloud Router را طوری پیکربندی کنید که BGP را با vNIC-1 مربوط به hub-r1 برقرار کند، آدرس IP نظیر را با آدرس IP مربوط به networkIP مربوط به hub-r1 بهروزرسانی کنید. توجه داشته باشید که آدرس IP یکسانی برای int0 و int1 استفاده میشود.
gcloud compute routers add-bgp-peer wrk-cr1 \
--peer-name=hub-cr1-bgp-peer-0 \
--interface=int0 \
--peer-ip-address=192.168.235.4 \
--peer-asn=64111 \
--instance=hub-r1 \
--instance-zone=us-central1-a \
--region=us-central1
gcloud compute routers add-bgp-peer wrk-cr1 \
--peer-name=hub-cr1-bgp-peer-1 \
--interface=int1 \
--peer-ip-address=192.168.235.4 \
--peer-asn=64111 \
--instance=hub-r1 \
--instance-zone=us-central1-a \
--region=us-central1
وضعیت BGP را بررسی کنید، در این مرحله از کدنویسی، BGP در حالت "connect state" قرار دارد زیرا روتر شبکه برای BGP پیکربندی نشده است.
gcloud compute routers get-status wrk-cr1 --region=us-central1
پیکربندی Workload-cr2 برای برقراری BGP با Hub-R2
در مرحله بعد، روتر ابری را ایجاد کنید و زیرشبکه VPC با حجم کار ۱۹۲.۱۶۸.۲۳۶.۰/۲۴ را اعلام کنید.
روتر ابری را در us-east4 ایجاد کنید که با BGP از طریق hub-r2 ارتباط برقرار کند.
gcloud compute routers create wrk-cr2 \
--region=us-east4 \
--network=workload-vpc \
--asn=65002 \
--set-advertisement-groups=all_subnets \
--advertisement-mode=custom
یک جفت رابط روی روتر ابری ایجاد کنید که پیامهای BGP را با hub-r2 رد و بدل کنند، آدرسهای IP از زیرشبکه بار کاری انتخاب میشوند و در صورت لزوم قابل تغییر هستند.
gcloud compute routers add-interface wrk-cr2 \
--region=us-east4 \
--subnetwork=workload-subnet2 \
--interface-name=int0 \
--ip-address=192.168.236.5
gcloud compute routers add-interface wrk-cr2 \
--region=us-east4 \
--subnetwork=workload-subnet2 \
--interface-name=int1 \
--ip-address=192.168.236.6 \
--redundant-interface=int0
رابط روتر ابری را طوری پیکربندی کنید که BGP را با vNIC-1 مربوط به hub-r2 برقرار کند، آدرس IP نظیر را با آدرس IP مربوط به networkIP مربوط به hub-r1 بهروزرسانی کنید. توجه داشته باشید که آدرس IP یکسانی برای int0 و int1 استفاده میشود.
gcloud compute routers add-bgp-peer wrk-cr2 \
--peer-name=hub-cr2-bgp-peer-0 \
--interface=int0 \
--peer-ip-address=192.168.236.101 \
--peer-asn=64112 \
--instance=hub-r2 \
--instance-zone=us-east4-b \
--region=us-east4
gcloud compute routers add-bgp-peer wrk-cr2 \
--peer-name=hub-cr2-bgp-peer-1 \
--interface=int1 \
--peer-ip-address=192.168.236.101 \
--peer-asn=64112 \
--instance=hub-r2 \
--instance-zone=us-east4-b \
--region=us-east4
وضعیت BGP را بررسی کنید، در این مرحله از کدنویسی، BGP در حالت "connect state" قرار دارد زیرا روتر شبکه برای BGP پیکربندی نشده است.
gcloud compute routers get-status wrk-cr2 --region=us-east4
۱۵. پیکربندی دستگاههای روتر هاب برای BGP
پیکربندی hub-r1 برای BGP
حتماً به کنسول flexiManage وارد شوید
به مسیر Inventory → Devices → hub-r1 بروید و دستگاهی را که HostName:hub-r1 دارد انتخاب کنید.
- روی برگه «مسیریابی» کلیک کنید
- روی «پیکربندی BGP» کلیک کنید
- غیرفعال کردن «توزیع مجدد مسیرهای OSPF»
- hub-r1 را برای BGP با این پارامترها پیکربندی کنید و روی "ذخیره" کلیک کنید.

تب « رابطها » را انتخاب کنید، رابط LAN را پیدا کنید، ستون « مسیریابی » را پیدا کنید
- برای باز کردن منو و انتخاب BGP به عنوان پروتکل مسیریابی، روی « هیچکدام » کلیک کنید.

- در بالای صفحه، روی «بهروزرسانی دستگاه» کلیک کنید
پیکربندی hub-r2 برای BGP
حتماً به کنسول flexiManage وارد شوید
به مسیر Inventory → Devices → hub-r2 بروید، دستگاهی که HostName:hub-r2 دارد را انتخاب کنید.
- روی برگه «مسیریابی» کلیک کنید
- روی «پیکربندی BGP» کلیک کنید
- غیرفعال کردن «توزیع مجدد مسیرهای OSPF»
- hub-r2 را برای BGP با این پارامترها پیکربندی کنید و روی "ذخیره" کلیک کنید.

تب « رابطها » را انتخاب کنید، رابط LAN را پیدا کنید، ستون «مسیریابی» را پیدا کنید
- برای باز کردن یک منوی کشویی برای انتخاب BGP به عنوان پروتکل مسیریابی، روی «none» کلیک کنید.

- در بالای صفحه، روی «بهروزرسانی دستگاه» کلیک کنید
برگه « مسیریابی » را انتخاب کنید
- تأیید کنید که hub-r2 یک مسیر BGP را از wrk-cr2 یاد گرفته است.

۱۶. تبادل مسیر BGP بین دستگاههای روتر
ایجاد ASN محلی برای سایتهای دورافتاده
یک BGP ASN محلی برای site1-nva و site2-nva پیکربندی کنید، پس از پیکربندی، یک تونل IPSEC بین سایتهای راه دور و روترهای هاب ایجاد خواهیم کرد.
دستگاهی را با HostName:site1-nva انتخاب کنید.
- روی برگه «مسیریابی» کلیک کنید
- روی «پیکربندی BGP» کلیک کنید
- غیرفعال کردن «توزیع مجدد مسیرهای OSPF»
- فعالسازی BGP
- ASN محلی ۷۲۶۹ → ذخیره
- دستگاه را بهروزرسانی کنید
- تب رابطها → LAN → Routing → BGP
- دستگاه را بهروزرسانی کنید
دستگاهی را با HostName:site2-nva انتخاب کنید.
- روی برگه «مسیریابی» کلیک کنید
- روی «پیکربندی BGP» کلیک کنید
- غیرفعال کردن «توزیع مجدد مسیرهای OSPF»
- فعالسازی BGP
- ASN محلی ۷۲۷۰ → ذخیره
- دستگاه را بهروزرسانی کنید
- تب رابطها → LAN → Routing → BGP
- دستگاه را بهروزرسانی کنید
پیکربندی تونلهای VPN بین سایت و هاب
حتماً به کنسول flexiManage وارد شوید
- به موجودی → دستگاهها بروید
- برای ساخت یک تونل VPN بین این جفت NVA، کادر کنار نام میزبان site1-nva و hub-r1 را انتخاب کنید.
- روی اقدامات → ایجاد تونلها کلیک کنید و موارد زیر را پیکربندی کنید

- ایجاد تونلها را انتخاب کنید
- علامتهای تیک را از site1-nva و ub-r1 بردارید.
مراحل ایجاد تونل بین site2-nva و hub-r2 را با انتخاب پارامترهای مناسب تکرار کنید.

تأیید کنید که جفت تونلها بین هر جفت NVA برقرار شده است.
- در پنل سمت چپ، « موجودی » را انتخاب کنید و روی « تونلها » کلیک کنید و ستون وضعیت را پیدا کنید

تأیید کنید که "site1-nva" مسیرهای زیرشبکههای 192.168.235.0/24 و 192.168.236.0/24 را یاد گرفته است.
- موجودی → دستگاهها → سایت1-nva را انتخاب کنید و روی برگه «مسیریابی» کلیک کنید.
در مثال خروجی زیر، flexiWAN به طور خودکار تونل را با استفاده از آدرس IP میزبان 10.100.0.6 ایجاد کرد. 
۱۷. اتصال مسیر داده را تأیید کنید
اتصال سایت به ابر را از طریق prem تأیید کنید
به نمودار مراجعه کنید، تأیید کنید که مسیر داده بین s1-vm و workload1-vm

پیکربندی مسیرهای استاتیک VPC برای سایت به ابر
Site1-VPC و Site2-VPC که به صورت محلی نصب میشوند، یک شبکه دیتاسنتر محلی را شبیهسازی میکنند.
هر دو دستگاه روتر Site-1-nva و site-2-nva از اتصال VPN برای دسترسی به شبکه هاب استفاده میکنند.
برای مورد استفاده از سایت به فضای ابری**،** مسیرهای ایستا به مقصد 192.168.0.0/16 با استفاده از دستگاه روتر به عنوان گام بعدی برای رسیدن به شبکهها در شبکه ابری GCP ایجاد کنید.
روی s1-inside-vpc، یک مسیر ثابت برای مقصد ابری (192.168.0.0/16) ایجاد کنید:
gcloud compute routes create site1-subnet-route \
--network=s1-inside-vpc \
--destination-range=192.168.0.0/16 \
--next-hop-instance=site1-nva \
--next-hop-instance-zone=us-central1-a
روی s2-inside-vpc، یک مسیر ثابت برای مقصد ابری (192.168.0.0/16) ایجاد کنید:
gcloud compute routes create site2-subnet-route \
--network=s2-inside-vpc \
--destination-range=192.168.0.0/16 \
--next-hop-instance=site2-nva \
--next-hop-instance-zone=us-east4-b
در cloudshell، آدرس IP مربوط به "workload1-vm " را جستجو کنید. برای آزمایش اتصال از " s1-vm " به این آدرس نیاز خواهید داشت.
gcloud compute instances describe workload1-vm --zone=us-central1-a | grep "networkIP"
یک اتصال SSH به s1-vm باز کنید، در صورت اتمام مهلت، دوباره امتحان کنید
gcloud compute ssh s1-vm --zone=us-central1-a
از طریق SSH به " s1-vm" متصل شوید و با استفاده از دستور " curl" یک نشست TCP به آدرس IP مربوط به workload1-VM برقرار کنید.
s1-vm:~$ curl 192.168.235.3 -vv * Trying 192.168.235.3:80... * Connected to 192.168.235.3 (192.168.235.3) port 80 (#0) > GET / HTTP/1.1 > Host: 192.168.235.3 > User-Agent: curl/7.74.0 > Accept: */* > * Mark bundle as not supporting multiuse < HTTP/1.1 200 OK < Date: Wed, 07 Dec 2022 15:12:08 GMT < Server: Apache/2.4.54 (Debian) < Last-Modified: Tue, 06 Dec 2022 00:57:46 GMT < ETag: "1f-5ef1e4acfa1d9" < Accept-Ranges: bytes < Content-Length: 31 < Content-Type: text/html < Page served from: workload1-vm * Connection #0 to host 192.168.235.3 left intact
اتصال سایت به سایت را تأیید کنید
به نمودار مراجعه کنید، بررسی کنید که مسیر داده بین s1-vm و s2-vm

پیکربندی مسیرهای استاتیک VPC برای سایت به سایت
برای مسیریابی ترافیک سایت به سایت بین سایت ۱ و سایت ۲ با استفاده از شبکه جهانی GCP، با استفاده از دستگاه روتر on prem به عنوان گام بعدی، مسیرهای ایستا به مقاصد زیرشبکه سایت راه دور ایجاد خواهید کرد.
در مرحله بعد، بار کاری VPC با NCC پیکربندی میشود تا از انتقال داده سایت به سایت پشتیبانی کند.
روی s1-inside-vpc، یک مسیر ایستا برای رسیدن به site2-subnet (10.20.1.0/24) ایجاد کنید:
gcloud compute routes create site1-sn1-route \
--network=s1-inside-vpc \
--destination-range=10.20.1.0/24 \
--next-hop-instance=site1-nva \
--next-hop-instance-zone=us-central1-a
روی s2-inside-vpc، یک مسیر ایستا برای رسیدن به site1-subnet (10.10.1.0/24) ایجاد کنید:
gcloud compute routes create site2-sn1-route \
--network=s2-inside-vpc \
--destination-range=10.10.1.0/24 \
--next-hop-instance=site2-nva \
--next-hop-instance-zone=us-east4-b
در cloudshell، آدرس IP مربوط به « s2-vm » را جستجو کنید. برای آزمایش اتصال از S1-vm به این آدرس نیاز خواهید داشت.
gcloud compute instances describe s2-vm --zone=us-east4-b | grep networkIP
یک اتصال SSH به s1-vm باز کنید، در صورت اتمام مهلت، دوباره امتحان کنید
gcloud compute ssh s1-vm --zone=us-central1-a
به " s1-vm" از طریق SSH متصل شوید و آدرس IP " s2-vm " را "ping" کنید.
s1-vm:~$ ping 10.20.1.3
PING 10.20.1.3 (10.20.1.3) 56(84) bytes of data.
64 bytes from 10.20.1.3: icmp_seq=1 ttl=60 time=99.1 ms
64 bytes from 10.20.1.3: icmp_seq=2 ttl=60 time=94.3 ms
64 bytes from 10.20.1.3: icmp_seq=3 ttl=60 time=92.4 ms
64 bytes from 10.20.1.3: icmp_seq=4 ttl=60 time=90.9 ms
64 bytes from 10.20.1.3: icmp_seq=5 ttl=60 time=89.7 ms
۱۸. تمیز کردن
به پوسته ابری وارد شوید و نمونههای ماشین مجازی را در شبکههای سایتهای هاب و شعبه حذف کنید
#on prem instances
gcloud compute instances delete s1-vm --zone=us-central1-a --quiet
gcloud compute instances delete s2-vm --zone=us-east4-b --quiet
#delete on prem firewall rules
gcloud compute firewall-rules delete site1-ssh --quiet
gcloud compute firewall-rules delete site1-internal --quiet
gcloud compute firewall-rules delete site1-cloud --quiet
gcloud compute firewall-rules delete site1-vpn --quiet
gcloud compute firewall-rules delete site1-iap --quiet
gcloud compute firewall-rules delete site2-ssh --quiet
gcloud compute firewall-rules delete site2-internal --quiet
gcloud compute firewall-rules delete site2-cloud --quiet
gcloud compute firewall-rules delete site2-vpn --quiet
gcloud compute firewall-rules delete site2-iap --quiet
gcloud compute firewall-rules delete allow-from-site-1-2 --quiet
gcloud compute firewall-rules delete s2-inside-cloud s2-inside-internal s2-inside-ssh --quiet
gcloud compute firewall-rules delete s1-inside-cloud s1-inside-iap s1-inside-internal s1-inside-ssh s2-inside-cloud s2-inside-iap s2-inside-internal s2-inside-ssh --quiet
#delete ncc spokes
gcloud network-connectivity spokes delete s2s-wrk-cr1 --region us-central1 --quiet
gcloud network-connectivity spokes delete s2s-wrk-cr2 --region us-east4 --quiet
#delete ncc hub
gcloud network-connectivity hubs delete ncc-hub --quiet
#delete the cloud router
gcloud compute routers delete wrk-cr1 --region=us-central1 --quiet
gcloud compute routers delete wrk-cr2 --region=us-east4 --quiet
#delete the instances
gcloud compute instances delete hub-r1 --zone=us-central1-a --quiet
gcloud compute instances delete hub-r2 --zone=us-east4-b --quiet
gcloud compute instances delete workload1-vm --zone=us-central1-a --quiet
gcloud compute instances delete site1-nva --zone=us-central1-a --quiet
gcloud compute instances delete site2-nva --zone=us-east4-b --quiet
#delete on prem subnets
gcloud compute networks subnets delete hub-subnet1 s1-inside-subnet site1-subnet workload-subnet1 --region=us-central1 --quiet
gcloud compute networks subnets delete hub-subnet2 s2-inside-subnet site2-subnet workload-subnet2 --region=us-east4 --quiet
#delete hub firewall rule
gcloud compute firewall-rules delete hub-ssh --quiet
gcloud compute firewall-rules delete hub-vpn --quiet
gcloud compute firewall-rules delete hub-internal --quiet
gcloud compute firewall-rules delete hub-iap --quiet
gcloud compute firewall-rules delete workload-ssh --quiet
gcloud compute firewall-rules delete workload-internal --quiet
gcloud compute firewall-rules delete workload-onprem --quiet
gcloud compute firewall-rules delete workload-iap --quiet
#delete on vpcs
gcloud compute networks delete hub-vpc s1-inside-vpc s2-inside-vpc site2-vpc workload-vpc --quiet
۱۹. تبریک میگویم!
شما آزمایشگاه مرکز اتصال شبکه را به پایان رساندهاید!
آنچه را که پوشش دادید
- یکپارچهسازی WAN تعریفشده توسط نرمافزار برای سایت NCC به فضای ابری
- یکپارچهسازی WAN تعریفشده توسط نرمافزار برای سایت به سایت NCC
مراحل بعدی
©Google, LLC یا شرکتهای وابسته به آن. تمامی حقوق محفوظ است. توزیع نکنید.




