1. Introducción
Private Service Connect (PSC) simplifica la forma en que se consumen los servicios de forma segura y privada. Este modelo facilita drásticamente la arquitectura de red, ya que permite que los consumidores de servicios se conecten de forma privada a los productores de servicios en todas las organizaciones y elimina la necesidad del intercambio de tráfico entre nubes privadas virtuales. En la figura 1, se ilustran los atributos del intercambio de tráfico entre VPC y de PSC.
Figura 1: 
Como consumidor de servicios, te permite elegir con flexibilidad cómo asignar tus IPs privadas a los servicios y, al mismo tiempo, elimina la carga de administrar los rangos de subredes para las VPCs de productor. Ahora puedes asignar fácilmente una IP virtual elegida de tu VPC a ese servicio con una conexión de servicio.
En este codelab, compilarás una arquitectura integral de Private Service Connect que ilustra el uso del acceso global de PSC con MongoDB Atlas.
El acceso global permite que los clientes se conecten a Private Service Connect (PSC) a través de límites regionales. Esto es útil para crear alta disponibilidad en los servicios administrados alojados en varias regiones o para permitir que los clientes accedan a un servicio que no está en la misma región que el cliente.
2. Cómo habilitar el acceso global
El acceso global es una función opcional que se configura en la regla de reenvío del cliente. En el siguiente comando, se muestra cómo se configura:
gcloud beta compute forwarding-rules create psc-west \
--region=us-west1 \
--network=consumer-vpc \
--address=psc-west-address \
--target-service-attachment=projects/.../serviceAttachments/sa-west \
--allow-psc-global-access
- La marca
--allow-psc-global-accesshabilita el acceso global en un extremo de Private Service Connect. - El acceso global permite que el cliente se encuentre en una región diferente de la regla de reenvío de Private Service Connect, pero la regla de reenvío debe estar en la misma región que la vinculación de servicio a la que está conectada.
- No se requiere configuración en la vinculación de servicio del productor para habilitar el acceso global. Es una opción exclusiva para el consumidor.
El acceso global también se puede activar o desactivar en cualquier momento para los extremos existentes. No hay interrupciones en el tráfico para las conexiones activas cuando se habilita el acceso global en un extremo existente. El acceso global se habilita en una regla de reenvío existente con el siguiente comando:
gcloud beta compute forwarding-rules update psc-west --allow-psc-global-access
Cómo inhabilitar el acceso global
El acceso global también se puede inhabilitar en reglas de reenvío existentes con la marca --no-allow-psc-global-access. Ten en cuenta que se finalizará cualquier tráfico interregional activo después de ejecutar este comando.
gcloud beta compute forwarding-rules update psc-west --no-allow-psc-global-access
3. Qué compilarás
- Se creará un clúster multirregional de MongoDB Atlas (topología descrita en la Figura 2) con un nodo en us-west1 y dos nodos en las regiones de us-west2, respectivamente.
- Una VPC del consumidor y una VM asociada para acceder a clústeres de MongoDB en us-west1 y us-west2.
- Una VPC y dos subredes en las regiones us-west1 y us-west2, respectivamente, con al menos 64 direcciones IP libres en cada subred (crea subredes con /26 y menos).
El cliente de MongoDB se instalará en vm1 en la VPC del consumidor. Cuando falla el nodo principal en us-west1, el cliente podrá leer y escribir a través del nuevo nodo principal en us-west2.
Figura 2: 
Qué aprenderás
- Cómo crear una VPC y subredes implementadas en dos regiones
- Cómo implementar un clúster de MongoDB Atlas multirregional
- Cómo crear un extremo privado
- Cómo conectarse a MongoDB
- Cómo realizar y validar la conmutación por error de MongoDB multirregional
Requisitos
- Proyecto de Google Cloud
- Proporciona una subred /26 por región
- El propietario del proyecto o de la organización debe tener acceso a MongoDB Atlas para crear un clúster de MongoDB con el nivel M10 o superior. (Usa GETATLAS para obtener créditos gratis y ejecutar la PoV).
4. Antes de comenzar
Actualiza el proyecto para que sea compatible con el codelab
En este codelab, se usan variables para facilitar la implementación de la configuración de gcloud en Cloud Shell.
Dentro de Cloud Shell, haz lo siguiente:
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=YOUR-PROJECT-NAME
echo $projectname
5. Configuración del consumidor
Crea la VPC del consumidor
Dentro de Cloud Shell, haz lo siguiente:
gcloud compute networks create consumer-vpc --project=$projectname --subnet-mode=custom
Crea las subredes de consumidor
Dentro de Cloud Shell, haz lo siguiente:
gcloud compute networks subnets create vm-subnet --project=$projectname --range=10.10.10.0/29 --network=consumer-vpc --region=us-west1
Dentro de Cloud Shell, crea el extremo del consumidor para us-west1:
gcloud compute networks subnets create psc-endpoint-us-west1 --project=$projectname --range=192.168.10.0/26 --network=consumer-vpc --region=us-west1
Dentro de Cloud Shell, crea el extremo del consumidor para us-west2:
gcloud compute networks subnets create psc-endpoint-us-west2 --project=$projectname --range=172.16.10.0/26 --network=consumer-vpc --region=us-west2
Configuración de Cloud Router y NAT
Cloud NAT se usa en el codelab para la instalación de paquetes de software, ya que las instancias de VM no tienen una dirección IP externa.
Dentro de Cloud Shell, crea el Cloud Router.
gcloud compute routers create consumer-cr --network consumer-vpc --region us-west1
Dentro de Cloud Shell, crea la puerta de enlace NAT.
gcloud compute routers nats create consumer-nat --router=consumer-cr --auto-allocate-nat-external-ips --nat-all-subnet-ip-ranges --region us-west1
Configuración de la instancia vm1
En la siguiente sección, crearás la instancia de Compute Engine, vm1.
Dentro de Cloud Shell, crea la instancia vm1.
gcloud compute instances create vm1 \
--project=$projectname \
--zone=us-west1-a \
--machine-type=e2-micro \
--network-interface=subnet=vm-subnet,no-address \
--maintenance-policy=MIGRATE \
--provisioning-model=STANDARD \
--create-disk=auto-delete=yes,boot=yes,device-name=vm1,image=projects/ubuntu-os-cloud/global/images/ubuntu-2004-focal-v20230213,mode=rw,size=10,type=projects/$projectname/zones/us-west1-a/diskTypes/pd-balanced
--metadata startup-script="#! /bin/bash
sudo apt-get update
sudo apt-get install tcpdump -y
sudo apt-get install dnsutils -y"
Para permitir que IAP se conecte a tus instancias de VM, crea una regla de firewall que cumpla con lo siguiente:
- Se aplica a todas las instancias de VM a las que deseas acceder mediante IAP.
- Permite el tráfico de entrada desde el rango de IP 35.235.240.0/20. Este rango contiene todas las direcciones IP que IAP usa para el reenvío de TCP.
Dentro de Cloud Shell, crea la regla de firewall de IAP.
gcloud compute firewall-rules create ssh-iap-consumer-vpc \
--network consumer-vpc \
--allow tcp:22 \
--source-ranges=35.235.240.0/20
6. Crea el clúster multirregional de MongoDB Atlas
- Debemos configurar un clúster de Atlas antes de comenzar con la configuración de PSC. Puedes suscribirte a MongoDB Atlas de una de las siguientes dos maneras:
- A través de Google Cloud Marketplace si tienes una cuenta de Google Cloud Consulta la documentación para configurar tu suscripción.
- Con la página de registro de Atlas
- Una vez que te suscribas a Atlas, haz clic en el botón Build a Database, como se muestra a continuación.

- Crear un clúster nuevo → Dedicado

- Proveedor y región de la nube → Google Cloud
- Aislamiento de cargas de trabajo, multirregión y multinube → Seleccionado (marca de verificación azul)

- Nodos aptos para la elección → us-west1 (1 nodo), us-west2 (2 nodos)

- Nivel del clúster → M10, deja el resto de la configuración con sus valores predeterminados

- Nombre del clúster → psc-mongodb-uswest1-uswest2

- Selecciona → Crear clúster.

- La creación de la base de datos tarda entre 7 y 10 minutos.

Vista del clúster una vez implementado

7. Creación de extremos privados para us-west1
- Accede a tu cuenta de Atlas y navega a tu proyecto.
Crea un usuario nuevo para permitir el acceso de lectura y escritura a cualquier base de datos
En Seguridad → Acceso a la base de datos, selecciona Agregar un usuario nuevo a la base de datos. A continuación, se muestra un ejemplo de nombre de usuario y contraseña configurados como codelab. Asegúrate de seleccionar el rol integrado de lectura y escritura en cualquier base de datos.

- En Seguridad → Acceso a la red, la lista de acceso a IP no requiere una entrada.
Prepara extremos privados en MongoDB Atlas
- Selecciona Acceso a la red → Endpoints privados → Clúster dedicado → Agregar endpoint privado.

Proveedor de servicios en la nube
- Selecciona Google Cloud y, luego, Siguiente.

Adjunto de servicio
- Selecciona la región us-west1 y, luego, haz clic en Siguiente.

Extremos
- Para crear un extremo de Private Service Connect, proporciona la siguiente información:
- ID del proyecto de Google Cloud: Selecciona "Mostrar instrucciones" para obtener más detalles
- Nombre de la VPC: consumer-vpc
- Nombre de la subred: psc-endpoint-us-west1
- Prefijo del extremo de Private Service Connect: psc-endpoint-us-west1

Configura extremos
En la siguiente sección, se genera una secuencia de comandos de shell que se debe guardar de forma local con el nombre setup_psc.sh. Una vez que lo guardes, edita el script de shell para permitir el acceso global a psc. Puedes realizar esta acción en Cloud Shell del proyecto de Google Cloud.
- Ejemplo de secuencia de comandos de shell (tu resultado tendrá valores diferentes)

- Copia el script de shell de la consola de MongoDB y guarda el contenido en la terminal de Cloud Shell de Google Cloud. Asegúrate de guardar el script como setup_psc.sh.
Ejemplo antes de la actualización:
#!/bin/bash
gcloud config set project yourprojectname
for i in {0..49}
do
gcloud compute addresses create psc-endpoint-us-west1-ip-$i --region=us-west1 --subnet=psc-endpoint-us-west1
done
for i in {0..49}
do
if [ $(gcloud compute addresses describe psc-endpoint-us-west1-ip-$i --region=us-west1 --format="value(status)") != "RESERVED" ]; then
echo "psc-endpoint-us-west1-ip-$i is not RESERVED";
exit 1;
fi
done
for i in {0..49}
do
gcloud compute forwarding-rules create psc-endpoint-us-west1-$i --region=us-west1 --network=consumer-vpc --address=psc-endpoint-us-west1-ip-$i --target-service-attachment=projects/p-npwsmzelxznmaejhj2vn1q0q/regions/us-west1/serviceAttachments/sa-us-west1-61485ec2ae9d2e48568bf84f-$i
done
if [ $(gcloud compute forwarding-rules list --regions=us-west1 --format="csv[no-heading](name)" --filter="(name:psc-endpoint-us-west1*)" | wc -l) -gt 50 ]; then
echo "Project has too many forwarding rules that match prefix psc-endpoint-us-west1. Either delete the competing resources or choose another endpoint prefix."
exit 2;
fi
gcloud compute forwarding-rules list --regions=us-west1 --format="json(IPAddress,name)" --filter="name:(psc-endpoint-us-west1*)" > atlasEndpoints-psc-endpoint-us-west1.json
Actualiza la secuencia de comandos de shell para admitir el acceso global
Usa el editor nano o vi para identificar y actualizar la secuencia de comandos del shell con la siguiente sintaxis:
gcloud beta compute forwarding-rules create psc-endpoint-us-west1-$i --region=us-west1 --network=consumer-vpc --address=psc-endpoint-us-west1-ip-$i --target-service-attachment=projects/p-npwsmzelxznmaejhj2vn1q0q/regions/us-west1/serviceAttachments/sa-us-west1-61485ec2ae9d2e48568bf84f-$i --allow-psc-global-access
Ejemplo después de la actualización:
#!/bin/bash
gcloud config set project yourprojectname
for i in {0..49}
do
gcloud compute addresses create psc-endpoint-us-west1-ip-$i --region=us-west1 --subnet=psc-endpoint-us-west1
done
for i in {0..49}
do
if [ $(gcloud compute addresses describe psc-endpoint-us-west1-ip-$i --region=us-west1 --format="value(status)") != "RESERVED" ]; then
echo "psc-endpoint-us-west1-ip-$i is not RESERVED";
exit 1;
fi
done
for i in {0..49}
do
gcloud beta compute forwarding-rules create psc-endpoint-us-west1-$i --region=us-west1 --network=consumer-vpc --address=psc-endpoint-us-west1-ip-$i --target-service-attachment=projects/p-npwsmzelxznmaejhj2vn1q0q/regions/us-west1/serviceAttachments/sa-us-west1-61485ec2ae9d2e48568bf84f-$i --allow-psc-global-access
done
if [ $(gcloud compute forwarding-rules list --regions=us-west1 --format="csv[no-heading](name)" --filter="(name:psc-endpoint-us-west1*)" | wc -l) -gt 50 ]; then
echo "Project has too many forwarding rules that match prefix psc-endpoint-us-west1. Either delete the competing resources or choose another endpoint prefix."
exit 2;
fi
gcloud compute forwarding-rules list --regions=us-west1 --format="json(IPAddress,name)" --filter="name:(psc-endpoint-us-west1*)" > atlasEndpoints-psc-endpoint-us-west1.json
Ejecuta la secuencia de comandos de shell
Navega hasta la secuencia de comandos setup_psc.sh y ejecútala. Una vez que se complete, se creará un archivo llamado atlasEndpoints-psc-endpoint-us-west1.json. El archivo JSON contiene una lista de direcciones IP y nombres de extremos de Private Service Connect que se requieren para el siguiente paso de la implementación.
En Cloud Shell, haz lo siguiente:
sh setup_psc.sh
Una vez que se complete la secuencia de comandos, usa el editor de Cloud Shell para descargar atlasEndpoints-psc-endpoint-us-west1.json de forma local.

Sube el archivo JSON
Sube el archivo JSON guardado anteriormente atlasEndpoints-psc-endpoint-us-west1.json.


Selecciona Crear.
Valida los extremos de Private Service Connect
En la IU de MongoDB, navega a tu proyecto y, luego, a Security → Network access → Private endpoint. Si seleccionas la pestaña Clúster dedicado, la transición del extremo a disponible tardará 10 minutos.
Estado disponible

En la consola de Google Cloud, navega a Servicios de red → Private Service Connect, selecciona la pestaña Extremo conectado que muestra los extremos del consumidor que pasan de Pendiente → Aceptado, como en el siguiente ejemplo:

8. Creación de extremos privados para us-west2
- Accede a tu cuenta de Atlas y navega a tu proyecto.
Prepara extremos privados en MongoDB Atlas
- Selecciona Acceso a la red → Endpoints privados → Clúster dedicado → Agregar endpoint privado.

Proveedor de servicios en la nube
- Selecciona Google Cloud y, luego, Siguiente.

Adjunto de servicio
- Selecciona la región us-west2 y, luego, haz clic en Siguiente.

Extremos
- Para crear un extremo de Private Service Connect, proporciona la siguiente información:
- ID del proyecto de Google Cloud: Selecciona "Mostrar instrucciones" para obtener más detalles
- Nombre de la VPC: consumer-vpc
- Nombre de la subred: psc-endpoint-us-west2
- Prefijo del extremo de Private Service Connect: psc-endpoint-us-west2

Configura extremos
En la siguiente sección, se genera una secuencia de comandos de shell que se debe guardar de forma local con el nombre setup_psc.sh. Una vez que lo guardes, edita el script de shell para permitir el acceso global a psc. Puedes realizar esta acción en Cloud Shell del proyecto de Google Cloud.
- Ejemplo de secuencia de comandos de shell (tu resultado tendrá valores diferentes)

- Copia el script de shell de la consola de MongoDB y guarda el contenido en la terminal de Cloud Shell de Google Cloud. Asegúrate de guardar el script como setup_psc.sh.
Ejemplo antes de la actualización:
#!/bin/bash
gcloud config set project yourprojectname
for i in {0..49}
do
gcloud compute addresses create psc-endpoint-us-west2-ip-$i --region=us-west2 --subnet=psc-endpoint-us-west2
done
for i in {0..49}
do
if [ $(gcloud compute addresses describe psc-endpoint-us-west2-ip-$i --region=us-west2 --format="value(status)") != "RESERVED" ]; then
echo "psc-endpoint-us-west2-ip-$i is not RESERVED";
exit 1;
fi
done
for i in {0..49}
do
gcloud compute forwarding-rules create psc-endpoint-us-west2-$i --region=us-west2 --network=consumer-vpc --address=psc-endpoint-us-west2-ip-$i --target-service-attachment=projects/p-npwsmzelxznmaejhj2vn1q0q/regions/us-west2/serviceAttachments/sa-us-west2-61485ec2ae9d2e48568bf84f-$i
done
if [ $(gcloud compute forwarding-rules list --regions=us-west2 --format="csv[no-heading](name)" --filter="(name:psc-endpoint-us-west2*)" | wc -l) -gt 50 ]; then
echo "Project has too many forwarding rules that match prefix psc-endpoint-us-west2. Either delete the competing resources or choose another endpoint prefix."
exit 2;
fi
gcloud compute forwarding-rules list --regions=us-west2 --format="json(IPAddress,name)" --filter="name:(psc-endpoint-us-west2*)" > atlasEndpoints-psc-endpoint-us-west2.json
Actualiza la secuencia de comandos de shell para admitir el acceso global
Usa el editor nano o vi para identificar y actualizar la secuencia de comandos del shell con la siguiente sintaxis:
gcloud beta compute forwarding-rules create psc-endpoint-us-west2-$i --region=us-west2 --network=consumer-vpc --address=psc-endpoint-us-west2-ip-$i --target-service-attachment=projects/p-npwsmzelxznmaejhj2v
n1q0q/regions/us-west2/serviceAttachments/sa-us-west2-61485ec2ae9d2e48568bf84f-$i --allow-psc-global-access
done
Ejemplo después de la actualización:
#!/bin/bash
gcloud config set project yourprojectname
for i in {0..49}
do
gcloud compute addresses create psc-endpoint-us-west2-ip-$i --region=us-west2 --subnet=psc-endpoint-us-west2
done
for i in {0..49}
do
if [ $(gcloud compute addresses describe psc-endpoint-us-west2-ip-$i --region=us-west2 --format="value(status)") != "RESERVED" ]; then
echo "psc-endpoint-us-west2-ip-$i is not RESERVED";
exit 1;
fi
done
for i in {0..49}
do
gcloud beta compute forwarding-rules create psc-endpoint-us-west2-$i --region=us-west2 --network=consumer-vpc --address=psc-endpoint-us-west2-ip-$i --target-service-attachment=projects/p-npwsmzelxznmaejhj2v
n1q0q/regions/us-west2/serviceAttachments/sa-us-west2-61485ec2ae9d2e48568bf84f-$i --allow-psc-global-access
done
if [ $(gcloud compute forwarding-rules list --regions=us-west2 --format="csv[no-heading](name)" --filter="(name:psc-endpoint-us-west2*)" | wc -l) -gt 50 ]; then
echo "Project has too many forwarding rules that match prefix psc-endpoint-us-west2. Either delete the competing resources or choose another endpoint prefix."
exit 2;
fi
gcloud compute forwarding-rules list --regions=us-west2 --format="json(IPAddress,name)" --filter="name:(psc-endpoint-us-west2*)" > atlasEndpoints-psc-endpoint-us-west2.json
Ejecuta la secuencia de comandos de shell
Navega y ejecuta la secuencia de comandos setup_psc.sh. Una vez que se complete, se creará un archivo llamado atlasEndpoints-psc-endpoint-us-west2.json. El archivo JSON contiene una lista de direcciones IP y nombres de extremos de Private Service Connect que se requieren para el siguiente paso de la implementación.
En Cloud Shell, haz lo siguiente:
sh setup_psc.sh
Una vez que se complete la secuencia de comandos, usa el editor de Cloud Shell para descargar atlasEndpoints-psc-endpoint-us-west2.json de forma local.

Sube el archivo JSON
Sube el archivo JSON guardado anteriormente atlasEndpoints-psc-endpoint-us-west2.json.


Selecciona Crear.
Valida los extremos de Private Service Connect
En la IU de MongoDB, navega a tu proyecto y, luego, a Security → Network access → Private endpoint. Si seleccionas la pestaña del clúster dedicado, el extremo estará disponible después de 10 minutos.
Estado disponible:

En la consola de Google Cloud, navega a Servicios de red → Private Service Connect y selecciona la pestaña Extremo conectado que muestra los extremos del consumidor que pasan de Pendiente → Aceptado, como en el siguiente ejemplo. Se implementaron un total de 100 extremos en el extremo del consumidor y deben pasar a aceptados antes de avanzar al siguiente paso.

9. Conéctate a MongoDB Atlas desde extremos privados
Una vez que se aceptan las conexiones de Private Service Connect, se requiere tiempo adicional (de 10 a 15 minutos) para actualizar el clúster de MongoDB. En la IU de MongoDB, el contorno gris representa la actualización del clúster, por lo que no está disponible la conexión al extremo privado.

Identifica la implementación y selecciona Connect (observa que ya no aparece el cuadro gris).

Elige el tipo de conexión → Endpoint privado, selecciona Elegir un método de conexión

Selecciona Connect with the MongoDB Shell.

Selecciona No, I do not have the MongoDB Shell installed, Ubuntu 20.4 y asegúrate de copiar el contenido de los pasos 1 y 3 en un bloc de notas.

10. Instala la aplicación de mongosh
Antes de la instalación, deberás crear una cadena de comandos basada en los valores copiados anteriormente que obtuviste en los pasos 1 y 3. Luego, accederás a vm1 a través de SSH con Cloud Shell, seguido de la instalación y validación de la aplicación mongosh en la base de datos principal (us-west1). Se instaló la imagen de Ubuntu 20.4 cuando se creó vm1 en consumer-vpc.
Elige un método de conexión: Paso 1, copia la URL de descarga

Cadena de comando de ejemplo (reemplaza con tus valores personalizados):
https://downloads.mongodb.com/compass/mongodb-mongosh_1.7.1_amd64.deb
Elige un método de conexión, paso 3.

Cadena de comando de ejemplo (reemplaza con tus valores personalizados):
mongosh "mongodb+srv://psc-mongodb-uswest1-uswest2-pl-0.2wqno.mongodb.net/psc-mongodb-uswest1-uswest2" --apiVersion 1 --username codelab
Accede a vm1
Dentro de Cloud Shell, haz lo siguiente:
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=YOUR-PROJECT-NAME
echo $projectname
Accede a vm1 con IAP en Cloud Shell. Si se agota el tiempo de espera, vuelve a intentarlo.
gcloud compute ssh vm1 --project=$projectname --zone=us-west1-a --tunnel-through-iap
Realiza la instalación desde el SO
Realiza la instalación desde el acceso al SO de Cloud Shell (hay más detalles disponibles). Actualiza la siguiente sintaxis con tu cadena personalizada.
wget -qO - https://www.mongodb.org/static/pgp/server-6.0.asc | sudo apt-key add -
La operación debería responder con un
OK
.
echo "deb [ arch=amd64,arm64 ] https://repo.mongodb.org/apt/ubuntu focal/mongodb-org/6.0 multiverse" | sudo tee /etc/apt/sources.list.d/mongodb-org-6.0.list
sudo apt-get update -y
wget https://downloads.mongodb.com/compass/mongodb-mongosh_1.7.1_amd64.deb
sudo dpkg -i mongodb-mongosh_1.7.1_amd64.deb
Conéctate a la implementación de MongoDB
Dentro del acceso al SO de Cloud Shell, realiza lo siguiente. El nombre de usuario y la contraseña configurados son codelab.
mongosh
mongosh "mongodb+srv://psc-mongodb-uswest1-uswest2-pl-0.2wqno.mongodb.net/psc-mongodb-uswest1-uswest2" --apiVersion 1 --username codelab
A continuación, se incluye un ejemplo:

Ejecutar comandos en la base de datos
Dentro del acceso al SO de Cloud Shell, realiza lo siguiente.
show dbs
use Company
db.Employee.insertOne({"Name":"cosmo","dept":"devops"})
db.Employee.findOne({"Name":"cosmo"})
11. Región de MongoDB activa para la conmutación por error, us-west1
Antes de realizar la conmutación por error, validemos que us-west1 sea principal y que us-west2 tenga dos nodos secundarios.
Navega a Database → psc-mongodb-uswest1-uswest2 → Overview.

En la siguiente sección, accede a vm1 ubicada en us-west1, conmuta por error la región principal del clúster de MongoDB us-west1 y verifica que se pueda seguir accediendo a la base de datos desde el clúster de MongoDB en us-west2.
Puedes probar la conmutación por error principal y regional desde la IU de Atlas.
- Accede a la IU de Atlas.
- Haz clic en […] junto al nombre de tu clúster, psc-mongodb-uswest1-uswest2 → Test Outage.

- Selecciona Regional Outage → Select regions.

- Selecciona la región principal, us-west1→ Simulate Regional Outage.

Una vez seleccionado, el clúster mostrará la simulación de interrupción después de 3 o 4 minutos.
Cerrar la ventana


Verifica que us-west1 esté inactivo y que us-west2 ahora se haya hecho cargo como principal.
Navega a Database → psc-mongodb-uswest1-uswest2 → Overview.

Valida la conectividad al clúster por la nueva instancia principal, us-west2
Accede a vm1 ubicada en us-west1 y a mongodb en us-west2 para validar el acceso global de Private Service Connect.
Si se cerró tu sesión de Cloud Shell, haz lo siguiente:
Dentro de Cloud Shell, haz lo siguiente:
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=YOUR-PROJECT-NAME
echo $projectname
Accede a vm1 con IAP en Cloud Shell. Si se agota el tiempo de espera, vuelve a intentarlo.
gcloud compute ssh vm1 --project=$projectname --zone=us-west1-a --tunnel-through-iap
Conéctate a la implementación de MongoDB
Dentro del acceso al SO de Cloud Shell, realiza lo siguiente.
mongosh
mongosh "mongodb+srv://psc-mongodb-uswest1-uswest2-pl-0.2wqno.mongodb.net/psc-mongodb-uswest1-uswest2" --apiVersion 1 --username codelab
A continuación, se incluye un ejemplo:

Ejecutar comandos en la base de datos
Dentro del acceso al SO de Cloud Shell, realiza lo siguiente.
show dbs
use Company
db.Employee.insertOne({"Name":"cosmo","dept":"devops"})
db.Employee.findOne()
exit

Éxito: Validaste que el acceso global de PSC permite una conectividad fluida del extremo del consumidor en todas las regiones para ayudar a la alta disponibilidad o debido a interrupciones regionales. En el codelab, la conmutación por error regional de MongoDB ocurrió en el nodo principal ubicado en us-west1, por lo que la región secundaria us-west2 se hizo cargo de un nodo principal. Aunque el clúster provocó una interrupción regional, la VM de consumidor vm1 ubicada en us-west1 llegó correctamente al nuevo clúster principal en us-west2.
12. Limpieza
Borra los extremos del consumidor desde Cloud Console
Navega a Servicios de red → Private Service Connect → EXTREMOS CONECTADOS.
Usa el filtro psc-endpoint para evitar la posible eliminación de extremos de consumidor que no sean de laboratorio. Selecciona todos los extremos → BORRAR

Borra las direcciones IP internas estáticas asociadas con los extremos del consumidor
Navega a Red de VPC → consumer-vpc → DIRECCIONES IP INTERNAS ESTÁTICAS.
Usa el filtro psc-endpoint para evitar la posible eliminación de extremos de consumidores que no sean de laboratorio y aumenta las filas por página a 100. Selecciona todos los endpoints → RELEASE

En Cloud Shell, borra los componentes del codelab.
gcloud compute instances delete vm1 --zone=us-west1-a --quiet
gcloud compute networks subnets delete psc-endpoint-us-west1 vm-subnet --region=us-west1 --quiet
gcloud compute networks subnets delete psc-endpoint-us-west2 --region=us-west2 --quiet
gcloud compute firewall-rules delete ssh-iap-consumer --quiet
gcloud compute routers delete consumer-cr --region=us-west1 --quiet
gcloud compute networks delete consumer-vpc --quiet
Desde la IU de Atlas, identifica el clúster psc-mongodb-uswest1-uswest2 → finaliza la simulación

Selecciona Finalizar la simulación de interrupción > Salir.

El clúster ahora revierte us-west1 como principal. Este proceso tardará entre 3 y 4 minutos. Una vez que se complete, finaliza el clúster y observa el contorno gris que indica un cambio de estado.


Insertar el nombre del clúster → Terminar

Borra el extremo privado asociado con us-west1 y us-west2.
En la IU de Atlas, navega a Seguridad → Acceso a la red → Extremo privado → Seleccionar finalizar.

13. Felicitaciones
Felicitaciones. Configuraste y validaste correctamente un extremo de Private Service Connect con acceso global a MongoDB en todas las regiones. Creaste correctamente una VPC del consumidor, un MongoDB multirregional y extremos del consumidor. Una VM ubicada en us-west1 se conectó correctamente a MongoDB en us-west1 y us-west2 tras la conmutación por error regional.
Cosmopup cree que los codelabs son increíbles.

¿Qué sigue?
Consulta algunos codelabs sobre los siguientes temas:
- Usa Private Service Connect para publicar y consumir servicios con GKE
- Usa Private Service Connect para publicar y consumir servicios
- Conéctate a servicios locales a través de redes híbridas con Private Service Connect y un balanceador de cargas de proxy TCP interno
- Usa Private Service Connect con configuración automática de DNS
Lecturas y videos adicionales
- Descripción general de Private Service Connect
- ¿Qué es Private Service Connect?
- Tipos de balanceadores de cargas admitidos