Accede a MongoDB Atlas multirregional con Private Service Connect

1. Introducción

Private Service Connect (PSC) simplifica la forma en que se consumen los servicios de forma segura y privada. Este modelo facilita drásticamente la arquitectura de red, ya que permite que los consumidores de servicios se conecten de forma privada a los productores de servicios en todas las organizaciones y elimina la necesidad del intercambio de tráfico entre nubes privadas virtuales. En la figura 1, se ilustran los atributos del intercambio de tráfico entre VPC y de PSC.

Figura 1: 4f9551fc32ed83f5.png

Como consumidor de servicios, te permite elegir con flexibilidad cómo asignar tus IPs privadas a los servicios y, al mismo tiempo, elimina la carga de administrar los rangos de subredes para las VPCs de productor. Ahora puedes asignar fácilmente una IP virtual elegida de tu VPC a ese servicio con una conexión de servicio.

En este codelab, compilarás una arquitectura integral de Private Service Connect que ilustra el uso del acceso global de PSC con MongoDB Atlas.

El acceso global permite que los clientes se conecten a Private Service Connect (PSC) a través de límites regionales. Esto es útil para crear alta disponibilidad en los servicios administrados alojados en varias regiones o para permitir que los clientes accedan a un servicio que no está en la misma región que el cliente.

2. Cómo habilitar el acceso global

El acceso global es una función opcional que se configura en la regla de reenvío del cliente. En el siguiente comando, se muestra cómo se configura:

gcloud beta compute forwarding-rules create psc-west \
    --region=us-west1 \
    --network=consumer-vpc \
    --address=psc-west-address \
    --target-service-attachment=projects/.../serviceAttachments/sa-west \
    --allow-psc-global-access
  • La marca --allow-psc-global-access habilita el acceso global en un extremo de Private Service Connect.
  • El acceso global permite que el cliente se encuentre en una región diferente de la regla de reenvío de Private Service Connect, pero la regla de reenvío debe estar en la misma región que la vinculación de servicio a la que está conectada.
  • No se requiere configuración en la vinculación de servicio del productor para habilitar el acceso global. Es una opción exclusiva para el consumidor.

El acceso global también se puede activar o desactivar en cualquier momento para los extremos existentes. No hay interrupciones en el tráfico para las conexiones activas cuando se habilita el acceso global en un extremo existente. El acceso global se habilita en una regla de reenvío existente con el siguiente comando:

gcloud beta compute forwarding-rules update psc-west --allow-psc-global-access

Cómo inhabilitar el acceso global

El acceso global también se puede inhabilitar en reglas de reenvío existentes con la marca --no-allow-psc-global-access. Ten en cuenta que se finalizará cualquier tráfico interregional activo después de ejecutar este comando.

gcloud beta compute forwarding-rules update psc-west --no-allow-psc-global-access

3. Qué compilarás

  1. Se creará un clúster multirregional de MongoDB Atlas (topología descrita en la Figura 2) con un nodo en us-west1 y dos nodos en las regiones de us-west2, respectivamente.
  2. Una VPC del consumidor y una VM asociada para acceder a clústeres de MongoDB en us-west1 y us-west2.
  3. Una VPC y dos subredes en las regiones us-west1 y us-west2, respectivamente, con al menos 64 direcciones IP libres en cada subred (crea subredes con /26 y menos).

El cliente de MongoDB se instalará en vm1 en la VPC del consumidor. Cuando falla el nodo principal en us-west1, el cliente podrá leer y escribir a través del nuevo nodo principal en us-west2.

Figura 2: ab6c2791514c4481.png

Qué aprenderás

  • Cómo crear una VPC y subredes implementadas en dos regiones
  • Cómo implementar un clúster de MongoDB Atlas multirregional
  • Cómo crear un extremo privado
  • Cómo conectarse a MongoDB
  • Cómo realizar y validar la conmutación por error de MongoDB multirregional

Requisitos

  • Proyecto de Google Cloud
  • Proporciona una subred /26 por región
  • El propietario del proyecto o de la organización debe tener acceso a MongoDB Atlas para crear un clúster de MongoDB con el nivel M10 o superior. (Usa GETATLAS para obtener créditos gratis y ejecutar la PoV).

4. Antes de comenzar

Actualiza el proyecto para que sea compatible con el codelab

En este codelab, se usan variables para facilitar la implementación de la configuración de gcloud en Cloud Shell.

Dentro de Cloud Shell, haz lo siguiente:

gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=YOUR-PROJECT-NAME
echo $projectname

5. Configuración del consumidor

Crea la VPC del consumidor

Dentro de Cloud Shell, haz lo siguiente:

gcloud compute networks create consumer-vpc --project=$projectname --subnet-mode=custom

Crea las subredes de consumidor

Dentro de Cloud Shell, haz lo siguiente:

gcloud compute networks subnets create vm-subnet --project=$projectname --range=10.10.10.0/29 --network=consumer-vpc --region=us-west1

Dentro de Cloud Shell, crea el extremo del consumidor para us-west1:

gcloud compute networks subnets create psc-endpoint-us-west1 --project=$projectname --range=192.168.10.0/26 --network=consumer-vpc --region=us-west1

Dentro de Cloud Shell, crea el extremo del consumidor para us-west2:

gcloud compute networks subnets create psc-endpoint-us-west2 --project=$projectname --range=172.16.10.0/26 --network=consumer-vpc --region=us-west2

Configuración de Cloud Router y NAT

Cloud NAT se usa en el codelab para la instalación de paquetes de software, ya que las instancias de VM no tienen una dirección IP externa.

Dentro de Cloud Shell, crea el Cloud Router.

gcloud compute routers create consumer-cr --network consumer-vpc --region us-west1

Dentro de Cloud Shell, crea la puerta de enlace NAT.

gcloud compute routers nats create consumer-nat --router=consumer-cr --auto-allocate-nat-external-ips --nat-all-subnet-ip-ranges --region us-west1

Configuración de la instancia vm1

En la siguiente sección, crearás la instancia de Compute Engine, vm1.

Dentro de Cloud Shell, crea la instancia vm1.

gcloud compute instances create vm1 \
    --project=$projectname \
    --zone=us-west1-a \
    --machine-type=e2-micro \
    --network-interface=subnet=vm-subnet,no-address \
    --maintenance-policy=MIGRATE \
    --provisioning-model=STANDARD \
--create-disk=auto-delete=yes,boot=yes,device-name=vm1,image=projects/ubuntu-os-cloud/global/images/ubuntu-2004-focal-v20230213,mode=rw,size=10,type=projects/$projectname/zones/us-west1-a/diskTypes/pd-balanced
    --metadata startup-script="#! /bin/bash
      sudo apt-get update
      sudo apt-get install tcpdump -y
      sudo apt-get install dnsutils -y"

Para permitir que IAP se conecte a tus instancias de VM, crea una regla de firewall que cumpla con lo siguiente:

  • Se aplica a todas las instancias de VM a las que deseas acceder mediante IAP.
  • Permite el tráfico de entrada desde el rango de IP 35.235.240.0/20. Este rango contiene todas las direcciones IP que IAP usa para el reenvío de TCP.

Dentro de Cloud Shell, crea la regla de firewall de IAP.

gcloud compute firewall-rules create ssh-iap-consumer-vpc \
    --network consumer-vpc \
    --allow tcp:22 \
    --source-ranges=35.235.240.0/20

6. Crea el clúster multirregional de MongoDB Atlas

  • Debemos configurar un clúster de Atlas antes de comenzar con la configuración de PSC. Puedes suscribirte a MongoDB Atlas de una de las siguientes dos maneras:
  • A través de Google Cloud Marketplace si tienes una cuenta de Google Cloud Consulta la documentación para configurar tu suscripción.
  • Con la página de registro de Atlas
  • Una vez que te suscribas a Atlas, haz clic en el botón Build a Database, como se muestra a continuación.

796f5bda844bf400.png

  • Crear un clúster nuevo → Dedicado

56c340661d86962c.png

  • Proveedor y región de la nube → Google Cloud
  • Aislamiento de cargas de trabajo, multirregión y multinube → Seleccionado (marca de verificación azul)

6c10293ffd9814ae.png

  • Nodos aptos para la elección → us-west1 (1 nodo), us-west2 (2 nodos)

e652bd944d785871.png

  • Nivel del clúster → M10, deja el resto de la configuración con sus valores predeterminados

ffa0195b96c2c5ff.png

  • Nombre del clúster → psc-mongodb-uswest1-uswest2

3720fb8c15ba5cc2.png

  • Selecciona → Crear clúster.

ec5e3e6983c02e27.png

  • La creación de la base de datos tarda entre 7 y 10 minutos.

d75778d5abf484aa.png

Vista del clúster una vez implementado

1f0ec6a401578650.png

7. Creación de extremos privados para us-west1

  • Accede a tu cuenta de Atlas y navega a tu proyecto.

Crea un usuario nuevo para permitir el acceso de lectura y escritura a cualquier base de datos

En Seguridad → Acceso a la base de datos, selecciona Agregar un usuario nuevo a la base de datos. A continuación, se muestra un ejemplo de nombre de usuario y contraseña configurados como codelab. Asegúrate de seleccionar el rol integrado de lectura y escritura en cualquier base de datos.

f622ab14ddc96fc7.png

  • En Seguridad → Acceso a la red, la lista de acceso a IP no requiere una entrada.

Prepara extremos privados en MongoDB Atlas

  • Selecciona Acceso a la red → Endpoints privados → Clúster dedicado → Agregar endpoint privado. 88f5c1d9ae7e46d9.png

Proveedor de servicios en la nube

  • Selecciona Google Cloud y, luego, Siguiente.

5503248bf4019a35.png

Adjunto de servicio

  • Selecciona la región us-west1 y, luego, haz clic en Siguiente.

cb31aea7cad182f9.png

Extremos

  • Para crear un extremo de Private Service Connect, proporciona la siguiente información:
  • ID del proyecto de Google Cloud: Selecciona "Mostrar instrucciones" para obtener más detalles
  • Nombre de la VPC: consumer-vpc
  • Nombre de la subred: psc-endpoint-us-west1
  • Prefijo del extremo de Private Service Connect: psc-endpoint-us-west1

21d76af5367832f4.png

Configura extremos

En la siguiente sección, se genera una secuencia de comandos de shell que se debe guardar de forma local con el nombre setup_psc.sh. Una vez que lo guardes, edita el script de shell para permitir el acceso global a psc. Puedes realizar esta acción en Cloud Shell del proyecto de Google Cloud.

  • Ejemplo de secuencia de comandos de shell (tu resultado tendrá valores diferentes)

5c80cf7315a05c25.png

  • Copia el script de shell de la consola de MongoDB y guarda el contenido en la terminal de Cloud Shell de Google Cloud. Asegúrate de guardar el script como setup_psc.sh.

Ejemplo antes de la actualización:

#!/bin/bash
gcloud config set project yourprojectname

for i in {0..49}
do
  gcloud compute addresses create psc-endpoint-us-west1-ip-$i --region=us-west1 --subnet=psc-endpoint-us-west1
done

for i in {0..49}
do
  if [ $(gcloud compute addresses describe psc-endpoint-us-west1-ip-$i --region=us-west1 --format="value(status)") != "RESERVED" ]; then
    echo "psc-endpoint-us-west1-ip-$i is not RESERVED";
    exit 1;
  fi
done

for i in {0..49}
do
  gcloud compute forwarding-rules create psc-endpoint-us-west1-$i --region=us-west1 --network=consumer-vpc --address=psc-endpoint-us-west1-ip-$i --target-service-attachment=projects/p-npwsmzelxznmaejhj2vn1q0q/regions/us-west1/serviceAttachments/sa-us-west1-61485ec2ae9d2e48568bf84f-$i
done

if [ $(gcloud compute forwarding-rules list --regions=us-west1 --format="csv[no-heading](name)" --filter="(name:psc-endpoint-us-west1*)" | wc -l) -gt 50 ]; then
  echo "Project has too many forwarding rules that match prefix psc-endpoint-us-west1. Either delete the competing resources or choose another endpoint prefix."
  exit 2;
fi

gcloud compute forwarding-rules list --regions=us-west1 --format="json(IPAddress,name)" --filter="name:(psc-endpoint-us-west1*)" > atlasEndpoints-psc-endpoint-us-west1.json

Actualiza la secuencia de comandos de shell para admitir el acceso global

Usa el editor nano o vi para identificar y actualizar la secuencia de comandos del shell con la siguiente sintaxis:

gcloud beta compute forwarding-rules create psc-endpoint-us-west1-$i --region=us-west1 --network=consumer-vpc --address=psc-endpoint-us-west1-ip-$i --target-service-attachment=projects/p-npwsmzelxznmaejhj2vn1q0q/regions/us-west1/serviceAttachments/sa-us-west1-61485ec2ae9d2e48568bf84f-$i --allow-psc-global-access

Ejemplo después de la actualización:

#!/bin/bash
gcloud config set project yourprojectname

for i in {0..49}
do
  gcloud compute addresses create psc-endpoint-us-west1-ip-$i --region=us-west1 --subnet=psc-endpoint-us-west1
done

for i in {0..49}
do
  if [ $(gcloud compute addresses describe psc-endpoint-us-west1-ip-$i --region=us-west1 --format="value(status)") != "RESERVED" ]; then
    echo "psc-endpoint-us-west1-ip-$i is not RESERVED";
    exit 1;
  fi
done

for i in {0..49}
do
  gcloud beta compute forwarding-rules create psc-endpoint-us-west1-$i --region=us-west1 --network=consumer-vpc --address=psc-endpoint-us-west1-ip-$i --target-service-attachment=projects/p-npwsmzelxznmaejhj2vn1q0q/regions/us-west1/serviceAttachments/sa-us-west1-61485ec2ae9d2e48568bf84f-$i --allow-psc-global-access
done

if [ $(gcloud compute forwarding-rules list --regions=us-west1 --format="csv[no-heading](name)" --filter="(name:psc-endpoint-us-west1*)" | wc -l) -gt 50 ]; then
  echo "Project has too many forwarding rules that match prefix psc-endpoint-us-west1. Either delete the competing resources or choose another endpoint prefix."
  exit 2;
fi

gcloud compute forwarding-rules list --regions=us-west1 --format="json(IPAddress,name)" --filter="name:(psc-endpoint-us-west1*)" > atlasEndpoints-psc-endpoint-us-west1.json

Ejecuta la secuencia de comandos de shell

Navega hasta la secuencia de comandos setup_psc.sh y ejecútala. Una vez que se complete, se creará un archivo llamado atlasEndpoints-psc-endpoint-us-west1.json. El archivo JSON contiene una lista de direcciones IP y nombres de extremos de Private Service Connect que se requieren para el siguiente paso de la implementación.

En Cloud Shell, haz lo siguiente:

sh setup_psc.sh

Una vez que se complete la secuencia de comandos, usa el editor de Cloud Shell para descargar atlasEndpoints-psc-endpoint-us-west1.json de forma local.

2856802dd6497f51.png b0059dc8e1558891.png

Sube el archivo JSON

Sube el archivo JSON guardado anteriormente atlasEndpoints-psc-endpoint-us-west1.json.

3a74e8d9952d793a.png

4938fd8256eb81b4.png

Selecciona Crear.

Valida los extremos de Private Service Connect

En la IU de MongoDB, navega a tu proyecto y, luego, a Security → Network access → Private endpoint. Si seleccionas la pestaña Clúster dedicado, la transición del extremo a disponible tardará 10 minutos.

Estado disponible

972aff09d180d9de.png

En la consola de Google Cloud, navega a Servicios de red → Private Service Connect, selecciona la pestaña Extremo conectado que muestra los extremos del consumidor que pasan de Pendiente → Aceptado, como en el siguiente ejemplo:

5472dd938604b3.png

8. Creación de extremos privados para us-west2

  • Accede a tu cuenta de Atlas y navega a tu proyecto.

Prepara extremos privados en MongoDB Atlas

  • Selecciona Acceso a la red → Endpoints privados → Clúster dedicado → Agregar endpoint privado. 88f5c1d9ae7e46d9.png

Proveedor de servicios en la nube

  • Selecciona Google Cloud y, luego, Siguiente.

5503248bf4019a35.png

Adjunto de servicio

  • Selecciona la región us-west2 y, luego, haz clic en Siguiente.

fc0b7a8e4274be3b.png

Extremos

  • Para crear un extremo de Private Service Connect, proporciona la siguiente información:
  • ID del proyecto de Google Cloud: Selecciona "Mostrar instrucciones" para obtener más detalles
  • Nombre de la VPC: consumer-vpc
  • Nombre de la subred: psc-endpoint-us-west2
  • Prefijo del extremo de Private Service Connect: psc-endpoint-us-west2

17b5a056587ede8a.png

Configura extremos

En la siguiente sección, se genera una secuencia de comandos de shell que se debe guardar de forma local con el nombre setup_psc.sh. Una vez que lo guardes, edita el script de shell para permitir el acceso global a psc. Puedes realizar esta acción en Cloud Shell del proyecto de Google Cloud.

  • Ejemplo de secuencia de comandos de shell (tu resultado tendrá valores diferentes)

b021821e7d59f450.png

  • Copia el script de shell de la consola de MongoDB y guarda el contenido en la terminal de Cloud Shell de Google Cloud. Asegúrate de guardar el script como setup_psc.sh.

Ejemplo antes de la actualización:

#!/bin/bash
gcloud config set project yourprojectname

for i in {0..49}
do
  gcloud compute addresses create psc-endpoint-us-west2-ip-$i --region=us-west2 --subnet=psc-endpoint-us-west2
done

for i in {0..49}
do
  if [ $(gcloud compute addresses describe psc-endpoint-us-west2-ip-$i --region=us-west2 --format="value(status)") != "RESERVED" ]; then
    echo "psc-endpoint-us-west2-ip-$i is not RESERVED";
    exit 1;
  fi
done

for i in {0..49}
do
  gcloud compute forwarding-rules create psc-endpoint-us-west2-$i --region=us-west2 --network=consumer-vpc --address=psc-endpoint-us-west2-ip-$i --target-service-attachment=projects/p-npwsmzelxznmaejhj2vn1q0q/regions/us-west2/serviceAttachments/sa-us-west2-61485ec2ae9d2e48568bf84f-$i
done

if [ $(gcloud compute forwarding-rules list --regions=us-west2 --format="csv[no-heading](name)" --filter="(name:psc-endpoint-us-west2*)" | wc -l) -gt 50 ]; then
  echo "Project has too many forwarding rules that match prefix psc-endpoint-us-west2. Either delete the competing resources or choose another endpoint prefix."
  exit 2;
fi

gcloud compute forwarding-rules list --regions=us-west2 --format="json(IPAddress,name)" --filter="name:(psc-endpoint-us-west2*)" > atlasEndpoints-psc-endpoint-us-west2.json

Actualiza la secuencia de comandos de shell para admitir el acceso global

Usa el editor nano o vi para identificar y actualizar la secuencia de comandos del shell con la siguiente sintaxis:

gcloud beta compute forwarding-rules create psc-endpoint-us-west2-$i --region=us-west2 --network=consumer-vpc --address=psc-endpoint-us-west2-ip-$i --target-service-attachment=projects/p-npwsmzelxznmaejhj2v
n1q0q/regions/us-west2/serviceAttachments/sa-us-west2-61485ec2ae9d2e48568bf84f-$i --allow-psc-global-access
done

Ejemplo después de la actualización:

#!/bin/bash
gcloud config set project yourprojectname

for i in {0..49}
do
  gcloud compute addresses create psc-endpoint-us-west2-ip-$i --region=us-west2 --subnet=psc-endpoint-us-west2
done

for i in {0..49}
do
  if [ $(gcloud compute addresses describe psc-endpoint-us-west2-ip-$i --region=us-west2 --format="value(status)") != "RESERVED" ]; then
    echo "psc-endpoint-us-west2-ip-$i is not RESERVED";
    exit 1;
  fi
done

for i in {0..49}
do
  gcloud beta compute forwarding-rules create psc-endpoint-us-west2-$i --region=us-west2 --network=consumer-vpc --address=psc-endpoint-us-west2-ip-$i --target-service-attachment=projects/p-npwsmzelxznmaejhj2v
n1q0q/regions/us-west2/serviceAttachments/sa-us-west2-61485ec2ae9d2e48568bf84f-$i --allow-psc-global-access
done

if [ $(gcloud compute forwarding-rules list --regions=us-west2 --format="csv[no-heading](name)" --filter="(name:psc-endpoint-us-west2*)" | wc -l) -gt 50 ]; then
  echo "Project has too many forwarding rules that match prefix psc-endpoint-us-west2. Either delete the competing resources or choose another endpoint prefix."
  exit 2;
fi

gcloud compute forwarding-rules list --regions=us-west2 --format="json(IPAddress,name)" --filter="name:(psc-endpoint-us-west2*)" > atlasEndpoints-psc-endpoint-us-west2.json

Ejecuta la secuencia de comandos de shell

Navega y ejecuta la secuencia de comandos setup_psc.sh. Una vez que se complete, se creará un archivo llamado atlasEndpoints-psc-endpoint-us-west2.json. El archivo JSON contiene una lista de direcciones IP y nombres de extremos de Private Service Connect que se requieren para el siguiente paso de la implementación.

En Cloud Shell, haz lo siguiente:

sh setup_psc.sh

Una vez que se complete la secuencia de comandos, usa el editor de Cloud Shell para descargar atlasEndpoints-psc-endpoint-us-west2.json de forma local.

2856802dd6497f51.png 6e3d944944718f13.png

Sube el archivo JSON

Sube el archivo JSON guardado anteriormente atlasEndpoints-psc-endpoint-us-west2.json.

3a74e8d9952d793a.png

4938fd8256eb81b4.png

Selecciona Crear.

Valida los extremos de Private Service Connect

En la IU de MongoDB, navega a tu proyecto y, luego, a Security → Network access → Private endpoint. Si seleccionas la pestaña del clúster dedicado, el extremo estará disponible después de 10 minutos.

Estado disponible:

8801df4f6b39d20a.png

En la consola de Google Cloud, navega a Servicios de red → Private Service Connect y selecciona la pestaña Extremo conectado que muestra los extremos del consumidor que pasan de Pendiente → Aceptado, como en el siguiente ejemplo. Se implementaron un total de 100 extremos en el extremo del consumidor y deben pasar a aceptados antes de avanzar al siguiente paso.

6131abcdef5c1f49.png

9. Conéctate a MongoDB Atlas desde extremos privados

Una vez que se aceptan las conexiones de Private Service Connect, se requiere tiempo adicional (de 10 a 15 minutos) para actualizar el clúster de MongoDB. En la IU de MongoDB, el contorno gris representa la actualización del clúster, por lo que no está disponible la conexión al extremo privado.

c1524d2c0c5765d1.png

Identifica la implementación y selecciona Connect (observa que ya no aparece el cuadro gris).

3eea96af20bfad20.png

Elige el tipo de conexión → Endpoint privado, selecciona Elegir un método de conexión

16a9090e495640c7.png

Selecciona Connect with the MongoDB Shell.

35e422af16cb5ce0.png

Selecciona No, I do not have the MongoDB Shell installed, Ubuntu 20.4 y asegúrate de copiar el contenido de los pasos 1 y 3 en un bloc de notas.

51be47403c00bab4.png

10. Instala la aplicación de mongosh

Antes de la instalación, deberás crear una cadena de comandos basada en los valores copiados anteriormente que obtuviste en los pasos 1 y 3. Luego, accederás a vm1 a través de SSH con Cloud Shell, seguido de la instalación y validación de la aplicación mongosh en la base de datos principal (us-west1). Se instaló la imagen de Ubuntu 20.4 cuando se creó vm1 en consumer-vpc.

Elige un método de conexión: Paso 1, copia la URL de descarga

5da980ff86265dd8.png

Cadena de comando de ejemplo (reemplaza con tus valores personalizados):

https://downloads.mongodb.com/compass/mongodb-mongosh_1.7.1_amd64.deb

Elige un método de conexión, paso 3.

698286bdf3dee3c7.png

Cadena de comando de ejemplo (reemplaza con tus valores personalizados):

mongosh "mongodb+srv://psc-mongodb-uswest1-uswest2-pl-0.2wqno.mongodb.net/psc-mongodb-uswest1-uswest2" --apiVersion 1 --username codelab

Accede a vm1

Dentro de Cloud Shell, haz lo siguiente:

gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=YOUR-PROJECT-NAME
echo $projectname

Accede a vm1 con IAP en Cloud Shell. Si se agota el tiempo de espera, vuelve a intentarlo.

gcloud compute ssh vm1 --project=$projectname --zone=us-west1-a --tunnel-through-iap

Realiza la instalación desde el SO

Realiza la instalación desde el acceso al SO de Cloud Shell (hay más detalles disponibles). Actualiza la siguiente sintaxis con tu cadena personalizada.

wget -qO - https://www.mongodb.org/static/pgp/server-6.0.asc | sudo apt-key add -

La operación debería responder con un

OK

.

echo "deb [ arch=amd64,arm64 ] https://repo.mongodb.org/apt/ubuntu focal/mongodb-org/6.0 multiverse" | sudo tee /etc/apt/sources.list.d/mongodb-org-6.0.list

sudo apt-get update -y

wget https://downloads.mongodb.com/compass/mongodb-mongosh_1.7.1_amd64.deb

sudo dpkg -i mongodb-mongosh_1.7.1_amd64.deb

Conéctate a la implementación de MongoDB

Dentro del acceso al SO de Cloud Shell, realiza lo siguiente. El nombre de usuario y la contraseña configurados son codelab.

mongosh

mongosh "mongodb+srv://psc-mongodb-uswest1-uswest2-pl-0.2wqno.mongodb.net/psc-mongodb-uswest1-uswest2" --apiVersion 1 --username codelab

A continuación, se incluye un ejemplo:

d5d0324a273b4d5e.png

Ejecutar comandos en la base de datos

Dentro del acceso al SO de Cloud Shell, realiza lo siguiente.

show dbs
use Company
db.Employee.insertOne({"Name":"cosmo","dept":"devops"})
db.Employee.findOne({"Name":"cosmo"})

11. Región de MongoDB activa para la conmutación por error, us-west1

Antes de realizar la conmutación por error, validemos que us-west1 sea principal y que us-west2 tenga dos nodos secundarios.

Navega a Database → psc-mongodb-uswest1-uswest2 → Overview.

64ca0395807bb3ac.png

En la siguiente sección, accede a vm1 ubicada en us-west1, conmuta por error la región principal del clúster de MongoDB us-west1 y verifica que se pueda seguir accediendo a la base de datos desde el clúster de MongoDB en us-west2.

Puedes probar la conmutación por error principal y regional desde la IU de Atlas.

  • Accede a la IU de Atlas.
  • Haz clic en […] junto al nombre de tu clúster, psc-mongodb-uswest1-uswest2 → Test Outage.

3a50da4381817975.png

  • Selecciona Regional Outage → Select regions.

b8dfff376477bcbb.png

  • Selecciona la región principal, us-west1→ Simulate Regional Outage.

76494a750a040bc5.png

Una vez seleccionado, el clúster mostrará la simulación de interrupción después de 3 o 4 minutos.

Cerrar la ventana

3a9f0359bd4e288f.png

bac1b2db0d754bbf.png

Verifica que us-west1 esté inactivo y que us-west2 ahora se haya hecho cargo como principal.

Navega a Database → psc-mongodb-uswest1-uswest2 → Overview.

86fd7d5230715645.png

Valida la conectividad al clúster por la nueva instancia principal, us-west2

Accede a vm1 ubicada en us-west1 y a mongodb en us-west2 para validar el acceso global de Private Service Connect.

Si se cerró tu sesión de Cloud Shell, haz lo siguiente:

Dentro de Cloud Shell, haz lo siguiente:

gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectname=YOUR-PROJECT-NAME
echo $projectname

Accede a vm1 con IAP en Cloud Shell. Si se agota el tiempo de espera, vuelve a intentarlo.

gcloud compute ssh vm1 --project=$projectname --zone=us-west1-a --tunnel-through-iap

Conéctate a la implementación de MongoDB

Dentro del acceso al SO de Cloud Shell, realiza lo siguiente.

mongosh

mongosh "mongodb+srv://psc-mongodb-uswest1-uswest2-pl-0.2wqno.mongodb.net/psc-mongodb-uswest1-uswest2" --apiVersion 1 --username codelab

A continuación, se incluye un ejemplo:

d262800a557b41a3.png

Ejecutar comandos en la base de datos

Dentro del acceso al SO de Cloud Shell, realiza lo siguiente.

show dbs
use Company
db.Employee.insertOne({"Name":"cosmo","dept":"devops"})
db.Employee.findOne()

exit

20c2571d84c0661d.png

Éxito: Validaste que el acceso global de PSC permite una conectividad fluida del extremo del consumidor en todas las regiones para ayudar a la alta disponibilidad o debido a interrupciones regionales. En el codelab, la conmutación por error regional de MongoDB ocurrió en el nodo principal ubicado en us-west1, por lo que la región secundaria us-west2 se hizo cargo de un nodo principal. Aunque el clúster provocó una interrupción regional, la VM de consumidor vm1 ubicada en us-west1 llegó correctamente al nuevo clúster principal en us-west2.

12. Limpieza

Borra los extremos del consumidor desde Cloud Console

Navega a Servicios de red → Private Service Connect → EXTREMOS CONECTADOS.

Usa el filtro psc-endpoint para evitar la posible eliminación de extremos de consumidor que no sean de laboratorio. Selecciona todos los extremos → BORRAR

192548e374b444a1.png

Borra las direcciones IP internas estáticas asociadas con los extremos del consumidor

Navega a Red de VPC → consumer-vpc → DIRECCIONES IP INTERNAS ESTÁTICAS.

Usa el filtro psc-endpoint para evitar la posible eliminación de extremos de consumidores que no sean de laboratorio y aumenta las filas por página a 100. Selecciona todos los endpoints → RELEASE

4cebf164c4fecd83.png

En Cloud Shell, borra los componentes del codelab.

gcloud compute instances delete vm1 --zone=us-west1-a --quiet 

gcloud compute networks subnets delete psc-endpoint-us-west1 vm-subnet --region=us-west1 --quiet

gcloud compute networks subnets delete psc-endpoint-us-west2 --region=us-west2 --quiet

gcloud compute firewall-rules delete ssh-iap-consumer --quiet 

gcloud compute routers delete consumer-cr --region=us-west1 --quiet 

gcloud compute networks delete consumer-vpc --quiet

Desde la IU de Atlas, identifica el clúster psc-mongodb-uswest1-uswest2 → finaliza la simulación

f82e28ac984d9e20.png

Selecciona Finalizar la simulación de interrupción > Salir.

38feaf055abdceea.png

El clúster ahora revierte us-west1 como principal. Este proceso tardará entre 3 y 4 minutos. Una vez que se complete, finaliza el clúster y observa el contorno gris que indica un cambio de estado.

f249a61bcc966d41.png

9427a9349daa1fea.png

Insertar el nombre del clúster → Terminar

9ef6d3a6387c5b4b.png

Borra el extremo privado asociado con us-west1 y us-west2.

En la IU de Atlas, navega a Seguridad → Acceso a la red → Extremo privado → Seleccionar finalizar.

56415ea954b2fec9.png

13. Felicitaciones

Felicitaciones. Configuraste y validaste correctamente un extremo de Private Service Connect con acceso global a MongoDB en todas las regiones. Creaste correctamente una VPC del consumidor, un MongoDB multirregional y extremos del consumidor. Una VM ubicada en us-west1 se conectó correctamente a MongoDB en us-west1 y us-west2 tras la conmutación por error regional.

Cosmopup cree que los codelabs son increíbles.

8c2a10eb841f7b01.jpeg

¿Qué sigue?

Consulta algunos codelabs sobre los siguientes temas:

Lecturas y videos adicionales

Documentos de referencia