Transmisión de datos en múltiples nubes

1. Introducción

b412875666fceda8.png

Última actualización: 2022-02-08

¿Por qué es necesario usar la transmisión de datos en varias nubes?

Las empresas buscan activamente distribuir sus cargas de trabajo en varias plataformas de nube, ya que adoptar varios proveedores de servicios en la nube en el flujo de trabajo operativo de una empresa tiene varias ventajas, como las siguientes:

  • Compromiso con un solo proveedor
  • Mitigación del riesgo de continuidad empresarial
  • Dependencias y confianza en una pila de tecnología

Qué compilarás

En este codelab, configurarás una transmisión de datos en varias nubes entre AWS y GCP aprovechando Confluent Cloud. Harás lo siguiente:

  • Configurar un clúster de Kafka dedicado en Confluent Cloud en GCP
  • Configurar un intercambio de tráfico de VPC entre Confluent Cloud y tu proyecto de GCP para que se pueda acceder a él en una red privada
  • Configurar un túnel VPN entre tu proyecto de AWS y tu proyecto de GCP para que los recursos de ambos hiperescaladores puedan conectarse
  • Acceder a Confluent Kafka desde AWS y configurar una canalización de transmisión de AWS a GCP aprovechando Confluent Kafka Cloud

Qué aprenderás

  • Cómo configurar el intercambio de tráfico de VPC entre Confluent Cloud Kafka y tu proyecto de GCP
  • Cómo configurar un túnel VPN entre proyectos de AWS y GCP
  • Cómo acceder a Confluent Cloud alojado en GCP desde tu proyecto de AWS

Este codelab se enfoca en la creación de transmisión de datos en varias nubes. Los conceptos y los bloques de código no relacionados con esos temas se abordan superficialmente y se proporcionan para que simplemente los copies y pegues.

Requisitos

  • Acceso al proyecto de AWS
  • Acceso al proyecto de GCP
  • Experiencia en GCP y AWS Cloud
  • Suscripción a Confluent Kafka desde GCP Marketplace

2. Cómo prepararte

Configura la conexión VPN entre AWS y GCP

  • En esta demostración, se usa la VPC predeterminada (asia-southeast1) en GCP y ng-vpc-103-mum (ap-south1) en AWS.

eac371e8af07fc0c.png

c76e9c670e4f8cca.png

  • En AWS, crea la puerta de enlace del cliente y la puerta de enlace privada virtual (VPG). Adjunta la VPG a la VPC de AWS.

55a075a6b951b5df.png

fe23f4315e9369ec.png

  • Crea la conexión VPN de sitio a sitio en AWS.

4c59066457f3ff9.png a2dde7c3e7cf82e9.png

  • Descarga el archivo de configuración del túnel creado en AWS. Seleccionar
  • Proveedor : Genérico
  • Plataforma : Genérico
  • Software : Agnosticismo del proveedor
  • Versión de IKE : IKEv2
  • Crea la puerta de enlace de VPN y el túnel VPN en GCP.

8d167a30913a46e1.png

Proporciona la dirección IP y la clave de IKEv2 del archivo de configuración de AWS descargado para ambos túneles.

  • Una vez completado, el túnel debería estar en funcionamiento en AWS y GCP.

baca51d151d7c40.png

ceefee82994ef2d4.png

La configuración del túnel ya está completa.

  • Selecciona un bloque CIDR que se usará para configurar Confluent Cloud. Agrega esto al túnel VPN como una ruta estática en AWS.

219fa91dc84bd751.png

Confluent Kafka en GCP Marketplace

  • Suscríbete a Confluent Kafka desde GCP Marketplace.

380b8221724e91d7.png

  • Accede a Confluent Cloud y crea un clúster dedicado.

54611bb3ba91a867.png

7e3b9fec07478fc5.png

  • Proporciona el ID del proyecto de GCP junto con los detalles de la red de VPC para el intercambio de tráfico.

544ea2152de6d447.png

  • Completa el intercambio de tráfico de VPC en el extremo de GCP con los detalles de la red del clúster de Confluent Cloud proporcionados.

a791c93028f46a10.png

  • El clúster de Confluent Cloud ahora está activo y tiene intercambio de tráfico con GCP.

c9ebd43fab4a8db6.png

  • Prueba la conectividad al clúster de Confluent desde GCP.
  • Aprovisiona una instancia de GCE y, luego, instala Python 3.
  • Genera la clave de cliente de Python en Confluent Cloud.

969ce69a57fda7db.png

  • Ejecuta la secuencia de comandos de prueba "producer.py" desde la instancia de GCP:

aaede917f462b5b9.png

  • Ahora, descarga la base de código de ejemplo en la instancia de AWS y ejecuta la secuencia de comandos "producer.py" para probar la conectividad híbrida a Confluent Cloud desde GCP.

94da3d8c20f8b234.png

3. Felicitaciones

Felicitaciones, creaste correctamente tu plataforma de transmisión de Confluent Kafka en varias nubes y entre regiones entre AWS y GCP.

¿Codelabs útiles**?**

Consulta algunos codelabs sobre los siguientes temas:

Lecturas adicionales