1. Présentation
Les applications d'IA générative nécessitent une observabilité comme n'importe quelle autre application. Des techniques d'observabilité spécifiques sont-elles requises pour l'IA générative ?
Dans cet atelier, vous allez créer une application d'IA générative simple. Déployez-la sur Cloud Run. Instrumentez-le avec des fonctionnalités de surveillance et de journalisation essentielles à l'aide des services et produits d'observabilité Google Cloud.
Objectifs de l'atelier
- Écrire une application qui utilise Vertex AI avec l'éditeur Cloud Shell
- Stocker le code de votre application dans GitHub
- Utilisez la gcloud CLI pour déployer le code source de votre application sur Cloud Run.
- Ajouter des fonctionnalités de surveillance et de journalisation à votre application d'IA générative
- Utiliser des métriques basées sur les journaux
- Implémenter la journalisation et la surveillance avec le SDK Open Telemetry
- Obtenir des insights sur le traitement des données pour une IA responsable
2. Prérequis
Si vous ne possédez pas déjà un compte Google, vous devez en créer un.
3. Configuration du projet
- Connectez-vous à la console Google Cloud avec votre compte Google.
- Créez un projet ou réutilisez-en un existant. Notez l'ID du projet que vous venez de créer ou de sélectionner.
- Activez la facturation pour le projet.
- Cet atelier devrait vous coûter moins de 5 $.
- Vous pouvez suivre les étapes à la fin de cet atelier pour supprimer les ressources et éviter ainsi des frais supplémentaires.
- Les nouveaux utilisateurs peuvent bénéficier d'un essai sans frais pour bénéficier d'un crédit de 300$.
- Vérifiez que la facturation est activée dans Mes projets de la section Facturation Cloud
- .
- Si votre nouveau projet indique
Billing is disableddans la colonneBilling account:- Cliquez sur les trois points dans la colonne
Actions. - Cliquez sur Modifier la facturation.
- Sélectionnez le compte de facturation que vous souhaitez utiliser.
- Cliquez sur les trois points dans la colonne
- Si vous participez à un événement en direct, le compte s'intitulera probablement Compte de facturation d'essai de Google Cloud Platform.
- Si votre nouveau projet indique
4. Préparer l'éditeur Cloud Shell
- Accédez à l'éditeur Cloud Shell. Si le message suivant s'affiche, vous demandant d'autoriser Cloud Shell à appeler gcloud avec vos identifiants, cliquez sur Autoriser pour continuer.

- Ouvrez une fenêtre de terminal.
- Cliquez sur le menu hamburger
. - Cliquez sur Terminal
- Cliquez sur Nouveau terminal
.
- Cliquez sur le menu hamburger
- Dans le terminal, configurez votre ID de projet :
Remplacezgcloud config set project [PROJECT_ID][PROJECT_ID]par l'ID de votre projet. Par exemple, si l'ID de votre projet estlab-example-project, la commande sera la suivante : Si le message suivant s'affiche, indiquant que gcloud demande vos identifiants pour l'API GCPI, cliquez sur Autoriser pour continuer.gcloud config set project lab-project-id-example

Si l'exécution réussit, le message suivant s'affiche : Si le messageUpdated property [core/project].
WARNINGs'affiche et que vous êtes invité àDo you want to continue (Y/N)?, cela signifie probablement que vous avez saisi l'ID de projet de manière incorrecte. Appuyez surN, puis surEnter, et essayez d'exécuter à nouveau la commandegcloud config set projectaprès avoir trouvé l'ID du projet. - (Facultatif) Si vous ne parvenez pas à trouver l'ID du projet, exécutez la commande suivante pour afficher l'ID de tous vos projets, triés par date de création dans l'ordre décroissant :
gcloud projects list \ --format='value(projectId,createTime)' \ --sort-by=~createTime
5. Activer les API Google
Dans le terminal, activez les API Google requises pour cet atelier :
gcloud services enable \
run.googleapis.com \
cloudbuild.googleapis.com \
aiplatform.googleapis.com \
logging.googleapis.com \
monitoring.googleapis.com \
cloudtrace.googleapis.com
L'exécution de cette commande prendra un certain temps. Un message semblable à celui qui suit s'affiche pour vous indiquer que l'opération s'est correctement déroulée :
Operation "operations/acf.p2-73d90d00-47ee-447a-b600" finished successfully.
Si vous recevez un message d'erreur commençant par ERROR: (gcloud.services.enable) HttpError accessing et contenant des informations détaillées sur l'erreur, comme ci-dessous, réessayez d'exécuter la commande après un délai d'une à deux minutes.
"error": {
"code": 429,
"message": "Quota exceeded for quota metric 'Mutate requests' and limit 'Mutate requests per minute' of service 'serviceusage.googleapis.com' ...",
"status": "RESOURCE_EXHAUSTED",
...
}
6. Créer une application NodeJS d'IA générative
Dans cette étape, vous allez écrire le code d'une application simple basée sur les requêtes qui utilise le modèle Gemini pour afficher 10 faits amusants sur un animal de votre choix. Procédez comme suit pour créer le code de l'application.
- Dans le terminal, créez le répertoire
codelab-o11y:mkdir ~/codelab-o11y - Définissez le répertoire actuel sur
codelab-o11y:cd ~/codelab-o11y - Initialisez
package.jsonde l'application NodeJS :npm init -y - Installez le package
fastify:npm install fastify - Installez les packages Cloud SDK pour l'authentification et utilisez Vertex AI :
npm install google-auth-library @google-cloud/vertexai - Créez un fichier
index.jset ouvrez-le dans l'éditeur Cloud Shell : Un fichier vide devrait maintenant s'afficher dans la fenêtre de l'éditeur au-dessus du terminal. Votre écran ressemblera à ceci :cloudshell edit index.js
- Copiez le code suivant et collez-le dans le fichier
index.jsouvert : Au bout de quelques secondes, l'éditeur Cloud Shell enregistre automatiquement votre code.const { VertexAI } = require('@google-cloud/vertexai'); const { GoogleAuth } = require('google-auth-library'); let generativeModel; const auth = new GoogleAuth(); auth.getProjectId().then(result => { const vertex = new VertexAI({ project: result }); generativeModel = vertex.getGenerativeModel({ model: 'gemini-1.5-flash' }); }); const fastify = require('fastify')(); const PORT = parseInt(process.env.PORT || '8080'); fastify.get('/', async function (request, reply) { const animal = request.query.animal || 'dog'; const prompt = `Give me 10 fun facts about ${animal}. Return this as html without backticks.` const resp = await generativeModel.generateContent(prompt); const html = resp.response.candidates[0].content.parts[0].text; reply.type('text/html').send(html); }) fastify.listen({ host: '0.0.0.0', port: PORT }, function (err, address) { if (err) { console.error(err); process.exit(1); } console.log(`codelab-genai: listening on ${address}`); })
Déployer le code de l'application d'IA générative sur Cloud Run
- Dans la fenêtre de terminal, exécutez la commande pour déployer le code source de l'application sur Cloud Run.
Si une invite semblable à celle ci-dessous s'affiche, vous informant que la commande va créer un dépôt. Cliquez surgcloud run deploy codelab-o11y-service \ --source="${HOME}/codelab-o11y/" \ --region=us-central1 \ --allow-unauthenticatedEnter. Le processus de déploiement peut prendre quelques minutes. Une fois le processus de déploiement terminé, un résultat semblable à celui-ci s'affiche :Deploying from source requires an Artifact Registry Docker repository to store built containers. A repository named [cloud-run-source-deploy] in region [us-central1] will be created. Do you want to continue (Y/n)?
Service [codelab-o11y-service] revision [codelab-o11y-service-00001-t2q] has been deployed and is serving 100 percent of traffic. Service URL: https://codelab-o11y-service-12345678901.us-central1.run.app
- Copiez l'URL du service Cloud Run affichée dans un onglet ou une fenêtre distincts de votre navigateur. Vous pouvez également exécuter la commande suivante dans le terminal pour imprimer l'URL du service, puis cliquer sur l'URL affichée en maintenant la touche Ctrl enfoncée pour l'ouvrir :
Lorsque vous ouvrez l'URL, il est possible que l'erreur 500 s'affiche ou que le message suivant s'affiche :gcloud run services list \ --format='value(URL)' \ --filter='SERVICE:"codelab-o11y-service"' Cela signifie que le déploiement des services n'est pas terminé. Patientez quelques instants, puis actualisez la page. À la fin, vous verrez un texte commençant par Fun Dog Facts (Anecdotes amusantes sur les chiens) et contenant 10 anecdotes amusantes sur les chiens.Sorry, this is just a placeholder...
Essayez d'interagir avec l'application pour obtenir des anecdotes amusantes sur différents animaux. Pour ce faire, ajoutez le paramètre animal à l'URL, comme dans ?animal=[ANIMAL], où [ANIMAL] est le nom d'un animal. Par exemple, ajoutez ?animal=cat pour obtenir 10 faits amusants sur les chats ou ?animal=sea turtle pour obtenir 10 faits amusants sur les tortues marines.
7. Auditer vos appels d'API Vertex
L'audit des appels d'API Google permet de répondre à des questions telles que "Qui a appelé une API particulière, où et quand ?". L'audit est important lorsque vous résolvez les problèmes de votre application, examinez la consommation de ressources ou effectuez une analyse forensique logicielle.
Les journaux d'audit vous permettent de suivre les activités d'administration et système, ainsi que d'enregistrer les appels aux opérations d'API "lecture de données" et "écriture de données". Pour auditer les requêtes Vertex AI visant à générer du contenu, vous devez activer les journaux d'audit "Lecture de données" dans la console Cloud.
- Cliquez sur le bouton ci-dessous pour ouvrir la page "Journaux d'audit" dans la console Cloud.
- Assurez-vous que la page affiche le projet que vous avez créé pour cet atelier. Le projet sélectionné s'affiche en haut à gauche de la page, à droite du menu hamburger :

Si nécessaire, sélectionnez le bon projet dans la zone de liste déroulante. - Dans le tableau Configuration des journaux d'audit des accès aux données, recherchez le service
Vertex AI APIdans la colonne "Service", puis cochez la case située à gauche du nom du service pour le sélectionner.
- Dans le panneau d'informations à droite, sélectionnez le type d'audit "Lecture de données".

- Cliquez sur Enregistrer.
Pour générer des journaux d'audit, ouvrez l'URL du service. Actualisez la page tout en modifiant la valeur du paramètre ?animal= pour obtenir différents résultats.
Explorer les journaux d'audit
- Cliquez sur le bouton ci-dessous pour ouvrir la page "Explorateur de journaux" dans la console Cloud :
- Collez le filtre suivant dans le volet "Requête".
Le volet "Requête" est un éditeur situé en haut de la page "Explorateur de journaux" :LOG_ID("cloudaudit.googleapis.com%2Fdata_access") AND protoPayload.serviceName="aiplatform.googleapis.com"
- Cliquez sur Exécuter la requête.
- Sélectionnez l'une des entrées du journal d'audit et développez les champs pour inspecter les informations enregistrées dans le journal.
Vous pouvez consulter des informations sur l'appel d'API Vertex, y compris la méthode et le modèle utilisés. Vous pouvez également voir l'identité de l'invocateur et les autorisations qui ont permis l'appel.
8. Journaliser les interactions avec l'IA générative
Vous ne trouverez pas les paramètres de requête ni les données de réponse de l'API dans les journaux d'audit. Toutefois, ces informations peuvent être importantes pour résoudre les problèmes d'analyse des applications et des workflows. Lors de cette étape, nous comblons cette lacune en ajoutant la journalisation des applications. La journalisation utilise la méthode de journalisation standard de NodeJS console.log pour écrire des journaux structurés dans la sortie standard. Cette méthode utilise la fonctionnalité Cloud Run pour capturer les informations imprimées sur la sortie standard et les ingérer automatiquement dans Cloud Logging. Pour capturer correctement les journaux structurés, le journal imprimé doit être mis en forme en conséquence. Suivez les instructions ci-dessous pour ajouter des fonctionnalités de journalisation structurée à notre application NodeJS.
- Revenez à la fenêtre (ou à l'onglet) "Cloud Shell" de votre navigateur.
- Dans le terminal, rouvrez
index.js:cloudshell edit ~/codelab-o11y/index.js - Pour consigner la réponse du modèle, procédez comme suit :
- Recherchez l'appel à
await generativeModel.generateContent()(à la ligne 20). - Copiez et collez le code ci-dessous au début de la ligne suivante.
console.log(JSON.stringify({ severity: 'DEBUG', message: 'Content is generated', animal: animal, prompt: prompt, response: resp.response, }));
- Recherchez l'appel à
La fonction de gestionnaire est modifiée pour appeler console.log() afin d'imprimer la structure JSON dont le schéma suit les consignes de mise en forme structurée. Le journal capture le paramètre "animal" de la requête, ainsi que le prompt et la réponse du modèle.
Au bout de quelques secondes, l'éditeur Cloud Shell enregistre automatiquement vos modifications.
Déployer le code de l'application d'IA générative sur Cloud Run
- Dans la fenêtre de terminal, exécutez la commande pour déployer le code source de l'application sur Cloud Run.
Si une invite semblable à celle ci-dessous s'affiche, vous informant que la commande va créer un dépôt. Cliquez surgcloud run deploy codelab-o11y-service \ --source="${HOME}/codelab-o11y/" \ --region=us-central1 \ --allow-unauthenticatedEnter. Le processus de déploiement peut prendre quelques minutes. Une fois le processus de déploiement terminé, un résultat semblable à celui-ci s'affiche :Deploying from source requires an Artifact Registry Docker repository to store built containers. A repository named [cloud-run-source-deploy] in region [us-central1] will be created. Do you want to continue (Y/n)?
Service [codelab-o11y-service] revision [codelab-o11y-service-00001-t2q] has been deployed and is serving 100 percent of traffic. Service URL: https://codelab-o11y-service-12345678901.us-central1.run.app
- Copiez l'URL du service Cloud Run affichée dans un onglet ou une fenêtre distincts de votre navigateur. Vous pouvez également exécuter la commande suivante dans le terminal pour imprimer l'URL du service, puis cliquer sur l'URL affichée en maintenant la touche Ctrl enfoncée pour l'ouvrir :
Lorsque vous ouvrez l'URL, il est possible que l'erreur 500 s'affiche ou que le message suivant s'affiche :gcloud run services list \ --format='value(URL)' \ --filter='SERVICE:"codelab-o11y-service"' Cela signifie que le déploiement des services n'est pas terminé. Patientez quelques instants, puis actualisez la page. À la fin, vous verrez un texte commençant par Fun Dog Facts (Anecdotes amusantes sur les chiens) et contenant 10 anecdotes amusantes sur les chiens.Sorry, this is just a placeholder...
Pour générer des journaux d'application, ouvrez l'URL du service. Actualisez la page tout en modifiant la valeur du paramètre ?animal= pour obtenir différents résultats.
Pour afficher les journaux d'application, procédez comme suit :
- Cliquez sur le bouton ci-dessous pour ouvrir la page "Explorateur de journaux" dans la console Cloud :
- Collez le filtre suivant dans le volet "Requête" (n° 2 dans l'interface de l'explorateur de journaux) :
LOG_ID("run.googleapis.com%2Fstdout") AND severity=DEBUG - Cliquez sur Exécuter la requête.
Le résultat de la requête affiche les journaux avec la réponse du prompt et de Vertex AI, y compris les notes de sécurité.
9. Compter les interactions avec l'IA générative
Cloud Run écrit des métriques gérées qui peuvent être utilisées pour surveiller les services déployés. Les métriques de surveillance gérées par l'utilisateur offrent un meilleur contrôle sur les données et la fréquence de mise à jour des métriques. Pour implémenter une telle métrique, vous devez écrire un code qui collecte les données et les écrit dans Cloud Monitoring. Consultez l'étape suivante (facultative) pour savoir comment l'implémenter à l'aide du SDK OpenTelemetry.
Cette étape montre une alternative à l'implémentation de la métrique utilisateur dans le code : les métriques basées sur les journaux. Les métriques basées sur les journaux vous permettent de générer des métriques de surveillance à partir des entrées de journal que votre application écrit dans Cloud Logging. Nous allons utiliser les journaux d'application que nous avons implémentés à l'étape précédente pour définir une métrique basée sur les journaux de type compteur. Cette métrique comptabilise le nombre d'appels réussis à l'API Vertex.
- Examinez la fenêtre de l'explorateur de journaux que nous avons utilisée à l'étape précédente. Dans le volet "Requête", recherchez le menu déroulant Actions et cliquez dessus pour l'ouvrir. Consultez la capture d'écran ci-dessous pour trouver le menu :

- Dans le menu qui s'ouvre, sélectionnez Créer une métrique pour ouvrir le panneau Créer une métrique basée sur les journaux.
- Pour configurer une métrique de compteur dans le panneau Créer une métrique basée sur les journaux, procédez comme suit :
- Définissez le Type de métrique : sélectionnez Compteur.
- Définissez les champs suivants dans la section Détails :
- Nom de la métrique de journal : définissez le nom sur
model_interaction_count. Certaines restrictions en termes de dénomination s'appliquent. Pour en savoir plus, consultez la section Dépannage. - Description : saisissez une description de la métrique. Par exemple,
Number of log entries capturing successful call to model inference.. - Unités : laissez ce champ vide ou insérez le chiffre
1.
- Nom de la métrique de journal : définissez le nom sur
- Laissez les valeurs dans la section Sélection du filtre. Notez que le champ Créer un filtre contient le même filtre que celui que nous avons utilisé pour afficher les journaux d'application.
- (Facultatif) Ajoutez un libellé qui permet de comptabiliser le nombre d'appels pour chaque animal. REMARQUE : Ce libellé peut augmenter considérablement la cardinalité de la métrique et n'est pas recommandé pour une utilisation en production :
- Cliquez sur Ajouter une étiquette.
- Définissez les champs suivants dans la section Libellés :
- Nom du libellé : définissez le nom sur
animal. - Description : saisissez la description du libellé. Exemple :
Animal parameter - Type de libellé : sélectionnez
STRING. - Nom du champ : saisissez
jsonPayload.animal. - Expression régulière : laissez ce champ vide.
- Nom du libellé : définissez le nom sur
- Cliquez sur Terminé.
- Cliquez sur Créer une métrique pour créer la métrique.
Vous pouvez également créer une métrique basée sur les journaux à partir de la page Métriques basées sur les journaux, à l'aide de la commande CLI gcloud logging metrics create ou de la ressource Terraform google_logging_metric.
Pour générer des données de métriques, ouvrez l'URL du service. Actualisez la page ouverte plusieurs fois pour effectuer plusieurs appels au modèle. Comme précédemment, essayez d'utiliser différents animaux dans le paramètre.
Saisissez la requête PromQL pour rechercher les données de métriques basées sur les journaux. Pour saisir une requête PromQL :
- Cliquez sur le bouton ci-dessous pour ouvrir la page "Explorateur de métriques" dans la console Cloud :
- Dans la barre d'outils du volet de création de requêtes, sélectionnez le bouton nommé < > MQL ou < > PromQL. Pour trouver le bouton, consultez l'image ci-dessous.

- Vérifiez que PromQL est sélectionné dans le bouton d'activation Langage. Le bouton de langage se trouve dans la barre d'outils qui vous permet de mettre en forme votre requête.
- Saisissez votre requête dans l'éditeur Requêtes :
Pour en savoir plus sur l'utilisation de PromQL, consultez PromQL dans Cloud Monitoring.sum(rate(logging_googleapis_com:user_model_interaction_count{monitored_resource="cloud_run_revision"}[${__interval}])) - Cliquez sur Exécuter la requête. Vous verrez un graphique en courbes semblable à celui de cette capture d'écran :

Notez que lorsque le bouton Exécution automatique est activé, le bouton Exécuter la requête ne s'affiche pas.
10. (Facultatif) Utiliser OpenTelemetry pour la surveillance et le traçage
Comme indiqué à l'étape précédente, il est possible d'implémenter des métriques à l'aide du SDK OpenTelemetry (Otel). L'utilisation d'OTel sur les architectures de microservices est une pratique recommandée. Cette étape décrit les éléments suivants :
- Initialisation des composants OTel pour prendre en charge le traçage et la surveillance de l'application
- Remplir la configuration OTel avec les métadonnées de ressources de l'environnement Cloud Run
- Instrumenter une application Flask avec des capacités de traçage automatique
- Implémenter une métrique de compteur pour surveiller le nombre d'appels de modèle réussis
- Corréler le traçage avec les journaux d'application
L'architecture recommandée pour les services au niveau du produit consiste à utiliser le collecteur OTel pour collecter et ingérer toutes les données d'observabilité d'un ou de plusieurs services. Par souci de simplicité, le code de cette étape n'utilise pas le collecteur. Il utilise plutôt des exportations OTel qui écrivent des données directement dans Google Cloud.
Configurer les composants OTel pour le traçage et la surveillance des métriques
- Revenez à la fenêtre (ou à l'onglet) "Cloud Shell" de votre navigateur.
- Installez les packages requis pour utiliser l'instrumentation automatique OpenTelemetry :
npm install @opentelemetry/sdk-node \ @opentelemetry/api \ @opentelemetry/auto-instrumentations-node \ @opentelemetry/instrumentation-express \ @opentelemetry/instrumentation-http \ @opentelemetry/sdk-metrics \ @opentelemetry/sdk-trace-node \ @google-cloud/opentelemetry-cloud-trace-exporter \ @google-cloud/opentelemetry-cloud-monitoring-exporter \ @google-cloud/opentelemetry-resource-util - Dans le terminal, créez un fichier
setup.js:cloudshell edit ~/codelab-o11y/setup.js - Copiez et collez le code ci-dessous dans l'éditeur pour configurer le traçage et la surveillance OpenTelemetry.
const opentelemetry = require("@opentelemetry/api"); const { registerInstrumentations } = require('@opentelemetry/instrumentation'); const { NodeTracerProvider } = require('@opentelemetry/sdk-trace-node'); const { MeterProvider, PeriodicExportingMetricReader } = require("@opentelemetry/sdk-metrics"); const { AlwaysOnSampler, SimpleSpanProcessor } = require('@opentelemetry/sdk-trace-base'); const { Resource } = require('@opentelemetry/resources'); const { ATTR_SERVICE_NAME } = require('@opentelemetry/semantic-conventions'); const { FastifyInstrumentation } = require('@opentelemetry/instrumentation-fastify'); const { HttpInstrumentation } = require('@opentelemetry/instrumentation-http'); const { TraceExporter } = require("@google-cloud/opentelemetry-cloud-trace-exporter"); const { MetricExporter } = require("@google-cloud/opentelemetry-cloud-monitoring-exporter"); const { GcpDetectorSync } = require("@google-cloud/opentelemetry-resource-util"); module.exports = { setupTelemetry }; function setupTelemetry() { const gcpResource = new Resource({ [ATTR_SERVICE_NAME]: process.env.K_SERVICE, }).merge(new GcpDetectorSync().detect()) const tracerProvider = new NodeTracerProvider({ resource: gcpResource, sampler: new AlwaysOnSampler(), spanProcessors: [new SimpleSpanProcessor(new TraceExporter({ // will export all resource attributes that start with "service." resourceFilter: /^service\./ }))], }); registerInstrumentations({ tracerProvider: tracerProvider, instrumentations: [ // Express instrumentation expects HTTP layer to be instrumented new HttpInstrumentation(), new FastifyInstrumentation(), ], }); // Initialize the OpenTelemetry APIs to use the NodeTracerProvider bindings tracerProvider.register(); const meterProvider = new MeterProvider({ resource: gcpResource, readers: [new PeriodicExportingMetricReader({ // Export metrics every second (default quota is 30,000 time series ingestion requests per minute) exportIntervalMillis: 1_000, exporter: new MetricExporter(), })], }); opentelemetry.metrics.setGlobalMeterProvider(meterProvider); } - Revenez au terminal et rouvrez
index.js:cloudshell edit ~/codelab-o11y/index.js - Remplacez le code par la version qui initialise le traçage et la collecte de métriques OpenTelemetry, et qui met également à jour le compteur de performances à chaque exécution réussie. Pour mettre à jour le code, supprimez le contenu du fichier, puis copiez et collez le code ci-dessous :
const { VertexAI } = require('@google-cloud/vertexai'); const { GoogleAuth } = require('google-auth-library'); let generativeModel, traceIdPrefix; const auth = new GoogleAuth(); auth.getProjectId().then(result => { const vertex = new VertexAI({ project: result }); generativeModel = vertex.getGenerativeModel({ model: 'gemini-1.5-flash' }); traceIdPrefix = `projects/${result}/traces/`; }); // setup tracing and monitoring OTel providers const { setupTelemetry }= require('./setup'); setupTelemetry(); const { trace, context } = require('@opentelemetry/api'); function getCurrentSpan() { const current_span = trace.getSpan(context.active()); return { trace_id: current_span.spanContext().traceId, span_id: current_span.spanContext().spanId, flags: current_span.spanContext().traceFlags }; }; const opentelemetry = require("@opentelemetry/api"); const meter = opentelemetry.metrics.getMeter("genai-o11y/nodejs/workshop/example"); const counter = meter.createCounter("model_call_counter"); const fastify = require('fastify')(); const PORT = parseInt(process.env.PORT || '8080'); fastify.get('/', async function (request, reply) { const animal = request.query.animal || 'dog'; const prompt = `Give me 10 fun facts about ${animal}. Return this as html without backticks.` const resp = await generativeModel.generateContent(prompt) const span = getCurrentSpan(); console.log(JSON.stringify({ severity: 'DEBUG', message: 'Content is generated', animal: animal, prompt: prompt, response: resp.response, "logging.googleapis.com/trace": traceIdPrefix + span.trace_id, "logging.googleapis.com/spanId": span.span_id, })); counter.add(1, { animal: animal }); const html = resp.response.candidates[0].content.parts[0].text; reply.type('text/html').send(html); }); fastify.listen({ host: '0.0.0.0', port: PORT }, function (err, address) { if (err) { console.error(err); process.exit(1); } console.log(`codelab-genai: listening on ${address}`); });
L'application utilise désormais le SDK OpenTelemetry pour instrumenter l'exécution du code avec le traçage et pour implémenter le comptage du nombre d'exécutions réussies en tant que métrique. La méthode main() est modifiée pour configurer les exportateurs OpenTelemetry pour les traces et les métriques afin d'écrire directement dans Google Cloud Tracing et Monitoring. Il effectue également des configurations supplémentaires pour remplir les traces et les métriques collectées avec des métadonnées liées à l'environnement Cloud Run. La fonction Handler() est mise à jour pour incrémenter le compteur de métriques chaque fois que l'appel de l'API Vertex AI renvoie des résultats valides.
Au bout de quelques secondes, l'éditeur Cloud Shell enregistre automatiquement vos modifications.
Déployer le code de l'application d'IA générative sur Cloud Run
- Dans la fenêtre de terminal, exécutez la commande pour déployer le code source de l'application sur Cloud Run.
Si une invite semblable à celle ci-dessous s'affiche, vous informant que la commande va créer un dépôt. Cliquez surgcloud run deploy codelab-o11y-service \ --source="${HOME}/codelab-o11y/" \ --region=us-central1 \ --allow-unauthenticatedEnter. Le processus de déploiement peut prendre quelques minutes. Une fois le processus de déploiement terminé, un résultat semblable à celui-ci s'affiche :Deploying from source requires an Artifact Registry Docker repository to store built containers. A repository named [cloud-run-source-deploy] in region [us-central1] will be created. Do you want to continue (Y/n)?
Service [codelab-o11y-service] revision [codelab-o11y-service-00001-t2q] has been deployed and is serving 100 percent of traffic. Service URL: https://codelab-o11y-service-12345678901.us-central1.run.app
- Copiez l'URL du service Cloud Run affichée dans un onglet ou une fenêtre distincts de votre navigateur. Vous pouvez également exécuter la commande suivante dans le terminal pour imprimer l'URL du service, puis cliquer sur l'URL affichée en maintenant la touche Ctrl enfoncée pour l'ouvrir :
Lorsque vous ouvrez l'URL, il est possible que l'erreur 500 s'affiche ou que le message suivant s'affiche :gcloud run services list \ --format='value(URL)' \ --filter='SERVICE:"codelab-o11y-service"' Cela signifie que le déploiement des services n'est pas terminé. Patientez quelques instants, puis actualisez la page. À la fin, vous verrez un texte commençant par Fun Dog Facts (Anecdotes amusantes sur les chiens) et contenant 10 anecdotes amusantes sur les chiens.Sorry, this is just a placeholder...
Pour générer des données de télémétrie, ouvrez l'URL du service. Actualisez la page tout en modifiant la valeur du paramètre ?animal= pour obtenir différents résultats.
Explorer les traces d'application
- Cliquez sur le bouton ci-dessous pour ouvrir la page "Explorateur Trace" dans la console Cloud :
- Sélectionnez l'une des traces les plus récentes. Vous devriez voir cinq ou six étendues semblables à celles de la capture d'écran ci-dessous.

- Recherchez le span qui trace l'appel au gestionnaire d'événements (la méthode
fun_facts). Il s'agit de la dernière étendue portant le nom/. - Dans le volet Détails des traces, sélectionnez Journaux et événements. Vous verrez les journaux d'application qui correspondent à cette étendue spécifique. La corrélation est détectée à l'aide des ID de trace et de délai dans la trace et dans le journal. Vous devriez voir le journal d'application qui a écrit le prompt et la réponse de l'API Vertex.
Explorer la métrique de compteur
- Cliquez sur le bouton ci-dessous pour ouvrir la page "Explorateur de métriques" dans la console Cloud :
- Dans la barre d'outils du volet de création de requêtes, sélectionnez le bouton nommé < > MQL ou < > PromQL. Pour trouver le bouton, consultez l'image ci-dessous.

- Vérifiez que PromQL est sélectionné dans le bouton d'activation Langage. Le bouton de langage se trouve dans la barre d'outils qui vous permet de mettre en forme votre requête.
- Saisissez votre requête dans l'éditeur Requêtes :
sum(rate(workload_googleapis_com:model_call_counter{monitored_resource="generic_task"}[${__interval}])) - Cliquez sur Exécuter la requête.Lorsque l'option Exécution automatique est activée, le bouton Exécuter la requête ne s'affiche pas.
11. (Facultatif) Informations sensibles masquées dans les journaux
À l'étape 10, nous avons consigné des informations sur l'interaction de l'application avec le modèle Gemini. Ces informations incluaient le nom de l'animal, la requête réelle et la réponse du modèle. Bien que le stockage de ces informations dans le journal soit généralement sûr, ce n'est pas le cas dans de nombreux autres scénarios. La requête peut inclure des informations personnelles ou sensibles qu'un utilisateur ne souhaite pas voir stockées. Pour résoudre ce problème, vous pouvez obscurcir les données sensibles écrites dans Cloud Logging. Pour minimiser les modifications de code, nous vous recommandons la solution suivante.
- Créer un sujet Pub/Sub pour stocker les entrées de journal entrantes
- Créez un récepteur de journaux qui redirige les journaux ingérés vers un sujet Pub/Sub.
- Créez un pipeline Dataflow qui modifie les journaux redirigés vers un sujet Pub/Sub en procédant comme suit :
- Lire une entrée de journal à partir du sujet Pub/Sub
- Inspecter la charge utile de l'entrée pour détecter des informations sensibles à l'aide de l'API d'inspection DLP
- Masquez les informations sensibles dans la charge utile à l'aide de l'une des méthodes de masquage DLP.
- Écrire l'entrée de journal obscurcie dans Cloud Logging
- Déployer le pipeline
12. (Facultatif) Effectuer un nettoyage
Pour éviter tout risque de facturation des ressources et des API utilisées dans l'atelier de programmation, il est recommandé de les nettoyer une fois l'atelier terminé. Le moyen le plus simple d'empêcher la facturation est de supprimer le projet que vous avez créé pour l'atelier de programmation.
- Pour supprimer le projet, exécutez la commande de suppression de projet dans le terminal :
La suppression de votre projet Cloud arrête la facturation de toutes les ressources et API utilisées dans ce projet. Le message suivant doit s'afficher, oùPROJECT_ID=$(gcloud config get-value project) gcloud projects delete ${PROJECT_ID} --quietPROJECT_IDcorrespond à l'ID de votre projet :Deleted [https://cloudresourcemanager.googleapis.com/v1/projects/PROJECT_ID]. You can undo this operation for a limited period by running the command below. $ gcloud projects undelete PROJECT_ID See https://cloud.google.com/resource-manager/docs/creating-managing-projects for information on shutting down projects. - (Facultatif) Si vous recevez un message d'erreur, consultez l'étape 5 pour trouver l'ID de projet que vous avez utilisé pendant l'atelier. Remplacez-le dans la commande de la première instruction. Par exemple, si l'ID de votre projet est
lab-example-project, la commande sera la suivante :gcloud projects delete lab-project-id-example --quiet
13. Félicitations
Dans cet atelier, vous avez créé une application d'IA générative qui utilise le modèle Gemini pour faire des prédictions. Nous avons instrumenté l'application avec des fonctionnalités de surveillance et de journalisation de base. Vous avez déployé l'application et les modifications du code source sur Cloud Run. Ensuite, vous utiliserez les produits Google Cloud Observability pour suivre les performances de l'application et vous assurer de sa fiabilité.
Si vous souhaitez participer à une étude sur l'expérience utilisateur (UX) pour améliorer les produits que vous avez utilisés aujourd'hui, inscrivez-vous ici.
Voici quelques options pour continuer à vous former :
- Atelier de programmation Déployer une application de chat optimisée par Gemini sur Cloud Run
- Atelier de programmation Utiliser l'appel de fonction Gemini avec Cloud Run
- Utiliser l'API Cloud Run Jobs Video Intelligence pour traiter une vidéo scène par scène
- Atelier à la demande Intégration de Google Kubernetes Engine
- En savoir plus sur la configuration des métriques de compteur et de distribution à l'aide des journaux d'application
- Écrire des métriques OTLP à l'aide d'un side-car OpenTelemetry
- Référence à l'utilisation d'Open Telemetry dans Google Cloud