1. Ringkasan
Aplikasi AI generatif memerlukan kemampuan observasi seperti aplikasi lainnya. Apakah ada teknik pengamatan khusus yang diperlukan untuk AI Generatif?
Di lab ini, Anda akan membuat aplikasi AI Generatif sederhana. Deploy ke Cloud Run. Selain itu, lengkapi dengan kemampuan pemantauan dan logging penting menggunakan produk dan layanan observabilitas Google Cloud.
Yang akan Anda pelajari
- Menulis aplikasi yang menggunakan Vertex AI dengan Cloud Shell Editor
- Menyimpan kode aplikasi Anda di GitHub
- Gunakan gcloud CLI untuk men-deploy kode sumber aplikasi Anda ke Cloud Run
- Menambahkan kemampuan pemantauan dan logging ke aplikasi AI Generatif Anda
- Menggunakan metrik berbasis log
- Menerapkan logging dan pemantauan dengan Open Telemetry SDK
- Mendapatkan insight tentang penanganan data AI yang bertanggung jawab
2. Prasyarat
Jika Anda belum memiliki Akun Google, Anda harus membuat akun baru.
3. Penyiapan project
- Login ke Konsol Google Cloud dengan Akun Google Anda.
- Buat project baru atau pilih untuk menggunakan kembali project yang ada. Tuliskan project ID dari project yang baru saja Anda buat atau pilih.
- Aktifkan penagihan untuk project.
- Menyelesaikan lab ini akan dikenai biaya penagihan kurang dari $5.
- Anda dapat mengikuti langkah-langkah di akhir lab ini untuk menghapus resource agar tidak dikenai biaya lebih lanjut.
- Pengguna baru memenuhi syarat untuk mengikuti Uji Coba Gratis senilai$300 USD.
- Konfirmasi bahwa penagihan diaktifkan di Project saya di Penagihan Cloud
- Jika project baru Anda bertuliskan
Billing is disableddi kolomBilling account:- Klik tiga titik di kolom
Actions - Klik Ubah penagihan
- Pilih akun penagihan yang ingin Anda gunakan
- Klik tiga titik di kolom
- Jika Anda menghadiri acara live, akun tersebut kemungkinan akan diberi nama Akun Penagihan Uji Coba Google Cloud Platform
- Jika project baru Anda bertuliskan
4. Menyiapkan Cloud Shell Editor
- Buka Cloud Shell Editor. Jika Anda diminta dengan pesan berikut, yang meminta untuk mengizinkan cloud shell memanggil gcloud dengan kredensial Anda, klik Authorize untuk melanjutkan.

- Buka jendela terminal
- Klik menu tiga garis

- Klik Terminal
- Klik New Terminal

- Klik menu tiga garis
- Di terminal, konfigurasi project ID Anda:
Gantigcloud config set project [PROJECT_ID][PROJECT_ID]dengan ID project Anda. Misalnya, jika project ID Anda adalahlab-example-project, perintahnya adalah: Jika Anda melihat pesan berikut, yang menyatakan bahwa gcloud meminta kredensial Anda ke GCPI API, klik Authorize untuk melanjutkan.gcloud config set project lab-project-id-example

Setelah berhasil dieksekusi, Anda akan melihat pesan berikut: Jika Anda melihatUpdated property [core/project].
WARNINGdan dimintaDo you want to continue (Y/N)?, berarti Anda kemungkinan telah memasukkan ID project dengan salah. TekanN, tekanEnter, lalu coba jalankan perintahgcloud config set projectlagi setelah Anda menemukan project ID yang benar. - (Opsional) Jika Anda mengalami masalah dalam menemukan project ID, jalankan perintah berikut untuk melihat project ID semua project Anda yang diurutkan berdasarkan waktu pembuatan dalam urutan menurun:
gcloud projects list \ --format='value(projectId,createTime)' \ --sort-by=~createTime
5. Mengaktifkan Google API
Di terminal, aktifkan Google API yang diperlukan untuk lab ini:
gcloud services enable \
run.googleapis.com \
cloudbuild.googleapis.com \
aiplatform.googleapis.com \
logging.googleapis.com \
monitoring.googleapis.com \
cloudtrace.googleapis.com
Perintah ini akan memerlukan waktu beberapa saat untuk diselesaikan. Pada akhirnya, pesan sukses yang mirip dengan yang berikut ini akan ditampilkan:
Operation "operations/acf.p2-73d90d00-47ee-447a-b600" finished successfully.
Jika Anda menerima pesan error yang diawali dengan ERROR: (gcloud.services.enable) HttpError accessing dan berisi detail error seperti di bawah, coba lagi perintah setelah jeda 1-2 menit.
"error": {
"code": 429,
"message": "Quota exceeded for quota metric 'Mutate requests' and limit 'Mutate requests per minute' of service 'serviceusage.googleapis.com' ...",
"status": "RESOURCE_EXHAUSTED",
...
}
6. Membuat aplikasi Gen AI NodeJS
Pada langkah ini, Anda akan menulis kode aplikasi sederhana berbasis permintaan yang menggunakan model Gemini untuk menampilkan 10 fakta menarik tentang hewan pilihan Anda. Lakukan langkah-langkah berikut untuk membuat kode aplikasi.
- Di terminal, buat direktori
codelab-o11y:mkdir ~/codelab-o11y - Ubah direktori saat ini menjadi
codelab-o11y:cd ~/codelab-o11y - Lakukan inisialisasi
package.jsonaplikasi NodeJS:npm init -y - Instal paket
fastify:npm install fastify - Instal paket Cloud SDK untuk autentikasi dan bekerja dengan Vertex AI:
npm install google-auth-library @google-cloud/vertexai - Buat file
index.jsdan buka file di Cloud Shell Editor: File kosong akan muncul di jendela editor di atas terminal. Layar Anda akan terlihat seperti berikut:cloudshell edit index.js
- Salin kode berikut dan tempelkan ke dalam file
index.jsyang terbuka: Setelah beberapa detik, Cloud Shell Editor akan menyimpan kode Anda secara otomatis.const { VertexAI } = require('@google-cloud/vertexai'); const { GoogleAuth } = require('google-auth-library'); let generativeModel; const auth = new GoogleAuth(); auth.getProjectId().then(result => { const vertex = new VertexAI({ project: result }); generativeModel = vertex.getGenerativeModel({ model: 'gemini-1.5-flash' }); }); const fastify = require('fastify')(); const PORT = parseInt(process.env.PORT || '8080'); fastify.get('/', async function (request, reply) { const animal = request.query.animal || 'dog'; const prompt = `Give me 10 fun facts about ${animal}. Return this as html without backticks.` const resp = await generativeModel.generateContent(prompt); const html = resp.response.candidates[0].content.parts[0].text; reply.type('text/html').send(html); }) fastify.listen({ host: '0.0.0.0', port: PORT }, function (err, address) { if (err) { console.error(err); process.exit(1); } console.log(`codelab-genai: listening on ${address}`); })
Men-deploy kode aplikasi AI Generatif ke Cloud Run
- Di jendela terminal, jalankan perintah untuk men-deploy kode sumber aplikasi ke Cloud Run.
Jika Anda melihat perintah seperti di bawah, yang memberi tahu Anda bahwa perintah tersebut akan membuat repositori baru. Klikgcloud run deploy codelab-o11y-service \ --source="${HOME}/codelab-o11y/" \ --region=us-central1 \ --allow-unauthenticatedEnter. Proses deployment dapat memerlukan waktu hingga beberapa menit. Setelah proses deployment selesai, Anda akan melihat output seperti:Deploying from source requires an Artifact Registry Docker repository to store built containers. A repository named [cloud-run-source-deploy] in region [us-central1] will be created. Do you want to continue (Y/n)?
Service [codelab-o11y-service] revision [codelab-o11y-service-00001-t2q] has been deployed and is serving 100 percent of traffic. Service URL: https://codelab-o11y-service-12345678901.us-central1.run.app
- Salin URL layanan Cloud Run yang ditampilkan ke tab atau jendela terpisah di browser Anda. Atau, jalankan perintah berikut di terminal untuk mencetak URL layanan dan klik URL yang ditampilkan sambil menahan tombol Ctrl untuk membuka URL:
Saat URL dibuka, Anda mungkin mendapatkan error 500 atau melihat pesan:gcloud run services list \ --format='value(URL)' \ --filter='SERVICE:"codelab-o11y-service"' Artinya, layanan tidak menyelesaikan deployment-nya. Tunggu beberapa saat, lalu muat ulang halaman. Di akhir, Anda akan melihat teks yang dimulai dengan Fakta Menarik tentang dan berisi 10 fakta menarik tentang.Sorry, this is just a placeholder...
Coba berinteraksi dengan aplikasi untuk mendapatkan fakta menarik tentang berbagai hewan. Untuk melakukannya, tambahkan parameter animal ke URL, seperti ?animal=[ANIMAL] dengan [ANIMAL] adalah nama hewan. Misalnya, tambahkan ?animal=cat untuk mendapatkan 10 fakta menarik tentang kucing atau ?animal=sea turtle untuk mendapatkan 10 fakta menarik tentang penyu.
7. Mengaudit panggilan Vertex API Anda
Mengaudit panggilan Google API memberikan jawaban atas pertanyaan seperti "Siapa yang memanggil API tertentu, di mana, dan kapan?". Audit penting saat Anda memecahkan masalah aplikasi, menyelidiki konsumsi resource, atau melakukan analisis forensik software.
Log audit memungkinkan Anda melacak aktivitas administratif dan sistem, serta mencatat panggilan ke operasi API "baca data" dan "tulis data". Untuk mengaudit permintaan Vertex AI guna membuat konten, Anda harus mengaktifkan log audit "Data Read" di Konsol Cloud.
- Klik tombol di bawah untuk membuka halaman Log Audit di Konsol Cloud
- Pastikan halaman menampilkan project yang Anda buat untuk lab ini. Project yang dipilih ditampilkan di pojok kiri atas halaman tepat dari menu hamburger:

Jika perlu, pilih project yang benar dari kotak kombinasi. - Di tabel Konfigurasi log audit Akses Data, di kolom Layanan, temukan layanan
Vertex AI APIdan pilih layanan tersebut dengan mencentang kotak yang berada di sebelah kiri nama layanan.
- Di panel info di sebelah kanan, pilih jenis audit "Data Read".

- Klik Simpan.
Untuk membuat log audit, buka URL layanan. Muat ulang halaman sambil mengubah nilai parameter ?animal= untuk mendapatkan hasil yang berbeda.
Menjelajahi log audit
- Klik tombol di bawah untuk membuka halaman Logs Explorer di konsol Cloud:
- Tempel filter berikut ke panel Kueri.
Panel Kueri adalah editor yang terletak di dekat bagian atas halaman Logs Explorer:LOG_ID("cloudaudit.googleapis.com%2Fdata_access") AND protoPayload.serviceName="aiplatform.googleapis.com"
- Klik Run query.
- Pilih salah satu entri log audit dan luaskan kolom untuk memeriksa informasi yang tercatat dalam log.
Anda dapat melihat detail tentang panggilan Vertex API, termasuk metode dan model yang digunakan. Anda juga dapat melihat identitas pemanggil dan izin apa yang mengizinkan panggilan.
8. Mencatat interaksi dengan AI Generatif
Anda tidak akan menemukan parameter permintaan API atau data respons dalam log audit. Namun, informasi ini dapat menjadi penting untuk memecahkan masalah analisis aplikasi dan alur kerja. Pada langkah ini, kita akan mengisi kesenjangan ini dengan menambahkan logging aplikasi. Logging menggunakan metode logging standar NodeJS console.log untuk menulis log terstruktur ke output standar. Metode ini menampilkan kemampuan Cloud Run untuk merekam informasi yang dicetak ke output standar dan memasukkannya ke Cloud Logging secara otomatis. Untuk merekam log terstruktur dengan benar, log yang dicetak harus diformat dengan tepat. Ikuti petunjuk di bawah untuk menambahkan kemampuan logging terstruktur ke aplikasi NodeJS kita.
- Kembali ke jendela (atau tab) 'Cloud Shell' di browser Anda.
- Di terminal, buka kembali
index.js:cloudshell edit ~/codelab-o11y/index.js - Lakukan langkah-langkah berikut untuk mencatat respons model:
- Temukan panggilan ke
await generativeModel.generateContent()(di baris 20). - Salin dan tempel kode di bawah di awal baris berikutnya.
console.log(JSON.stringify({ severity: 'DEBUG', message: 'Content is generated', animal: animal, prompt: prompt, response: resp.response, }));
- Temukan panggilan ke
Fungsi handler diubah untuk memanggil console.log() guna mencetak struktur JSON yang skemanya mengikuti pedoman pemformatan terstruktur. Log mencatat parameter hewan dari permintaan serta perintah dan respons model.
Setelah beberapa detik, Cloud Shell Editor akan menyimpan perubahan Anda secara otomatis.
Men-deploy kode aplikasi AI Generatif ke Cloud Run
- Di jendela terminal, jalankan perintah untuk men-deploy kode sumber aplikasi ke Cloud Run.
Jika Anda melihat perintah seperti di bawah, yang memberi tahu Anda bahwa perintah tersebut akan membuat repositori baru. Klikgcloud run deploy codelab-o11y-service \ --source="${HOME}/codelab-o11y/" \ --region=us-central1 \ --allow-unauthenticatedEnter. Proses deployment dapat memerlukan waktu hingga beberapa menit. Setelah proses deployment selesai, Anda akan melihat output seperti:Deploying from source requires an Artifact Registry Docker repository to store built containers. A repository named [cloud-run-source-deploy] in region [us-central1] will be created. Do you want to continue (Y/n)?
Service [codelab-o11y-service] revision [codelab-o11y-service-00001-t2q] has been deployed and is serving 100 percent of traffic. Service URL: https://codelab-o11y-service-12345678901.us-central1.run.app
- Salin URL layanan Cloud Run yang ditampilkan ke tab atau jendela terpisah di browser Anda. Atau, jalankan perintah berikut di terminal untuk mencetak URL layanan dan klik URL yang ditampilkan sambil menahan tombol Ctrl untuk membuka URL:
Saat URL dibuka, Anda mungkin mendapatkan error 500 atau melihat pesan:gcloud run services list \ --format='value(URL)' \ --filter='SERVICE:"codelab-o11y-service"' Artinya, layanan tidak menyelesaikan deployment-nya. Tunggu beberapa saat, lalu muat ulang halaman. Di akhir, Anda akan melihat teks yang dimulai dengan Fakta Menarik tentang dan berisi 10 fakta menarik tentang.Sorry, this is just a placeholder...
Untuk membuat log aplikasi, buka URL layanan. Muat ulang halaman sambil mengubah nilai parameter ?animal= untuk mendapatkan hasil yang berbeda.
Untuk melihat log aplikasi, lakukan hal berikut:
- Klik tombol di bawah untuk membuka halaman Logs Explorer di Konsol Cloud:
- Tempel filter berikut ke panel Kueri (#2 di antarmuka Log explorer):
LOG_ID("run.googleapis.com%2Fstdout") AND severity=DEBUG - Klik Run query.
Hasil kueri menampilkan log dengan prompt dan respons Vertex AI, termasuk peringkat keamanan.
9. Menghitung interaksi dengan AI Generatif
Cloud Run menulis metrik terkelola yang dapat digunakan untuk memantau layanan yang di-deploy. Metrik pemantauan yang dikelola pengguna memberikan kontrol yang lebih besar atas data dan frekuensi pembaruan metrik. Untuk menerapkan metrik tersebut, Anda perlu menulis kode yang mengumpulkan data dan menuliskannya ke Cloud Monitoring. Lihat langkah berikutnya (opsional) untuk mengetahui cara menerapkannya menggunakan OpenTelemetry SDK.
Langkah ini menunjukkan alternatif untuk menerapkan metrik pengguna dalam kode - metrik berbasis log. Metrik berbasis log memungkinkan Anda membuat metrik pemantauan dari entri log yang ditulis aplikasi Anda ke Cloud Logging. Kita akan menggunakan log aplikasi yang kita terapkan di langkah sebelumnya untuk menentukan metrik berbasis log dari penghitung jenis. Metrik ini akan menghitung jumlah panggilan yang berhasil ke Vertex API.
- Lihat jendela Logs Explorer yang kita gunakan pada langkah sebelumnya. Di bagian panel Kueri, cari menu drop-down Tindakan, lalu klik untuk membukanya. Lihat screenshot di bawah untuk menemukan menu:

- Di menu yang terbuka, pilih Create metric untuk membuka panel Create log-based metric.
- Ikuti langkah-langkah berikut untuk mengonfigurasi metrik penghitung baru di panel Buat metrik berbasis log:
- Tetapkan Jenis metrik: Pilih Penghitung.
- Tetapkan kolom berikut di bagian Detail:
- Nama metrik log: Tetapkan nama ke
model_interaction_count. Beberapa batasan penamaan berlaku; Lihat Pemecahan masalah batasan penamaan untuk mengetahui detailnya. - Deskripsi: Masukkan deskripsi untuk metrik. Misalnya,
Number of log entries capturing successful call to model inference. - Unit: Biarkan kosong atau masukkan digit
1.
- Nama metrik log: Tetapkan nama ke
- Biarkan nilai di bagian Filter selection. Perhatikan bahwa kolom Build filter memiliki filter yang sama dengan yang kita gunakan untuk melihat log aplikasi.
- (Opsional) Tambahkan label yang membantu menghitung jumlah panggilan untuk setiap hewan. CATATAN: label ini berpotensi meningkatkan kardinalitas metrik secara signifikan dan tidak direkomendasikan untuk digunakan dalam produksi:
- Klik Tambahkan label.
- Tetapkan kolom berikut di bagian Label:
- Nama label: Tetapkan nama ke
animal. - Deskripsi: Masukkan deskripsi label. Misalnya,
Animal parameter. - Jenis label: Pilih
STRING. - Nama kolom: Ketik
jsonPayload.animal. - Ekspresi reguler: Biarkan kosong.
- Nama label: Tetapkan nama ke
- Klik Selesai
- Klik Buat metrik untuk membuat metrik.
Anda juga dapat membuat metrik berbasis log dari halaman Metrik berbasis log, menggunakan gcloud logging metrics create perintah CLI atau dengan google_logging_metric resource Terraform.
Untuk membuat data metrik, buka URL layanan. Muat ulang halaman yang dibuka beberapa kali untuk melakukan beberapa panggilan ke model. Seperti sebelumnya, coba gunakan hewan yang berbeda dalam parameter.
Masukkan kueri PromQL untuk menelusuri data metrik berbasis log. Untuk memasukkan kueri PromQL, lakukan hal berikut:
- Klik tombol di bawah untuk membuka halaman Metrics explorer di Konsol Cloud:
- Di toolbar panel pembuat kueri, pilih tombol yang namanya < > MQL atau < > PromQL. Lihat gambar di bawah untuk mengetahui lokasi tombol.

- Pastikan PromQL dipilih di tombol Language. Tombol bahasa ada di toolbar yang sama yang memungkinkan Anda memformat kueri.
- Masukkan kueri Anda ke editor Queries:
Untuk mengetahui informasi selengkapnya tentang penggunaan PromQL, lihat PromQL di Cloud Monitoring.sum(rate(logging_googleapis_com:user_model_interaction_count{monitored_resource="cloud_run_revision"}[${__interval}])) - Klik Run Query. Anda akan melihat diagram garis yang mirip dengan screenshot ini:

Perhatikan bahwa saat tombol Jalankan otomatis diaktifkan, tombol Jalankan Kueri tidak ditampilkan.
10. (Opsional) Menggunakan Open Telemetry untuk pemantauan dan perekaman aktivitas
Seperti yang disebutkan pada langkah sebelumnya, metrik dapat diterapkan menggunakan OpenTelemetry (Otel) SDK. Menggunakan OTel pada arsitektur microservice adalah praktik yang direkomendasikan. Langkah ini menjelaskan hal berikut:
- Menginisialisasi komponen OTel untuk mendukung pelacakan dan pemantauan aplikasi
- Mengisi konfigurasi OTel dengan metadata resource lingkungan Cloud Run
- Menginstrumentasi aplikasi flask dengan kemampuan pelacakan otomatis
- Menerapkan metrik penghitung untuk memantau jumlah panggilan model yang berhasil
- Menghubungkan rekaman aktivitas dengan log aplikasi
Arsitektur yang direkomendasikan untuk layanan tingkat produk adalah menggunakan pengumpul OTel untuk mengumpulkan dan menyerap semua data keobservasian untuk satu atau beberapa layanan. Kode dalam langkah ini tidak menggunakan pengumpul agar lebih praktis. Sebagai gantinya, library ini menggunakan ekspor OTel yang menulis data langsung ke Google Cloud.
Menyiapkan komponen OTel untuk pelacakan dan pemantauan metrik
- Kembali ke jendela (atau tab) 'Cloud Shell' di browser Anda.
- Instal paket yang diperlukan untuk menggunakan instrumentasi otomatis OpenTelemetry:
npm install @opentelemetry/sdk-node \ @opentelemetry/api \ @opentelemetry/auto-instrumentations-node \ @opentelemetry/instrumentation-express \ @opentelemetry/instrumentation-http \ @opentelemetry/sdk-metrics \ @opentelemetry/sdk-trace-node \ @google-cloud/opentelemetry-cloud-trace-exporter \ @google-cloud/opentelemetry-cloud-monitoring-exporter \ @google-cloud/opentelemetry-resource-util - Di terminal, buat file
setup.jsbaru:cloudshell edit ~/codelab-o11y/setup.js - Salin dan tempel kode di bawah ke editor untuk menyiapkan pelacakan dan pemantauan OpenTelemetry.
const opentelemetry = require("@opentelemetry/api"); const { registerInstrumentations } = require('@opentelemetry/instrumentation'); const { NodeTracerProvider } = require('@opentelemetry/sdk-trace-node'); const { MeterProvider, PeriodicExportingMetricReader } = require("@opentelemetry/sdk-metrics"); const { AlwaysOnSampler, SimpleSpanProcessor } = require('@opentelemetry/sdk-trace-base'); const { Resource } = require('@opentelemetry/resources'); const { ATTR_SERVICE_NAME } = require('@opentelemetry/semantic-conventions'); const { FastifyInstrumentation } = require('@opentelemetry/instrumentation-fastify'); const { HttpInstrumentation } = require('@opentelemetry/instrumentation-http'); const { TraceExporter } = require("@google-cloud/opentelemetry-cloud-trace-exporter"); const { MetricExporter } = require("@google-cloud/opentelemetry-cloud-monitoring-exporter"); const { GcpDetectorSync } = require("@google-cloud/opentelemetry-resource-util"); module.exports = { setupTelemetry }; function setupTelemetry() { const gcpResource = new Resource({ [ATTR_SERVICE_NAME]: process.env.K_SERVICE, }).merge(new GcpDetectorSync().detect()) const tracerProvider = new NodeTracerProvider({ resource: gcpResource, sampler: new AlwaysOnSampler(), spanProcessors: [new SimpleSpanProcessor(new TraceExporter({ // will export all resource attributes that start with "service." resourceFilter: /^service\./ }))], }); registerInstrumentations({ tracerProvider: tracerProvider, instrumentations: [ // Express instrumentation expects HTTP layer to be instrumented new HttpInstrumentation(), new FastifyInstrumentation(), ], }); // Initialize the OpenTelemetry APIs to use the NodeTracerProvider bindings tracerProvider.register(); const meterProvider = new MeterProvider({ resource: gcpResource, readers: [new PeriodicExportingMetricReader({ // Export metrics every second (default quota is 30,000 time series ingestion requests per minute) exportIntervalMillis: 1_000, exporter: new MetricExporter(), })], }); opentelemetry.metrics.setGlobalMeterProvider(meterProvider); } - Kembali ke terminal, lalu buka kembali
index.js:cloudshell edit ~/codelab-o11y/index.js - Ganti kode dengan versi yang menginisialisasi pengumpulan metrik dan pelacakan OpenTelemetry, serta memperbarui penghitung performa pada setiap eksekusi yang berhasil. Untuk memperbarui kode, hapus konten file, lalu salin dan tempel kode di bawah:
const { VertexAI } = require('@google-cloud/vertexai'); const { GoogleAuth } = require('google-auth-library'); let generativeModel, traceIdPrefix; const auth = new GoogleAuth(); auth.getProjectId().then(result => { const vertex = new VertexAI({ project: result }); generativeModel = vertex.getGenerativeModel({ model: 'gemini-1.5-flash' }); traceIdPrefix = `projects/${result}/traces/`; }); // setup tracing and monitoring OTel providers const { setupTelemetry }= require('./setup'); setupTelemetry(); const { trace, context } = require('@opentelemetry/api'); function getCurrentSpan() { const current_span = trace.getSpan(context.active()); return { trace_id: current_span.spanContext().traceId, span_id: current_span.spanContext().spanId, flags: current_span.spanContext().traceFlags }; }; const opentelemetry = require("@opentelemetry/api"); const meter = opentelemetry.metrics.getMeter("genai-o11y/nodejs/workshop/example"); const counter = meter.createCounter("model_call_counter"); const fastify = require('fastify')(); const PORT = parseInt(process.env.PORT || '8080'); fastify.get('/', async function (request, reply) { const animal = request.query.animal || 'dog'; const prompt = `Give me 10 fun facts about ${animal}. Return this as html without backticks.` const resp = await generativeModel.generateContent(prompt) const span = getCurrentSpan(); console.log(JSON.stringify({ severity: 'DEBUG', message: 'Content is generated', animal: animal, prompt: prompt, response: resp.response, "logging.googleapis.com/trace": traceIdPrefix + span.trace_id, "logging.googleapis.com/spanId": span.span_id, })); counter.add(1, { animal: animal }); const html = resp.response.candidates[0].content.parts[0].text; reply.type('text/html').send(html); }); fastify.listen({ host: '0.0.0.0', port: PORT }, function (err, address) { if (err) { console.error(err); process.exit(1); } console.log(`codelab-genai: listening on ${address}`); });
Aplikasi kini menggunakan OpenTelemetry SDK untuk mengukur eksekusi kode dengan tracing dan menerapkan penghitungan jumlah eksekusi yang berhasil sebagai metrik. Metode main() diubah untuk menyiapkan pengekspor OpenTelemetry untuk trace dan metrik agar dapat menulis langsung ke Google Cloud Tracing dan Monitoring. Selain itu, library ini melakukan konfigurasi tambahan untuk mengisi data metrik dan rekaman aktivitas yang dikumpulkan dengan metadata terkait lingkungan Cloud Run. Fungsi Handler() diperbarui untuk menambah penghitung metrik setiap kali panggilan Vertex AI API menampilkan hasil yang valid.
Setelah beberapa detik, Cloud Shell Editor akan menyimpan perubahan Anda secara otomatis.
Men-deploy kode aplikasi AI Generatif ke Cloud Run
- Di jendela terminal, jalankan perintah untuk men-deploy kode sumber aplikasi ke Cloud Run.
Jika Anda melihat perintah seperti di bawah, yang memberi tahu Anda bahwa perintah tersebut akan membuat repositori baru. Klikgcloud run deploy codelab-o11y-service \ --source="${HOME}/codelab-o11y/" \ --region=us-central1 \ --allow-unauthenticatedEnter. Proses deployment dapat memerlukan waktu hingga beberapa menit. Setelah proses deployment selesai, Anda akan melihat output seperti:Deploying from source requires an Artifact Registry Docker repository to store built containers. A repository named [cloud-run-source-deploy] in region [us-central1] will be created. Do you want to continue (Y/n)?
Service [codelab-o11y-service] revision [codelab-o11y-service-00001-t2q] has been deployed and is serving 100 percent of traffic. Service URL: https://codelab-o11y-service-12345678901.us-central1.run.app
- Salin URL layanan Cloud Run yang ditampilkan ke tab atau jendela terpisah di browser Anda. Atau, jalankan perintah berikut di terminal untuk mencetak URL layanan dan klik URL yang ditampilkan sambil menahan tombol Ctrl untuk membuka URL:
Saat URL dibuka, Anda mungkin mendapatkan error 500 atau melihat pesan:gcloud run services list \ --format='value(URL)' \ --filter='SERVICE:"codelab-o11y-service"' Artinya, layanan tidak menyelesaikan deployment-nya. Tunggu beberapa saat, lalu muat ulang halaman. Di akhir, Anda akan melihat teks yang dimulai dengan Fakta Menarik tentang dan berisi 10 fakta menarik tentang.Sorry, this is just a placeholder...
Untuk membuat data telemetri, buka URL layanan. Muat ulang halaman sambil mengubah nilai parameter ?animal= untuk mendapatkan hasil yang berbeda.
Menjelajahi rekaman aktivitas aplikasi
- Klik tombol di bawah untuk membuka halaman Trace Explorer di Konsol Cloud:
- Pilih salah satu rekaman aktivitas terbaru. Anda akan melihat 5 atau 6 rentang yang terlihat seperti pada screenshot di bawah.

- Temukan rentang yang melacak panggilan ke pengendali peristiwa (metode
fun_facts). Ini akan menjadi rentang terakhir dengan nama/. - Di panel Detail rekaman aktivitas, pilih Log & peristiwa. Anda akan melihat log aplikasi yang berkorelasi dengan rentang tertentu ini. Korelasi terdeteksi menggunakan ID trace dan span dalam trace dan dalam log. Anda akan melihat log aplikasi yang menulis perintah dan respons Vertex API.
Mempelajari metrik penghitung
- Klik tombol di bawah untuk membuka halaman Metrics explorer di Konsol Cloud:
- Di toolbar panel pembuat kueri, pilih tombol yang namanya < > MQL atau < > PromQL. Lihat gambar di bawah untuk mengetahui lokasi tombol.

- Pastikan PromQL dipilih di tombol Language. Tombol bahasa ada di toolbar yang sama yang memungkinkan Anda memformat kueri.
- Masukkan kueri Anda ke editor Queries:
sum(rate(workload_googleapis_com:model_call_counter{monitored_resource="generic_task"}[${__interval}])) - Klik Run Query.Jika tombol Auto-run diaktifkan, tombol Run Query tidak akan ditampilkan.
11. (Opsional) Informasi sensitif yang di-obfuscate dari log
Pada Langkah 10, kita mencatat informasi tentang interaksi aplikasi dengan model Gemini. Informasi ini mencakup nama hewan, perintah sebenarnya, dan respons model. Meskipun menyimpan informasi ini dalam log seharusnya aman, hal ini tidak selalu benar untuk banyak skenario lainnya. Perintah dapat mencakup beberapa informasi pribadi atau sensitif lainnya yang tidak ingin disimpan oleh pengguna. Untuk mengatasi hal ini, Anda dapat meng-obfuscate data sensitif yang ditulis ke Cloud Logging. Untuk meminimalkan modifikasi kode, sebaiknya gunakan solusi berikut.
- Buat topik PubSub untuk menyimpan entri log masuk
- Buat sink log yang mengalihkan log yang di-ingest ke topik PubSub.
- Buat pipeline Dataflow yang mengubah log yang dialihkan ke topik PubSub dengan mengikuti langkah-langkah berikut:
- Membaca entri log dari topik PubSub
- Periksa payload entri untuk menemukan informasi sensitif menggunakan DLP inspection API
- Samarkan informasi sensitif dalam payload menggunakan salah satu metode penyamaran DLP
- Menulis entri log yang di-obfuscate ke Cloud Logging
- Men-deploy pipeline
12. (Opsional) Membersihkan
Untuk menghindari risiko dikenai biaya untuk resource dan API yang digunakan dalam codelab, sebaiknya lakukan pembersihan setelah Anda menyelesaikan lab. Cara termudah untuk menghilangkan penagihan adalah dengan menghapus project yang Anda buat untuk codelab.
- Untuk menghapus project, jalankan perintah hapus project di terminal:
Menghapus project Cloud akan menghentikan penagihan untuk semua resource dan API yang digunakan dalam project tersebut. Anda akan melihat pesan ini denganPROJECT_ID=$(gcloud config get-value project) gcloud projects delete ${PROJECT_ID} --quietPROJECT_IDsebagai project ID Anda:Deleted [https://cloudresourcemanager.googleapis.com/v1/projects/PROJECT_ID]. You can undo this operation for a limited period by running the command below. $ gcloud projects undelete PROJECT_ID See https://cloud.google.com/resource-manager/docs/creating-managing-projects for information on shutting down projects. - (Opsional) Jika Anda menerima error, lihat Langkah 5 untuk menemukan project ID yang Anda gunakan selama lab. Ganti dengan perintah pada petunjuk pertama. Misalnya, jika project ID Anda adalah
lab-example-project, perintahnya adalah:gcloud projects delete lab-project-id-example --quiet
13. Selamat
Di lab ini, Anda telah membuat aplikasi AI Generatif yang menggunakan model Gemini untuk membuat prediksi. Dan menginstrumentasikan aplikasi dengan kemampuan pemantauan dan logging penting. Anda telah men-deploy aplikasi dan perubahan dari kode sumber ke Cloud Run. Kemudian, Anda dapat menggunakan produk Google Cloud Observability untuk melacak performa aplikasi, sehingga Anda dapat memastikan keandalan aplikasi.
Jika Anda tertarik untuk disertakan dalam studi riset pengalaman pengguna (UX) untuk meningkatkan kualitas produk yang Anda gunakan hari ini, daftar di sini.
Berikut beberapa opsi untuk melanjutkan pembelajaran Anda:
- Codelab Cara men-deploy aplikasi chat yang didukung Gemini di Cloud Run
- Codelab Cara menggunakan panggilan fungsi Gemini dengan Cloud Run
- Cara menggunakan Cloud Run Jobs Video Intelligence API untuk memproses Video adegan demi adegan
- Workshop on-demand Google Kubernetes Engine Onboard
- Pelajari lebih lanjut cara mengonfigurasi metrik penghitung dan distribusi menggunakan log aplikasi
- Menulis metrik OTLP menggunakan file bantuan OpenTelemetry
- Referensi untuk penggunaan Open Telemetry di Google Cloud