Tentang codelab ini
1. Ringkasan
Aplikasi AI generatif memerlukan visibilitas seperti aplikasi lainnya. Apakah ada teknik visibilitas khusus yang diperlukan untuk AI Generatif?
Di lab ini, Anda akan membuat aplikasi AI Generatif sederhana. Deploy ke Cloud Run. Dan lengkapi dengan kemampuan pemantauan dan logging penting menggunakan layanan dan produk observabilitas Google Cloud.
Yang akan Anda pelajari
- Menulis aplikasi yang menggunakan Vertex AI dengan Cloud Shell Editor
- Menyimpan kode aplikasi di GitHub
- Menggunakan gcloud CLI untuk men-deploy kode sumber aplikasi ke Cloud Run
- Menambahkan kemampuan pemantauan dan logging ke aplikasi Gen AI
- Menggunakan metrik berbasis log
- Menerapkan logging dan pemantauan dengan Open Telemetry SDK
- Dapatkan insight tentang penanganan data responsible AI
2. Prasyarat
Jika belum memiliki Akun Google, Anda harus membuat akun baru.
3. Penyiapan project
- Login ke Konsol Google Cloud dengan Akun Google Anda.
- Buat project baru atau pilih untuk menggunakan kembali project yang ada. Catat project ID project yang baru saja Anda buat atau pilih.
- Aktifkan penagihan untuk project.
- Menyelesaikan lab ini akan dikenai biaya penagihan kurang dari $5.
- Anda dapat mengikuti langkah-langkah di akhir lab ini untuk menghapus resource guna menghindari tagihan lebih lanjut.
- Pengguna baru memenuhi syarat untuk Uji Coba Gratis senilai$300 USD.
- Pastikan penagihan diaktifkan di Project saya di Penagihan Cloud
- Jika project baru Anda bertuliskan
Billing is disabled
di kolomBilling account
:- Klik tiga titik di kolom
Actions
- Klik Ubah penagihan
- Pilih akun penagihan yang ingin Anda gunakan
- Klik tiga titik di kolom
- Jika Anda menghadiri acara live, akun tersebut kemungkinan akan diberi nama Akun Penagihan Uji Coba Google Cloud Platform
- Jika project baru Anda bertuliskan
4. Menyiapkan Cloud Shell Editor
- Buka Cloud Shell Editor. Jika Anda melihat pesan berikut, yang meminta untuk memberikan otorisasi pada Cloud Shell agar dapat memanggil gcloud dengan kredensial Anda, klik Authorize untuk melanjutkan.
- Buka jendela terminal
- Klik menu tiga garis
- Klik Terminal
- Klik New Terminal
- Klik menu tiga garis
- Di terminal, konfigurasikan project ID Anda:
Gantigcloud config set project [PROJECT_ID]
[PROJECT_ID]
dengan ID project Anda. Misalnya, jika project ID Anda adalahlab-example-project
, perintahnya adalah: Jika Anda melihat pesan berikut, yang menyatakan bahwa gcloud meminta kredensial Anda ke GCPI API, klik Authorize untuk melanjutkan.gcloud config set project lab-project-id-example
Jika berhasil dieksekusi, Anda akan melihat pesan berikut: Jika Anda melihatUpdated property [core/project].
WARNING
dan ditanyaDo you want to continue (Y/N)?
, berarti Anda mungkin salah memasukkan project ID. TekanN
, tekanEnter
, dan coba jalankan perintahgcloud config set project
lagi setelah Anda menemukan project ID yang benar. - (Opsional) Jika Anda mengalami masalah saat menemukan project ID, jalankan perintah berikut untuk melihat project ID semua project Anda yang diurutkan berdasarkan waktu pembuatan dalam urutan menurun:
gcloud projects list \
--format='value(projectId,createTime)' \
--sort-by=~createTime
5. Mengaktifkan Google API
Di terminal, aktifkan Google API yang diperlukan untuk lab ini:
gcloud services enable \
run.googleapis.com \
cloudbuild.googleapis.com \
aiplatform.googleapis.com \
logging.googleapis.com \
monitoring.googleapis.com \
cloudtrace.googleapis.com
Pemrosesan perintah ini memerlukan waktu beberapa saat. Pada akhirnya, perintah ini akan menampilkan pesan sukses yang mirip dengan pesan berikut:
Operation "operations/acf.p2-73d90d00-47ee-447a-b600" finished successfully.
Jika Anda menerima pesan error yang diawali dengan ERROR: (gcloud.services.enable) HttpError accessing
dan berisi detail error seperti di bawah, coba lagi perintah setelah penundaan 1-2 menit.
"error": { "code": 429, "message": "Quota exceeded for quota metric 'Mutate requests' and limit 'Mutate requests per minute' of service 'serviceusage.googleapis.com' ...", "status": "RESOURCE_EXHAUSTED", ... }
6. Membuat aplikasi Python AI Generatif
Pada langkah ini, Anda akan menulis kode aplikasi berbasis permintaan sederhana yang menggunakan model Gemini untuk menampilkan 10 fakta menarik tentang hewan pilihan Anda. Lakukan hal berikut untuk membuat kode aplikasi.
- Di terminal, buat direktori
codelab-o11y
:mkdir ~/codelab-o11y
- Ubah direktori saat ini menjadi
codelab-o11y
:cd ~/codelab-o11y
- Buat
requirements.txt
dengan daftar dependensi:cat > requirements.txt << EOF
Flask==3.0.0
gunicorn==23.0.0
google-cloud-aiplatform==1.59.0
google-auth==2.32.0
EOF - Buat file
main.py
dan buka file di Cloud Shell Editor: File kosong kini akan muncul di jendela editor di atas terminal. Layar Anda akan terlihat seperti berikut:cloudshell edit main.py
- Salin kode berikut dan tempelkan ke dalam file
main.py
yang terbuka: Setelah beberapa detik, Editor Cloud Shell akan otomatis menyimpan kode Anda.import os
from flask import Flask, request
import google.auth
import vertexai
from vertexai.generative_models import GenerativeModel
_, project = google.auth.default()
app = Flask(__name__)
@app.route('/')
def fun_facts():
vertexai.init(project=project, location='us-central1')
model = GenerativeModel('gemini-1.5-flash')
animal = request.args.get('animal', 'dog')
prompt = f'Give me 10 fun facts about {animal}. Return this as html without backticks.'
response = model.generate_content(prompt)
return response.text
if __name__ == '__main__':
app.run(debug=True, host='0.0.0.0', port=int(os.environ.get('PORT', 8080)))
Men-deploy kode aplikasi AI Generatif ke Cloud Run
- Di jendela terminal, jalankan perintah untuk men-deploy kode sumber aplikasi ke Cloud Run.
Jika Anda melihat perintah seperti di bawah ini, yang memberi tahu Anda bahwa perintah tersebut akan membuat repositori baru. Klikgcloud run deploy codelab-o11y-service \
--source="${HOME}/codelab-o11y/" \
--region=us-central1 \
--allow-unauthenticatedEnter
. Proses deployment dapat memerlukan waktu hingga beberapa menit. Setelah proses deployment selesai, Anda akan melihat output seperti:Deploying from source requires an Artifact Registry Docker repository to store built containers. A repository named [cloud-run-source-deploy] in region [us-central1] will be created. Do you want to continue (Y/n)?
Service [codelab-o11y-service] revision [codelab-o11y-service-00001-t2q] has been deployed and is serving 100 percent of traffic. Service URL: https://codelab-o11y-service-12345678901.us-central1.run.app
- Salin URL layanan Cloud Run yang ditampilkan ke tab atau jendela terpisah di browser Anda. Atau, jalankan perintah berikut di terminal untuk mencetak URL layanan dan klik URL yang ditampilkan sambil menahan tombol Ctrl untuk membuka URL:
Saat URL dibuka, Anda mungkin mendapatkan error 500 atau melihat pesan:gcloud run services list \
--format='value(URL)' \
--filter='SERVICE:"codelab-o11y-service"' Artinya, layanan tidak menyelesaikan deployment-nya. Tunggu beberapa saat, lalu muat ulang halaman. Di bagian akhir, Anda akan melihat teks yang diawali dengan Fakta Menarik tentang dan berisi 10 fakta menarik tentang.Sorry, this is just a placeholder...
Coba berinteraksi dengan aplikasi untuk mendapatkan fakta menarik tentang berbagai hewan. Untuk melakukannya, tambahkan parameter animal
ke URL, seperti ?animal=[ANIMAL]
dengan [ANIMAL]
adalah nama hewan. Misalnya, tambahkan ?animal=cat
untuk mendapatkan 10 fakta menarik tentang kucing atau ?animal=sea turtle
untuk mendapatkan 10 fakta menarik tentang penyu.
7. Mengaudit panggilan Vertex API Anda
Mengaudit panggilan Google API akan memberikan jawaban atas pertanyaan seperti "Siapa yang memanggil API tertentu, di mana, dan kapan?". Auditing penting saat Anda memecahkan masalah aplikasi, menyelidiki penggunaan resource, atau melakukan analisis forensik software.
Log audit memungkinkan Anda melacak aktivitas administratif dan sistem serta mencatat panggilan ke operasi API "pembacaan data" dan "penulisan data". Untuk mengaudit permintaan Vertex AI guna membuat konten, Anda harus mengaktifkan log audit "Pembacaan Data" di konsol Cloud.
- Klik tombol di bawah untuk membuka halaman Log Audit di konsol Cloud
- Pastikan halaman memiliki project yang Anda buat untuk lab ini dipilih. Project yang dipilih ditampilkan di pojok kiri atas halaman tepat dari menu tiga garis:
Jika perlu, pilih project yang benar dari combobox. - Di tabel Data Access audit logs configuration, di kolom Service, temukan layanan
Vertex AI API
dan pilih layanan dengan mencentang kotak yang terletak di sebelah kiri nama layanan. - Di panel info di sebelah kanan, pilih jenis audit "Data Read".
- Klik Simpan.
Untuk membuat log audit, buka URL layanan. Muat ulang halaman sambil mengubah nilai parameter ?animal=
untuk mendapatkan hasil yang berbeda.
Menjelajahi log audit
- Klik tombol di bawah untuk membuka halaman Logs Explorer di Cloud Console:
- Tempel filter berikut ke dalam panel Kueri.
Panel Kueri adalah editor yang terletak di dekat bagian atas halaman Logs Explorer:LOG_ID("cloudaudit.googleapis.com%2Fdata_access") AND
protoPayload.serviceName="aiplatform.googleapis.com" - Klik Run query.
- Pilih salah satu entri log audit dan luaskan kolom untuk memeriksa informasi yang dicatat dalam log.
Anda dapat melihat detail tentang panggilan Vertex API, termasuk metode dan model yang digunakan. Anda juga dapat melihat identitas pemanggil dan izin yang mengizinkan panggilan.
8. Mencatat interaksi dengan AI Generatif
Anda tidak menemukan parameter permintaan API atau data respons dalam log audit. Namun, informasi ini dapat menjadi penting untuk memecahkan masalah analisis alur kerja dan aplikasi. Pada langkah ini, kita akan memenuhi kesenjangan ini dengan menambahkan logging aplikasi. Logging menggunakan paket logging
Python klasik. Meskipun di lingkungan produksi Anda dapat menggunakan framework logging yang berbeda, prinsipnya tetap sama.
Paket logging
Python tidak tahu cara menulis log ke Google Cloud. Fungsi ini mendukung penulisan ke output standar (stderr
secara default) atau ke file. Namun, fitur Cloud Run menangkap informasi yang dicetak ke output standar dan menyerapnya ke Cloud Logging secara otomatis. Ikuti petunjuk di bawah untuk menambahkan kemampuan logging ke aplikasi Gen AI.
- Kembali ke jendela (atau tab) 'Cloud Shell' di browser Anda.
- Di terminal, buka kembali
main.py
:cloudshell edit ~/codelab-o11y/main.py
- Buat perubahan berikut pada kode aplikasi:
- Temukan pernyataan impor terakhir. Baris tersebut seharusnya baris 5:
Tempatkan kursor di baris berikutnya (baris 6) dan tempelkan blok kode berikut di sana.from vertexai.generative_models import GenerativeModel
import sys, json, logging
class JsonFormatter(logging.Formatter):
def format(self, record):
json_log_object = {
'severity': record.levelname,
'message': record.getMessage(),
}
json_log_object.update(getattr(record, 'json_fields', {}))
return json.dumps(json_log_object)
logger = logging.getLogger(__name__)
sh = logging.StreamHandler(sys.stdout)
sh.setFormatter(JsonFormatter())
logger.addHandler(sh)
logger.setLevel(logging.DEBUG) - Temukan kode yang memanggil model untuk membuat konten. Baris tersebut seharusnya baris 30:
Tempatkan kursor di awal baris BERIKUT (baris 31) dan tempel blok kode berikut di sana.response = model.generate_content(prompt)
json_fields = {
'animal': animal,
'prompt': prompt,
'response': response.to_dict(),
}
logger.debug('content is generated', extra={'json_fields': json_fields})
stdout
tempat log dikumpulkan oleh agen logging Cloud Run dan ditransfer secara asinkron ke Cloud Logging. Log merekam parameter hewan dari permintaan serta perintah dan respons model.Setelah beberapa detik, Cloud Shell Editor akan otomatis menyimpan perubahan Anda. - Temukan pernyataan impor terakhir. Baris tersebut seharusnya baris 5:
Men-deploy kode aplikasi AI Generatif ke Cloud Run
- Di jendela terminal, jalankan perintah untuk men-deploy kode sumber aplikasi ke Cloud Run.
Jika Anda melihat perintah seperti di bawah ini, yang memberi tahu Anda bahwa perintah tersebut akan membuat repositori baru. Klikgcloud run deploy codelab-o11y-service \
--source="${HOME}/codelab-o11y/" \
--region=us-central1 \
--allow-unauthenticatedEnter
. Proses deployment dapat memerlukan waktu hingga beberapa menit. Setelah proses deployment selesai, Anda akan melihat output seperti:Deploying from source requires an Artifact Registry Docker repository to store built containers. A repository named [cloud-run-source-deploy] in region [us-central1] will be created. Do you want to continue (Y/n)?
Service [codelab-o11y-service] revision [codelab-o11y-service-00001-t2q] has been deployed and is serving 100 percent of traffic. Service URL: https://codelab-o11y-service-12345678901.us-central1.run.app
- Salin URL layanan Cloud Run yang ditampilkan ke tab atau jendela terpisah di browser Anda. Atau, jalankan perintah berikut di terminal untuk mencetak URL layanan dan klik URL yang ditampilkan sambil menahan tombol Ctrl untuk membuka URL:
Saat URL dibuka, Anda mungkin mendapatkan error 500 atau melihat pesan:gcloud run services list \
--format='value(URL)' \
--filter='SERVICE:"codelab-o11y-service"' Artinya, layanan tidak menyelesaikan deployment-nya. Tunggu beberapa saat, lalu muat ulang halaman. Di bagian akhir, Anda akan melihat teks yang diawali dengan Fakta Menarik tentang dan berisi 10 fakta menarik tentang.Sorry, this is just a placeholder...
Untuk membuat log aplikasi, buka URL layanan. Muat ulang halaman sambil mengubah nilai parameter ?animal=
untuk mendapatkan hasil yang berbeda.
Untuk melihat log aplikasi, lakukan hal berikut:
- Klik tombol di bawah untuk membuka halaman Logs Explorer di Cloud Console:
- Tempel filter berikut ke panel Kueri (#2 di antarmuka Log Explorer):
LOG_ID("run.googleapis.com%2Fstdout") AND
severity=DEBUG - Klik Run query.
Hasil kueri menampilkan log dengan perintah dan respons Vertex AI termasuk rating keamanan.
9. Menghitung interaksi dengan AI Generatif
Cloud Run menulis metrik terkelola yang dapat digunakan untuk memantau layanan yang di-deploy. Metrik pemantauan yang dikelola pengguna memberikan kontrol yang lebih besar atas data dan frekuensi pembaruan metrik. Untuk menerapkan metrik tersebut, Anda harus menulis kode yang mengumpulkan data dan menulisnya ke Cloud Monitoring. Lihat langkah berikutnya (opsional) untuk mengetahui cara menerapkannya menggunakan OpenTelemetry SDK.
Langkah ini menunjukkan alternatif untuk menerapkan metrik pengguna dalam kode - metrik berbasis log. Metrik berbasis log memungkinkan Anda membuat metrik pemantauan dari entri log yang ditulis aplikasi Anda ke Cloud Logging. Kita akan menggunakan log aplikasi yang telah diimplementasikan di langkah sebelumnya untuk menentukan metrik berbasis log dari penghitung jenis. Metrik ini akan menghitung jumlah panggilan yang berhasil ke Vertex API.
- Lihat jendela Logs Explorer yang kita gunakan di langkah sebelumnya. Di panel Kueri, temukan menu drop-down Tindakan, lalu klik untuk membukanya. Lihat screenshot di bawah untuk menemukan menu:
- Di menu yang terbuka, pilih Create metric untuk membuka panel Create log-based metric.
- Ikuti langkah-langkah berikut untuk mengonfigurasi metrik penghitung baru di panel Buat metrik berbasis log:
- Tetapkan Jenis metrik: Pilih Penghitung.
- Tetapkan kolom berikut di bagian Detail:
- Log metric name: Tetapkan nama ke
model_interaction_count
. Beberapa batasan penamaan berlaku; Lihat Pemecahan masalah batasan penamaan untuk mengetahui detailnya. - Deskripsi: Masukkan deskripsi untuk metrik. Misalnya,
Number of log entries capturing successful call to model inference.
- Unit: Biarkan kosong atau masukkan angka
1
.
- Log metric name: Tetapkan nama ke
- Biarkan nilai di bagian Filter selection. Perhatikan bahwa kolom Build filter memiliki filter yang sama dengan yang kita gunakan untuk melihat log aplikasi.
- (Opsional) Tambahkan label yang membantu menghitung jumlah panggilan untuk setiap hewan. CATATAN: label ini berpotensi meningkatkan kardinalitas metrik secara signifikan dan tidak direkomendasikan untuk digunakan dalam produksi:
- Klik Tambahkan label.
- Tetapkan kolom berikut di bagian Label:
- Nama label: Tetapkan nama ke
animal
. - Deskripsi: Masukkan deskripsi label. Misalnya,
Animal parameter
. - Jenis label: Pilih
STRING
. - Nama kolom: Ketik
jsonPayload.animal
. - Regular expression: Biarkan kosong.
- Nama label: Tetapkan nama ke
- Klik Selesai
- Klik Create metric untuk membuat metrik.
Anda juga dapat membuat metrik berbasis log dari halaman Metrik berbasis log, menggunakan perintah CLI gcloud logging metrics create
atau dengan resource Terraform google_logging_metric
.
Untuk membuat data metrik, buka URL layanan. Muat ulang halaman yang terbuka beberapa kali untuk melakukan beberapa panggilan ke model. Seperti sebelumnya, coba gunakan hewan yang berbeda dalam parameter.
Masukkan kueri PromQL untuk menelusuri data metrik berbasis log. Untuk memasukkan kueri PromQL, lakukan hal berikut:
- Klik tombol di bawah untuk membuka halaman Metrics Explorer di konsol Cloud:
- Di toolbar panel pembuat kueri, pilih tombol yang namanya < > MQL atau < > PromQL. Lihat gambar di bawah untuk mengetahui lokasi tombol.
- Pastikan PromQL dipilih di tombol Language. Tombol bahasa berada di toolbar yang sama dengan yang memungkinkan Anda memformat kueri.
- Masukkan kueri Anda ke editor Kueri:
Untuk informasi selengkapnya tentang penggunaan PromQL, lihat PromQL di Cloud Monitoring.sum(rate(logging_googleapis_com:user_model_interaction_count{monitored_resource="cloud_run_revision"}[${__interval}]))
- Klik Run Query. Anda akan melihat diagram garis yang mirip dengan screenshot ini:
Perhatikan bahwa saat tombol Jalankan Otomatis diaktifkan, tombol Jalankan Kueri tidak akan ditampilkan.
10. (Opsional) Menggunakan Open Telemetry untuk pemantauan dan perekaman aktivitas
Seperti yang disebutkan pada langkah sebelumnya, Anda dapat menerapkan metrik menggunakan OpenTelemetry (Otel) SDK. Menggunakan OTel pada arsitektur microservice adalah praktik yang direkomendasikan. Langkah ini menjelaskan hal berikut:
- Melakukan inisialisasi komponen OTel untuk mendukung pelacakan dan pemantauan aplikasi
- Mengisi konfigurasi OTel dengan metadata resource lingkungan Cloud Run
- Menginstrumentasikan aplikasi flask dengan kemampuan pelacakan otomatis
- Mengimplementasikan metrik penghitung untuk memantau jumlah panggilan model yang berhasil
- Menghubungkan pelacakan dengan log aplikasi
Arsitektur yang direkomendasikan untuk layanan tingkat produk adalah menggunakan pengumpul OTel untuk mengumpulkan dan menyerap semua data visibilitas untuk satu atau beberapa layanan. Kode dalam langkah ini tidak menggunakan kolektor agar lebih praktis. Sebagai gantinya, alat ini menggunakan ekspor OTel yang menulis data langsung ke Google Cloud.
Menyiapkan komponen OTel untuk pelacakan dan pemantauan metrik
- Kembali ke jendela (atau tab) 'Cloud Shell' di browser Anda.
- Di terminal, perbarui
requirements.txt
dengan daftar dependensi tambahan:cat >> ~/codelab-o11y/requirements.txt << EOF
opentelemetry-api==1.24.0
opentelemetry-sdk==1.24.0
opentelemetry-exporter-otlp-proto-http==1.24.0
opentelemetry-instrumentation-flask==0.45b0
opentelemetry-instrumentation-requests==0.45b0
opentelemetry-exporter-gcp-trace==1.7.0
opentelemetry-exporter-gcp-monitoring==1.7.0a0
EOF - Buat file baru
setup_opentelemetry.py
: File kosong kini akan muncul di jendela editor di atas terminal.cloudshell edit ~/codelab-o11y/setup_opentelemetry.py
- Salin kode berikut dan tempelkan ke dalam file
setup_opentelemetry.py
yang terbuka: Setelah beberapa detik, Editor Cloud Shell akan otomatis menyimpan kode Anda.import os
from opentelemetry import metrics
from opentelemetry import trace
from opentelemetry.exporter.cloud_monitoring import CloudMonitoringMetricsExporter
from opentelemetry.exporter.cloud_trace import CloudTraceSpanExporter
from opentelemetry.resourcedetector.gcp_resource_detector import GoogleCloudResourceDetector
from opentelemetry.sdk.metrics import MeterProvider
from opentelemetry.sdk.trace import TracerProvider
from opentelemetry.sdk.metrics.export import PeriodicExportingMetricReader
from opentelemetry.sdk.resources import get_aggregated_resources, Resource, CLOUD_ACCOUNT_ID, SERVICE_NAME
from opentelemetry.sdk.trace.export import BatchSpanProcessor
resource = get_aggregated_resources(
[GoogleCloudResourceDetector(raise_on_error=True)]
)
resource = resource.merge(Resource.create(attributes={
SERVICE_NAME: os.getenv("K_SERVICE"),
}))
meter_provider = MeterProvider(
resource=resource,
metric_readers=[
PeriodicExportingMetricReader(
CloudMonitoringMetricsExporter(), export_interval_millis=5000
)
],
)
metrics.set_meter_provider(meter_provider)
meter = metrics.get_meter(__name__)
trace_provider = TracerProvider(resource=resource)
processor = BatchSpanProcessor(CloudTraceSpanExporter(
# send all resource attributes
resource_regex=r".*"
))
trace_provider.add_span_processor(processor)
trace.set_tracer_provider(trace_provider)
def google_trace_id_format(trace_id: int) -> str:
project_id = resource.attributes[CLOUD_ACCOUNT_ID]
return f'projects/{project_id}/traces/{trace.format_trace_id(trace_id)}'
Menginstrumentasi kode aplikasi dengan kemampuan pelacakan dan pemantauan menggunakan OTel
- Di terminal, buka kembali
main.py
:cloudshell edit ~/codelab-o11y/main.py
- Lakukan perubahan berikut pada kode aplikasi:
- Sebelum baris
import os
(baris 1), masukkan kode berikut (perhatikan baris kosong di bagian akhir):from setup_opentelemetry import google_trace_id_format
from opentelemetry import metrics, trace
from opentelemetry.instrumentation.requests import RequestsInstrumentor
from opentelemetry.instrumentation.flask import FlaskInstrumentor - Setelah deklarasi metode
format()
(baris 9), masukkan kode berikut (perhatikan indentasi):span = trace.get_current_span()
- Setelah baris 13 (berisi
"message": record.getMessage()
), sisipkan kode berikut (perhatikan indentasi): Dua atribut tambahan ini membantu mengorelasi log aplikasi dan span pelacakan OTel."logging.googleapis.com/trace": google_trace_id_format(span.get_span_context().trace_id),
"logging.googleapis.com/spanId": trace.format_span_id(span.get_span_context().span_id), - Setelah baris
app = Flask(__name__)
(baris 31), sisipkan kode berikut: Baris ini melengkapi semua permintaan masuk dan keluar dari aplikasi flask dengan pelacakan.FlaskInstrumentor().instrument_app(app)
RequestsInstrumentor().instrument() - Tepat setelah kode baru yang ditambahkan (setelah baris 33), tambahkan kode berikut:
Baris ini membuat metrik penghitung jenis baru dengan namameter = metrics.get_meter(__name__)
requests_counter = meter.create_counter(
name="model_call_counter",
description="number of model invocations",
unit="1"
)model_call_counter
dan mendaftarkannya untuk diekspor. - Setelah panggilan ke
logger.debug()
(baris 49), sisipkan kode berikut: Perubahan ini akan menambah penghitung sebesar 1 setiap kali aplikasi berhasil memanggil Vertex API untuk berinteraksi dengan model Gemini.requests_counter.add(1, {'animal': animal})
- Sebelum baris
Men-deploy kode aplikasi AI Generatif ke Cloud Run
- Di jendela terminal, jalankan perintah untuk men-deploy kode sumber aplikasi ke Cloud Run.
Jika Anda melihat perintah seperti di bawah ini, yang memberi tahu Anda bahwa perintah tersebut akan membuat repositori baru. Klikgcloud run deploy codelab-o11y-service \
--source="${HOME}/codelab-o11y/" \
--region=us-central1 \
--allow-unauthenticatedEnter
. Proses deployment dapat memerlukan waktu hingga beberapa menit. Setelah proses deployment selesai, Anda akan melihat output seperti:Deploying from source requires an Artifact Registry Docker repository to store built containers. A repository named [cloud-run-source-deploy] in region [us-central1] will be created. Do you want to continue (Y/n)?
Service [codelab-o11y-service] revision [codelab-o11y-service-00001-t2q] has been deployed and is serving 100 percent of traffic. Service URL: https://codelab-o11y-service-12345678901.us-central1.run.app
- Salin URL layanan Cloud Run yang ditampilkan ke tab atau jendela terpisah di browser Anda. Atau, jalankan perintah berikut di terminal untuk mencetak URL layanan dan klik URL yang ditampilkan sambil menahan tombol Ctrl untuk membuka URL:
Saat URL dibuka, Anda mungkin mendapatkan error 500 atau melihat pesan:gcloud run services list \
--format='value(URL)' \
--filter='SERVICE:"codelab-o11y-service"' Artinya, layanan tidak menyelesaikan deployment-nya. Tunggu beberapa saat, lalu muat ulang halaman. Di bagian akhir, Anda akan melihat teks yang diawali dengan Fakta Menarik tentang dan berisi 10 fakta menarik tentang.Sorry, this is just a placeholder...
Untuk membuat data telemetri, buka URL layanan. Muat ulang halaman sambil mengubah nilai parameter ?animal=
untuk mendapatkan hasil yang berbeda.
Menjelajahi rekaman aktivitas aplikasi
- Klik tombol di bawah untuk membuka halaman Trace Explorer di konsol Cloud:
- Pilih salah satu rekaman aktivitas terbaru. Anda akan melihat 5 atau 6 span yang terlihat seperti pada screenshot di bawah.
- Temukan span yang melacak panggilan ke pengendali peristiwa (metode
fun_facts
). Ini akan menjadi span terakhir dengan nama/
. - Di panel Trace details, pilih Logs & events. Anda akan melihat log aplikasi yang berkorelasi dengan span tertentu ini. Korelasi terdeteksi menggunakan ID trace dan span dalam trace dan dalam log. Anda akan melihat log aplikasi yang menulis perintah dan respons Vertex API.
Menjelajahi metrik penghitung
- Klik tombol di bawah untuk membuka halaman Metrics Explorer di konsol Cloud:
- Di toolbar panel pembuat kueri, pilih tombol yang namanya < > MQL atau < > PromQL. Lihat gambar di bawah untuk mengetahui lokasi tombol.
- Pastikan PromQL dipilih di tombol Language. Tombol bahasa berada di toolbar yang sama dengan yang memungkinkan Anda memformat kueri.
- Masukkan kueri Anda ke editor Kueri:
sum(rate(workload_googleapis_com:model_call_counter{monitored_resource="generic_task"}[${__interval}]))
- Klik Run Query.Jika tombol Auto-run diaktifkan, tombol Run Query tidak akan ditampilkan.
11. (Opsional) Informasi sensitif yang di-obfuscate dari log
Pada Langkah 10, kita mencatat informasi tentang interaksi aplikasi dengan model Gemini. Informasi ini mencakup nama hewan, perintah sebenarnya, dan respons model. Meskipun menyimpan informasi ini dalam log seharusnya aman, hal ini tidak perlu dilakukan untuk banyak skenario lainnya. Perintah ini dapat mencakup beberapa informasi pribadi atau sensitif yang tidak ingin disimpan oleh pengguna. Untuk mengatasi hal ini, Anda dapat mengaburkan data sensitif yang ditulis ke Cloud Logging. Untuk meminimalkan perubahan kode, solusi berikut direkomendasikan.
- Membuat topik PubSub untuk menyimpan entri log yang masuk
- Buat sink log yang mengalihkan log yang diserap ke topik PubSub.
- Buat pipeline Dataflow yang mengubah log yang dialihkan ke topik PubSub dengan mengikuti langkah-langkah berikut:
- Membaca entri log dari topik PubSub
- Memeriksa payload entri untuk menemukan informasi sensitif menggunakan DLP inspection API
- Samarkan informasi sensitif dalam payload menggunakan salah satu metode penyamaran DLP
- Menulis entri log yang di-obfuscate ke Cloud Logging
- Men-deploy pipeline
12. (Opsional) Membersihkan
Untuk menghindari risiko dikenai biaya untuk resource dan API yang digunakan dalam codelab, sebaiknya bersihkan setelah Anda menyelesaikan lab. Cara termudah untuk menghilangkan penagihan adalah dengan menghapus project yang Anda buat untuk codelab.
- Untuk menghapus project, jalankan perintah hapus project di terminal:
Menghapus project Cloud akan menghentikan penagihan untuk semua resource dan API yang digunakan dalam project tersebut. Anda akan melihat pesan ini denganPROJECT_ID=$(gcloud config get-value project)
gcloud projects delete ${PROJECT_ID} --quietPROJECT_ID
sebagai project ID Anda:Deleted [https://cloudresourcemanager.googleapis.com/v1/projects/PROJECT_ID]. You can undo this operation for a limited period by running the command below. $ gcloud projects undelete PROJECT_ID See https://cloud.google.com/resource-manager/docs/creating-managing-projects for information on shutting down projects.
- (Opsional) Jika Anda menerima error, lihat Langkah 5 untuk menemukan project ID yang Anda gunakan selama lab. Ganti dengan perintah dalam petunjuk pertama. Misalnya, jika project ID Anda adalah
lab-example-project
, perintahnya adalah:gcloud projects delete lab-project-id-example --quiet
13. Selamat
Di lab ini, Anda telah membuat aplikasi AI Generatif yang menggunakan model Gemini untuk membuat prediksi. Dan melengkapi aplikasi dengan kemampuan pemantauan dan logging yang penting. Anda telah men-deploy aplikasi dan perubahan dari kode sumber ke Cloud Run. Kemudian, Anda dapat menggunakan produk Google Cloud Observability untuk melacak performa aplikasi, sehingga Anda dapat memastikan keandalan aplikasi.
Jika Anda tertarik untuk diikutsertakan dalam studi riset pengalaman pengguna (UX) untuk meningkatkan kualitas produk yang Anda gunakan saat ini, daftar di sini.
Berikut beberapa opsi untuk melanjutkan pembelajaran Anda:
- Codelab Cara men-deploy aplikasi chat yang didukung gemini di Cloud Run
- Codelab Cara menggunakan panggilan fungsi Gemini dengan Cloud Run
- Cara menggunakan Cloud Run Jobs Video Intelligence API untuk memproses Video adegan demi adegan
- Workshop on demand Pengenalan Google Kubernetes Engine
- Pelajari lebih lanjut cara mengonfigurasi metrik penghitung dan distribusi menggunakan log aplikasi
- Menulis metrik OTLP menggunakan file bantuan OpenTelemetry
- Referensi untuk penggunaan Open Telemetry di Google Cloud