Teknik visibilitas praktis untuk aplikasi AI Generatif di Python

Teknik visibilitas praktis untuk aplikasi AI Generatif di Python

Tentang codelab ini

subjectTerakhir diperbarui Okt 22, 2024
account_circleDitulis oleh Leonid Yankulin

1. Ringkasan

Aplikasi AI generatif memerlukan visibilitas seperti aplikasi lainnya. Apakah ada teknik visibilitas khusus yang diperlukan untuk AI Generatif?

Di lab ini, Anda akan membuat aplikasi AI Generatif sederhana. Deploy ke Cloud Run. Dan lengkapi dengan kemampuan pemantauan dan logging penting menggunakan layanan dan produk observabilitas Google Cloud.

Yang akan Anda pelajari

  • Menulis aplikasi yang menggunakan Vertex AI dengan Cloud Shell Editor
  • Menyimpan kode aplikasi di GitHub
  • Menggunakan gcloud CLI untuk men-deploy kode sumber aplikasi ke Cloud Run
  • Menambahkan kemampuan pemantauan dan logging ke aplikasi Gen AI
  • Menggunakan metrik berbasis log
  • Menerapkan logging dan pemantauan dengan Open Telemetry SDK
  • Dapatkan insight tentang penanganan data responsible AI

2. Prasyarat

Jika belum memiliki Akun Google, Anda harus membuat akun baru.

3. Penyiapan project

  1. Login ke Konsol Google Cloud dengan Akun Google Anda.
  2. Buat project baru atau pilih untuk menggunakan kembali project yang ada. Catat project ID project yang baru saja Anda buat atau pilih.
  3. Aktifkan penagihan untuk project.
    • Menyelesaikan lab ini akan dikenai biaya penagihan kurang dari $5.
    • Anda dapat mengikuti langkah-langkah di akhir lab ini untuk menghapus resource guna menghindari tagihan lebih lanjut.
    • Pengguna baru memenuhi syarat untuk Uji Coba Gratis senilai$300 USD.
  4. Pastikan penagihan diaktifkan di Project saya di Penagihan Cloud
    • Jika project baru Anda bertuliskan Billing is disabled di kolom Billing account:
      1. Klik tiga titik di kolom Actions
      2. Klik Ubah penagihan
      3. Pilih akun penagihan yang ingin Anda gunakan
    • Jika Anda menghadiri acara live, akun tersebut kemungkinan akan diberi nama Akun Penagihan Uji Coba Google Cloud Platform

4. Menyiapkan Cloud Shell Editor

  1. Buka Cloud Shell Editor. Jika Anda melihat pesan berikut, yang meminta untuk memberikan otorisasi pada Cloud Shell agar dapat memanggil gcloud dengan kredensial Anda, klik Authorize untuk melanjutkan.
    Klik untuk memberikan otorisasi pada Cloud Shell
  2. Buka jendela terminal
    1. Klik menu tiga garis Ikon menu tiga garis
    2. Klik Terminal
    3. Klik New Terminal
      Membuka terminal baru di Cloud Shell Editor
  3. Di terminal, konfigurasikan project ID Anda:
    gcloud config set project [PROJECT_ID]
    Ganti [PROJECT_ID] dengan ID project Anda. Misalnya, jika project ID Anda adalah lab-example-project, perintahnya adalah:
    gcloud config set project lab-project-id-example
    
    Jika Anda melihat pesan berikut, yang menyatakan bahwa gcloud meminta kredensial Anda ke GCPI API, klik Authorize untuk melanjutkan.
    Klik untuk memberikan otorisasi pada Cloud Shell
    Jika berhasil dieksekusi, Anda akan melihat pesan berikut:
    Updated property [core/project].
    
    Jika Anda melihat WARNING dan ditanya Do you want to continue (Y/N)?, berarti Anda mungkin salah memasukkan project ID. Tekan N, tekan Enter, dan coba jalankan perintah gcloud config set project lagi setelah Anda menemukan project ID yang benar.
  4. (Opsional) Jika Anda mengalami masalah saat menemukan project ID, jalankan perintah berikut untuk melihat project ID semua project Anda yang diurutkan berdasarkan waktu pembuatan dalam urutan menurun:
    gcloud projects list \
         
    --format='value(projectId,createTime)' \
         
    --sort-by=~createTime

5. Mengaktifkan Google API

Di terminal, aktifkan Google API yang diperlukan untuk lab ini:

gcloud services enable \
     
run.googleapis.com \
     
cloudbuild.googleapis.com \
     
aiplatform.googleapis.com \
     
logging.googleapis.com \
     
monitoring.googleapis.com \
     
cloudtrace.googleapis.com

Pemrosesan perintah ini memerlukan waktu beberapa saat. Pada akhirnya, perintah ini akan menampilkan pesan sukses yang mirip dengan pesan berikut:

Operation "operations/acf.p2-73d90d00-47ee-447a-b600" finished successfully.

Jika Anda menerima pesan error yang diawali dengan ERROR: (gcloud.services.enable) HttpError accessing dan berisi detail error seperti di bawah, coba lagi perintah setelah penundaan 1-2 menit.

"error": {
  "code": 429,
  "message": "Quota exceeded for quota metric 'Mutate requests' and limit 'Mutate requests per minute' of service 'serviceusage.googleapis.com' ...",
  "status": "RESOURCE_EXHAUSTED",
  ...
}

6. Membuat aplikasi Python AI Generatif

Pada langkah ini, Anda akan menulis kode aplikasi berbasis permintaan sederhana yang menggunakan model Gemini untuk menampilkan 10 fakta menarik tentang hewan pilihan Anda. Lakukan hal berikut untuk membuat kode aplikasi.

  1. Di terminal, buat direktori codelab-o11y:
    mkdir ~/codelab-o11y
  2. Ubah direktori saat ini menjadi codelab-o11y:
    cd ~/codelab-o11y
  3. Buat requirements.txt dengan daftar dependensi:
    cat > requirements.txt << EOF
    Flask==3.0.0
    gunicorn==23.0.0
    google-cloud-aiplatform==1.59.0
    google-auth==2.32.0
    EOF
  4. Buat file main.py dan buka file di Cloud Shell Editor:
    cloudshell edit main.py
    File kosong kini akan muncul di jendela editor di atas terminal. Layar Anda akan terlihat seperti berikut:
    Menampilkan Cloud Shell Editor setelah mulai mengedit main.py
  5. Salin kode berikut dan tempelkan ke dalam file main.py yang terbuka:
    import os
    from flask import Flask, request
    import google.auth
    import vertexai
    from vertexai.generative_models import GenerativeModel

    _, project = google.auth.default()
    app = Flask(__name__)

    @app.route('/')
    def fun_facts():
       
    vertexai.init(project=project, location='us-central1')
       
    model = GenerativeModel('gemini-1.5-flash')
       
    animal = request.args.get('animal', 'dog')
       
    prompt = f'Give me 10 fun facts about {animal}. Return this as html without backticks.'
       
    response = model.generate_content(prompt)
       
    return response.text

    if __name__ == '__main__':
       
    app.run(debug=True, host='0.0.0.0', port=int(os.environ.get('PORT', 8080)))
    Setelah beberapa detik, Editor Cloud Shell akan otomatis menyimpan kode Anda.

Men-deploy kode aplikasi AI Generatif ke Cloud Run

  1. Di jendela terminal, jalankan perintah untuk men-deploy kode sumber aplikasi ke Cloud Run.
    gcloud run deploy codelab-o11y-service \
         
    --source="${HOME}/codelab-o11y/" \
         
    --region=us-central1 \
         
    --allow-unauthenticated
    Jika Anda melihat perintah seperti di bawah ini, yang memberi tahu Anda bahwa perintah tersebut akan membuat repositori baru. Klik Enter.
    Deploying from source requires an Artifact Registry Docker repository to store built containers.
    A repository named [cloud-run-source-deploy] in region [us-central1] will be created.
    
    Do you want to continue (Y/n)?
    
    Proses deployment dapat memerlukan waktu hingga beberapa menit. Setelah proses deployment selesai, Anda akan melihat output seperti:
    Service [codelab-o11y-service] revision [codelab-o11y-service-00001-t2q] has been deployed and is serving 100 percent of traffic.
    Service URL: https://codelab-o11y-service-12345678901.us-central1.run.app
    
  2. Salin URL layanan Cloud Run yang ditampilkan ke tab atau jendela terpisah di browser Anda. Atau, jalankan perintah berikut di terminal untuk mencetak URL layanan dan klik URL yang ditampilkan sambil menahan tombol Ctrl untuk membuka URL:
    gcloud run services list \
         
    --format='value(URL)' \
         
    --filter='SERVICE:"codelab-o11y-service"'
    Saat URL dibuka, Anda mungkin mendapatkan error 500 atau melihat pesan:
    Sorry, this is just a placeholder...
    
    Artinya, layanan tidak menyelesaikan deployment-nya. Tunggu beberapa saat, lalu muat ulang halaman. Di bagian akhir, Anda akan melihat teks yang diawali dengan Fakta Menarik tentang dan berisi 10 fakta menarik tentang.

Coba berinteraksi dengan aplikasi untuk mendapatkan fakta menarik tentang berbagai hewan. Untuk melakukannya, tambahkan parameter animal ke URL, seperti ?animal=[ANIMAL] dengan [ANIMAL] adalah nama hewan. Misalnya, tambahkan ?animal=cat untuk mendapatkan 10 fakta menarik tentang kucing atau ?animal=sea turtle untuk mendapatkan 10 fakta menarik tentang penyu.

7. Mengaudit panggilan Vertex API Anda

Mengaudit panggilan Google API akan memberikan jawaban atas pertanyaan seperti "Siapa yang memanggil API tertentu, di mana, dan kapan?". Auditing penting saat Anda memecahkan masalah aplikasi, menyelidiki penggunaan resource, atau melakukan analisis forensik software.

Log audit memungkinkan Anda melacak aktivitas administratif dan sistem serta mencatat panggilan ke operasi API "pembacaan data" dan "penulisan data". Untuk mengaudit permintaan Vertex AI guna membuat konten, Anda harus mengaktifkan log audit "Pembacaan Data" di konsol Cloud.

  1. Klik tombol di bawah untuk membuka halaman Log Audit di konsol Cloud

  2. Pastikan halaman memiliki project yang Anda buat untuk lab ini dipilih. Project yang dipilih ditampilkan di pojok kiri atas halaman tepat dari menu tiga garis:
    Dropdown project Konsol Google Cloud
    Jika perlu, pilih project yang benar dari combobox.
  3. Di tabel Data Access audit logs configuration, di kolom Service, temukan layanan Vertex AI API dan pilih layanan dengan mencentang kotak yang terletak di sebelah kiri nama layanan.
    Memilih Vertex AI API
  4. Di panel info di sebelah kanan, pilih jenis audit "Data Read".
    Memeriksa log Pembacaan Data
  5. Klik Simpan.

Untuk membuat log audit, buka URL layanan. Muat ulang halaman sambil mengubah nilai parameter ?animal= untuk mendapatkan hasil yang berbeda.

Menjelajahi log audit

  1. Klik tombol di bawah untuk membuka halaman Logs Explorer di Cloud Console:

  2. Tempel filter berikut ke dalam panel Kueri.
    LOG_ID("cloudaudit.googleapis.com%2Fdata_access") AND
    protoPayload.serviceName="aiplatform.googleapis.com"
    Panel Kueri adalah editor yang terletak di dekat bagian atas halaman Logs Explorer:
    Membuat kueri log audit
  3. Klik Run query.
  4. Pilih salah satu entri log audit dan luaskan kolom untuk memeriksa informasi yang dicatat dalam log.
    Anda dapat melihat detail tentang panggilan Vertex API, termasuk metode dan model yang digunakan. Anda juga dapat melihat identitas pemanggil dan izin yang mengizinkan panggilan.

8. Mencatat interaksi dengan AI Generatif

Anda tidak menemukan parameter permintaan API atau data respons dalam log audit. Namun, informasi ini dapat menjadi penting untuk memecahkan masalah analisis alur kerja dan aplikasi. Pada langkah ini, kita akan memenuhi kesenjangan ini dengan menambahkan logging aplikasi. Logging menggunakan paket logging Python klasik. Meskipun di lingkungan produksi Anda dapat menggunakan framework logging yang berbeda, prinsipnya tetap sama.

Paket logging Python tidak tahu cara menulis log ke Google Cloud. Fungsi ini mendukung penulisan ke output standar (stderr secara default) atau ke file. Namun, fitur Cloud Run menangkap informasi yang dicetak ke output standar dan menyerapnya ke Cloud Logging secara otomatis. Ikuti petunjuk di bawah untuk menambahkan kemampuan logging ke aplikasi Gen AI.

  1. Kembali ke jendela (atau tab) 'Cloud Shell' di browser Anda.
  2. Di terminal, buka kembali main.py:
    cloudshell edit ~/codelab-o11y/main.py
  3. Buat perubahan berikut pada kode aplikasi:
    1. Temukan pernyataan impor terakhir. Baris tersebut seharusnya baris 5:
      from vertexai.generative_models import GenerativeModel
      
      Tempatkan kursor di baris berikutnya (baris 6) dan tempelkan blok kode berikut di sana.
      import sys, json, logging
      class JsonFormatter(logging.Formatter):
         
      def format(self, record):
             
      json_log_object = {
                 
      'severity': record.levelname,
                 
      'message': record.getMessage(),
             
      }
             
      json_log_object.update(getattr(record, 'json_fields', {}))
             
      return json.dumps(json_log_object)
      logger = logging.getLogger(__name__)
      sh = logging.StreamHandler(sys.stdout)
      sh.setFormatter(JsonFormatter())
      logger.addHandler(sh)
      logger.setLevel(logging.DEBUG)

    2. Temukan kode yang memanggil model untuk membuat konten. Baris tersebut seharusnya baris 30:
      response = model.generate_content(prompt)
      
      Tempatkan kursor di awal baris BERIKUT (baris 31) dan tempel blok kode berikut di sana.
          json_fields = {
               
      'animal': animal,
               
      'prompt': prompt,
               
      'response': response.to_dict(),
         
      }
         
      logger.debug('content is generated', extra={'json_fields': json_fields})

    Perubahan ini mengonfigurasi logging standar Python untuk menggunakan pemformat kustom guna menghasilkan JSON string yang mengikuti pedoman pemformatan terstruktur. Logging dikonfigurasi untuk mencetak log ke stdout tempat log dikumpulkan oleh agen logging Cloud Run dan ditransfer secara asinkron ke Cloud Logging. Log merekam parameter hewan dari permintaan serta perintah dan respons model.Setelah beberapa detik, Cloud Shell Editor akan otomatis menyimpan perubahan Anda.

Men-deploy kode aplikasi AI Generatif ke Cloud Run

  1. Di jendela terminal, jalankan perintah untuk men-deploy kode sumber aplikasi ke Cloud Run.
    gcloud run deploy codelab-o11y-service \
         
    --source="${HOME}/codelab-o11y/" \
         
    --region=us-central1 \
         
    --allow-unauthenticated
    Jika Anda melihat perintah seperti di bawah ini, yang memberi tahu Anda bahwa perintah tersebut akan membuat repositori baru. Klik Enter.
    Deploying from source requires an Artifact Registry Docker repository to store built containers.
    A repository named [cloud-run-source-deploy] in region [us-central1] will be created.
    
    Do you want to continue (Y/n)?
    
    Proses deployment dapat memerlukan waktu hingga beberapa menit. Setelah proses deployment selesai, Anda akan melihat output seperti:
    Service [codelab-o11y-service] revision [codelab-o11y-service-00001-t2q] has been deployed and is serving 100 percent of traffic.
    Service URL: https://codelab-o11y-service-12345678901.us-central1.run.app
    
  2. Salin URL layanan Cloud Run yang ditampilkan ke tab atau jendela terpisah di browser Anda. Atau, jalankan perintah berikut di terminal untuk mencetak URL layanan dan klik URL yang ditampilkan sambil menahan tombol Ctrl untuk membuka URL:
    gcloud run services list \
         
    --format='value(URL)' \
         
    --filter='SERVICE:"codelab-o11y-service"'
    Saat URL dibuka, Anda mungkin mendapatkan error 500 atau melihat pesan:
    Sorry, this is just a placeholder...
    
    Artinya, layanan tidak menyelesaikan deployment-nya. Tunggu beberapa saat, lalu muat ulang halaman. Di bagian akhir, Anda akan melihat teks yang diawali dengan Fakta Menarik tentang dan berisi 10 fakta menarik tentang.

Untuk membuat log aplikasi, buka URL layanan. Muat ulang halaman sambil mengubah nilai parameter ?animal= untuk mendapatkan hasil yang berbeda.
Untuk melihat log aplikasi, lakukan hal berikut:

  1. Klik tombol di bawah untuk membuka halaman Logs Explorer di Cloud Console:

  2. Tempel filter berikut ke panel Kueri (#2 di antarmuka Log Explorer):
    LOG_ID("run.googleapis.com%2Fstdout") AND
    severity=DEBUG
  3. Klik Run query.

Hasil kueri menampilkan log dengan perintah dan respons Vertex AI termasuk rating keamanan.

9. Menghitung interaksi dengan AI Generatif

Cloud Run menulis metrik terkelola yang dapat digunakan untuk memantau layanan yang di-deploy. Metrik pemantauan yang dikelola pengguna memberikan kontrol yang lebih besar atas data dan frekuensi pembaruan metrik. Untuk menerapkan metrik tersebut, Anda harus menulis kode yang mengumpulkan data dan menulisnya ke Cloud Monitoring. Lihat langkah berikutnya (opsional) untuk mengetahui cara menerapkannya menggunakan OpenTelemetry SDK.

Langkah ini menunjukkan alternatif untuk menerapkan metrik pengguna dalam kode - metrik berbasis log. Metrik berbasis log memungkinkan Anda membuat metrik pemantauan dari entri log yang ditulis aplikasi Anda ke Cloud Logging. Kita akan menggunakan log aplikasi yang telah diimplementasikan di langkah sebelumnya untuk menentukan metrik berbasis log dari penghitung jenis. Metrik ini akan menghitung jumlah panggilan yang berhasil ke Vertex API.

  1. Lihat jendela Logs Explorer yang kita gunakan di langkah sebelumnya. Di panel Kueri, temukan menu drop-down Tindakan, lalu klik untuk membukanya. Lihat screenshot di bawah untuk menemukan menu:
    Toolbar hasil kueri dengan menu drop-down Tindakan
  2. Di menu yang terbuka, pilih Create metric untuk membuka panel Create log-based metric.
  3. Ikuti langkah-langkah berikut untuk mengonfigurasi metrik penghitung baru di panel Buat metrik berbasis log:
    1. Tetapkan Jenis metrik: Pilih Penghitung.
    2. Tetapkan kolom berikut di bagian Detail:
      • Log metric name: Tetapkan nama ke model_interaction_count. Beberapa batasan penamaan berlaku; Lihat Pemecahan masalah batasan penamaan untuk mengetahui detailnya.
      • Deskripsi: Masukkan deskripsi untuk metrik. Misalnya, Number of log entries capturing successful call to model inference.
      • Unit: Biarkan kosong atau masukkan angka 1.
    3. Biarkan nilai di bagian Filter selection. Perhatikan bahwa kolom Build filter memiliki filter yang sama dengan yang kita gunakan untuk melihat log aplikasi.
    4. (Opsional) Tambahkan label yang membantu menghitung jumlah panggilan untuk setiap hewan. CATATAN: label ini berpotensi meningkatkan kardinalitas metrik secara signifikan dan tidak direkomendasikan untuk digunakan dalam produksi:
      1. Klik Tambahkan label.
      2. Tetapkan kolom berikut di bagian Label:
        • Nama label: Tetapkan nama ke animal.
        • Deskripsi: Masukkan deskripsi label. Misalnya, Animal parameter.
        • Jenis label: Pilih STRING.
        • Nama kolom: Ketik jsonPayload.animal.
        • Regular expression: Biarkan kosong.
      3. Klik Selesai
    5. Klik Create metric untuk membuat metrik.

Anda juga dapat membuat metrik berbasis log dari halaman Metrik berbasis log, menggunakan perintah CLI gcloud logging metrics create atau dengan resource Terraform google_logging_metric.

Untuk membuat data metrik, buka URL layanan. Muat ulang halaman yang terbuka beberapa kali untuk melakukan beberapa panggilan ke model. Seperti sebelumnya, coba gunakan hewan yang berbeda dalam parameter.

Masukkan kueri PromQL untuk menelusuri data metrik berbasis log. Untuk memasukkan kueri PromQL, lakukan hal berikut:

  1. Klik tombol di bawah untuk membuka halaman Metrics Explorer di konsol Cloud:

  2. Di toolbar panel pembuat kueri, pilih tombol yang namanya < > MQL atau < > PromQL. Lihat gambar di bawah untuk mengetahui lokasi tombol.
    Lokasi tombol MQL di Metrics Explorer
  3. Pastikan PromQL dipilih di tombol Language. Tombol bahasa berada di toolbar yang sama dengan yang memungkinkan Anda memformat kueri.
  4. Masukkan kueri Anda ke editor Kueri:
    sum(rate(logging_googleapis_com:user_model_interaction_count{monitored_resource="cloud_run_revision"}[${__interval}]))
    Untuk informasi selengkapnya tentang penggunaan PromQL, lihat PromQL di Cloud Monitoring.
  5. Klik Run Query. Anda akan melihat diagram garis yang mirip dengan screenshot ini:
    Menampilkan metrik yang dikueri

    Perhatikan bahwa saat tombol Jalankan Otomatis diaktifkan, tombol Jalankan Kueri tidak akan ditampilkan.

10. (Opsional) Menggunakan Open Telemetry untuk pemantauan dan perekaman aktivitas

Seperti yang disebutkan pada langkah sebelumnya, Anda dapat menerapkan metrik menggunakan OpenTelemetry (Otel) SDK. Menggunakan OTel pada arsitektur microservice adalah praktik yang direkomendasikan. Langkah ini menjelaskan hal berikut:

  • Melakukan inisialisasi komponen OTel untuk mendukung pelacakan dan pemantauan aplikasi
  • Mengisi konfigurasi OTel dengan metadata resource lingkungan Cloud Run
  • Menginstrumentasikan aplikasi flask dengan kemampuan pelacakan otomatis
  • Mengimplementasikan metrik penghitung untuk memantau jumlah panggilan model yang berhasil
  • Menghubungkan pelacakan dengan log aplikasi

Arsitektur yang direkomendasikan untuk layanan tingkat produk adalah menggunakan pengumpul OTel untuk mengumpulkan dan menyerap semua data visibilitas untuk satu atau beberapa layanan. Kode dalam langkah ini tidak menggunakan kolektor agar lebih praktis. Sebagai gantinya, alat ini menggunakan ekspor OTel yang menulis data langsung ke Google Cloud.

Menyiapkan komponen OTel untuk pelacakan dan pemantauan metrik

  1. Kembali ke jendela (atau tab) 'Cloud Shell' di browser Anda.
  2. Di terminal, perbarui requirements.txt dengan daftar dependensi tambahan:
    cat >> ~/codelab-o11y/requirements.txt << EOF
    opentelemetry-api==1.24.0
    opentelemetry-sdk==1.24.0
    opentelemetry-exporter-otlp-proto-http==1.24.0
    opentelemetry-instrumentation-flask==0.45b0
    opentelemetry-instrumentation-requests==0.45b0
    opentelemetry-exporter-gcp-trace==1.7.0
    opentelemetry-exporter-gcp-monitoring==1.7.0a0  
    EOF
  3. Buat file baru setup_opentelemetry.py:
    cloudshell edit ~/codelab-o11y/setup_opentelemetry.py
    File kosong kini akan muncul di jendela editor di atas terminal.
  4. Salin kode berikut dan tempelkan ke dalam file setup_opentelemetry.py yang terbuka:
    import os

    from opentelemetry import metrics
    from opentelemetry import trace
    from opentelemetry.exporter.cloud_monitoring import CloudMonitoringMetricsExporter
    from opentelemetry.exporter.cloud_trace import CloudTraceSpanExporter
    from opentelemetry.resourcedetector.gcp_resource_detector import GoogleCloudResourceDetector
    from opentelemetry.sdk.metrics import MeterProvider
    from opentelemetry.sdk.trace import TracerProvider
    from opentelemetry.sdk.metrics.export import PeriodicExportingMetricReader
    from opentelemetry.sdk.resources import get_aggregated_resources, Resource, CLOUD_ACCOUNT_ID, SERVICE_NAME
    from opentelemetry.sdk.trace.export import BatchSpanProcessor

    resource = get_aggregated_resources(
       
    [GoogleCloudResourceDetector(raise_on_error=True)]
    )
    resource = resource.merge(Resource.create(attributes={
       
    SERVICE_NAME: os.getenv("K_SERVICE"),
    }))

    meter_provider = MeterProvider(
       
    resource=resource,
       
    metric_readers=[
           
    PeriodicExportingMetricReader(
               
    CloudMonitoringMetricsExporter(), export_interval_millis=5000
           
    )
       
    ],
    )
    metrics.set_meter_provider(meter_provider)
    meter = metrics.get_meter(__name__)

    trace_provider = TracerProvider(resource=resource)
    processor = BatchSpanProcessor(CloudTraceSpanExporter(
       
    # send all resource attributes
       
    resource_regex=r".*"
    ))
    trace_provider.add_span_processor(processor)
    trace.set_tracer_provider(trace_provider)

    def google_trace_id_format(trace_id: int) -> str:
       
    project_id = resource.attributes[CLOUD_ACCOUNT_ID]
       
    return f'projects/{project_id}/traces/{trace.format_trace_id(trace_id)}'
    Setelah beberapa detik, Editor Cloud Shell akan otomatis menyimpan kode Anda.

Menginstrumentasi kode aplikasi dengan kemampuan pelacakan dan pemantauan menggunakan OTel

  1. Di terminal, buka kembali main.py:
    cloudshell edit ~/codelab-o11y/main.py
  2. Lakukan perubahan berikut pada kode aplikasi:
    1. Sebelum baris import os (baris 1), masukkan kode berikut (perhatikan baris kosong di bagian akhir):
      from setup_opentelemetry import google_trace_id_format
      from opentelemetry import metrics, trace
      from opentelemetry.instrumentation.requests import RequestsInstrumentor
      from opentelemetry.instrumentation.flask import FlaskInstrumentor

    2. Setelah deklarasi metode format() (baris 9), masukkan kode berikut (perhatikan indentasi):
              span = trace.get_current_span()
    3. Setelah baris 13 (berisi "message": record.getMessage()), sisipkan kode berikut (perhatikan indentasi):
                  "logging.googleapis.com/trace": google_trace_id_format(span.get_span_context().trace_id),
                 
      "logging.googleapis.com/spanId": trace.format_span_id(span.get_span_context().span_id),
      Dua atribut tambahan ini membantu mengorelasi log aplikasi dan span pelacakan OTel.
    4. Setelah baris app = Flask(__name__) (baris 31), sisipkan kode berikut:
      FlaskInstrumentor().instrument_app(app)
      RequestsInstrumentor().instrument()
      Baris ini melengkapi semua permintaan masuk dan keluar dari aplikasi flask dengan pelacakan.
    5. Tepat setelah kode baru yang ditambahkan (setelah baris 33), tambahkan kode berikut:
      meter = metrics.get_meter(__name__)
      requests_counter = meter.create_counter(
         
      name="model_call_counter",
         
      description="number of model invocations",
         
      unit="1"
      )
      Baris ini membuat metrik penghitung jenis baru dengan nama model_call_counter dan mendaftarkannya untuk diekspor.
    6. Setelah panggilan ke logger.debug() (baris 49), sisipkan kode berikut:
          requests_counter.add(1, {'animal': animal})
      Perubahan ini akan menambah penghitung sebesar 1 setiap kali aplikasi berhasil memanggil Vertex API untuk berinteraksi dengan model Gemini.

Men-deploy kode aplikasi AI Generatif ke Cloud Run

  1. Di jendela terminal, jalankan perintah untuk men-deploy kode sumber aplikasi ke Cloud Run.
    gcloud run deploy codelab-o11y-service \
         
    --source="${HOME}/codelab-o11y/" \
         
    --region=us-central1 \
         
    --allow-unauthenticated
    Jika Anda melihat perintah seperti di bawah ini, yang memberi tahu Anda bahwa perintah tersebut akan membuat repositori baru. Klik Enter.
    Deploying from source requires an Artifact Registry Docker repository to store built containers.
    A repository named [cloud-run-source-deploy] in region [us-central1] will be created.
    
    Do you want to continue (Y/n)?
    
    Proses deployment dapat memerlukan waktu hingga beberapa menit. Setelah proses deployment selesai, Anda akan melihat output seperti:
    Service [codelab-o11y-service] revision [codelab-o11y-service-00001-t2q] has been deployed and is serving 100 percent of traffic.
    Service URL: https://codelab-o11y-service-12345678901.us-central1.run.app
    
  2. Salin URL layanan Cloud Run yang ditampilkan ke tab atau jendela terpisah di browser Anda. Atau, jalankan perintah berikut di terminal untuk mencetak URL layanan dan klik URL yang ditampilkan sambil menahan tombol Ctrl untuk membuka URL:
    gcloud run services list \
         
    --format='value(URL)' \
         
    --filter='SERVICE:"codelab-o11y-service"'
    Saat URL dibuka, Anda mungkin mendapatkan error 500 atau melihat pesan:
    Sorry, this is just a placeholder...
    
    Artinya, layanan tidak menyelesaikan deployment-nya. Tunggu beberapa saat, lalu muat ulang halaman. Di bagian akhir, Anda akan melihat teks yang diawali dengan Fakta Menarik tentang dan berisi 10 fakta menarik tentang.

Untuk membuat data telemetri, buka URL layanan. Muat ulang halaman sambil mengubah nilai parameter ?animal= untuk mendapatkan hasil yang berbeda.

Menjelajahi rekaman aktivitas aplikasi

  1. Klik tombol di bawah untuk membuka halaman Trace Explorer di konsol Cloud:

  2. Pilih salah satu rekaman aktivitas terbaru. Anda akan melihat 5 atau 6 span yang terlihat seperti pada screenshot di bawah.
    Tampilan span aplikasi di Penjelajah trace
  3. Temukan span yang melacak panggilan ke pengendali peristiwa (metode fun_facts). Ini akan menjadi span terakhir dengan nama /.
  4. Di panel Trace details, pilih Logs & events. Anda akan melihat log aplikasi yang berkorelasi dengan span tertentu ini. Korelasi terdeteksi menggunakan ID trace dan span dalam trace dan dalam log. Anda akan melihat log aplikasi yang menulis perintah dan respons Vertex API.

Menjelajahi metrik penghitung

  1. Klik tombol di bawah untuk membuka halaman Metrics Explorer di konsol Cloud:

  2. Di toolbar panel pembuat kueri, pilih tombol yang namanya < > MQL atau < > PromQL. Lihat gambar di bawah untuk mengetahui lokasi tombol.
    Lokasi tombol MQL di Metrics Explorer
  3. Pastikan PromQL dipilih di tombol Language. Tombol bahasa berada di toolbar yang sama dengan yang memungkinkan Anda memformat kueri.
  4. Masukkan kueri Anda ke editor Kueri:
    sum(rate(workload_googleapis_com:model_call_counter{monitored_resource="generic_task"}[${__interval}]))
  5. Klik Run Query.Jika tombol Auto-run diaktifkan, tombol Run Query tidak akan ditampilkan.

11. (Opsional) Informasi sensitif yang di-obfuscate dari log

Pada Langkah 10, kita mencatat informasi tentang interaksi aplikasi dengan model Gemini. Informasi ini mencakup nama hewan, perintah sebenarnya, dan respons model. Meskipun menyimpan informasi ini dalam log seharusnya aman, hal ini tidak perlu dilakukan untuk banyak skenario lainnya. Perintah ini dapat mencakup beberapa informasi pribadi atau sensitif yang tidak ingin disimpan oleh pengguna. Untuk mengatasi hal ini, Anda dapat mengaburkan data sensitif yang ditulis ke Cloud Logging. Untuk meminimalkan perubahan kode, solusi berikut direkomendasikan.

  1. Membuat topik PubSub untuk menyimpan entri log yang masuk
  2. Buat sink log yang mengalihkan log yang diserap ke topik PubSub.
  3. Buat pipeline Dataflow yang mengubah log yang dialihkan ke topik PubSub dengan mengikuti langkah-langkah berikut:
    1. Membaca entri log dari topik PubSub
    2. Memeriksa payload entri untuk menemukan informasi sensitif menggunakan DLP inspection API
    3. Samarkan informasi sensitif dalam payload menggunakan salah satu metode penyamaran DLP
    4. Menulis entri log yang di-obfuscate ke Cloud Logging
  4. Men-deploy pipeline

12. (Opsional) Membersihkan

Untuk menghindari risiko dikenai biaya untuk resource dan API yang digunakan dalam codelab, sebaiknya bersihkan setelah Anda menyelesaikan lab. Cara termudah untuk menghilangkan penagihan adalah dengan menghapus project yang Anda buat untuk codelab.

  1. Untuk menghapus project, jalankan perintah hapus project di terminal:
    PROJECT_ID=$(gcloud config get-value project)
    gcloud projects delete ${PROJECT_ID} --quiet
    Menghapus project Cloud akan menghentikan penagihan untuk semua resource dan API yang digunakan dalam project tersebut. Anda akan melihat pesan ini dengan PROJECT_ID sebagai project ID Anda:
    Deleted [https://cloudresourcemanager.googleapis.com/v1/projects/PROJECT_ID].
    
    You can undo this operation for a limited period by running the command below.
        $ gcloud projects undelete PROJECT_ID
    
    See https://cloud.google.com/resource-manager/docs/creating-managing-projects for information on shutting down projects.
    
  2. (Opsional) Jika Anda menerima error, lihat Langkah 5 untuk menemukan project ID yang Anda gunakan selama lab. Ganti dengan perintah dalam petunjuk pertama. Misalnya, jika project ID Anda adalah lab-example-project, perintahnya adalah:
    gcloud projects delete lab-project-id-example --quiet

13. Selamat

Di lab ini, Anda telah membuat aplikasi AI Generatif yang menggunakan model Gemini untuk membuat prediksi. Dan melengkapi aplikasi dengan kemampuan pemantauan dan logging yang penting. Anda telah men-deploy aplikasi dan perubahan dari kode sumber ke Cloud Run. Kemudian, Anda dapat menggunakan produk Google Cloud Observability untuk melacak performa aplikasi, sehingga Anda dapat memastikan keandalan aplikasi.

Jika Anda tertarik untuk diikutsertakan dalam studi riset pengalaman pengguna (UX) untuk meningkatkan kualitas produk yang Anda gunakan saat ini, daftar di sini.

Berikut beberapa opsi untuk melanjutkan pembelajaran Anda: