1. Ringkasan
Dalam lanskap retail yang serba cepat saat ini, memberikan layanan pelanggan yang luar biasa sekaligus memungkinkan pengalaman belanja yang dipersonalisasi adalah hal yang sangat penting. Kami akan mengajak Anda melakukan perjalanan teknis melalui pembuatan aplikasi chat berbasis pengetahuan yang dirancang untuk menjawab pertanyaan pelanggan, memandu penemuan produk, dan menyesuaikan hasil penelusuran. Solusi inovatif ini menggabungkan kecanggihan AlloyDB untuk penyimpanan data, mesin analisis internal untuk pemahaman kontekstual, Gemini (Large Language Model) untuk validasi relevansi, dan Agent Builder Google untuk mem-bootstrap asisten percakapan cerdas dengan cepat.
Tantangan: Pelanggan retail modern mengharapkan jawaban instan dan rekomendasi produk yang sesuai dengan preferensi unik mereka. Metode penelusuran tradisional sering kali tidak dapat memberikan personalisasi tingkat ini.
Solusi: Aplikasi chat berbasis pengetahuan kami mengatasi tantangan ini secara langsung. Solusi ini memanfaatkan pusat informasi yang lengkap yang berasal dari data retail Anda untuk memahami niat pelanggan, merespons dengan cerdas, dan memberikan hasil yang sangat relevan.
Yang akan Anda build
Sebagai bagian dari lab ini (Bagian 1), Anda akan:
- Membuat instance AlloyDB dan memuat Set Data E-commerce
- Mengaktifkan ekstensi model AI generatif dan pgvector di AlloyDB
- Membuat penyematan dari deskripsi produk
- Melakukan penelusuran kemiripan Cosine real-time untuk teks penelusuran pengguna
- Men-deploy solusi di Cloud Run Functions serverless
Bagian kedua lab ini akan membahas langkah-langkah Agent Builder.
Persyaratan
2. Arsitektur
Aliran Data: Mari kita pelajari lebih lanjut cara data bergerak melalui sistem kita:
Proses transfer:
Langkah pertama kita adalah menyerap data Retail (inventaris, deskripsi produk, interaksi pelanggan) ke AlloyDB.
Mesin Analytics:
Kita akan menggunakan AlloyDB sebagai mesin analisis untuk melakukan hal berikut:
- Ekstraksi Konteks: Mesin menganalisis data yang disimpan dalam AlloyDB untuk memahami hubungan antara produk, kategori, perilaku pelanggan, dll. sebagaimana berlaku.
- Pembuatan Embedding: Embedding (representasi matematika teks) dibuat untuk kueri pengguna dan informasi yang disimpan di AlloyDB.
- Penelusuran Vektor: Mesin ini melakukan penelusuran kesamaan, yang membandingkan penyematan kueri dengan penyematan deskripsi produk, ulasan, dan data relevan lainnya. Hal ini mengidentifikasi 25 "tetangga terdekat" yang paling relevan.
Validasi Gemini:
Respons potensial ini dikirim ke Gemini untuk penilaian. Gemini menentukan apakah informasi tersebut benar-benar relevan dan aman untuk dibagikan kepada pengguna.
Pembuatan Respons:
Respons yang divalidasi disusun ke dalam array JSON dan seluruh mesin dikemas ke dalam Fungsi Cloud Run serverless yang dipanggil dari Builder Agen.
Interaksi Percakapan:
Pembuat Agen menampilkan respons kepada pengguna dalam format bahasa alami, yang memfasilitasi dialog dua arah. Bagian ini akan dibahas dalam lab lanjutan.
3. Sebelum memulai
Membuat project
- Di Konsol Google Cloud, di halaman pemilih project, pilih atau buat project Google Cloud.
- Pastikan penagihan diaktifkan untuk project Cloud Anda. Pelajari cara memeriksa apakah penagihan telah diaktifkan pada suatu project .
- Anda akan menggunakan Cloud Shell, lingkungan command line yang berjalan di Google Cloud yang telah dilengkapi dengan bq. Klik Aktifkan Cloud Shell di bagian atas konsol Google Cloud.
- Setelah terhubung ke Cloud Shell, Anda akan memeriksa bahwa Anda sudah diautentikasi dan project ditetapkan ke project ID Anda menggunakan perintah berikut:
gcloud auth list
- Jalankan perintah berikut di Cloud Shell untuk mengonfirmasi bahwa perintah gcloud mengetahui project Anda.
gcloud config list project
- Jika project Anda belum ditetapkan, gunakan perintah berikut untuk menetapkannya:
gcloud config set project <YOUR_PROJECT_ID>
- Mengaktifkan API yang diperlukan.
gcloud services enable alloydb.googleapis.com \
compute.googleapis.com \
cloudresourcemanager.googleapis.com \
servicenetworking.googleapis.com \
run.googleapis.com \
cloudbuild.googleapis.com \
cloudfunctions.googleapis.com \
aiplatform.googleapis.com
Alternatif untuk perintah gcloud adalah melalui konsol dengan menelusuri setiap produk atau menggunakan link ini.
Jika ada API yang terlewat, Anda dapat mengaktifkannya kapan saja selama penerapan.
Baca dokumentasi untuk mempelajari perintah gcloud dan penggunaannya.
4. Penyiapan database
Di lab ini, kita akan menggunakan AlloyDB sebagai database untuk menyimpan data retail. Layanan ini menggunakan cluster untuk menyimpan semua resource, seperti database dan log. Setiap cluster memiliki instance utama yang menyediakan titik akses ke data. Tabel akan menyimpan data sebenarnya.
Mari kita buat cluster, instance, dan tabel AlloyDB tempat set data e-commerce akan dimuat.
Membuat cluster dan instance
- Buka halaman AlloyDB di Cloud Console. Cara mudah untuk menemukan sebagian besar halaman di Cloud Console adalah dengan menelusurinya menggunakan kotak penelusuran konsol.
- Pilih BUAT CLUSTER dari halaman tersebut:
- Anda akan melihat layar seperti di bawah. Buat cluster dan instance dengan nilai berikut:
- id cluster: "
shopping-cluster
" - sandi: "
alloydb
" - Kompatibel dengan PostgreSQL 15
- Region: "
us-central1
" - Jaringan: "
default
"
- Saat memilih jaringan default, Anda akan melihat layar seperti di bawah ini. Pilih SIAPAKAN KONEKSI.
- Dari sana, pilih "Gunakan rentang IP yang dialokasikan secara otomatis" dan Lanjutkan. Setelah meninjau informasi, pilih BUAT KONEKSI.
- Setelah jaringan disiapkan, Anda dapat terus membuat cluster. Klik CREATE CLUSTER untuk menyelesaikan penyiapan cluster seperti yang ditunjukkan di bawah:
Pastikan untuk mengubah instance ID menjadi "shopping-instance"
.
Perhatikan bahwa pembuatan Cluster akan memerlukan waktu sekitar 10 menit. Setelah berhasil, Anda akan melihat layar yang terlihat seperti ini:
5. Penyerapan data
Sekarang saatnya menambahkan tabel dengan data tentang toko. Buka AlloyDB, pilih cluster utama, lalu AlloyDB Studio:
Anda mungkin perlu menunggu hingga instance selesai dibuat. Setelah selesai, login ke AlloyDB menggunakan kredensial yang Anda buat saat membuat cluster. Gunakan data berikut untuk mengautentikasi ke PostgreSQL:
- Nama pengguna : "
postgres
" - Database : "
postgres
" - Sandi : "
alloydb
"
Setelah Anda berhasil melakukan autentikasi ke AlloyDB Studio, perintah SQL akan dimasukkan di Editor. Anda dapat menambahkan beberapa jendela Editor menggunakan tanda plus di sebelah kanan jendela terakhir.
Anda akan memasukkan perintah untuk AlloyDB di jendela editor, menggunakan opsi Run, Format, dan Clear sesuai kebutuhan.
Mengaktifkan Ekstensi
Untuk mem-build aplikasi ini, kita akan menggunakan ekstensi pgvector
dan google_ml_integration
. Ekstensi pgvector memungkinkan Anda menyimpan dan menelusuri embedding vektor. Ekstensi google_ml_integration menyediakan fungsi yang Anda gunakan untuk mengakses endpoint prediksi Vertex AI guna mendapatkan prediksi di SQL. Aktifkan ekstensi ini dengan menjalankan DDL berikut:
CREATE EXTENSION IF NOT EXISTS google_ml_integration CASCADE;
CREATE EXTENSION IF NOT EXISTS vector;
Jika Anda ingin memeriksa ekstensi yang telah diaktifkan di database, jalankan perintah SQL ini:
select extname, extversion from pg_extension;
Membuat tabel
Buat tabel menggunakan pernyataan DDL di bawah:
CREATE TABLE
apparels ( id BIGINT,
category VARCHAR(100),
sub_category VARCHAR(50),
uri VARCHAR(200),
image VARCHAR(100),
content VARCHAR(2000),
pdt_desc VARCHAR(5000),
embedding vector(768) );
Setelah berhasil menjalankan perintah di atas, Anda akan dapat melihat tabel di database. Contoh screenshot ditampilkan di bawah ini:
Menyerap data
Untuk lab ini, kita memiliki data pengujian sekitar 200 data dalam file SQL ini. Berisi id, category, sub_category, uri, image
, dan content
. Kolom lainnya akan diisi nanti di lab.
Salin 20 baris/insert statement dari sana, lalu tempel baris tersebut di tab editor kosong dan pilih RUN.
Untuk melihat konten tabel, luaskan bagian Penjelajah hingga Anda dapat melihat tabel bernama apparels. Pilih titik tiga (⋮) untuk melihat opsi Buat kueri tabel. Pernyataan SELECT akan terbuka di tab Editor baru.
Berikan Izin
Jalankan pernyataan di bawah untuk memberikan hak eksekusi pada fungsi embedding
kepada pengguna postgres
:
GRANT EXECUTE ON FUNCTION embedding TO postgres;
Memberikan PERAN Pengguna Vertex AI ke akun layanan AlloyDB
Buka terminal Cloud Shell dan berikan perintah berikut:
PROJECT_ID=$(gcloud config get-value project)
gcloud projects add-iam-policy-binding $PROJECT_ID \
--member="serviceAccount:service-$(gcloud projects describe $PROJECT_ID --format="value(projectNumber)")@gcp-sa-alloydb.iam.gserviceaccount.com" \
--role="roles/aiplatform.user"
6. Konteks
Kembali ke halaman Instance AlloyDB.
Untuk membuat penyematan, kita harus memiliki context
, yaitu semua informasi yang ingin disertakan dalam satu kolom. Kita akan melakukannya dengan membuat deskripsi produk (yang akan kita sebut pdt_desc
). Dalam kasus ini, kita akan menggunakan semua informasi tentang setiap produk, tetapi saat Anda melakukannya dengan data Anda sendiri, jangan ragu untuk membuat data dengan cara apa pun yang menurut Anda bermakna bagi bisnis Anda.
Jalankan pernyataan berikut dari studio AlloyDB dari instance yang baru Anda buat. Tindakan ini akan memperbarui kolom pdt_desc dengan data konteks:
UPDATE
apparels
SET
pdt_desc = CONCAT('This product category is: ', category, ' and sub_category is: ', sub_category, '. The description of the product is as follows: ', content, '. The product image is stored at: ', uri)
WHERE
id IS NOT NULL;
DML ini membuat ringkasan konteks sederhana menggunakan informasi dari semua kolom yang tersedia dalam tabel dan dependensi lainnya (jika ada dalam kasus penggunaan Anda). Untuk mendapatkan berbagai informasi dan pembuatan konteks yang lebih akurat, jangan ragu untuk merekayasa data dengan cara apa pun yang menurut Anda bermakna bagi bisnis Anda.
7. Membuat penyematan untuk konteks
Komputer jauh lebih mudah memproses angka daripada memproses teks. Sistem penyematan mengonversi teks menjadi serangkaian bilangan floating point yang akan mewakili teks, terlepas dari bagaimana susunan kata-katanya, bahasa yang digunakan, dll.
Pertimbangkan untuk mendeskripsikan lokasi tepi pantai. Hotel ini mungkin disebut "on the water", "beachfront", "walk from your room to the ocean", "sur la mer", "на берегу океана", dll. Semua istilah ini terlihat berbeda, tetapi makna semantiknya atau dalam terminologi machine learning, penyematan mereka harus sangat mirip satu sama lain.
Setelah data dan konteks siap, kita akan menjalankan SQL untuk menambahkan penyematan deskripsi produk ke tabel di kolom embedding
. Ada berbagai model penyematan yang dapat Anda gunakan. Kita menggunakan text-embedding-004
dari Vertex AI. Pastikan untuk menggunakan model penyematan yang sama di seluruh project.
Catatan: Jika menggunakan Project Google Cloud yang sudah ada dan dibuat beberapa waktu lalu, Anda mungkin perlu terus menggunakan model penyematan teks versi lama seperti textembedding-gecko.
UPDATE
apparels
SET
embedding = embedding( 'text-embedding-004',
pdt_desc)
WHERE
TRUE;
Lihat kembali tabel apparels
untuk melihat beberapa penyematan. Pastikan untuk menjalankan ulang pernyataan SELECT untuk melihat perubahan.
SELECT
id,
category,
sub_category,
content,
embedding
FROM
apparels;
Tindakan ini akan menampilkan vektor penyematan, yang terlihat seperti array float, untuk contoh teks dalam kueri seperti yang ditunjukkan di bawah ini:
Catatan: Project Google Cloud yang baru dibuat dalam paket gratis mungkin mengalami masalah kuota terkait jumlah permintaan penyematan yang diizinkan per detik ke model Penyematan. Sebaiknya gunakan kueri filter untuk ID, lalu pilih 1-5 data secara selektif dan seterusnya, saat membuat penyematan.
8. Melakukan penelusuran Vektor
Setelah tabel, data, dan penyematan siap, mari kita lakukan penelusuran vektor real-time untuk teks penelusuran pengguna.
Misalkan pengguna bertanya:
"Saya ingin atasan wanita, kasual merah muda hanya katun murni."
Anda dapat menemukan kecocokan untuk hal ini dengan menjalankan kueri di bawah:
SELECT
id,
category,
sub_category,
content,
pdt_desc AS description
FROM
apparels
ORDER BY
embedding <=> embedding('text-embedding-004',
'I want womens tops, pink casual only pure cotton.')::vector
LIMIT
5;
Mari kita lihat kueri ini secara mendetail:
Dalam kueri ini,
- Teks penelusuran pengguna adalah: "Saya ingin atasan wanita, kasual merah muda hanya katun murni."
- Kita mengonversinya menjadi penyematan dalam metode
embedding()
menggunakan model:text-embedding-004
. Langkah ini akan terlihat familier setelah langkah terakhir, saat kita menerapkan fungsi penyematan ke semua item dalam tabel. - "
<=>
" mewakili penggunaan metode jarak COSINE SIMILARITY. Anda dapat menemukan semua ukuran kesamaan yang tersedia di dokumentasi pgvector. - Kita mengonversi hasil metode penyematan ke jenis vektor agar kompatibel dengan vektor yang disimpan dalam database.
- LIMIT 5 menunjukkan bahwa kita ingin mengekstrak 5 tetangga terdekat untuk teks penelusuran.
Hasilnya akan terlihat seperti ini:
Seperti yang dapat Anda amati dalam hasil, kecocokan cukup dekat dengan teks penelusuran. Coba ubah warna untuk melihat perubahan hasilnya.
9. Validasi Kecocokan dengan LLM
Sebelum melanjutkan dan membuat layanan untuk menampilkan kecocokan terbaik ke aplikasi, mari kita gunakan model AI generatif untuk memvalidasi apakah potensi respons ini benar-benar relevan dan aman untuk dibagikan kepada pengguna.
Memastikan instance disiapkan untuk Gemini
Pertama, periksa apakah Integrasi Google ML sudah diaktifkan untuk Cluster dan Instance Anda. Di AlloyDB Studio, berikan perintah berikut:
show google_ml_integration.enable_model_support;
Jika nilai ditampilkan sebagai "aktif", Anda dapat melewati 2 langkah berikutnya dan langsung menyiapkan integrasi Model AlloyDB dan Vertex AI.
- Buka instance utama cluster AlloyDB Anda, lalu klik EDIT PRIMARY INSTANCE
- Buka bagian Flags di Advanced Configuration Options. dan pastikan
google_ml_integration.enable_model_support flag
ditetapkan ke "on
" seperti yang ditunjukkan di bawah ini:
Jika tidak disetel ke "aktif", setel ke "aktif", lalu klik tombol UPDATE INSTANCE. Langkah ini akan memerlukan waktu beberapa menit.
Integrasi AlloyDB dan Model Vertex AI
Sekarang Anda dapat terhubung ke AlloyDB Studio dan menjalankan pernyataan DML berikut untuk menyiapkan akses model Gemini dari AlloyDB, menggunakan project ID Anda jika ditunjukkan. Anda mungkin akan mendapatkan peringatan tentang error sintaksis sebelum menjalankan perintah, tetapi perintah tersebut akan berjalan dengan baik.
Pertama, kita membuat koneksi model Gemini 1.5 seperti yang ditunjukkan di bawah. Jangan lupa untuk mengganti $PROJECT_ID
dalam perintah di bawah dengan ID Project Google Cloud Anda.
CALL
google_ml.create_model( model_id => 'gemini-1.5',
model_request_url => 'https://us-central1-aiplatform.googleapis.com/v1/projects/$PROJECT_ID/locations/us-central1/publishers/google/models/gemini-1.5-pro:streamGenerateContent',
model_provider => 'google',
model_auth_type => 'alloydb_service_agent_iam');
Anda dapat memeriksa model yang dikonfigurasi untuk akses melalui perintah berikut di AlloyDB Studio:
select model_id,model_type from google_ml.model_info_view;
Terakhir, kita perlu memberikan izin kepada pengguna database untuk menjalankan fungsi ml_predict_row guna menjalankan prediksi melalui model Google Vertex AI. Jalankan perintah berikut:
GRANT EXECUTE ON FUNCTION ml_predict_row to postgres;
Catatan: Jika Anda menggunakan Project Google Cloud yang ada dan cluster/instance AlloyDB yang ada yang dibuat beberapa waktu lalu, Anda mungkin perlu menghapus referensi lama ke model gemini-1.5 dan membuat lagi dengan pernyataan CALL di atas dan menjalankan grant execute pada fungsi ml_predict_row lagi jika Anda mengalami masalah dalam pemanggilan gemini-1.5 mendatang.
Mengevaluasi respons
Meskipun kita akan menggunakan satu kueri besar di bagian berikutnya untuk memastikan respons dari kueri tersebut wajar, kueri tersebut mungkin sulit dipahami. Kita akan melihat bagian-bagiannya sekarang dan melihat cara penyatuannya dalam beberapa menit.
- Pertama, kita akan mengirim permintaan ke database untuk mendapatkan 5 kecocokan terdekat dengan kueri pengguna. Kita akan melakukan hard code pada kueri agar tetap sederhana, tetapi jangan khawatir, kita akan melakukan interpolasi ke dalam kueri nanti. Kita menyertakan deskripsi produk dari tabel
apparels
dan menambahkan dua kolom baru–satu yang menggabungkan deskripsi dengan indeks dan satu lagi dengan permintaan asli. Semua ini disimpan dalam tabel yang disebutxyz
(hanya nama tabel sementara).
CREATE TABLE
xyz AS
SELECT
id || ' - ' || pdt_desc AS literature,
pdt_desc AS content,
'I want womens tops, pink casual only pure cotton.' AS user_text
FROM
apparels
ORDER BY
embedding <=> embedding('text-embedding-004',
'I want womens tops, pink casual only pure cotton.')::vector
LIMIT
5;
Output kueri ini akan berupa 5 baris yang paling mirip dengan kueri pengguna. Tabel baru xyz akan berisi 5 baris dengan setiap baris memiliki kolom berikut:
literature
content
user_text
- Untuk menentukan validitas respons, kita akan menggunakan kueri rumit yang menjelaskan cara mengevaluasi respons. Fungsi ini menggunakan
user_text
dancontent
dalam tabelxyz
sebagai bagian dari kueri.
"Read this user search text: ', user_text,
' Compare it against the product inventory data set: ', content,
' Return a response with 3 values: 1) MATCH: if the 2 contexts are at least 85% matching or not: YES or NO 2) PERCENTAGE: percentage of match, make sure that this percentage is accurate 3) DIFFERENCE: A clear short easy description of the difference between the 2 products. Remember if the user search text says that some attribute should not be there, and the record has it, it should be a NO match."
- Dengan menggunakan kueri tersebut, kita akan meninjau "kebaikan" respons dalam tabel
xyz
.
CREATE TABLE
x AS
SELECT
json_array_elements( google_ml.predict_row( model_id => 'gemini-1.5',
request_body => CONCAT('{
"contents": [
{ "role": "user",
"parts":
[ { "text": "Read this user search text: ', user_text, ' Compare it against the product inventory data set: ', content, ' Return a response with 3 values: 1) MATCH: if the 2 contexts are at least 85% matching or not: YES or NO 2) PERCENTAGE: percentage of match, make sure that this percentage is accurate 3) DIFFERENCE: A clear short easy description of the difference between the 2 products. Remember if the user search text says that some attribute should not be there, and the record has it, it should be a NO match."
} ]
}
] }'
)::json))-> 'candidates' -> 0 -> 'content' -> 'parts' -> 0 -> 'text'
AS LLM_RESPONSE
FROM
xyz;
predict_row
menampilkan hasilnya dalam format JSON. Kode "-> 'candidates' -> 0 -> 'content' -> 'parts' -> 0 -> 'text'"
digunakan untuk mengekstrak teks sebenarnya dari JSON tersebut. Untuk melihat JSON yang sebenarnya ditampilkan, Anda dapat menghapus kode ini.- Terakhir, untuk mendapatkan kolom LLM, Anda hanya perlu mengekstraknya dari tabel x:
SELECT
LLM_RESPONSE
FROM
x;
- Hal ini dapat digabungkan menjadi satu kueri berikutnya sebagai berikut.
Anda harus menghapus tabel xyz dan x dari database AlloyDB sebelum menjalankan ini, jika telah menjalankan kueri di atas untuk memeriksa hasil perantara.
SELECT
LLM_RESPONSE
FROM (
SELECT
json_array_elements( google_ml.predict_row( model_id => 'gemini-1.5',
request_body => CONCAT('{
"contents": [
{ "role": "user",
"parts":
[ { "text": "Read this user search text: ', user_text, ' Compare it against the product inventory data set: ', content, ' Return a response with 3 values: 1) MATCH: if the 2 contexts are at least 85% matching or not: YES or NO 2) PERCENTAGE: percentage of match, make sure that this percentage is accurate 3) DIFFERENCE: A clear short easy description of the difference between the 2 products. Remember if the user search text says that some attribute should not be there, and the record has it, it should be a NO match."
} ]
}
] }'
)::json))-> 'candidates' -> 0 -> 'content' -> 'parts' -> 0 -> 'text'
AS LLM_RESPONSE
FROM (
SELECT
id || ' - ' || pdt_desc AS literature,
pdt_desc AS content,
'I want womens tops, pink casual only pure cotton.' user_text
FROM
apparels
ORDER BY
embedding <=> embedding('text-embedding-004',
'I want womens tops, pink casual only pure cotton.')::vector
LIMIT
5 ) AS xyz ) AS X;
Meskipun hal itu mungkin masih terlihat menakutkan, semoga Anda dapat memahaminya dengan lebih baik. Hasilnya akan menunjukkan apakah ada kecocokan atau tidak, persentase kecocokan, dan beberapa penjelasan tentang rating.
Perhatikan bahwa model Gemini mengaktifkan streaming secara default, sehingga respons sebenarnya tersebar di beberapa baris:
10. Mentransfer aplikasi ke web
Siap membawa aplikasi ini ke web? Ikuti langkah-langkah di bawah untuk membuat Knowledge Engine Serverless ini dengan Cloud Run Functions:
- Buka Cloud Run Functions di Google Cloud Console untuk MEMBUAT Cloud Run Function baru atau gunakan link: https://console.cloud.google.com/functions/add.
- Pilih Lingkungan sebagai "Fungsi Cloud Run". Berikan Nama Fungsi "retail-engine" dan pilih Region sebagai "us-central1". Tetapkan Autentikasi ke "Izinkan pemanggilan yang tidak diautentikasi", lalu klik BERIKUTNYA. Pilih Java 17 sebagai runtime dan Editor Inline untuk kode sumber.
- Secara default, titik entri akan ditetapkan ke "
gcfv2.HelloHttpFunction
". Ganti kode placeholder diHelloHttpFunction.java
danpom.xml
Fungsi Cloud Run Anda dengan kode dari file Java dan XML. - Jangan lupa untuk mengubah placeholder $PROJECT_ID dan kredensial koneksi AlloyDB dengan nilai Anda dalam file Java. Kredensial AlloyDB adalah kredensial yang telah kita gunakan di awal codelab ini. Jika Anda telah menggunakan nilai yang berbeda, ubah nilai yang sama dalam file Java.
- Klik Deploy.
Setelah di-deploy, agar Cloud Function dapat mengakses instance database AlloyDB, kita akan membuat konektor VPC.
LANGKAH PENTING:
Setelah menyiapkan deployment, Anda akan dapat melihat fungsi di konsol Cloud Run Functions Google. Telusuri fungsi yang baru dibuat (retail-engine
), klik fungsi tersebut, lalu klik EDIT dan ubah hal berikut:
- Buka Runtime, build, connections, and security settings
- Meningkatkan waktu tunggu menjadi 180 detik
- Buka tab KONEKSI:
- Di bagian setelan Traffic masuk, pastikan "Izinkan semua traffic" dipilih.
- Di bagian setelan Egress, klik dropdown Jaringan, lalu pilih opsi "Tambahkan Konektor VPC Baru" dan ikuti petunjuk yang Anda lihat di kotak dialog yang muncul:
- Berikan nama untuk Konektor VPC dan pastikan region-nya sama dengan instance Anda. Biarkan nilai Jaringan sebagai default dan tetapkan Subnet sebagai Rentang IP Kustom dengan rentang IP 10.8.0.0 atau yang serupa yang tersedia.
- Luaskan TAMPILAN SETELAN PENSCALAAN dan pastikan Anda telah menetapkan konfigurasi ke hal berikut:
- Klik CREATE dan konektor ini akan tercantum di setelan egress sekarang.
- Pilih konektor yang baru dibuat
- Pilih agar semua traffic dirutekan melalui konektor VPC ini.
- Klik BERIKUTNYA, lalu DEPLOY.
11. Uji aplikasi.
Setelah Cloud Function yang diperbarui di-deploy, Anda akan melihat endpoint dalam format berikut:
https://us-central1-YOUR_PROJECT_ID.cloudfunctions.net/retail-engine
Anda dapat mengujinya dari Terminal Cloud Shell dengan menjalankan perintah berikut:
gcloud functions call retail-engine --region=us-central1 --gen2 --data '{"search": "I want some kids clothes themed on Disney"}'
Atau, Anda dapat menguji Cloud Run Function sebagai berikut:
PROJECT_ID=$(gcloud config get-value project)
curl -X POST https://us-central1-$PROJECT_ID.cloudfunctions.net/retail-engine \
-H 'Content-Type: application/json' \
-d '{"search":"I want some kids clothes themed on Disney"}' \
| jq .
Dan hasilnya:
Selesai. Begitulah mudahnya melakukan Penelusuran Vektor Kesamaan menggunakan model Embedding pada data AlloyDB.
Mem-build Agen Percakapan
Agen dibuat di bagian 2 lab ini.
12. Pembersihan
Jika Anda berencana untuk menyelesaikan Bagian 2 lab ini, lewati langkah ini karena tindakan ini akan menghapus project saat ini.
Agar tidak menimbulkan biaya pada akun Google Cloud Anda untuk resource yang digunakan dalam postingan ini, ikuti langkah-langkah berikut:
- Di konsol Google Cloud, buka halaman Manage resources.
- Dalam daftar project, pilih project yang ingin Anda hapus, lalu klik Delete.
- Pada dialog, ketik project ID, lalu klik Shut down untuk menghapus project.
13. Selamat
Selamat! Anda telah berhasil melakukan penelusuran kemiripan menggunakan AlloyDB, pgvector, dan penelusuran Vektor. Dengan menggabungkan kemampuan AlloyDB, Vertex AI, dan Vector Search, kami telah melakukan lompatan besar dalam membuat penelusuran kontekstual dan vektor menjadi mudah diakses, efisien, dan benar-benar berbasis makna. Bagian berikutnya dari lab ini membahas langkah-langkah pembuatan agen.