Gỡ lỗi lời nhắc LLM bằng Công cụ diễn giải học tập (LIT) trên GCP

1. Tổng quan

Phòng thí nghiệm này cung cấp hướng dẫn chi tiết về cách triển khai một máy chủ ứng dụng LIT trên Google Cloud Platform (GCP) để tương tác với các mô hình nền tảng Vertex AI Gemini và các mô hình ngôn ngữ lớn (LLM) tự lưu trữ của bên thứ ba. Nội dung này cũng bao gồm hướng dẫn về cách sử dụng giao diện người dùng LIT để gỡ lỗi lời nhắc và diễn giải mô hình.

Khi thực hiện bài thực hành này, người dùng sẽ tìm hiểu cách:

  • Định cấu hình máy chủ LIT trên GCP.
  • Kết nối máy chủ LIT với các mô hình Gemini trên Vertex AI hoặc các mô hình ngôn ngữ lớn (LLM) tự lưu trữ khác.
  • Sử dụng giao diện người dùng LIT để phân tích, gỡ lỗi và diễn giải câu lệnh nhằm cải thiện hiệu suất và thông tin chi tiết của mô hình.

LIT là gì?

LIT là một công cụ trực quan, tương tác để tìm hiểu mô hình, hỗ trợ văn bản, hình ảnh và dữ liệu dạng bảng. Bạn có thể chạy công cụ này dưới dạng một máy chủ độc lập hoặc trong các môi trường sổ tay như Google Colab, Jupyter và Vertex AI của Google Cloud. Bạn có thể tải LIT xuống từ PyPIGitHub.

Ban đầu được xây dựng để hiểu các mô hình phân loại và hồi quy, các bản cập nhật gần đây đã bổ sung các công cụ để gỡ lỗi câu lệnh LLM, cho phép bạn khám phá cách nội dung của người dùng, mô hình và hệ thống ảnh hưởng đến hành vi tạo nội dung.

Vertex AI và Model Garden là gì?

Vertex AI là một nền tảng học máy (ML) cho phép bạn huấn luyện và triển khai các mô hình học máy cũng như ứng dụng AI, đồng thời tuỳ chỉnh các mô hình ngôn ngữ lớn (LLM) để sử dụng trong các ứng dụng dựa trên AI. Vertex AI kết hợp quy trình công việc về kỹ thuật dữ liệu, khoa học dữ liệu và kỹ thuật học máy, cho phép các nhóm của bạn cộng tác bằng cách sử dụng một bộ công cụ chung và mở rộng quy mô ứng dụng bằng cách tận dụng các lợi ích của Google Cloud.

Vertex Model Garden là một thư viện mô hình học máy giúp bạn khám phá, kiểm thử, tuỳ chỉnh và triển khai các mô hình cũng như thành phần độc quyền của Google và một số mô hình cũng như thành phần của bên thứ ba.

Những việc bạn sẽ làm

Bạn sẽ sử dụng Cloud ShellCloud Run của Google để triển khai một vùng chứa Docker từ hình ảnh dựng sẵn của LIT.

Cloud Run là một nền tảng điện toán được quản lý, cho phép bạn chạy các vùng chứa ngay trên cơ sở hạ tầng có khả năng mở rộng của Google, kể cả trên GPU.

Tập dữ liệu

Theo mặc định, bản minh hoạ sử dụng tập dữ liệu mẫu gỡ lỗi câu lệnh LIT hoặc bạn có thể tải tập dữ liệu của riêng mình thông qua giao diện người dùng.

Trước khi bắt đầu

Để sử dụng hướng dẫn tham khảo này, bạn cần có một dự án trên Google Cloud. Bạn có thể tạo một dự án mới hoặc chọn một dự án mà bạn đã tạo.

2. Chạy Google Cloud Console và Cloud Shell

Bạn sẽ khởi chạy Google Cloud Console và sử dụng Google Cloud Shell trong bước này.

2-a: Chạy Google Cloud Console

Khởi chạy một trình duyệt rồi chuyển đến Google Cloud Console.

Google Cloud Console là một giao diện quản trị web mạnh mẽ và an toàn, cho phép bạn quản lý nhanh chóng các tài nguyên trên Google Cloud. Đây là một công cụ DevOps mọi lúc mọi nơi.

2-b: Khởi chạy Google Cloud Shell

Cloud Shell là một môi trường phát triển và vận hành trực tuyến mà bạn có thể truy cập ở bất cứ đâu bằng trình duyệt. Bạn có thể quản lý tài nguyên bằng thiết bị đầu cuối trực tuyến được tải sẵn các tiện ích như công cụ dòng lệnh gcloud, kubectl và nhiều tiện ích khác. Bạn cũng có thể phát triển, tạo, gỡ lỗi và triển khai các ứng dụng dựa trên đám mây bằng Cloud Shell Editor trực tuyến. Cloud Shell cung cấp một môi trường trực tuyến sẵn sàng cho nhà phát triển với một bộ công cụ yêu thích được cài đặt sẵn và 5 GB dung lượng lưu trữ liên tục. Bạn sẽ sử dụng dấu nhắc lệnh trong các bước tiếp theo.

Khởi chạy Google Cloud Shell bằng biểu tượng ở phía trên cùng bên phải của thanh trình đơn (được khoanh tròn màu xanh dương trong ảnh chụp màn hình sau).

Khởi chạy Google Cloud Console

Bạn sẽ thấy một thiết bị đầu cuối có trình bao Bash ở cuối trang.

Google Cloud Console

2-c: Thiết lập dự án trên Google Cloud

Bạn phải đặt mã dự án và khu vực dự án bằng lệnh gcloud.

# Set your GCP Project ID.
gcloud config set project your-project-id

# Set your GCP Project Region.
gcloud config set run/region your-project-region

3. Triển khai hình ảnh Docker của Máy chủ ứng dụng LIT bằng Cloud Run

3-a: Triển khai ứng dụng LIT lên Cloud Run

Trước tiên, bạn cần đặt phiên bản mới nhất của LIT-App làm phiên bản sẽ được triển khai.

# Set latest version as your LIT_SERVICE_TAG.
export LIT_SERVICE_TAG=latest
# List all the public LIT GCP App server docker images.
gcloud container images  list-tags  us-east4-docker.pkg.dev/lit-demos/lit-app/gcp-lit-app

Sau khi đặt thẻ phiên bản, bạn cần đặt tên cho dịch vụ.

# Set your lit service name. While 'lit-app-service' is provided as a placeholder, you can customize the service name based on your preferences.
export LIT_SERVICE_NAME=lit-app-service

Sau đó, bạn có thể chạy lệnh sau để triển khai vùng chứa vào Cloud Run.

# Use below cmd to deploy the LIT App to Cloud Run.
gcloud run deploy $LIT_SERVICE_NAME \
--image us-east4-docker.pkg.dev/lit-demos/lit-app/gcp-lit-app:$LIT_SERVICE_TAG \
--port 5432 \
--cpu 8 \
--memory 32Gi \
--no-cpu-throttling \
--no-allow-unauthenticated

LIT cũng cho phép bạn thêm tập dữ liệu khi khởi động máy chủ. Để làm việc đó, hãy đặt biến DATASETS để thêm dữ liệu bạn muốn tải, bằng cách sử dụng định dạng name:path, ví dụ: data_foo:/bar/data_2024.jsonl. Định dạng tập dữ liệu phải là .jsonl, trong đó mỗi bản ghi chứa các trường prompttarget cũng như source (không bắt buộc). Để tải nhiều tập dữ liệu, hãy phân tách các tập dữ liệu đó bằng dấu phẩy. Nếu bạn không đặt, thì tập dữ liệu mẫu gỡ lỗi lời nhắc LIT sẽ được tải.

# Set the dataset.
export DATASETS=[DATASETS]

Bằng cách đặt MAX_EXAMPLES, bạn có thể đặt số lượng ví dụ tối đa cần tải từ mỗi tập hợp đánh giá.

# Set the max examples.
export MAX_EXAMPLES=[MAX_EXAMPLES]

Sau đó, trong lệnh triển khai, bạn có thể thêm

--set-env-vars "DATASETS=$DATASETS" \
--set-env-vars "MAX_EXAMPLES=$MAX_EXAMPLES" \

3-b: Xem Dịch vụ ứng dụng LIT

Sau khi tạo máy chủ Ứng dụng LIT, bạn có thể tìm thấy dịch vụ này trong mục Cloud Run của Cloud Console.

Chọn dịch vụ LIT App mà bạn vừa tạo. Đảm bảo tên dịch vụ giống với LIT_SERVICE_NAME.

Danh sách Cloud Run trên Google Cloud Console

Bạn có thể tìm thấy URL dịch vụ bằng cách nhấp vào dịch vụ mà bạn vừa triển khai.

URL của dịch vụ Google Cloud Find

Sau đó, bạn sẽ có thể xem giao diện người dùng LIT. Nếu bạn gặp lỗi, hãy xem phần Khắc phục sự cố.

Trang chủ của bản minh hoạ LIT

Bạn có thể kiểm tra phần NHẬT KÝ để theo dõi hoạt động, xem thông báo lỗi và theo dõi tiến trình triển khai.

Nhật ký Cloud Run trên Google Cloud Console

Bạn có thể kiểm tra mục CHỈ SỐ để xem các chỉ số của dịch vụ.

Các chỉ số Cloud Run trên Google Cloud Console

3-c: Tải tập dữ liệu

Nhấp vào lựa chọn Configure trong giao diện người dùng LIT, chọn Dataset. Tải tập dữ liệu bằng cách chỉ định tên và cung cấp URL của tập dữ liệu. Định dạng tập dữ liệu phải là .jsonl, trong đó mỗi bản ghi chứa các trường prompttarget cũng như source (không bắt buộc).

Tập dữ liệu tải LIT

4. Chuẩn bị các mô hình Gemini trong Vertex AI Model Garden

Các mô hình nền tảng Gemini của Google có trong Vertex AI API. LIT cung cấp trình bao bọc mô hình VertexAIModelGarden để sử dụng các mô hình này cho quá trình tạo. Bạn chỉ cần chỉ định phiên bản mong muốn (ví dụ: "gemini-1.5-pro-001") thông qua tham số tên mô hình. Một ưu điểm chính của việc sử dụng các mô hình này là bạn không cần tốn thêm công sức để triển khai. Theo mặc định, bạn có quyền truy cập ngay vào các mô hình như Gemini 1.0 Pro và Gemini 1.5 Pro trên GCP, giúp bạn không cần thực hiện thêm các bước định cấu hình.

4-a: Cấp quyền cho Vertex AI

Để truy vấn Gemini trong GCP, bạn cần cấp quyền Vertex AI cho tài khoản dịch vụ. Đảm bảo tên tài khoản dịch vụ là Default compute service account. Sao chép email tài khoản dịch vụ của tài khoản.

Tài khoản dịch vụ của GCP

Thêm email tài khoản dịch vụ làm một thực thể có vai trò Vertex AI User trong danh sách cho phép IAM.

Thêm email tài khoản dịch vụ

4-b: Tải các mô hình Gemini

Bạn sẽ tải các mô hình Gemini và điều chỉnh các tham số của mô hình theo các bước bên dưới.

    1. Nhấp vào lựa chọn Configure trong giao diện người dùng LIT.
    1. Chọn biểu tượng gemini trong mục Select a base model.
    1. Bạn cần đặt tên cho mô hình trong new_name.
    1. Nhập các mô hình Gemini đã chọn làm model_name.
    1. Nhấp vào Load Model.
    1. Nhấp vào Submit.

LIT Load Gemini Model

5. Triển khai máy chủ mô hình LLM tự lưu trữ trên GCP

Việc tự lưu trữ LLM bằng hình ảnh docker của máy chủ mô hình LIT cho phép bạn sử dụng các hàm làm nổi bật và mã hoá thành chuỗi của LIT để hiểu rõ hơn về hành vi của mô hình. Hình ảnh máy chủ mô hình hoạt động với các mô hình KerasNLP hoặc Hugging Face Transformers, bao gồm cả các trọng số do thư viện cung cấp và tự lưu trữ, ví dụ: trên Google Cloud Storage.

5-a: Định cấu hình mô hình

Mỗi vùng chứa tải một mô hình, được định cấu hình bằng các biến môi trường.

Bạn nên chỉ định các mô hình cần tải bằng cách đặt MODEL_CONFIG. Định dạng phải là name:path, ví dụ: model_foo:model_foo_path. Đường dẫn này có thể là một URL, đường dẫn tệp cục bộ hoặc tên của một chế độ cài đặt sẵn cho khung Học sâu đã định cấu hình (xem bảng sau để biết thêm thông tin). Máy chủ này được kiểm thử bằng Gemma, GPT2, Llama và Mistral trên tất cả các giá trị DL_FRAMEWORK được hỗ trợ. Các mô hình khác cũng sẽ hoạt động, nhưng bạn có thể cần điều chỉnh.

# Set models you want to load. While 'gemma2b is given as a placeholder, you can load your preferred model by following the instructions above.
export MODEL_CONFIG=gemma2b:gemma_2b_en

Ngoài ra, máy chủ mô hình LIT cho phép định cấu hình nhiều biến môi trường bằng lệnh bên dưới. Vui lòng tham khảo bảng để biết thông tin chi tiết. Xin lưu ý rằng bạn phải đặt từng biến riêng lẻ.

# Customize the variable value as needed.
export [VARIABLE]=[VALUE]

Biến

Giá trị

Mô tả

DL_FRAMEWORK

kerasnlp, transformers

Thư viện mô hình hoá dùng để tải trọng số mô hình lên thời gian chạy đã chỉ định. Giá trị mặc định là kerasnlp.

DL_RUNTIME

torch, tensorflow

Khung phụ trợ học sâu mà mô hình chạy trên đó. Tất cả các mô hình do máy chủ này tải sẽ sử dụng cùng một phần phụ trợ, sự không tương thích sẽ dẫn đến lỗi. Giá trị mặc định là torch.

PRECISION

bfloat16, float32

Độ chính xác của dấu phẩy động cho các mô hình LLM. Giá trị mặc định là bfloat16.

BATCH_SIZE

Số nguyên dương

Số lượng ví dụ cần xử lý trên mỗi lô. Giá trị mặc định là 1.

SEQUENCE_LENGTH

Số nguyên dương

Độ dài chuỗi tối đa của lời nhắc đầu vào cộng với văn bản được tạo. Giá trị mặc định là 512.

5-b: Triển khai Máy chủ mô hình lên Cloud Run

Trước tiên, bạn cần đặt phiên bản mới nhất của Model Server làm phiên bản sẽ được triển khai.

# Set latest as MODEL_VERSION_TAG.
export MODEL_VERSION_TAG=latest
# List all the public LIT GCP model server docker images.
gcloud container images  list-tags  us-east4-docker.pkg.dev/lit-demos/lit-app/gcp-model-server

Sau khi đặt thẻ phiên bản, bạn cần đặt tên cho máy chủ mô hình của mình.

# Set your Service name.
export MODEL_SERVICE_NAME='gemma2b-model-server'

Sau đó, bạn có thể chạy lệnh sau để triển khai vùng chứa vào Cloud Run. Nếu bạn không đặt các biến môi trường, hệ thống sẽ áp dụng các giá trị mặc định. Vì hầu hết các LLM đều yêu cầu tài nguyên điện toán tốn kém, nên bạn nên sử dụng GPU. Nếu chỉ muốn chạy trên CPU (phù hợp với các mô hình nhỏ như GPT2), bạn có thể xoá các đối số liên quan --gpu 1 --gpu-type nvidia-l4 --max-instances 7.

# Deploy the model service container.
gcloud beta run deploy $MODEL_SERVICE_NAME \
--image us-east4-docker.pkg.dev/lit-demos/lit-app/gcp-model-server:$MODEL_VERSION_TAG \
--port 5432 \
--cpu 8 \
--memory 32Gi \
--no-cpu-throttling \
--gpu 1 \
--gpu-type nvidia-l4  \
--max-instances 7  \
--set-env-vars "MODEL_CONFIG=$MODEL_CONFIG" \
--no-allow-unauthenticated

Ngoài ra, bạn có thể tuỳ chỉnh các biến môi trường bằng cách thêm các lệnh sau. Chỉ thêm những biến môi trường cần thiết cho nhu cầu cụ thể của bạn.

--set-env-vars "DL_FRAMEWORK=$DL_FRAMEWORK" \
--set-env-vars "DL_RUNTIME=$DL_RUNTIME" \
--set-env-vars "PRECISION=$PRECISION" \
--set-env-vars "BATCH_SIZE=$BATCH_SIZE" \
--set-env-vars "SEQUENCE_LENGTH=$SEQUENCE_LENGTH" \

Bạn có thể cần thêm các biến môi trường để truy cập vào một số mô hình nhất định. Xem hướng dẫn trên Kaggle Hub (dùng cho các mô hình KerasNLP) và Hugging Face Hub nếu thích hợp.

5-c: Truy cập vào Máy chủ mô hình

Sau khi tạo máy chủ mô hình, bạn có thể tìm thấy dịch vụ đã khởi động trong phần Cloud Run của dự án GCP.

Chọn máy chủ mô hình mà bạn vừa tạo. Đảm bảo tên dịch vụ giống với MODEL_SERVICE_NAME.

Danh sách Cloud Run trên Google Cloud Console

Bạn có thể tìm thấy URL dịch vụ bằng cách nhấp vào dịch vụ mô hình mà bạn vừa triển khai.

URL của dịch vụ Google Cloud Find

Bạn có thể kiểm tra phần NHẬT KÝ để theo dõi hoạt động, xem thông báo lỗi và theo dõi tiến trình triển khai.

Nhật ký Cloud Run trên Google Cloud Console

Bạn có thể kiểm tra mục CHỈ SỐ để xem các chỉ số của dịch vụ.

Các chỉ số Cloud Run trên Google Cloud Console

5-d: Tải các mô hình tự lưu trữ

Nếu bạn uỷ quyền cho máy chủ LIT ở Bước 3 (xem phần Khắc phục sự cố), bạn sẽ cần lấy mã thông báo danh tính GCP bằng cách chạy lệnh sau.

# Find your GCP identity token.
gcloud auth print-identity-token

Bạn sẽ tải các mô hình tự lưu trữ và điều chỉnh các tham số của mô hình đó theo các bước bên dưới.

  1. Nhấp vào lựa chọn Configure trong giao diện người dùng LIT.
  2. Chọn biểu tượng LLM (self hosted) trong mục Select a base model.
  3. Bạn cần đặt tên cho mô hình trong new_name.
  4. Nhập URL máy chủ mô hình của bạn dưới dạng base_url.
  5. Nhập mã thông báo nhận dạng đã nhận được vào identity_token nếu bạn uỷ quyền cho máy chủ Ứng dụng LIT (Xem Bước 3 và Bước 7). Nếu không, hãy để trống.
  6. Nhấp vào Load Model.
  7. Nhấp vào Submit.

LIT Load LLM Models

6. Tương tác với LIT trên GCP

LIT cung cấp một bộ tính năng phong phú để giúp bạn gỡ lỗi và hiểu rõ các hành vi của mô hình. Bạn có thể thực hiện một thao tác đơn giản như truy vấn mô hình bằng cách nhập văn bản vào một hộp và xem các dự đoán của mô hình, hoặc kiểm tra kỹ lưỡng các mô hình bằng bộ tính năng mạnh mẽ của LIT, bao gồm:

6-a: Truy vấn Mô hình thông qua LIT

LIT tự động truy vấn tập dữ liệu sau khi tải mô hình và tập dữ liệu. Bạn có thể xem câu trả lời của từng mô hình bằng cách chọn câu trả lời trong các cột.

LIT View Response

LIT Response

6-b: Sử dụng kỹ thuật nổi bật theo trình tự

Hiện tại, kỹ thuật Sequence Salience trên LIT chỉ hỗ trợ các mô hình tự lưu trữ.

Sequence Salience là một công cụ trực quan giúp gỡ lỗi câu lệnh cho LLM bằng cách làm nổi bật những phần quan trọng nhất của câu lệnh đối với một đầu ra nhất định. Để biết thêm thông tin về Mức độ nổi bật của chuỗi, hãy xem hướng dẫn đầy đủ để biết thêm về cách sử dụng tính năng này.

Để truy cập vào kết quả về mức độ nổi bật, hãy nhấp vào bất kỳ dữ liệu đầu vào hoặc đầu ra nào trong câu lệnh hoặc câu trả lời, kết quả về mức độ nổi bật sẽ xuất hiện.

Kết quả nổi bật của chuỗi LIT

6-c: Chỉnh sửa câu lệnh và mục tiêu theo cách thủ công

LIT cho phép bạn chỉnh sửa thủ công mọi prompttarget cho điểm dữ liệu hiện có. Khi bạn nhấp vào Add, dữ liệu đầu vào mới sẽ được thêm vào tập dữ liệu.

LIT Mannully Edit

6-d: So sánh câu lệnh song song

LIT cho phép bạn so sánh câu lệnh song song trên các ví dụ gốc và đã chỉnh sửa. Bạn có thể chỉnh sửa một ví dụ theo cách thủ công và xem kết quả dự đoán cũng như phân tích Mức độ nổi bật của chuỗi cho cả phiên bản gốc và phiên bản đã chỉnh sửa cùng một lúc. Bạn có thể sửa đổi câu lệnh cho từng điểm dữ liệu và LIT sẽ tạo câu trả lời tương ứng bằng cách truy vấn mô hình.

LIT Compare Datasets

6-e: So sánh song song nhiều mô hình

LIT cho phép so sánh song song các mô hình trên từng ví dụ về việc tạo và tính điểm văn bản, cũng như trên các ví dụ tổng hợp cho các chỉ số cụ thể. Bằng cách truy vấn nhiều mô hình đã tải, bạn có thể dễ dàng so sánh sự khác biệt trong các câu trả lời của chúng.

LIT Compare Model Response

6-f: Automatic Counterfactual Generators (Trình tạo phản thực tế tự động)

Bạn có thể sử dụng trình tạo phản thực tế tự động để tạo các đầu vào thay thế và xem ngay cách mô hình của bạn hoạt động trên các đầu vào đó.

LIT Automatically Generate Input

6-g: Đánh giá hiệu suất của mô hình

Bạn có thể đánh giá hiệu suất của mô hình bằng các chỉ số (hiện hỗ trợ điểm BLEU và ROUGE cho tính năng tạo văn bản) trên toàn bộ tập dữ liệu hoặc bất kỳ tập hợp con nào của các ví dụ đã lọc hoặc được chọn.

Chỉ số mô hình hiển thị LIT

7. Khắc phục sự cố

7-a: Các vấn đề có thể xảy ra về quyền truy cập và giải pháp

--no-allow-unauthenticated được áp dụng khi triển khai lên Cloud Run, nên bạn có thể gặp phải lỗi bị cấm như minh hoạ dưới đây.

Lỗi bị cấm của Google Cloud

Có 2 cách để truy cập vào dịch vụ Ứng dụng LIT.

1. Uỷ quyền cho Dịch vụ địa phương

Bạn có thể uỷ quyền dịch vụ cho máy chủ lưu trữ cục bộ bằng lệnh bên dưới.

# Proxy the service to local host.
gcloud run services proxy $LIT_SERVICE_NAME

Sau đó, bạn có thể truy cập vào máy chủ LIT bằng cách nhấp vào đường liên kết đến dịch vụ được uỷ quyền.

2. Xác thực trực tiếp người dùng

Bạn có thể truy cập vào đường liên kết này để xác thực người dùng, cho phép họ truy cập trực tiếp vào dịch vụ Ứng dụng LIT. Phương pháp này cũng có thể cho phép một nhóm người dùng truy cập vào dịch vụ. Đây là lựa chọn hiệu quả hơn cho quá trình phát triển có sự cộng tác của nhiều người.

7-b: Kiểm tra để đảm bảo Máy chủ mô hình đã khởi chạy thành công

Để đảm bảo máy chủ mô hình đã khởi chạy thành công, bạn có thể trực tiếp truy vấn máy chủ mô hình bằng cách gửi yêu cầu. Máy chủ mô hình cung cấp 3 điểm cuối: predict, tokenizesalience. Đảm bảo bạn cung cấp cả trường prompt và trường target trong yêu cầu của mình.

# Query the model server predict endpoint.
curl -X POST  http://YOUR_MODEL_SERVER_URL/predict -H "Content-Type: application/json" -d '{"inputs":[{"prompt":"[YOUR PROMPT]", "target":[YOUR TARGET]}]}'

# Query the model server tokenize endpoint.
curl -X POST  http://YOUR_MODEL_SERVER_URL/tokenize -H "Content-Type: application/json" -d '{"inputs":[{"prompt":"[YOUR PROMPT]", "target":[YOUR TARGET]}]}'

# Query the model server salience endpoint.
curl -X POST  http://YOUR_MODEL_SERVER_URL/salience -H "Content-Type: application/json" -d '{"inputs":[{"prompt":"[YOUR PROMPT]", "target":[YOUR TARGET]}]}'

Nếu bạn gặp vấn đề về quyền truy cập, hãy xem phần 7-a ở trên.

8. Xin chúc mừng

Chúc mừng bạn đã hoàn tất lớp học lập trình này! Đến lúc thư giãn rồi!

Dọn dẹp

Để dọn dẹp phòng thí nghiệm, hãy xoá tất cả các dịch vụ của Google Cloud được tạo cho phòng thí nghiệm. Sử dụng Google Cloud Shell để chạy các lệnh sau.

Nếu Google Cloud Connection bị mất do không hoạt động, hãy đặt lại các biến theo các bước trước đó.

# Delete the LIT App Service.
gcloud run services delete $LIT_SERVICE_NAME

Nếu đã khởi động máy chủ mô hình, bạn cũng cần xoá máy chủ mô hình.

# Delete the Model Service.
gcloud run services delete $MODEL_SERVICE_NAME

Tài liệu đọc thêm

Tiếp tục tìm hiểu các tính năng của công cụ LIT thông qua các tài liệu bên dưới:

Thông tin liên hệ

Nếu bạn có câu hỏi hoặc gặp vấn đề với lớp học lập trình này, vui lòng liên hệ với chúng tôi trên GitHub.

Giấy phép

Tác phẩm này được cấp phép theo giấy phép Ghi công theo Creative Commons 4.0 Quốc tế.