Vertex AI: ভবিষ্যদ্বাণীর জন্য একই VM-এ সহ-হোস্ট মডেল

১. সংক্ষিপ্ত বিবরণ

এই ল্যাবে, আপনি অনলাইন প্রেডিকশনের জন্য একই ভিএম-এ একাধিক মডেল হোস্ট করতে ভার্টেক্স এআই- এর কো-হোস্টিং মডেল ফিচারটি ব্যবহার করবেন।

আপনি যা শিখবেন

আপনি শিখবেন কীভাবে:

  • একটি DeploymentResourcePool তৈরি করুন
  • একটি DeploymentResourcePool মধ্যে মডেলগুলি স্থাপন করুন

গুগল ক্লাউডে এই ল্যাবটি চালানোর মোট খরচ প্রায় ২ ডলার

২. ভার্টেক্স এআই-এর পরিচিতি

এই ল্যাবটি গুগল ক্লাউডে উপলব্ধ সর্বাধুনিক এআই প্রোডাক্টটি ব্যবহার করে। ভার্টেক্স এআই গুগল ক্লাউডের এমএল (ML) অফারিংগুলোকে একটি নির্বিঘ্ন ডেভেলপমেন্ট অভিজ্ঞতায় একীভূত করে। পূর্বে, অটোএমএল (AutoML) দিয়ে প্রশিক্ষিত মডেল এবং কাস্টম মডেলগুলো আলাদা আলাদা সার্ভিসের মাধ্যমে অ্যাক্সেস করা যেত। নতুন অফারিংটি অন্যান্য নতুন প্রোডাক্টের সাথে উভয়কে একটিমাত্র এপিআই (API)-তে একত্রিত করেছে। আপনি আপনার বিদ্যমান প্রোজেক্টগুলোও ভার্টেক্স এআই-তে মাইগ্রেট করতে পারেন। আপনার কোনো মতামত থাকলে, অনুগ্রহ করে সাপোর্ট পেজটি দেখুন।

ভার্টেক্স এআই-এর এন্ড-টু-এন্ড এমএল ওয়ার্কফ্লো সমর্থন করার জন্য বিভিন্ন পণ্য রয়েছে। এই ল্যাবটি নিচে উল্লেখিত পণ্যগুলোর উপর আলোকপাত করবে: প্রেডিকশনস এবং ওয়ার্কবেঞ্চ।

ভার্টেক্স পণ্যের সংক্ষিপ্ত বিবরণ

৩. ব্যবহারের ক্ষেত্রের সংক্ষিপ্ত বিবরণ

ভার্টেক্স এআই প্রেডিকশন সার্ভিসে মডেল ডেপ্লয় করার সময়, প্রতিটি মডেল ডিফল্টভাবে তার নিজস্ব ভিএম-এ ডেপ্লয় করা হয়। হোস্টিংকে আরও সাশ্রয়ী করতে আপনি একই ভিএম-এ একাধিক মডেল হোস্ট করতে পারেন, যার ফলে মেমরি এবং কম্পিউটেশনাল রিসোর্সের আরও ভালো ব্যবহার নিশ্চিত হয়। একই ভিএম-এ আপনি কতগুলো মডেল ডেপ্লয় করবেন তা মডেলের আকার এবং ট্র্যাফিক প্যাটার্নের উপর নির্ভর করবে, কিন্তু এই ফিচারটি বিশেষত সেইসব ক্ষেত্রে উপযোগী যেখানে আপনার অনেকগুলো ডেপ্লয় করা মডেল রয়েছে এবং ট্র্যাফিক তুলনামূলকভাবে কম।

কো-হোস্টিং মডেল সাপোর্টের মাধ্যমে ‘ডিপ্লয়মেন্ট রিসোর্স পুল’ ধারণাটি চালু করা হয়েছে, যা একটি ভিএম-এর মধ্যে রিসোর্স শেয়ার করার জন্য মডেলগুলোকে একত্রিত করে। মডেলগুলো একটি ভিএম শেয়ার করতে পারে যদি তাদের একটিই এন্ডপয়েন্ট থাকে, এবং যদি সেগুলোকে ভিন্ন ভিন্ন এন্ডপয়েন্টে ডিপ্লয় করা হয়। বর্তমানে, একই রিসোর্স পুলে থাকা মডেলগুলোর জন্য একই কন্টেইনার ইমেজ থাকা আবশ্যক, যার মধ্যে ভার্টেক্স প্রেডিকশন প্রি-বিল্ট কন্টেইনারের ফ্রেমওয়ার্ক সংস্করণও অন্তর্ভুক্ত। এছাড়াও, এই রিলিজে শুধুমাত্র টেনসরফ্লো মডেল ফ্রেমওয়ার্কসহ ভার্টেক্স প্রেডিকশন প্রি-বিল্ট কন্টেইনারগুলোই সমর্থিত; অন্যান্য মডেল ফ্রেমওয়ার্ক এবং কাস্টম কন্টেইনারগুলো এখনও সমর্থিত নয়।

ডেপ্লয়মেন্ট_পুল

৪. আপনার পরিবেশ প্রস্তুত করুন

এই কোডল্যাবটি চালানোর জন্য আপনার বিলিং চালু করা একটি গুগল ক্লাউড প্ল্যাটফর্ম প্রজেক্ট প্রয়োজন হবে। প্রজেক্ট তৈরি করতে, এখানের নির্দেশাবলী অনুসরণ করুন।

ধাপ ১: কম্পিউট ইঞ্জিন এপিআই সক্রিয় করুন

Compute Engine- এ যান এবং যদি এটি আগে থেকে চালু না থাকে, তাহলে Enable নির্বাচন করুন।

ধাপ ২: Vertex AI API সক্রিয় করুন

আপনার ক্লাউড কনসোলের Vertex AI বিভাগে যান এবং Enable Vertex AI API-তে ক্লিক করুন।

ভার্টেক্স এআই ড্যাশবোর্ড

ধাপ ৩: একটি Vertex AI Workbench ইনস্ট্যান্স তৈরি করুন

আপনার ক্লাউড কনসোলের Vertex AI সেকশন থেকে Workbench-এ ক্লিক করুন:

ভার্টেক্স এআই মেনু

নোটবুকস এপিআই (Notebooks API) সক্রিয় করুন, যদি আগে থেকে সক্রিয় করা না থাকে।

নোটবুক_এপিআই

একবার চালু হয়ে গেলে, ম্যানেজড নোটবুকস-এ ক্লিক করুন:

নোটবুকস_ইউআই

তারপর নতুন নোটবুক নির্বাচন করুন।

নতুন নোটবুক

আপনার নোটবুকের একটি নাম দিন এবং 'Permission'-এর অধীনে 'Service account' নির্বাচন করুন।

নোটবুক তৈরি করুন

উন্নত সেটিংস নির্বাচন করুন।

সিকিউরিটি-এর অধীনে, 'Enable terminal' নির্বাচন করুন, যদি এটি আগে থেকে সক্রিয় করা না থাকে।

সক্ষম_টার্মিনাল

আপনি অন্যান্য সমস্ত উন্নত সেটিংস অপরিবর্তিত রাখতে পারেন।

এরপর, Create-এ ক্লিক করুন। ইনস্ট্যান্সটি প্রোভিশন হতে কয়েক মিনিট সময় লাগবে।

ইনস্ট্যান্সটি তৈরি হয়ে গেলে, ওপেন জুপিটারল্যাব (OPEN JUPYTERLAB ) নির্বাচন করুন।

ওপেন_জুপিটারল্যাব

৫. ট্রেন মডেল

কো-হোস্টিং ফিচারটি ব্যবহার করার আগে, আমাদের প্রথমে একটি মডেলকে ট্রেইন করতে হবে এবং সংরক্ষিত মডেল আর্টিফ্যাক্টগুলো একটি ক্লাউড স্টোরেজ বাকেটে সংরক্ষণ করতে হবে। ট্রেনিং জবটি চালু করার জন্য আমরা ওয়ার্কবেঞ্চ নোটবুক এক্সিকিউটর ব্যবহার করব।

ধাপ ১: একটি ক্লাউড স্টোরেজ বাকেট তৈরি করুন

আপনার প্রোজেক্টে যদি আগে থেকেই কোনো বাকেট থাকে যা আপনি ব্যবহার করতে চান, তাহলে আপনি এই ধাপটি বাদ দিতে পারেন। অন্যথায়, লঞ্চার থেকে একটি নতুন টার্মিনাল সেশন খুলুন।

লঞ্চার_টার্মিনাল

আপনার প্রোজেক্টের জন্য একটি এনভ ভ্যারিয়েবল নির্ধারণ করতে টার্মিনাল থেকে নিম্নলিখিত কমান্ডটি চালান, এবং অবশ্যই your-cloud-project এর জায়গায় আপনার প্রোজেক্টের আইডি বসাবেন:

PROJECT_ID='your-cloud-project'

এরপর, আপনার প্রজেক্টে একটি নতুন বাকেট তৈরি করতে নিম্নলিখিত কমান্ডটি চালান।

BUCKET="gs://${PROJECT_ID}-bucket"
gsutil mb -l us-central1 $BUCKET

ধাপ ২: নোটবুক এক্সিকিউশন চালু করুন

আপনার Workbench ইনস্ট্যান্সের লঞ্চার থেকে একটি নতুন TensorFlow 2 নোটবুক খুলুন।

লঞ্চার_টিএফ২

নিচের কোডটি IMDB মুভি রিভিউ ডেটাসেটের উপর একটি বাইনারি সেন্টিমেন্ট ক্লাসিফায়ারকে (ইতিবাচক বা নেতিবাচক) প্রশিক্ষণ দেয়। কোডটি আপনার নোটবুকে পেস্ট করুন।

নিশ্চিত করুন যে আপনি {YOUR_BUCKET} এর জায়গায় আগের ধাপে তৈরি করা বাকেটটি (অথবা আপনার প্রোজেক্টের অন্য কোনো বাকেট) বসিয়েছেন। এখানেই আমরা সংরক্ষিত মডেল আর্টিফ্যাক্টগুলো জমা রাখব, যা পরে Vertex AI Model Registry- তে মডেল আপলোড করার সময় আমাদের প্রয়োজন হবে।

import numpy as np

import tensorflow_datasets as tfds
import tensorflow as tf

# REPLACE WITH YOUR BUCKET!
OUTPUT_PATH='gs://{YOUR_BUCKET}/model_output'

BUFFER_SIZE = 10000
BATCH_SIZE = 64
VOCAB_SIZE = 1000

# Load data
dataset, info = tfds.load('imdb_reviews', with_info=True,
                          as_supervised=True)
train_dataset, test_dataset = dataset['train'], dataset['test']

train_dataset = train_dataset.shuffle(BUFFER_SIZE).batch(BATCH_SIZE).prefetch(tf.data.AUTOTUNE)
test_dataset = test_dataset.batch(BATCH_SIZE).prefetch(tf.data.AUTOTUNE)

# Create text encoder
encoder = tf.keras.layers.TextVectorization(
    max_tokens=VOCAB_SIZE)
encoder.adapt(train_dataset.map(lambda text, label: text))

# Create model
model = tf.keras.Sequential([
    encoder,
    tf.keras.layers.Embedding(
        input_dim=len(encoder.get_vocabulary()),
        output_dim=64,
        # Use masking to handle the variable sequence lengths
        mask_zero=True),
    tf.keras.layers.Bidirectional(tf.keras.layers.LSTM(64)),
    tf.keras.layers.Dense(64, activation='relu'),
    tf.keras.layers.Dense(1)
])

# Compile model
model.compile(loss=tf.keras.losses.BinaryCrossentropy(from_logits=True),
              optimizer=tf.keras.optimizers.Adam(1e-4),
              metrics=['accuracy'])

# Fit model
history = model.fit(train_dataset, epochs=10,
                    validation_data=test_dataset,
                    validation_steps=30)

# Save model
model.save(OUTPUT_PATH)

এরপর, Execute বাটনটি নির্বাচন করুন।

execute_nb

তারপর আপনার এক্সিকিউশনটি নিম্নরূপভাবে কনফিগার করুন এবং সাবমিট-এ ক্লিক করুন।

এক্সিকিউশন_কনফিগ

কনসোলের এক্সিকিউশন ট্যাব থেকে আপনি আপনার প্রশিক্ষণ কাজের অবস্থা জানতে পারবেন।

এক্সিকিউশন_স্ট্যাটাস

৬. মডেল স্থাপন করুন

ধাপ ১: মডেল আপলোড করুন

এক্সিকিউশন সম্পন্ন হলে, মডেলটি আপলোড করার জন্য ওয়ার্কবেঞ্চ নোটবুকে ফিরে যান। একটি নতুন টেনসরফ্লো নোটবুক তৈরি করুন।

tf_nb

প্রথমে, Vertex AI Python SDK ইম্পোর্ট করুন।

from google.cloud import aiplatform

এরপর মডেলটি আপলোড করুন, এবং ট্রেনিং কোডে আপনার নির্দিষ্ট করা বাকেটটির জায়গায় {YOUR_BUCKET} বসান।

# replace {YOUR_BUCKET}
model_1 = aiplatform.Model.upload(display_name='text-model-1',
                                  artifact_uri='gs://{YOUR_BUCKET}/model_output',
                                  serving_container_image_uri='us-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-8:latest')

প্রদর্শনের উদ্দেশ্যে, আমরা এই মডেলটি দুইবার আপলোড করব, যার ফলে Vertex AI-তে দুটি ভিন্ন মডেল রিসোর্স তৈরি হবে। এর উদ্দেশ্য হলো, একটি ডেপ্লয়মেন্ট রিসোর্স পুলের মধ্যে একটিমাত্র এন্ডপয়েন্টে একাধিক মডেল ডেপ্লয় করার বিষয়টি পরীক্ষা করে দেখা। বাস্তব ক্ষেত্রে, একই সংরক্ষিত আর্টিফ্যাক্ট থেকে মডেল তৈরি করার পরিবর্তে দুটি ভিন্ন মডেল ব্যবহার করা হতো, কিন্তু এটি একটি সংক্ষিপ্ত উপায়, যাতে আমাদের আরেকটি ট্রেনিং এক্সিকিউশন চালু করতে না হয়। এছাড়াও, আপনি চাইলে একই ডেপ্লয়মেন্ট রিসোর্স পুলের মধ্যে দুটি মডেলকে ভিন্ন ভিন্ন এন্ডপয়েন্টে ডেপ্লয় করতে পারেন।

# replace {YOUR_BUCKET}
model_2 = aiplatform.Model.upload(display_name='text-model-2',
                                  artifact_uri='gs://{YOUR_BUCKET}/model_output',
                                  serving_container_image_uri='us-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-8:latest')

ভার্টেক্স এআই মডেল রেজিস্ট্রি-তে আপনি এখন উভয় মডেলই দেখতে পাবেন। ডেপ্লয়মেন্ট স্ট্যাটাসটি ফাঁকা রয়েছে, কারণ আমরা এখনও মডেলগুলো ডেপ্লয় করিনি।

মডেল_রেজিস্ট্রি

ধাপ ২: একটি এন্ডপয়েন্ট তৈরি করুন।

একটি এন্ডপয়েন্ট তৈরি করুন। মনে রাখবেন, এটি কোনো এন্ডপয়েন্টে মডেল ডেপ্লয় করার থেকে ভিন্ন।

endpoint = aiplatform.Endpoint.create('cohost-endpoint')

এন্ডপয়েন্টটি তৈরি হয়ে গেলে আপনি তা কনসোলে দেখতে পাবেন।

কনসোল_এন্ডপয়েন্ট

ধাপ ৩: DeploymentResourcePool তৈরি করুন

আপনি নিম্নলিখিত কমান্ডের সাহায্যে DeploymentResourcePool তৈরি করতে পারেন। অবশ্যই {YOUR_PROJECT} এর জায়গায় আপনার প্রজেক্ট আইডি বসিয়ে নেবেন।

# replace {YOUR_PROJECT}
PROJECT_ID={YOUR_PROJECT}
REGION="us-central1"
VERTEX_API_URL=REGION + "-aiplatform.googleapis.com"
VERTEX_PREDICTION_API_URL=REGION + "-prediction-aiplatform.googleapis.com"
MULTI_MODEL_API_VERSION="v1beta1"

# Give the pool a name
DEPLOYMENT_RESOURCE_POOL_ID="my-resource-pool"

import json
import pprint
pp = pprint.PrettyPrinter(indent=4)

CREATE_RP_PAYLOAD = {
  "deployment_resource_pool":{
    "dedicated_resources":{
      "machine_spec":{
        "machine_type":"n1-standard-4"
      },
      "min_replica_count":1,
      "max_replica_count":2
    }
  },
  "deployment_resource_pool_id":DEPLOYMENT_RESOURCE_POOL_ID
}
CREATE_RP_REQUEST=json.dumps(CREATE_RP_PAYLOAD)
pp.pprint("CREATE_RP_REQUEST: " + CREATE_RP_REQUEST)

!curl \
-X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
https://{VERTEX_API_URL}/{MULTI_MODEL_API_VERSION}/projects/{PROJECT_ID}/locations/{REGION}/deploymentResourcePools \
-d '{CREATE_RP_REQUEST}'

দৌড়ে আপনি পুলটি দেখতে পারেন।

!curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
https://{VERTEX_API_URL}/{MULTI_MODEL_API_VERSION}/projects/{PROJECT_ID}/locations/{REGION}/deploymentResourcePools/{DEPLOYMENT_RESOURCE_POOL_ID}

ধাপ ৪: মডেলগুলো এন্ডপয়েন্টে স্থাপন করুন।

এখন যেহেতু রিসোর্স পুলটি তৈরি করা হয়েছে, আমরা এর মধ্যে মডেলগুলো ডেপ্লয় করতে পারি।

প্রথমে, আমরা model_1 ডিপ্লয় করব। MODEL_1_ID এবং ENDPOINT_ID অবশ্যই তাদের নিজ নিজ আইডি দিয়ে প্রতিস্থাপন করবেন।

MODEL_1_ID="{MODEL_1_ID}"
ENDPOINT_ID="{ENDPOINT_ID}"

নিম্নলিখিত কমান্ডটি রিসোর্স পুলের মধ্যে থাকা এন্ডপয়েন্টে model_1 ডেপ্লয় করবে।

MODEL_NAME = "projects/{project_id}/locations/{region}/models/{model_id}".format(project_id=PROJECT_ID, region=REGION, model_id=MODEL_1_ID)
SHARED_RESOURCE = "projects/{project_id}/locations/{region}/deploymentResourcePools/{deployment_resource_pool_id}".format(project_id=PROJECT_ID, region=REGION, deployment_resource_pool_id=DEPLOYMENT_RESOURCE_POOL_ID)

DEPLOY_MODEL_PAYLOAD = {
  "deployedModel": {
    "model": MODEL_NAME,
    "shared_resources": SHARED_RESOURCE
  },
  "trafficSplit": {
    "0": 100
  }
}
DEPLOY_MODEL_REQUEST=json.dumps(DEPLOY_MODEL_PAYLOAD)
pp.pprint("DEPLOY_MODEL_REQUEST: " + DEPLOY_MODEL_REQUEST)

!curl -X POST \
 -H "Authorization: Bearer $(gcloud auth print-access-token)" \
 -H "Content-Type: application/json" \
https://{VERTEX_API_URL}/{MULTI_MODEL_API_VERSION}/projects/{PROJECT_ID}/locations/{REGION}/endpoints/{ENDPOINT_ID}:deployModel \
-d '{DEPLOY_MODEL_REQUEST}'

এতে কয়েক মিনিট সময় লাগবে, কিন্তু এটি সম্পন্ন হলে আপনি কনসোলে এন্ডপয়েন্টে মডেলটি ডেপ্লয় হতে দেখবেন।

মডেল_১_এন্ডপয়েন্ট

এরপর, আমরা একই ডেপ্লয়মেন্ট পুলের মধ্যে model_2 ডেপ্লয় করতে পারি। আমরা এটিকে model_1 এর মতো একই এন্ডপয়েন্টে ডেপ্লয় করব। তবে, আপনি চাইলে একই রিসোর্স পুলের মধ্যে model_2 একটি ভিন্ন এন্ডপয়েন্টেও ডেপ্লয় করতে পারেন।

model_2 এর ID দিয়ে MODEL_ID আপডেট করুন। আবার, আপনি model_2.name রান করে এই ID-টি পেতে পারেন।

MODEL_2_ID="{MODEL_2_ID}"

এরপর model_2 ডিপ্লয় করুন। যেহেতু এন্ডপয়েন্টে model_1 ইতিমধ্যেই ডিপ্লয় করা আছে, তাই আমাদের trafficSplit আপডেট করতে হবে যাতে ট্র্যাফিক দুটি মডেলের মধ্যে ভাগ হয়ে যায়। যদি আমরা একই রিসোর্স পুলের মধ্যে model_2 অন্য কোনো এন্ডপয়েন্টে ডিপ্লয় করার সিদ্ধান্ত নিতাম, তাহলে আমাদের trafficSplit আপডেট করার প্রয়োজন হতো না

ট্র্যাফিক স্প্লিট আপডেট করতে, আপনাকে model_1 এর জন্য DeployedModel ID নির্ধারণ করতে হবে। মনে রাখবেন, এটি মডেল আইডি থেকে ভিন্ন।

DEPLOYED_MODEL_1_ID = {DEPLOYED_MODEL_1_ID}

এরপর দ্বিতীয় মডেলটি ডেপ্লয় করতে নিম্নলিখিতটি সম্পাদন করুন।

MODEL_NAME = "projects/{project_id}/locations/{region}/models/{model_id}".format(project_id=PROJECT_ID, region=REGION, model_id=MODEL_2_ID)
SHARED_RESOURCE = "projects/{project_id}/locations/{region}/deploymentResourcePools/{deployment_resource_pool_id}".format(project_id=PROJECT_ID, region=REGION, deployment_resource_pool_id=DEPLOYMENT_RESOURCE_POOL_ID)

#`trafficSplit` is a map from a DeployedModel's ID to the percentage of this Endpoint's traffic that should be forwarded to that DeployedModel.
# The traffic percentage values for an endpoint must add up to 100.
# The key for the model being deployed is "0".

DEPLOY_MODEL_PAYLOAD = {
  "deployedModel": {
    "model": MODEL_NAME,
    "shared_resources": SHARED_RESOURCE
  },
  "trafficSplit": {
    "0": 50,
    DEPLOYED_MODEL_1_ID: 50
  }
}
DEPLOY_MODEL_REQUEST=json.dumps(DEPLOY_MODEL_PAYLOAD)
pp.pprint("DEPLOY_MODEL_REQUEST: " + DEPLOY_MODEL_REQUEST)

!curl -X POST \
 -H "Authorization: Bearer $(gcloud auth print-access-token)" \
 -H "Content-Type: application/json" \
https://{VERTEX_API_URL}/{MULTI_MODEL_API_VERSION}/projects/{PROJECT_ID}/locations/{REGION}/endpoints/{ENDPOINT_ID}:deployModel \
-d '{DEPLOY_MODEL_REQUEST}'

আবার, এই উদাহরণে দুটি মডেল একই এন্ডপয়েন্টে ডেপ্লয় করা হয়েছিল, কিন্তু আপনি একই রিসোর্স পুলে এমন মডেলগুলোকেও কো-হোস্ট করতে পারেন যেগুলো ভিন্ন ভিন্ন এন্ডপয়েন্টে ডেপ্লয় করা হয়েছে। সেক্ষেত্রে আপনাকে ট্র্যাফিক ভাগাভাগি নিয়ে চিন্তা করতে হবে না।

দ্বিতীয় মডেলটি স্থাপন করার পর, আপনি কনসোলে দুটোকেই দেখতে পাবেন।

মোতায়েন করা মডেলগুলি

ধাপ ৫: পূর্বাভাস নিন

চূড়ান্ত ধাপ হলো এন্ডপয়েন্টটি পরীক্ষা করে দেখা এবং পূর্বাভাসগুলো সংগ্রহ করা।

প্রথমে, আমাদের পরীক্ষামূলক বাক্যটি সংজ্ঞায়িত করুন।

x_test=['The movie was cool. The animation and the graphics were out of this world. I would recommend this movie.']

এরপর, এন্ডপয়েন্টটিতে predict ফাংশনটি কল করুন, যা এন্ডপয়েন্টটিতে ডেপ্লয় করা মডেলগুলোর মধ্যে একটি থেকে একটি প্রেডিকশন রিটার্ন করবে।

endpoint.predict(instances=x_test)

🎉 অভিনন্দন! 🎉

আপনি শিখেছেন কীভাবে ভার্টেক্স এআই ব্যবহার করে:

  • অনলাইন পূর্বাভাসের জন্য একই ভিএম-এ মডেলগুলো সহ-হোস্ট করুন

Vertex-এর বিভিন্ন অংশ সম্পর্কে আরও জানতে ডকুমেন্টেশন দেখুন।

৭. পরিচ্ছন্নতা

আপনি যদি মডেলগুলো ব্যবহার করার পরিকল্পনা না করেন, তবে এন্ডপয়েন্ট থেকে সেগুলোকে আনডিপ্লয় করে দিতে পারেন। আপনি এন্ডপয়েন্টটি সম্পূর্ণভাবে মুছেও ফেলতে পারেন। প্রয়োজনে আপনি যেকোনো সময় একটি মডেলকে এন্ডপয়েন্টে পুনরায় ডিপ্লয় করতে পারবেন।

আনডিপ্লয়_মডেল

ওয়ার্কবেঞ্চ দ্বারা পরিচালিত নোটবুকগুলো ১৮০ মিনিট নিষ্ক্রিয় থাকার পর স্বয়ংক্রিয়ভাবে টাইম আউট হয়ে যায়, তাই ইনস্ট্যান্সটি শাট ডাউন করার বিষয়ে আপনাকে চিন্তা করতে হবে না। আপনি যদি ইনস্ট্যান্সটি ম্যানুয়ালি শাট ডাউন করতে চান, তাহলে কনসোলের Vertex AI Workbench সেকশনে থাকা Stop বাটনে ক্লিক করুন। আর যদি নোটবুকটি পুরোপুরি মুছে ফেলতে চান, তাহলে Delete বাটনে ক্লিক করুন।

স্টপ ইনস্ট্যান্স

স্টোরেজ বাকেটটি ডিলিট করতে, আপনার ক্লাউড কনসোলের নেভিগেশন মেনু ব্যবহার করে স্টোরেজ-এ যান, আপনার বাকেটটি সিলেক্ট করুন এবং ডিলিট-এ ক্লিক করুন:

স্টোরেজ মুছে ফেলুন