۱. مقدمه
در این آزمایشگاه، شما یاد خواهید گرفت که چگونه از روالهای پیشبینی سفارشی در Vertex AI برای نوشتن منطق پیشپردازش و پسپردازش سفارشی استفاده کنید. در حالی که این نمونه از Scikit-learn استفاده میکند، روالهای پیشبینی سفارشی میتوانند با سایر چارچوبهای یادگیری ماشین پایتون مانند XGBoost، PyTorch و TensorFlow نیز کار کنند.
آنچه یاد خواهید گرفت
- منطق پیشبینی سفارشی را با روالهای پیشبینی سفارشی بنویسید
- ظرف سرو سفارشی را آزمایش کنید و به صورت محلی مدلسازی کنید
- ظرف سرو سفارشی را در پیشبینیهای هوش مصنوعی Vertex آزمایش کنید
۲. مقدمهای بر هوش مصنوعی ورتکس
این آزمایشگاه از جدیدترین محصول هوش مصنوعی موجود در Google Cloud استفاده میکند. Vertex AI، محصولات یادگیری ماشین را در سراسر Google Cloud در یک تجربه توسعه یکپارچه ادغام میکند. پیش از این، مدلهای آموزشدیده با AutoML و مدلهای سفارشی از طریق سرویسهای جداگانه قابل دسترسی بودند. این محصول جدید، هر دو را در یک API واحد، به همراه سایر محصولات جدید، ترکیب میکند. همچنین میتوانید پروژههای موجود را به Vertex AI منتقل کنید.
هوش مصنوعی ورتکس شامل محصولات مختلفی برای پشتیبانی از گردشهای کاری یادگیری ماشینی سرتاسری است. این آزمایشگاه بر پیشبینیها و میز کار تمرکز خواهد داشت.
۳. بررسی اجمالی موارد استفاده
در این آزمایش، شما یک مدل رگرسیون جنگل تصادفی خواهید ساخت تا قیمت یک الماس را بر اساس ویژگیهایی مانند برش، شفافیت و اندازه پیشبینی کنید.
شما منطق پیشپردازش سفارشی خواهید نوشت تا بررسی کنید که دادهها در زمان ارائه، در قالب مورد انتظار مدل هستند یا خیر. همچنین منطق پسپردازش سفارشی خواهید نوشت تا پیشبینیها را گرد کرده و آنها را به رشته تبدیل کنید. برای نوشتن این منطق، از روالهای پیشبینی سفارشی استفاده خواهید کرد.
مقدمهای بر روالهای پیشبینی سفارشی
کانتینرهای از پیش ساخته شده Vertex AI با انجام عملیات پیشبینی چارچوب یادگیری ماشین، درخواستهای پیشبینی را مدیریت میکنند. قبل از روالهای پیشبینی سفارشی، اگر میخواستید ورودی را قبل از انجام پیشبینی پیشپردازش کنید، یا پیشبینی مدل را قبل از بازگرداندن نتیجه پسپردازش کنید، باید یک کانتینر سفارشی بسازید.
ساخت یک کانتینر سرو سفارشی نیاز به نوشتن یک سرور HTTP دارد که مدل آموزش دیده را در بر میگیرد، درخواستهای HTTP را به ورودیهای مدل ترجمه میکند و خروجیهای مدل را به پاسخها تبدیل میکند.
با استفاده از روالهای پیشبینی سفارشی، Vertex AI اجزای مرتبط با سرویسدهی را برای شما فراهم میکند تا بتوانید روی مدل و تبدیل دادهها تمرکز کنید.
آنچه خواهید ساخت
شما یک شبکه VPC به نام aiml-vpc راهاندازی خواهید کرد که شامل یک زیرشبکه Workbench است که برای استقرار یک نوتبوک مدیریتشده توسط کاربر و دسترسی به نقطه پایانی پیشبینی و مدل آنلاین مستقر در us-central1 که در شکل 1 در زیر نشان داده شده است، استفاده میشود.
Figure1

۴. فعال کردن APIهای آموزشی
مرحله ۱: فعال کردن رابط برنامهنویسی کاربردی موتور محاسبات
به Compute Engine بروید و اگر از قبل فعال نشده است، آن را فعال کنید. برای ایجاد نمونه نوتبوک خود به این مورد نیاز خواهید داشت.
مرحله ۲: فعال کردن API رجیستری مصنوعات
به بخش Artifact Registry بروید و اگر فعال نیست، آن را فعال کنید. از این گزینه برای ایجاد یک ظرف سرو سفارشی استفاده خواهید کرد.
مرحله 3: فعال کردن API هوش مصنوعی Vertex
به بخش Vertex AI در کنسول ابری خود بروید و روی Enable Vertex AI API کلیک کنید.
مرحله ۴: ایجاد یک نمونه از Vertex AI Workbench
اگر Notebooks AP I فعال نیست، آن را فعال کنید.
۵. فایل aiml-vpc را ایجاد کنید
این آموزش از متغیرها (variables) برای کمک به پیادهسازی پیکربندی gcloud در Cloud Shell استفاده میکند.
درون Cloud Shell، موارد زیر را انجام دهید:
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectid=YOUR-PROJECT-NAME
echo $projectid
ایجاد aiml-vpc
درون Cloud Shell، موارد زیر را انجام دهید:
gcloud compute networks create aiml-vpc --project=$projectid --subnet-mode=custom
زیرشبکه نوتبوک مدیریتشده توسط کاربر را ایجاد کنید
درون Cloud Shell، زیرشبکهی میز کار را ایجاد کنید.
gcloud compute networks subnets create workbench-subnet --project=$projectid --range=172.16.10.0/28 --network=aiml-vpc --region=us-central1 --enable-private-ip-google-access
پیکربندی روتر ابری و NAT
در این آموزش از Cloud NAT برای دانلود بستههای نرمافزاری استفاده میشود، زیرا نوتبوک مدیریتشده توسط کاربر آدرس IP خارجی ندارد. Cloud NAT قابلیتهای egress NAT را فراهم میکند، به این معنی که میزبانهای اینترنتی مجاز به برقراری ارتباط با نوتبوک مدیریتشده توسط کاربر نیستند و این امر آن را ایمنتر میکند.
درون Cloud Shell، روتر ابری منطقهای، us-central1، را ایجاد کنید.
gcloud compute routers create cloud-router-us-central1-aiml-nat --network aiml-vpc --region us-central1
درون Cloud Shell، دروازهی nat ابری منطقهای، us-central1، را ایجاد کنید.
gcloud compute routers nats create cloud-nat-us-central1 --router=cloud-router-us-central1-aiml-nat --auto-allocate-nat-external-ips --nat-all-subnet-ip-ranges --region us-central1
۶. دفترچه یادداشت مدیریتشده توسط کاربر را ایجاد کنید
ایجاد یک حساب کاربری مدیریتشده توسط کاربر (دفترچه یادداشت)
در بخش بعدی، یک حساب کاربری مدیریتشده توسط کاربر ایجاد خواهید کرد که با Vertex Workbench (نوتبوک) مورد استفاده در آموزش مرتبط خواهد بود.
در این آموزش، قوانین زیر روی حساب سرویس اعمال خواهد شد:
در داخل Cloud Shell، حساب کاربری سرویس را ایجاد کنید.
gcloud iam service-accounts create user-managed-notebook-sa \
--display-name="user-managed-notebook-sa"
در داخل Cloud Shell، حساب کاربری سرویس را با نقش Storage Admin بهروزرسانی کنید.
gcloud projects add-iam-policy-binding $projectid --member="serviceAccount:user-managed-notebook-sa@$projectid.iam.gserviceaccount.com" --role="roles/storage.admin"
در داخل Cloud Shell، حساب کاربری سرویس را با نقش Vertex AI User بهروزرسانی کنید.
gcloud projects add-iam-policy-binding $projectid --member="serviceAccount:user-managed-notebook-sa@$projectid.iam.gserviceaccount.com" --role="roles/aiplatform.user"
در داخل Cloud Shell، حساب کاربری سرویس را با نقش Artifact Registry Admin بهروزرسانی کنید.
gcloud projects add-iam-policy-binding $projectid --member="serviceAccount:user-managed-notebook-sa@$projectid.iam.gserviceaccount.com" --role="roles/artifactregistry.admin"
در داخل Cloud Shell، حساب سرویس را فهرست کنید و آدرس ایمیلی را که هنگام ایجاد دفترچه مدیریتشده توسط کاربر استفاده خواهد شد، یادداشت کنید.
gcloud iam service-accounts list
ایجاد دفترچه یادداشت مدیریتشده توسط کاربر
در بخش بعدی، یک دفترچه یادداشت مدیریتشده توسط کاربر ایجاد کنید که حساب سرویس قبلاً ایجاد شده، یعنی user-managed-notebook-sa، را در خود جای دهد.
درون Cloud Shell، نمونهی کلاینت خصوصی را ایجاد کنید.
gcloud notebooks instances create workbench-tutorial \
--vm-image-project=deeplearning-platform-release \
--vm-image-family=common-cpu-notebooks \
--machine-type=n1-standard-4 \
--location=us-central1-a \
--shielded-secure-boot \
--subnet-region=us-central1 \
--subnet=workbench-subnet \
--no-public-ip --service-account=user-managed-notebook-sa@$projectid.iam.gserviceaccount.com
۷. کد آموزشی بنویسید
مرحله ۱: ایجاد یک فضای ذخیرهسازی ابری
شما مدل و مصنوعات پیشپردازش را در یک مخزن ذخیرهسازی ابری ذخیره خواهید کرد. اگر از قبل یک مخزن در پروژه خود دارید که میخواهید از آن استفاده کنید، میتوانید از این مرحله صرف نظر کنید.
از طریق لانچر، یک بخش ترمینال جدید باز کنید.

از ترمینال خود، دستور زیر را برای تعریف یک متغیر env برای پروژه خود اجرا کنید، و مطمئن شوید که your-cloud-project را با شناسه پروژه خود جایگزین میکنید:
PROJECT_ID='your-cloud-project'
در مرحله بعد، دستور زیر را در ترمینال خود اجرا کنید تا یک باکت جدید در پروژه شما ایجاد شود.
BUCKET="gs://${PROJECT_ID}-cpr-bucket"
gsutil mb -l us-central1 $BUCKET
مرحله ۲: مدل قطار
از طریق ترمینال، یک دایرکتوری جدید به نام cpr-codelab ایجاد کنید و با دستور cd وارد آن شوید.
mkdir cpr-codelab
cd cpr-codelab
در مرورگر فایل، به دایرکتوری جدید cpr-codelab بروید و سپس از لانچر برای ایجاد یک نوتبوک پایتون ۳ جدید به نام task.ipynb استفاده کنید.

پوشه cpr-codelab شما اکنون باید به شکل زیر باشد:
+ cpr-codelab/
+ task.ipynb
در دفترچه یادداشت، کد زیر را وارد کنید.
ابتدا، یک فایل requirements.txt بنویسید.
%%writefile requirements.txt
fastapi
uvicorn==0.17.6
joblib~=1.1.1
numpy>=1.17.3, <1.24.0
scikit-learn~=1.0.0
pandas
google-cloud-storage>=2.2.1,<3.0.0dev
google-cloud-aiplatform[prediction]>=1.18.2
مدلی که شما مستقر میکنید، مجموعهای از وابستگیهای از پیش نصبشدهی متفاوت از محیط نوتبوک شما خواهد داشت. به همین دلیل، شما باید تمام وابستگیهای مدل را در requirements.txt فهرست کنید و سپس از pip برای نصب دقیقاً همان وابستگیها در نوتبوک استفاده کنید. بعداً، قبل از استقرار در Vertex AI، مدل را به صورت محلی آزمایش خواهید کرد تا از مطابقت محیطها اطمینان حاصل کنید.
پیپ وابستگیها را در دفترچه یادداشت نصب میکند.
!pip install -U --user -r requirements.txt
توجه داشته باشید که پس از اتمام نصب pip، باید هسته را مجدداً راهاندازی کنید.
در مرحله بعد، دایرکتوریهایی را ایجاد کنید که مدل و مصنوعات پیشپردازش را در آنها ذخیره خواهید کرد.
USER_SRC_DIR = "src_dir"
!mkdir $USER_SRC_DIR
!mkdir model_artifacts
# copy the requirements to the source dir
!cp requirements.txt $USER_SRC_DIR/requirements.txt
پوشه cpr-codelab شما اکنون باید به شکل زیر باشد:
+ cpr-codelab/
+ model_artifacts/
+ scr_dir/
+ requirements.txt
+ task.ipynb
+ requirements.txt
حالا که ساختار دایرکتوری تنظیم شده، وقت آموزش مدل است!
ابتدا کتابخانهها را ایمپورت کنید.
import seaborn as sns
import numpy as np
import pandas as pd
from sklearn import preprocessing
from sklearn.ensemble import RandomForestRegressor
from sklearn.pipeline import make_pipeline
from sklearn.compose import make_column_transformer
import joblib
import logging
# set logging to see the docker container logs
logging.basicConfig(level=logging.INFO)
سپس متغیرهای زیر را تعریف کنید. حتماً PROJECT_ID را با شناسه پروژه خود و BUCKET_NAME را با باکتی که در مرحله قبل ایجاد کردید جایگزین کنید.
REGION = "us-central1"
MODEL_ARTIFACT_DIR = "sklearn-model-artifacts"
REPOSITORY = "diamonds"
IMAGE = "sklearn-image"
MODEL_DISPLAY_NAME = "diamonds-cpr"
# Replace with your project
PROJECT_ID = "{PROJECT_ID}"
# Replace with your bucket
BUCKET_NAME = "gs://{BUCKET_NAME}"
دادهها را از کتابخانهی سیبورن بارگذاری کنید و سپس دو فریم داده ایجاد کنید، یکی شامل ویژگیها و دیگری شامل برچسب.
data = sns.load_dataset('diamonds', cache=True, data_home=None)
label = 'price'
y_train = data['price']
x_train = data.drop(columns=['price'])
بیایید نگاهی به دادههای آموزشی بیندازیم. میتوانید ببینید که هر ردیف نشان دهنده یک الماس است.
x_train.head()
و برچسبها، که قیمتهای مربوطه هستند.
y_train.head()
حالا، یک تبدیل ستونی sklearn تعریف کنید که ویژگیهای دستهبندیشده را به یک کدگذاری داغ تبدیل کند و ویژگیهای عددی را مقیاسبندی کند.
column_transform = make_column_transformer(
(preprocessing.OneHotEncoder(sparse=False), [1,2,3]),
(preprocessing.StandardScaler(), [0,4,5,6,7,8]))
مدل جنگل تصادفی را تعریف کنید
regr = RandomForestRegressor(max_depth=10, random_state=0)
در مرحله بعد، یک خط لوله sklearn ایجاد کنید. این بدان معناست که دادههای ارسالی به این خط لوله ابتدا کدگذاری/مقیاسبندی شده و سپس به مدل ارسال میشوند.
my_pipeline = make_pipeline(column_transform, regr)
خط لوله را روی دادههای آموزشی قرار دهید
my_pipeline.fit(x_train, y_train)
بیایید مدل را امتحان کنیم تا مطمئن شویم که طبق انتظار کار میکند. متد predict را روی مدل فراخوانی کنید و یک نمونه آزمایشی به آن ارسال کنید.
my_pipeline.predict([[0.23, 'Ideal', 'E', 'SI2', 61.5, 55.0, 3.95, 3.98, 2.43]])
حالا میتوانیم pipeline را در دایرکتوری model_artifacts ذخیره کنیم و آن را در مخزن ذخیرهسازی ابری کپی کنیم.
joblib.dump(my_pipeline, 'model_artifacts/model.joblib')
!gsutil cp model_artifacts/model.joblib {BUCKET_NAME}/{MODEL_ARTIFACT_DIR}/
مرحله ۳: ذخیره یک مصنوع پیشپردازش
در مرحله بعد، یک مصنوع پیشپردازش ایجاد خواهید کرد. این مصنوع هنگام راهاندازی سرور مدل در کانتینر سفارشی بارگذاری میشود. مصنوع پیشپردازش شما میتواند تقریباً به هر شکلی باشد (مانند یک فایل pickle)، اما در این حالت، یک دیکشنری را در یک فایل JSON خواهید نوشت.
clarity_dict={"Flawless": "FL",
"Internally Flawless": "IF",
"Very Very Slightly Included": "VVS1",
"Very Slightly Included": "VS2",
"Slightly Included": "S12",
"Included": "I3"}
ویژگی وضوح در دادههای آموزشی ما همیشه به صورت اختصاری بود (یعنی "FL" به جای "Flawless"). در زمان ارائه، میخواهیم بررسی کنیم که دادههای این ویژگی نیز اختصاری باشند. دلیل این امر این است که مدل ما میداند چگونه "FL" را به صورت یکجا کدگذاری کند اما "Flawless" را نه. این منطق پیشپردازش سفارشی را بعداً خواهید نوشت. اما فعلاً، فقط این جدول جستجو را در یک فایل json ذخیره کنید و سپس آن را در فضای ذخیرهسازی ابری بنویسید.
import json
with open("model_artifacts/preprocessor.json", "w") as f:
json.dump(clarity_dict, f)
!gsutil cp model_artifacts/preprocessor.json {BUCKET_NAME}/{MODEL_ARTIFACT_DIR}/
دایرکتوری محلی cpr-codelab شما اکنون باید به شکل زیر باشد:
+ cpr-codelab/
+ model_artifacts/
+ model.joblib
+ preprocessor.json
+ scr_dir/
+ requirements.txt
+ task.ipynb
+ requirements.txt
۸. با استفاده از سرور مدل CPR، یک ظرف سرو سفارشی بسازید
اکنون که مدل آموزش داده شده و مصنوع پیشپردازش ذخیره شده است، زمان ساخت ظرف سرو سفارشی فرا رسیده است. معمولاً ساخت یک ظرف سرو نیاز به نوشتن کد سرور مدل دارد. با این حال، با روالهای پیشبینی سفارشی، Vertex AI Predictions یک سرور مدل تولید میکند و یک تصویر کانتینر سفارشی برای شما میسازد.
یک ظرف سرو سفارشی شامل ۳ قطعه کد زیر است:
- سرور مدل (این سرور به طور خودکار توسط SDK تولید و در scr_dir/ ذخیره میشود)
- سرور HTTP که میزبان مدل است
- مسئول تنظیم مسیرها/پورتها/و غیره.
- مسئول جنبههای وبسرور در رسیدگی به یک درخواست، مانند deserialize کردن بدنه درخواست و serialize کردن پاسخ، تنظیم هدرهای پاسخ و غیره.
- در این مثال، شما از Handler پیشفرض، google.cloud.aiplatform.prediction.handler.PredictionHandler که در SDK ارائه شده است، استفاده خواهید کرد.
- مسئول منطق ML برای پردازش یک درخواست پیشبینی.
هر یک از این اجزا میتوانند بر اساس الزامات مورد استفاده شما سفارشیسازی شوند. در این مثال، شما فقط پیشبینیکننده را پیادهسازی خواهید کرد.
پیشبینیکننده مسئول منطق یادگیری ماشین برای پردازش یک درخواست پیشبینی، مانند پیشپردازش و پسپردازش سفارشی است. برای نوشتن منطق پیشبینی سفارشی، باید از رابط پیشبینیکننده هوش مصنوعی ورتکس، زیرکلاس ایجاد کنید.
این نسخه از روالهای پیشبینی سفارشی با پیشبینیکنندههای قابل استفاده مجدد XGBoost و Sklearn ارائه میشود، اما اگر نیاز به استفاده از چارچوب دیگری دارید، میتوانید با زیرکلاس کردن پیشبینیکننده پایه، چارچوب خودتان را ایجاد کنید.
میتوانید نمونهای از پیشبینیکنندهی Sklearn را در زیر مشاهده کنید. این تمام کدی است که برای ساخت این سرور مدل سفارشی باید بنویسید.

در دفترچه یادداشت خود، کد زیر را برای زیرکلاس کردن SklearnPredictor وارد کنید و آن را در یک فایل پایتون در src_dir/ بنویسید. توجه داشته باشید که در این مثال، ما فقط متدهای load، preprocess و postprocess را سفارشی میکنیم و متد predict را نه.
%%writefile $USER_SRC_DIR/predictor.py
import joblib
import numpy as np
import json
from google.cloud import storage
from google.cloud.aiplatform.prediction.sklearn.predictor import SklearnPredictor
class CprPredictor(SklearnPredictor):
def __init__(self):
return
def load(self, artifacts_uri: str) -> None:
"""Loads the sklearn pipeline and preprocessing artifact."""
super().load(artifacts_uri)
# open preprocessing artifact
with open("preprocessor.json", "rb") as f:
self._preprocessor = json.load(f)
def preprocess(self, prediction_input: np.ndarray) -> np.ndarray:
"""Performs preprocessing by checking if clarity feature is in abbreviated form."""
inputs = super().preprocess(prediction_input)
for sample in inputs:
if sample[3] not in self._preprocessor.values():
sample[3] = self._preprocessor[sample[3]]
return inputs
def postprocess(self, prediction_results: np.ndarray) -> dict:
"""Performs postprocessing by rounding predictions and converting to str."""
return {"predictions": [f"${value}" for value in np.round(prediction_results)]}
بیایید نگاهی عمیقتر به هر یک از این روشها بیندازیم.
- متد بارگذاری، مصنوع پیشپردازش را بارگذاری میکند، که در این مورد یک دیکشنری است که مقادیر وضوح الماس را به اختصارات آنها نگاشت میکند.
- روش پیشپردازش از آن مصنوع استفاده میکند تا اطمینان حاصل کند که در زمان ارائه، ویژگی وضوح در قالب اختصاری خود قرار دارد. در غیر این صورت، رشته کامل را به اختصار آن تبدیل میکند.
- متد postprocess مقدار پیشبینیشده را به صورت یک رشته با علامت $ برمیگرداند و مقدار را گرد میکند.
در مرحله بعد، از Vertex AI Python SDK برای ساخت ایمیج استفاده کنید. با استفاده از روالهای پیشبینی سفارشی، Dockerfile تولید شده و ایمیج برای شما ساخته میشود.
from google.cloud import aiplatform
aiplatform.init(project=PROJECT_ID, location=REGION)
import os
from google.cloud.aiplatform.prediction import LocalModel
from src_dir.predictor import CprPredictor # Should be path of variable $USER_SRC_DIR
local_model = LocalModel.build_cpr_model(
USER_SRC_DIR,
f"{REGION}-docker.pkg.dev/{PROJECT_ID}/{REPOSITORY}/{IMAGE}",
predictor=CprPredictor,
requirements_path=os.path.join(USER_SRC_DIR, "requirements.txt"),
)
یک فایل آزمایشی با دو نمونه برای پیشبینی بنویسید. یکی از نمونهها نام اختصاری وضوح را دارد، اما دیگری ابتدا باید تبدیل شود.
import json
sample = {"instances": [
[0.23, 'Ideal', 'E', 'VS2', 61.5, 55.0, 3.95, 3.98, 2.43],
[0.29, 'Premium', 'J', 'Internally Flawless', 52.5, 49.0, 4.00, 2.13, 3.11]]}
with open('instances.json', 'w') as fp:
json.dump(sample, fp)
با استفاده از یک مدل محلی، کانتینر را به صورت محلی آزمایش کنید.
with local_model.deploy_to_local_endpoint(
artifact_uri = 'model_artifacts/', # local path to artifacts
) as local_endpoint:
predict_response = local_endpoint.predict(
request_file='instances.json',
headers={"Content-Type": "application/json"},
)
health_check_response = local_endpoint.run_health_check()
نتایج پیشبینی را میتوانید با موارد زیر مشاهده کنید:
predict_response.content
۹. مدل را در Vertex AI مستقر کنید
حالا که کانتینر را به صورت محلی آزمایش کردهاید، وقت آن رسیده که تصویر را به Artifact Registry منتقل کنید و مدل را در Vertex AI Model Registry آپلود کنید.
ابتدا، Docker را برای دسترسی به رجیستری Artifact پیکربندی کنید.
!gcloud artifacts repositories create {REPOSITORY} --repository-format=docker \
--location=us-central1 --description="Docker repository"
!gcloud auth configure-docker {REGION}-docker.pkg.dev --quiet
سپس، تصویر را فشار دهید.
local_model.push_image()
و مدل را آپلود کنید.
model = aiplatform.Model.upload(local_model = local_model,
display_name=MODEL_DISPLAY_NAME,
artifact_uri=f"{BUCKET_NAME}/{MODEL_ARTIFACT_DIR}",)
وقتی مدل آپلود شد، باید آن را در کنسول مشاهده کنید:
در مرحله بعد، مدل را مستقر کنید تا بتوانید از آن برای پیشبینیهای آنلاین استفاده کنید. روالهای پیشبینی سفارشی با پیشبینی دستهای نیز کار میکنند، بنابراین اگر مورد استفاده شما نیازی به پیشبینیهای آنلاین ندارد، نیازی به استقرار مدل ندارید.
سپس، تصویر را فشار دهید.
endpoint = model.deploy(machine_type="n1-standard-2")
در نهایت، مدل پیادهسازی شده را با دریافت یک پیشبینی آزمایش کنید.
endpoint.predict(instances=[[0.23, 'Ideal', 'E', 'VS2', 61.5, 55.0, 3.95, 3.98, 2.43]])
🎉 تبریک میگویم! 🎉
شما یاد گرفتید که چگونه از Vertex AI برای موارد زیر استفاده کنید:
- نوشتن منطق پیشپردازش و پسپردازش سفارشی با روالهای پیشبینی سفارشی
کازموپاپ فکر میکند که کدلبها فوقالعاده هستند!!

بعدش چی؟
مطالعه بیشتر و ویدیوها
- هوش مصنوعی ورتکس چیست؟
- با Vertex AI شروع کنید
- کدام راهکار هوش مصنوعی/یادگیری ماشین در Vertex AI برای من مناسب است؟
- ساخت سیستم پرسش و پاسخ با Vertex AI
