1. खास जानकारी
इस लैब में, Vertex AI का इस्तेमाल करके, TensorFlow की मदद से Vertex AI Training पर डिस्ट्रिब्यूटेड ट्रेनिंग जॉब चलाया जाएगा.
यह लैब, प्रॉटोटाइप से प्रोडक्शन तक वीडियो सीरीज़ का हिस्सा है. इस लैब को आज़माने से पहले, पिछले लैब पूरे कर लें. ज़्यादा जानने के लिए, यहां दी गई वीडियो सीरीज़ देखें:
.
आपको ये सब सीखने को मिलेगा
आपको, इनके बारे में जानकारी मिलेगी:
- एक से ज़्यादा जीपीयू वाली एक ही मशीन पर डिस्ट्रिब्यूटेड ट्रेनिंग चलाना
- एक से ज़्यादा मशीनों पर डिस्ट्रिब्यूटेड ट्रेनिंग चलाना
Google Cloud पर इस लैब को चलाने की कुल लागत 2 डॉलर है.
2. Vertex AI के बारे में जानकारी
यह लैब, Google Cloud पर उपलब्ध एआई प्रॉडक्ट के सबसे नए वर्शन का इस्तेमाल करता है. Vertex AI, Google Cloud के सभी मशीन लर्निंग प्लैटफ़ॉर्म को आसानी से डेवलप करने के लिए इंटिग्रेट करता है. पहले, AutoML की मदद से ट्रेन किए गए मॉडल और कस्टम मॉडल को अलग-अलग सेवाओं से ऐक्सेस किया जा सकता था. नई सुविधा में, दोनों को एक ही एपीआई में जोड़ा गया है. साथ ही, इसमें अन्य नए प्रॉडक्ट भी शामिल हैं. मौजूदा प्रोजेक्ट को Vertex AI पर भी माइग्रेट किया जा सकता है.
Vertex AI में कई तरह के प्रॉडक्ट शामिल हैं, जो मशीन लर्निंग के वर्कफ़्लो को मैनेज करने में मदद करते हैं. यह लैब, यहां हाइलाइट किए गए प्रॉडक्ट पर फ़ोकस करेगी: ट्रेनिंग और वर्कबेंच
3. डिस्ट्रिब्यूटेड ट्रेनिंग की खास जानकारी
अगर आपके पास एक ही जीपीयू है, तो TensorFlow, इस ऐक्सेलरेटर का इस्तेमाल करके मॉडल ट्रेनिंग की रफ़्तार को तेज़ करेगा. इसके लिए आपको अलग से कुछ नहीं करना होगा. हालांकि, अगर आपको एक से ज़्यादा जीपीयू का इस्तेमाल करके, बेहतर परफ़ॉर्मेंस चाहिए, तो आपको tf.distribute
का इस्तेमाल करना होगा. यह TensorFlow का एक मॉड्यूल है, जो एक से ज़्यादा डिवाइसों पर कैलकुलेशन चलाता है.
इस लैब के पहले सेक्शन में tf.distribute.MirroredStrategy
का इस्तेमाल किया गया है. इसे अपने ट्रेनिंग ऐप्लिकेशन में जोड़ने के लिए, कोड में कुछ बदलाव करने होंगे. इस रणनीति से, आपकी मशीन के हर जीपीयू पर मॉडल की कॉपी बनाई जाती है. बाद के ग्रेडिएंट अपडेट सिंक्रोनस तरीके से होंगे. इसका मतलब है कि हर जीपीयू, इनपुट डेटा के अलग-अलग स्लाइस पर मॉडल के फ़ॉरवर्ड और बैकवर्ड पास का हिसाब लगाता है. इसके बाद, इनमें से हर स्लाइस के लिए कैलकुलेट किए गए ग्रेडिएंट को सभी जीपीयू में एग्रीगेट किया जाता है. साथ ही, all-reduce नाम की प्रोसेस में इनका औसत निकाला जाता है. इन औसत ग्रेडिएंट का इस्तेमाल करके, मॉडल पैरामीटर अपडेट किए जाते हैं.
लैब के आखिर में मौजूद वैकल्पिक सेक्शन में tf.distribute.MultiWorkerMirroredStrategy
का इस्तेमाल किया जाता है, जो MirroredStrategy
की तरह है. हालांकि, यह एक से ज़्यादा मशीनों के साथ काम करता है. इनमें से हर मशीन में एक से ज़्यादा जीपीयू भी हो सकते हैं. जैसे, MirroredStrategy
, MultiWorkerMirroredStrategy
एक सिंक्रोनस डेटा पैरलिज़्म रणनीति है, जिसका इस्तेमाल कोड में कुछ ही बदलाव करके किया जा सकता है. एक मशीन पर सिंक्रोनस डेटा पैरलेललिज़्म से कई मशीनों पर जाने का मुख्य फ़र्क़ यह है कि अब हर चरण के आखिर में, ग्रेडिएंट को मशीन के सभी जीपीयू और क्लस्टर के सभी मशीनों के साथ सिंक करना होगा.
इस लैब को पूरा करने के लिए, यह ज़रूरी नहीं है कि जानकारी दी गई हो. हालांकि, अगर आपको TensorFlow में, डिस्ट्रिब्यूटेड ट्रेनिंग के काम करने के तरीके के बारे में ज़्यादा जानना है, तो यह वीडियो देखें:
4. अपना एनवायरमेंट सेट अप करें
अपना एनवायरमेंट सेट अप करने के लिए, Vertex AI की मदद से कस्टम मॉडल को ट्रेनिंग देना लैब में दिया गया तरीका अपनाएं.
5. एक मशीन, कई जीपीयू ट्रेनिंग
Docker कंटेनर में अपना ट्रेनिंग ऐप्लिकेशन कोड डालकर और इस कंटेनर को Google आर्टफ़ैक्ट रजिस्ट्री में डालकर, Vertex AI में डिस्ट्रिब्यूट की गई ट्रेनिंग जॉब सबमिट की जा सकती है. इस तरीके का इस्तेमाल करके, किसी भी फ़्रेमवर्क के साथ बनाए गए मॉडल को ट्रेनिंग दी जा सकती है.
शुरू करने के लिए, पिछले लैब में बनाए गए Workbench नोटबुक के लॉन्चर मेन्यू से, टर्मिनल विंडो खोलें.
पहला चरण: ट्रेनिंग कोड लिखना
flowers-multi-gpu
नाम की एक नई डायरेक्ट्री बनाएं और उसमें cd करें:
mkdir flowers-multi-gpu
cd flowers-multi-gpu
ट्रेनिंग कोड और Python फ़ाइल की डायरेक्ट्री बनाने के लिए, नीचे दिया गया कोड इस्तेमाल करें. यहां आपको नीचे दिया गया कोड जोड़ना होगा.
mkdir trainer
touch trainer/task.py
अब आपको अपनी flowers-multi-gpu/
डायरेक्ट्री में ये चीज़ें दिखनी चाहिए:
+ trainer/
+ task.py
इसके बाद, अपनी बनाई गई task.py
फ़ाइल खोलें और नीचे दिया गया कोड कॉपी करें.
आपको BUCKET_ROOT
में मौजूद {your-gcs-bucket}
को उस Cloud Storage बकेट से बदलना होगा जहां आपने Lab 1 में फूलों का डेटासेट सेव किया था.
import tensorflow as tf
import numpy as np
import os
## Replace {your-gcs-bucket} !!
BUCKET_ROOT='/gcs/{your-gcs-bucket}'
# Define variables
NUM_CLASSES = 5
EPOCHS=10
BATCH_SIZE = 32
IMG_HEIGHT = 180
IMG_WIDTH = 180
DATA_DIR = f'{BUCKET_ROOT}/flower_photos'
def create_datasets(data_dir, batch_size):
'''Creates train and validation datasets.'''
train_dataset = tf.keras.utils.image_dataset_from_directory(
data_dir,
validation_split=0.2,
subset="training",
seed=123,
image_size=(IMG_HEIGHT, IMG_WIDTH),
batch_size=batch_size)
validation_dataset = tf.keras.utils.image_dataset_from_directory(
data_dir,
validation_split=0.2,
subset="validation",
seed=123,
image_size=(IMG_HEIGHT, IMG_WIDTH),
batch_size=batch_size)
train_dataset = train_dataset.cache().shuffle(1000).prefetch(buffer_size=tf.data.AUTOTUNE)
validation_dataset = validation_dataset.cache().prefetch(buffer_size=tf.data.AUTOTUNE)
return train_dataset, validation_dataset
def create_model():
'''Creates model.'''
model = tf.keras.Sequential([
tf.keras.layers.Resizing(IMG_HEIGHT, IMG_WIDTH),
tf.keras.layers.Rescaling(1./255, input_shape=(IMG_HEIGHT, IMG_WIDTH, 3)),
tf.keras.layers.Conv2D(16, 3, padding='same', activation='relu'),
tf.keras.layers.MaxPooling2D(),
tf.keras.layers.Conv2D(32, 3, padding='same', activation='relu'),
tf.keras.layers.MaxPooling2D(),
tf.keras.layers.Conv2D(64, 3, padding='same', activation='relu'),
tf.keras.layers.MaxPooling2D(),
tf.keras.layers.Flatten(),
tf.keras.layers.Dense(128, activation='relu'),
tf.keras.layers.Dense(NUM_CLASSES, activation='softmax')
])
return model
def main():
# Create distribution strategy
strategy = tf.distribute.MirroredStrategy()
# Get data
GLOBAL_BATCH_SIZE = BATCH_SIZE * strategy.num_replicas_in_sync
train_dataset, validation_dataset = create_datasets(DATA_DIR, BATCH_SIZE)
# Wrap model creation and compilation within scope of strategy
with strategy.scope():
model = create_model()
model.compile(optimizer=tf.keras.optimizers.Adam(),
loss=tf.keras.losses.SparseCategoricalCrossentropy(),
metrics=['accuracy'])
history = model.fit(
train_dataset,
validation_data=validation_dataset,
epochs=EPOCHS
)
model.save(f'{BUCKET_ROOT}/model_output')
if __name__ == "__main__":
main()
कंटेनर बनाने से पहले, आइए कोड को ज़्यादा बारीकी से देखें. डिस्ट्रिब्यूटेड ट्रेनिंग का इस्तेमाल करने के लिए, कुछ खास कॉम्पोनेंट होते हैं.
main()
फ़ंक्शन में,MirroredStrategy
ऑब्जेक्ट बनाया जाता है. इसके बाद, आपको रणनीति के दायरे में अपने मॉडल वैरिएबल बनाना होगा. इस चरण से TensorFlow को पता चलता है कि सभी जीपीयू में कौनसे वैरिएबल डुप्लीकेट होने चाहिए.- बैच का साइज़,
num_replicas_in_sync
के हिसाब से बढ़ाया जाता है. TensorFlow में सिंक्रोनस डेटा पैरलिज़्म रणनीतियों का इस्तेमाल करते समय बैच साइज़ को स्केल करना सबसे सही तरीका है. आपको यहां ज़्यादा जानकारी मिल सकती है.
दूसरा चरण: Dockerfile बनाना
अपने कोड को कंटेनर में डालने के लिए, आपको Dockerfile बनाना होगा. Dockerfile में, आपको इमेज को चलाने के लिए ज़रूरी सभी निर्देश शामिल करने होंगे. इससे सभी ज़रूरी लाइब्रेरी इंस्टॉल हो जाएंगी और ट्रेनिंग कोड के लिए एंट्री पॉइंट सेट अप हो जाएगा.
अपने टर्मिनल से, flowers डायरेक्ट्री के रूट में एक खाली Dockerfile बनाएं:
touch Dockerfile
अब आपको अपनी flowers-multi-gpu/
डायरेक्ट्री में ये चीज़ें दिखनी चाहिए:
+ Dockerfile
+ trainer/
+ task.py
Dockerfile खोलें और इसमें यह कॉपी करें:
FROM gcr.io/deeplearning-platform-release/tf2-gpu.2-8
WORKDIR /
# Copies the trainer code to the docker image.
COPY trainer /trainer
# Sets up the entry point to invoke the trainer.
ENTRYPOINT ["python", "-m", "trainer.task"]
तीसरा चरण: कंटेनर बनाना
अपने प्रोजेक्ट के लिए एनवायरमेंट वैरिएबल तय करने के लिए, अपने टर्मिनल में यह तरीका अपनाएं. your-cloud-project
की जगह अपने प्रोजेक्ट का आईडी डालना न भूलें:
PROJECT_ID='your-cloud-project'
Artifact Registry में कोई रिपॉज़िटरी बनाएं. हम पहले लैब में बनाए गए रेपो का इस्तेमाल करेंगे.
REPO_NAME='flower-app'
Artifact Registry में, अपनी कंटेनर इमेज के यूआरआई के साथ वैरिएबल तय करें:
IMAGE_URI=us-central1-docker.pkg.dev/$PROJECT_ID/$REPO_NAME/flower_image_distributed:single_machine
डॉकर कॉन्फ़िगर करें
gcloud auth configure-docker \
us-central1-docker.pkg.dev
इसके बाद, अपनी flowers-multi-gpu
डायरेक्ट्री के रूट से, कंटेनर बनाने के लिए यह कमांड चलाएं:
docker build ./ -t $IMAGE_URI
आखिर में, उसे Artifact Registry में भेजें:
docker push $IMAGE_URI
आर्टफ़ैक्ट रजिस्ट्री में कंटेनर को पुश करने के बाद, अब ट्रेनिंग जॉब शुरू की जा सकती है.
चौथा चरण: SDK टूल की मदद से जॉब चलाना
इस सेक्शन में, Vertex AI Python SDK का इस्तेमाल करके, डिस्ट्रिब्यूटेड ट्रेनिंग जॉब को कॉन्फ़िगर और लॉन्च करने का तरीका बताया गया है.
लॉन्चर से, TensorFlow 2 नोटबुक बनाएं.
Vertex AI SDK टूल इंपोर्ट करें.
from google.cloud import aiplatform
इसके बाद, CustomContainerTrainingJob
तय करें.
आपको container_uri
में {PROJECT_ID}
और staging_bucket
में {YOUR_BUCKET}
को बदलना होगा.
job = aiplatform.CustomContainerTrainingJob(display_name='flowers-multi-gpu',
container_uri='us-central1-docker.pkg.dev/{PROJECT_ID}/flower-app/flower_image_distributed:single_machine',
staging_bucket='gs://{YOUR_BUCKET}')
जॉब तय करने के बाद, उसे चलाया जा सकता है. आपको एक्सीलेरेटर की संख्या को 2 पर सेट करना होगा. अगर हम सिर्फ़ एक जीपीयू का इस्तेमाल करते हैं, तो इसे डिस्ट्रिब्यूटेड ट्रेनिंग के तौर पर नहीं माना जाएगा. दो या उससे ज़्यादा ऐक्सेलरेटर का इस्तेमाल करने पर, एक ही मशीन पर डिस्ट्रिब्यूट होने वाला ट्रेनिंग दी जाती है.
my_custom_job.run(replica_count=1,
machine_type='n1-standard-4',
accelerator_type='NVIDIA_TESLA_V100',
accelerator_count=2)
कंसोल में, आपको अपने जॉब की प्रोग्रेस दिखेगी.
6. [ज़रूरी नहीं] एक से ज़्यादा वर्कर्स को ट्रेनिंग देना
अब आपने एक से ज़्यादा जीपीयू वाली एक मशीन पर, डिस्ट्रिब्यूटेड ट्रेनिंग की कोशिश कर ली है. अब एक से ज़्यादा मशीनों पर ट्रेनिंग करके, डिस्ट्रिब्यूटेड ट्रेनिंग की अपनी स्किल को अगले लेवल पर ले जाया जा सकता है. कीमत कम रखने के लिए, हम उन मशीनों में कोई जीपीयू नहीं जोड़ेंगे. हालांकि, अगर आप चाहें, तो जीपीयू जोड़कर प्रयोग किया जा सकता है.
अपने notebook के इंस्टेंस में नई टर्मिनल विंडो खोलें:
पहला चरण: ट्रेनिंग कोड लिखना
flowers-multi-machine
नाम की एक नई डायरेक्ट्री बनाएं और उसमें cd करें:
mkdir flowers-multi-machine
cd flowers-multi-machine
ट्रेनिंग कोड और Python फ़ाइल के लिए डायरेक्ट्री बनाने के लिए, नीचे दिया गया निर्देश चलाएं. इस फ़ाइल में, आपको नीचे दिया गया कोड जोड़ना होगा.
mkdir trainer
touch trainer/task.py
अब आपकी flowers-multi-machine/
डायरेक्ट्री में यह जानकारी होनी चाहिए:
+ trainer/
+ task.py
इसके बाद, अभी-अभी बनाई गई task.py
फ़ाइल खोलें और नीचे दिए गए कोड को कॉपी करें.
आपको BUCKET_ROOT
में मौजूद {your-gcs-bucket}
को उस Cloud Storage बकेट से बदलना होगा जहां आपने Lab 1 में फूलों का डेटासेट सेव किया था.
import tensorflow as tf
import numpy as np
import os
## Replace {your-gcs-bucket} !!
BUCKET_ROOT='/gcs/{your-gcs-bucket}'
# Define variables
NUM_CLASSES = 5
EPOCHS=10
BATCH_SIZE = 32
IMG_HEIGHT = 180
IMG_WIDTH = 180
DATA_DIR = f'{BUCKET_ROOT}/flower_photos'
SAVE_MODEL_DIR = f'{BUCKET_ROOT}/multi-machine-output'
def create_datasets(data_dir, batch_size):
'''Creates train and validation datasets.'''
train_dataset = tf.keras.utils.image_dataset_from_directory(
data_dir,
validation_split=0.2,
subset="training",
seed=123,
image_size=(IMG_HEIGHT, IMG_WIDTH),
batch_size=batch_size)
validation_dataset = tf.keras.utils.image_dataset_from_directory(
data_dir,
validation_split=0.2,
subset="validation",
seed=123,
image_size=(IMG_HEIGHT, IMG_WIDTH),
batch_size=batch_size)
train_dataset = train_dataset.cache().shuffle(1000).prefetch(buffer_size=tf.data.AUTOTUNE)
validation_dataset = validation_dataset.cache().prefetch(buffer_size=tf.data.AUTOTUNE)
return train_dataset, validation_dataset
def create_model():
'''Creates model.'''
model = tf.keras.Sequential([
tf.keras.layers.Resizing(IMG_HEIGHT, IMG_WIDTH),
tf.keras.layers.Rescaling(1./255, input_shape=(IMG_HEIGHT, IMG_WIDTH, 3)),
tf.keras.layers.Conv2D(16, 3, padding='same', activation='relu'),
tf.keras.layers.MaxPooling2D(),
tf.keras.layers.Conv2D(32, 3, padding='same', activation='relu'),
tf.keras.layers.MaxPooling2D(),
tf.keras.layers.Conv2D(64, 3, padding='same', activation='relu'),
tf.keras.layers.MaxPooling2D(),
tf.keras.layers.Flatten(),
tf.keras.layers.Dense(128, activation='relu'),
tf.keras.layers.Dense(NUM_CLASSES, activation='softmax')
])
return model
def _is_chief(task_type, task_id):
'''Helper function. Determines if machine is chief.'''
return task_type == 'chief'
def _get_temp_dir(dirpath, task_id):
'''Helper function. Gets temporary directory for saving model.'''
base_dirpath = 'workertemp_' + str(task_id)
temp_dir = os.path.join(dirpath, base_dirpath)
tf.io.gfile.makedirs(temp_dir)
return temp_dir
def write_filepath(filepath, task_type, task_id):
'''Helper function. Gets filepath to save model.'''
dirpath = os.path.dirname(filepath)
base = os.path.basename(filepath)
if not _is_chief(task_type, task_id):
dirpath = _get_temp_dir(dirpath, task_id)
return os.path.join(dirpath, base)
def main():
# Create distribution strategy
strategy = tf.distribute.MultiWorkerMirroredStrategy()
# Get data
GLOBAL_BATCH_SIZE = BATCH_SIZE * strategy.num_replicas_in_sync
train_dataset, validation_dataset = create_datasets(DATA_DIR, BATCH_SIZE)
# Wrap variable creation within strategy scope
with strategy.scope():
model = create_model()
model.compile(optimizer=tf.keras.optimizers.Adam(),
loss=tf.keras.losses.SparseCategoricalCrossentropy(),
metrics=['accuracy'])
history = model.fit(
train_dataset,
validation_data=validation_dataset,
epochs=EPOCHS
)
# Determine type and task of the machine from
# the strategy cluster resolver
task_type, task_id = (strategy.cluster_resolver.task_type,
strategy.cluster_resolver.task_id)
# Based on the type and task, write to the desired model path
write_model_path = write_filepath(SAVE_MODEL_DIR, task_type, task_id)
model.save(write_model_path)
if __name__ == "__main__":
main()
कंटेनर बनाने से पहले, आइए कोड को ज़्यादा बारीकी से देखें. कोड में कुछ ऐसे कॉम्पोनेंट हैं जो आपके ट्रेनिंग ऐप्लिकेशन के लिए MultiWorkerMirroredStrategy
के साथ काम करने के लिए ज़रूरी हैं.
main()
फ़ंक्शन में,MultiWorkerMirroredStrategy
ऑब्जेक्ट बनाया जाता है. इसके बाद, आपको रणनीति के दायरे में अपने मॉडल वैरिएबल बनाना होगा. यह अहम चरण, TensorFlow को बताता है कि किन वैरिएबल को सभी प्रतिकृति में डुप्लीकेट किया जाना चाहिए.- बैच का साइज़,
num_replicas_in_sync
के हिसाब से बढ़ाया जाता है. TensorFlow में सिंक्रोनस डेटा पैरलिज़्म रणनीतियों का इस्तेमाल करते समय बैच साइज़ को स्केल करना सबसे सही तरीका है. - एक से ज़्यादा वर्कर्स के मामले में, मॉडल को सेव करना थोड़ा मुश्किल होता है. इसकी वजह यह है कि हर वर्कर्स के लिए डेस्टिनेशन अलग-अलग होना चाहिए. मुख्य वर्कर, मॉडल को अपनी पसंद की डायरेक्ट्री में सेव करेगा. वहीं, दूसरे वर्कर्स मॉडल को अस्थायी डायरेक्ट्री में सेव करेंगे. यह ज़रूरी है कि ये अस्थायी डायरेक्ट्री यूनीक हों, ताकि एक से ज़्यादा वर्कर्स एक ही जगह पर डेटा न डाल सकें. सेव करने की प्रोसेस में, सभी कर्मचारी शामिल हो सकते हैं. इसका मतलब है कि सिर्फ़ चीफ़ को सेव करने की ज़रूरत नहीं है.
_is_chief()
,_get_temp_dir()
,write_filepath()
, औरmain()
फ़ंक्शन में, मॉडल को सेव करने में मदद करने वाला बॉयलरप्लेट कोड शामिल होता है.
दूसरा चरण: Dockerfile बनाएं
अपने कोड को कंटेनर में डालने के लिए, आपको Dockerfile बनाना होगा. Dockerfile में, आपको इमेज को चलाने के लिए ज़रूरी सभी निर्देश शामिल करने होंगे. इससे सभी ज़रूरी लाइब्रेरी इंस्टॉल हो जाएंगी और ट्रेनिंग कोड के लिए एंट्री पॉइंट सेट अप हो जाएगा.
अपने टर्मिनल से, flowers डायरेक्ट्री के रूट में एक खाली Dockerfile बनाएं:
touch Dockerfile
अब आपको अपनी flowers-multi-machine/
डायरेक्ट्री में ये चीज़ें दिखनी चाहिए:
+ Dockerfile
+ trainer/
+ task.py
Dockerfile खोलें और इसमें यह कॉपी करें:
FROM gcr.io/deeplearning-platform-release/tf2-gpu.2-8
WORKDIR /
# Copies the trainer code to the docker image.
COPY trainer /trainer
# Sets up the entry point to invoke the trainer.
ENTRYPOINT ["python", "-m", "trainer.task"]
तीसरा चरण: कंटेनर बनाना
अपने प्रोजेक्ट के लिए एनवायरमेंट वैरिएबल तय करने के लिए, अपने टर्मिनल में यह तरीका अपनाएं. your-cloud-project
की जगह अपने प्रोजेक्ट का आईडी डालना न भूलें:
PROJECT_ID='your-cloud-project'
Artifact Registry में कोई रिपॉज़िटरी बनाएं. हम पहले लैब में बनाए गए रेपो का इस्तेमाल करेंगे.
REPO_NAME='flower-app'
Google Artifact Registry में, अपनी कंटेनर इमेज के यूआरआई के साथ एक वैरिएबल तय करें:
IMAGE_URI=us-central1-docker.pkg.dev/$PROJECT_ID/$REPO_NAME/flower_image_distributed:multi_machine
डॉकर कॉन्फ़िगर करें
gcloud auth configure-docker \
us-central1-docker.pkg.dev
इसके बाद, अपनी flowers-multi-machine
डायरेक्ट्री के रूट से यह चलाकर कंटेनर बनाएं:
docker build ./ -t $IMAGE_URI
आखिर में, इसे Artifact Registry में पुश करें:
docker push $IMAGE_URI
आर्टफ़ैक्ट रजिस्ट्री में कंटेनर को पुश करने के बाद, अब ट्रेनिंग जॉब शुरू की जा सकती है.
चौथा चरण: SDK टूल की मदद से जॉब चलाना
इस सेक्शन में, Vertex AI Python SDK का इस्तेमाल करके, डिस्ट्रिब्यूटेड ट्रेनिंग जॉब को कॉन्फ़िगर और लॉन्च करने का तरीका बताया गया है.
लॉन्चर से, TensorFlow 2 नोटबुक बनाएं.
Vertex AI SDK टूल इंपोर्ट करें.
from google.cloud import aiplatform
इसके बाद, worker_pool_specs
तय करें.
Vertex AI, मशीन से जुड़े अलग-अलग तरह के टास्क को पूरा करने के लिए, चार वर्कर्स पूल उपलब्ध कराता है.
वर्कर्स पूल 0, प्राइमरी, चीफ़, शेड्यूलर या "मास्टर" को कॉन्फ़िगर करता है. MultiWorkerMirroredStrategy
में, सभी मशीनों को वर्कर्स के तौर पर दिखाया जाता है. ये वे फ़िज़िकल मशीनें होती हैं जिन पर डुप्लीकेट कैलकुलेशन किया जाता है. हर मशीन एक वर्कर्स है. इसके अलावा, एक वर्कर्स ऐसा होना चाहिए जो कुछ अतिरिक्त काम करता हो. जैसे, चेकपॉइंट सेव करना और TensorBoard में खास जानकारी वाली फ़ाइलें लिखना. इस मशीन को चीफ़ के नाम से जाना जाता है. हमेशा सिर्फ़ एक चीफ़ वर्कर्स होता है. इसलिए, वर्कर्स पूल 0 के लिए वर्कर्स की संख्या हमेशा एक ही रहेगी.
वर्कर पूल 1 में, अपने क्लस्टर के लिए अतिरिक्त वर्कर कॉन्फ़िगर किए जाते हैं.
worker_pool_specs
सूची की पहली डिक्शनरी, वर्कर पूल 0 के बारे में बताती है और दूसरी डिक्शनरी, वर्कर पूल 1 के बारे में बताती है. इस सैंपल में, दोनों कॉन्फ़िगरेशन एक जैसे हैं. हालांकि, अगर आपको तीन मशीनों पर ट्रेनिंग करनी है, तो आपको replica_count
को 2 पर सेट करके, वर्कर्स पूल 1 में अतिरिक्त वर्कर्स जोड़ने होंगे. अगर आपको जीपीयू जोड़ने हैं, तो आपको दोनों वर्कर्स पूल के लिए machine_spec
में accelerator_type
और accelerator_count
आर्ग्युमेंट जोड़ने होंगे. ध्यान दें कि अगर आपको MultiWorkerMirroredStrategy
के साथ जीपीयू का इस्तेमाल करना है, तो क्लस्टर में मौजूद हर मशीन में एक जैसे जीपीयू होने चाहिए. ऐसा न करने पर, जॉब पूरा नहीं होगा.
आपको image_uri
में, {PROJECT_ID}
को बदलना होगा.
# The spec of the worker pools including machine type and Docker image
# Be sure to replace PROJECT_ID in the "image_uri" with your project.
worker_pool_specs=[
{
"replica_count": 1,
"machine_spec": {
"machine_type": "n1-standard-4",
},
"container_spec": {"image_uri": "us-central1-docker.pkg.dev/{PROJECT_ID}/flower-app/flower_image_distributed:multi_machine"}
},
{
"replica_count": 1,
"machine_spec": {
"machine_type": "n1-standard-4",
},
"container_spec": {"image_uri": "us-central1-docker.pkg.dev/{PROJECT_ID}/flower-app/flower_image_distributed:multi_machine"}
}
]
इसके बाद, CustomJob
बनाएं और चलाएं. इसके लिए, staging_bucket
में मौजूद {YOUR_BUCKET}
को स्टैजिंग के लिए, अपने प्रोजेक्ट में मौजूद किसी बकेट से बदलें.
my_custom_job = aiplatform.CustomJob(display_name='flowers-multi-worker',
worker_pool_specs=worker_pool_specs,
staging_bucket='gs://{YOUR_BUCKET}')
my_custom_job.run()
कंसोल में, आपको अपने जॉब की प्रोग्रेस दिखेगी.
🎉 बधाई हो! 🎉
आपने Vertex AI का इस्तेमाल करके, ये काम करने का तरीका जाना है:
- TensorFlow की मदद से, डिस्ट्रिब्यूटेड ट्रेनिंग जॉब चलाना
Vertex के अलग-अलग हिस्सों के बारे में ज़्यादा जानने के लिए, दस्तावेज़ देखें.
7. साफ़-सफ़ाई सेवा
हमने नोटबुक को 60 मिनट तक इस्तेमाल में न होने पर, टाइम आउट होने के लिए कॉन्फ़िगर किया था. इसलिए, हमें इंस्टेंस बंद होने की चिंता करने की ज़रूरत नहीं है. अगर आपको इंस्टेंस को मैन्युअल तरीके से बंद करना है, तो कंसोल के Vertex AI Workbench सेक्शन में जाकर, 'बंद करें' बटन पर क्लिक करें. अगर आपको नोटबुक को पूरी तरह से मिटाना है, तो मिटाएं बटन पर क्लिक करें.
स्टोरेज बकेट मिटाने के लिए, अपने Cloud Console में नेविगेशन मेन्यू का इस्तेमाल करके, स्टोरेज पर जाएं. इसके बाद, अपनी बकेट चुनें और 'मिटाएं' पर क्लिक करें: