1. 개요
이 실습에서는 Vertex AI를 사용하여 커스텀 컨테이너의 코드를 사용하여 TensorFlow 모델을 학습하고 제공합니다.
여기서는 모델 코드에 TensorFlow를 사용하지만 다른 프레임워크로 쉽게 교체할 수 있습니다.
학습 내용
다음 작업을 수행하는 방법을 배우게 됩니다.
- Vertex Workbench에서 모델 학습 코드 빌드 및 컨테이너화
- Vertex AI에 커스텀 모델 학습 작업 제출
- 학습된 모델을 엔드포인트에 배포하고 해당 엔드포인트를 사용하여 예측 수행하기
Google Cloud에서 이 실습을 진행하는 데 드는 총 비용은 약 $1입니다.
2. Vertex AI 소개
이 실습에서는 Google Cloud에서 제공되는 최신 AI 제품을 사용합니다. Vertex AI는 Google Cloud 전반의 ML 제품을 원활한 개발 환경으로 통합합니다. 예전에는 AutoML로 학습된 모델과 커스텀 모델은 별도의 서비스를 통해 액세스할 수 있었습니다. 새 서비스는 다른 새로운 제품과 함께 두 가지 모두를 단일 API로 결합합니다. 기존 프로젝트를 Vertex AI로 이전할 수도 있습니다. 의견이 있는 경우 지원 페이지를 참고하세요.
Vertex AI에는 엔드 투 엔드 ML 워크플로를 지원하는 다양한 제품이 포함되어 있습니다. 이 실습에서는 아래에 강조 표시된 학습, 예측, Workbench 제품에 중점을 둡니다.
3. 환경 설정
이 Codelab을 실행하려면 결제가 사용 설정된 Google Cloud Platform 프로젝트가 필요합니다. 프로젝트를 만들려면 여기의 안내를 따르세요.
1단계: Compute Engine API 사용 설정
아직 사용 설정되지 않은 경우 Compute Engine으로 이동하고 사용 설정을 선택합니다. 이것은 노트북 인스턴스를 생성하는 데 필요합니다.
2단계: Vertex AI API 사용 설정
Cloud Console의 Vertex AI 섹션으로 이동하고 Vertex AI API 사용 설정을 클릭합니다.
3단계: Container Registry API 사용 설정
Container Registry로 이동하여 아직 사용 설정되지 않은 경우 사용 설정을 선택합니다. 이를 사용하여 커스텀 학습 작업을 위한 컨테이너를 생성합니다.
4단계: Vertex AI Workbench 인스턴스 만들기
Cloud 콘솔의 Vertex AI 섹션에서 'Workbench'를 클릭합니다.
여기에서 사용자 관리 노트북 내에서 새 노트북을 클릭합니다.
그런 다음 최신 버전의 TensorFlow Enterprise (LTS 사용) 인스턴스 유형 GPU 없음을 선택합니다.
기본 옵션을 사용하고 만들기를 클릭합니다.
이 실습에서 학습하고 서빙할 모델은 TensorFlow 문서의 이 튜토리얼을 기반으로 합니다. 이 튜토리얼에서는 Kaggle의 Auto MPG 데이터 세트를 사용하여 차량의 연비를 예측합니다.
4. 학습 코드 컨테이너화
학습 코드를 Docker 컨테이너에 넣고 이 컨테이너를 Google Container Registry로 푸시하여 이 학습 작업을 Vertex에 제출합니다. 이 접근 방식을 사용하면 모든 프레임워크로 빌드된 모델을 학습시킬 수 있습니다.
시작하려면 런처 메뉴에서 노트북 인스턴스의 터미널 창을 엽니다.
mpg
라는 새 디렉터리를 만들고 여기로 디렉터리를 변경합니다.
mkdir mpg
cd mpg
1단계: Dockerfile 만들기
코드를 컨테이너화하는 첫 번째 단계는 Dockerfile을 만드는 것입니다. Dockerfile에는 이미지를 실행하는 데 필요한 모든 명령어가 포함됩니다. 사용 중인 모든 라이브러리를 설치하고 학습 코드의 진입점을 설정합니다. 터미널에서 빈 Dockerfile을 만듭니다.
touch Dockerfile
Dockerfile을 열고 다음을 복사합니다.
FROM gcr.io/deeplearning-platform-release/tf2-cpu.2-6
WORKDIR /
# Copies the trainer code to the docker image.
COPY trainer /trainer
# Sets up the entry point to invoke the trainer.
ENTRYPOINT ["python", "-m", "trainer.train"]
이 Dockerfile은 Deep Learning Container TensorFlow Enterprise 2.3 Docker 이미지를 사용합니다. Google Cloud의 Deep Learning Containers에는 많은 수의 일반적인 ML 및 데이터 과학 프레임워크가 사전 설치된 상태로 제공됩니다. 사용 중인 버전에는 TF Enterprise 2.3, Pandas, Scikit-learn 등이 포함됩니다. 이 Dockerfile은 해당 이미지를 다운로드한 후 학습 코드의 진입점을 설정합니다. 아직 이 파일을 만들지 않았습니다. 다음 단계에서 모델을 학습시키고 내보내기 위한 코드를 추가할 것입니다.
2단계: Cloud Storage 버킷 만들기
이 학습 작업에서는 학습된 TensorFlow 모델을 Cloud Storage 버킷으로 내보냅니다. Vertex는 이를 사용하여 내보낸 모델 애셋을 읽고 모델을 배포합니다. 터미널에서 다음을 실행하여 프로젝트의 env 변수를 정의하고 your-cloud-project
를 프로젝트의 ID로 바꿉니다.
PROJECT_ID='your-cloud-project'
다음으로, 터미널에서 다음을 실행하여 프로젝트에 새 버킷을 만듭니다. -l
(위치) 플래그는 이 가이드의 뒷부분에서 모델 엔드포인트를 배포하는 리전과 동일한 리전에 있어야 하므로 중요합니다.
BUCKET_NAME="gs://${PROJECT_ID}-bucket"
gsutil mb -l us-central1 $BUCKET_NAME
3단계: 모델 학습 코드 추가
터미널에서 다음을 실행하여 학습 코드용 디렉터리와 코드를 추가할 Python 파일을 만듭니다.
mkdir trainer
touch trainer/train.py
이제 mpg/ 디렉터리에 다음이 포함됩니다.
+ Dockerfile
+ trainer/
+ train.py
다음으로 방금 만든 train.py
파일을 열고 아래 코드를 복사합니다 (TensorFlow 문서의 튜토리얼에서 수정).
파일 시작 부분에서 BUCKET
변수를 이전 단계에서 만든 스토리지 버킷 이름으로 업데이트합니다.
import numpy as np
import pandas as pd
import pathlib
import tensorflow as tf
from tensorflow import keras
from tensorflow.keras import layers
print(tf.__version__)
"""## The Auto MPG dataset
The dataset is available from the [UCI Machine Learning Repository](https://archive.ics.uci.edu/ml/).
### Get the data
First download the dataset.
"""
dataset_path = keras.utils.get_file("auto-mpg.data", "http://archive.ics.uci.edu/ml/machine-learning-databases/auto-mpg/auto-mpg.data")
dataset_path
"""Import it using pandas"""
column_names = ['MPG','Cylinders','Displacement','Horsepower','Weight',
'Acceleration', 'Model Year', 'Origin']
dataset = pd.read_csv(dataset_path, names=column_names,
na_values = "?", comment='\t',
sep=" ", skipinitialspace=True)
dataset.tail()
# TODO: replace `your-gcs-bucket` with the name of the Storage bucket you created earlier
BUCKET = 'gs://your-gcs-bucket'
"""### Clean the data
The dataset contains a few unknown values.
"""
dataset.isna().sum()
"""To keep this initial tutorial simple drop those rows."""
dataset = dataset.dropna()
"""The `"Origin"` column is really categorical, not numeric. So convert that to a one-hot:"""
dataset['Origin'] = dataset['Origin'].map({1: 'USA', 2: 'Europe', 3: 'Japan'})
dataset = pd.get_dummies(dataset, prefix='', prefix_sep='')
dataset.tail()
"""### Split the data into train and test
Now split the dataset into a training set and a test set.
We will use the test set in the final evaluation of our model.
"""
train_dataset = dataset.sample(frac=0.8,random_state=0)
test_dataset = dataset.drop(train_dataset.index)
"""### Inspect the data
Have a quick look at the joint distribution of a few pairs of columns from the training set.
Also look at the overall statistics:
"""
train_stats = train_dataset.describe()
train_stats.pop("MPG")
train_stats = train_stats.transpose()
train_stats
"""### Split features from labels
Separate the target value, or "label", from the features. This label is the value that you will train the model to predict.
"""
train_labels = train_dataset.pop('MPG')
test_labels = test_dataset.pop('MPG')
"""### Normalize the data
Look again at the `train_stats` block above and note how different the ranges of each feature are.
It is good practice to normalize features that use different scales and ranges. Although the model *might* converge without feature normalization, it makes training more difficult, and it makes the resulting model dependent on the choice of units used in the input.
Note: Although we intentionally generate these statistics from only the training dataset, these statistics will also be used to normalize the test dataset. We need to do that to project the test dataset into the same distribution that the model has been trained on.
"""
def norm(x):
return (x - train_stats['mean']) / train_stats['std']
normed_train_data = norm(train_dataset)
normed_test_data = norm(test_dataset)
"""This normalized data is what we will use to train the model.
Caution: The statistics used to normalize the inputs here (mean and standard deviation) need to be applied to any other data that is fed to the model, along with the one-hot encoding that we did earlier. That includes the test set as well as live data when the model is used in production.
## The model
### Build the model
Let's build our model. Here, we'll use a `Sequential` model with two densely connected hidden layers, and an output layer that returns a single, continuous value. The model building steps are wrapped in a function, `build_model`, since we'll create a second model, later on.
"""
def build_model():
model = keras.Sequential([
layers.Dense(64, activation='relu', input_shape=[len(train_dataset.keys())]),
layers.Dense(64, activation='relu'),
layers.Dense(1)
])
optimizer = tf.keras.optimizers.RMSprop(0.001)
model.compile(loss='mse',
optimizer=optimizer,
metrics=['mae', 'mse'])
return model
model = build_model()
"""### Inspect the model
Use the `.summary` method to print a simple description of the model
"""
model.summary()
"""Now try out the model. Take a batch of `10` examples from the training data and call `model.predict` on it.
It seems to be working, and it produces a result of the expected shape and type.
### Train the model
Train the model for 1000 epochs, and record the training and validation accuracy in the `history` object.
Visualize the model's training progress using the stats stored in the `history` object.
This graph shows little improvement, or even degradation in the validation error after about 100 epochs. Let's update the `model.fit` call to automatically stop training when the validation score doesn't improve. We'll use an *EarlyStopping callback* that tests a training condition for every epoch. If a set amount of epochs elapses without showing improvement, then automatically stop the training.
You can learn more about this callback [here](https://www.tensorflow.org/api_docs/python/tf/keras/callbacks/EarlyStopping).
"""
model = build_model()
EPOCHS = 1000
# The patience parameter is the amount of epochs to check for improvement
early_stop = keras.callbacks.EarlyStopping(monitor='val_loss', patience=10)
early_history = model.fit(normed_train_data, train_labels,
epochs=EPOCHS, validation_split = 0.2,
callbacks=[early_stop])
# Export model and save to GCS
model.save(BUCKET + '/mpg/model')
4단계: 로컬에서 컨테이너 빌드 및 테스트
터미널에서 Google Container Registry에 있는 컨테이너 이미지의 URI로 변수를 정의합니다.
IMAGE_URI="gcr.io/$PROJECT_ID/mpg:v1"
그런 다음 mpg
디렉터리의 루트에서 다음을 실행하여 컨테이너를 빌드합니다.
docker build ./ -t $IMAGE_URI
노트북 인스턴스 내에서 컨테이너를 실행하여 올바르게 작동하는지 확인합니다.
docker run $IMAGE_URI
모델은 1~2분 이내에 검증 정확도가 약 72%인 상태로 학습을 완료해야 합니다(정확성은 정확히 다를 수 있음). 로컬에서 컨테이너 실행을 완료하면 Google Container Registry에 푸시합니다.
docker push $IMAGE_URI
컨테이너가 Container Registry로 푸시되었으므로 이제 커스텀 모델 학습 작업을 시작할 준비가 되었습니다.
5. Vertex AI에서 학습 작업 실행
Vertex AI는 학습 모델을 위한 두 가지 옵션을 제공합니다.
- AutoML: 최소한의 수고와 ML 지식만으로 고품질 모델을 학습시킵니다.
- 커스텀 학습: Google Cloud의 사전 빌드된 컨테이너 중 하나를 사용하여 클라우드에서 커스텀 학습 애플리케이션을 실행하거나 자체 컨테이너를 사용합니다.
이 실습에서는 Google Container Registry의 자체 커스텀 컨테이너를 통한 커스텀 학습을 사용합니다. 시작하려면 Cloud 콘솔의 Vertex 섹션에서 모델 섹션으로 이동합니다.
1단계: 학습 작업 시작
만들기를 클릭하여 학습 작업 및 배포된 모델의 매개변수를 입력합니다.
- 데이터 세트에서 관리형 데이터 세트 없음을 선택합니다.
- 그런 다음 학습 방법으로 커스텀 학습(고급)을 선택하고 계속을 클릭합니다.
- 계속을 클릭합니다.
다음 단계에서 모델 이름에 mpg
(또는 원하는 모델 이름)을 입력합니다. 그런 다음 커스텀 컨테이너를 선택합니다.
컨테이너 이미지 텍스트 상자에서 찾아보기를 클릭하고 방금 Container Registry에 업로드한 Docker 이미지를 찾습니다. 나머지 필드는 비워 두고 계속을 클릭합니다.
이 튜토리얼에서는 초매개변수 조정을 사용하지 않으므로 '초매개변수 조정 사용 설정' 체크박스를 선택 해제하고 계속을 클릭합니다.
컴퓨팅 및 가격 책정에서 선택한 리전을 그대로 두고 머신 유형으로 n1-standard-4를 선택합니다.
가속기 필드를 비워두고 계속을 선택합니다. 이 데모의 모델은 빠르게 학습하므로 더 작은 머신 유형을 사용합니다.
예측 컨테이너 단계에서 사전 빌드된 컨테이너를 선택한 다음 TensorFlow 2.6을 선택합니다.
사전 빌드된 컨테이너의 기본 설정은 그대로 둡니다. 모델 디렉터리에서 mpg 하위 디렉터리가 있는 GCS 버킷을 입력합니다. 학습된 모델을 내보내는 모델 학습 스크립트의 경로입니다.
Vertex는 모델을 배포할 때 이 위치를 확인합니다. 이제 학습할 준비가 되었습니다. 학습 시작을 클릭하여 학습 작업을 시작합니다. 콘솔의 학습 섹션에 다음과 같이 표시됩니다.
6. 모델 엔드포인트 배포
학습 작업을 설정할 때 Vertex AI가 내보낸 모델 애셋을 찾을 위치를 지정했습니다. 학습 파이프라인의 일환으로 Vertex는 이 애셋 경로를 기반으로 모델 리소스를 만듭니다. 모델 리소스 자체는 배포된 모델이 아니지만 모델이 있으면 엔드포인트에 배포할 수 있습니다. Vertex AI의 모델 및 엔드포인트에 대해 자세히 알아보려면 문서를 확인하세요.
이 단계에서는 학습된 모델의 엔드포인트를 만듭니다. 이를 사용하여 Vertex AI API를 통해 모델에 대한 예측을 수행할 수 있습니다.
1단계: 엔드포인트 배포
학습 작업이 완료되면 콘솔의 모델 섹션에 mpg (또는 지정한 이름)라는 모델이 표시됩니다.
학습 작업이 실행될 때 Vertex에서 모델 리소스를 만들었습니다. 이 모델을 사용하려면 엔드포인트를 배포해야 합니다. 모델당 여러 엔드포인트를 보유할 수 있습니다. 모델을 클릭한 다음 엔드포인트에 배포를 클릭합니다.
새 엔드포인트 만들기를 선택하고 이름을 v1과 같이 지정합니다. 액세스 권한으로 표준을 선택한 상태로 두고 계속을 클릭합니다.
트래픽 분할을 100으로 두고 최소 컴퓨팅 노드 수에 1을 입력합니다. 머신 유형에서 n1-standard-2 (또는 원하는 머신 유형)를 선택합니다. 나머지 기본값은 선택한 상태로 두고 계속을 클릭합니다. 이 모델에는 모니터링을 사용 설정하지 않으므로 다음으로 배포를 클릭하여 엔드포인트 배포를 시작합니다.
엔드포인트를 배포하는 데 10~15분이 소요되며 배포가 완료되면 이메일이 전송됩니다. 엔드포인트 배포가 완료되면 모델 리소스 아래에 배포된 엔드포인트 1개가 표시됩니다.
2단계: 배포된 모델에 대한 예측 수행하기
Vertex Python API를 사용하여 Python 노트북에서 학습된 모델에 대한 예측을 가져옵니다. 노트북 인스턴스로 돌아가서 런처에서 Python 3 노트북을 만듭니다.
노트북의 셀에서 다음을 실행하여 Vertex AI SDK를 설치합니다.
!pip3 install google-cloud-aiplatform --upgrade --user
그런 다음 노트북에 셀을 추가하여 SDK를 가져오고 방금 배포한 엔드포인트에 대한 참조를 만듭니다.
from google.cloud import aiplatform
endpoint = aiplatform.Endpoint(
endpoint_name="projects/YOUR-PROJECT-NUMBER/locations/us-central1/endpoints/YOUR-ENDPOINT-ID"
)
위의 endpoint_name
문자열에서 두 개의 값을 프로젝트 번호와 엔드포인트로 바꿔야 합니다. 프로젝트 대시보드로 이동하여 프로젝트 번호 값을 가져오면 프로젝트 번호를 찾을 수 있습니다.
콘솔의 엔드포인트 섹션에서 엔드포인트 ID를 찾을 수 있습니다.
마지막으로 새 셀에서 아래 코드를 복사하여 실행하여 엔드포인트를 예측합니다.
test_mpg = [1.4838871833555929,
1.8659883497083019,
2.234620276849616,
1.0187816540094903,
-2.530890710602246,
-1.6046416850441676,
-0.4651483719733302,
-0.4952254087173721,
0.7746763768735953]
response = endpoint.predict([test_mpg])
print('API response: ', response)
print('Predicted MPG: ', response.predictions[0][0])
이 예시에는 이미 모델에서 예상하는 형식인 정규화된 값이 있습니다.
이 셀을 실행하면 약 16mpg의 예측 출력이 표시됩니다.
🎉 수고하셨습니다. 🎉
Vertex AI를 사용하여 다음을 수행하는 방법을 배웠습니다.
- 커스텀 컨테이너에 학습 코드를 제공하여 모델을 학습합니다. 이 예에서는 TensorFlow 모델을 사용했지만 커스텀 컨테이너를 사용하여 모든 프레임워크로 빌드된 모델을 학습시킬 수 있습니다.
- 학습에 사용한 것과 동일한 워크플로의 일부로 사전 빌드된 컨테이너를 사용하여 TensorFlow 모델을 배포합니다.
- 모델 엔드포인트를 만들고 예측을 생성합니다.
Vertex의 다른 부분에 대해 자세히 알아보려면 문서를 확인하세요.
7. 삭제
이 실습에서 만든 노트북을 계속 사용하려면 사용하지 않을 때 노트북을 끄는 것이 좋습니다. Cloud 콘솔의 Workbench UI에서 노트북을 선택한 다음 중지를 선택합니다.
노트북을 완전히 삭제하려면 오른쪽 상단의 삭제 버튼을 클릭합니다.
배포한 엔드포인트를 삭제하려면 Vertex AI 콘솔의 엔드포인트 섹션으로 이동하여 만든 엔드포인트를 클릭한 다음 엔드포인트에서 모델 배포 취소를 선택합니다.
스토리지 버킷을 삭제하려면 Cloud 콘솔의 탐색 메뉴를 사용하여 스토리지로 이동하고 버킷을 선택하고 '삭제'를 클릭합니다.