Vertex AI AutoML을 사용한 영화 평점 예측

1. 소개

이 Codelab에서는 Vertex AI AutoML을 사용하여 영화 점수 예측 모델을 만들고 배포된 모델 엔드포인트를 Java Cloud Functions에서 트리거해 보겠습니다. 모델은 BigQuery에 저장된 데이터로 학습되고 Vertex AI에 등록됩니다. 서비스 목록은 다음 두 섹션으로 구성할 수 있습니다.

  1. ML 모델 생성 및 배포
  2. ML API를 사용하여 예측하도록 트리거

ML 모델 생성:

  1. CSV에서 BigQuery로 데이터 소스
  2. AutoML 모델 생성을 위해 Vertex AI에 통합된 BigQuery 데이터
  3. 엔드포인트 API를 생성하기 위해 Vertex AI Model Registry에 배포된 모델

ML API를 사용한 예측 트리거:

  1. 배포된 AutoML 모델의 엔드포인트 호출을 트리거하여 UI의 요청으로 영화 세부정보를 가져오는 Java Cloud Functions가 예상 영화 점수 반환

다음은 애플리케이션의 대략적인 아키텍처 개요입니다.

5ae50607c0f2db20.png

위 아키텍처의 적용은 이 Codelab에서 다루지 않지만 클라이언트 애플리케이션도 개발하려면 블로그를 참고하세요.

구현 단계를 자세히 살펴보겠습니다.

빌드할 항목

여러분은

  • 테이블 및 모델 구성요소를 포함하는 BigQuery 데이터 세트
  • Vertex AI AutoML 모델 (만들기 및 배포)
  • ML API를 사용하여 예측하는 Java Cloud Functions 트리거

2. 요구사항

  • 브라우저(Chrome 또는 Firefox 등)
  • 결제가 사용 설정된 Google Cloud 프로젝트

기본 요건은 다음과 같습니다.

프로젝트 만들기

  1. Google Cloud 콘솔의 프로젝트 선택기 페이지에서 Google Cloud 프로젝트를 선택하거나 만듭니다.
  2. Cloud 프로젝트에 결제가 사용 설정되어 있어야 하므로 프로젝트에 결제가 사용 설정되어 있는지 확인하는 방법을 알아보세요.
  3. BigQuery로 이동하여 API를 사용 설정합니다. 브라우저에 https://console.cloud.google.com/bigquery URL을 입력하여 BigQuery 웹 UI를 직접 열 수도 있습니다.

Cloud Shell 활성화

  1. bq가 사전 로드되어 제공되는 Google Cloud에서 실행되는 명령줄 환경인 Cloud Shell을 사용합니다. Cloud 콘솔에서 오른쪽 상단에 있는 'Cloud Shell 활성화'를 클릭합니다. 6757b2fb50ddcc2d.png
  2. Cloud Shell에 연결되면 인증이 완료되었고 프로젝트가 해당 프로젝트 ID로 이미 설정된 것을 볼 수 있습니다. Cloud Shell에서 다음 명령어를 실행하여 인증되었는지 확인합니다.
gcloud auth list
  1. Cloud Shell에서 다음 명령어를 실행하여 gcloud 명령어가 프로젝트를 알고 있는지 확인합니다.
gcloud config list project
  1. 프로젝트가 설정되지 않은 경우 다음 명령어를 사용하여 설정합니다.
gcloud config set project <PROJECT_ID>

gcloud 명령어 및 사용법은 문서를 참조하세요.

3. 학습 데이터 준비

이는 최적의 데이터 세트를 준비하고 ML 프로젝트를 위해 준비하는 기술과 더불어 많은 도메인 전문 지식이 필요한 모든 데이터 관련 프로젝트, 제품, 앱에서 중요한 단계입니다. 이 Codelab에서는 데이터가 이미 준비되었으며 이미 처리된 데이터 파일을 사용한다고 가정합니다.

4. 데이터 세트 만들기 및 로드

BigQuery 데이터 세트는 테이블의 모음입니다. 데이터 세트의 모든 테이블은 동일한 데이터 위치에 저장됩니다. 커스텀 액세스 제어를 연결하여 데이터 세트 및 해당 테이블에 대한 액세스를 제한할 수도 있습니다.

  1. Cloud Shell에서 bq mk 명령어를 사용하여 'movies'라는 데이터 세트를 만듭니다.
bq mk --location=<<LOCATION>> movies

location을 지역 (asia-south1)으로 설정합니다. VERTEX AI 단계의 리전으로도 설정해야 합니다 (두 인스턴스가 동일한 리전에 있어야 함).

  1. 데이터 파일 (.csv)이 준비되었는지 확인하세요. Cloud Shell에서 다음 명령어를 실행하여 저장소를 클론하고 프로젝트로 이동합니다.
git clone <<repository link>>

cd movie-score
  1. bq load 명령어를 사용하여 CSV 파일을 BigQuery 테이블에 로드합니다 (BigQuery UI에서 직접 업로드할 수도 있음).
bq load --source_format=CSV --skip_leading_rows=1 movies.movies_score \
./movies_bq_src.csv \ Id:numeric,name:string,rating:string,genre:string,year:numeric,released:string,score:string,director:string,writer:string,star:string,country:string,budget:numeric,company:string,runtime:numeric,data_cat:string
  1. 다음 3가지 방법 중 하나로 쿼리합니다.

세 가지 방법으로 BigQuery와 상호작용할 수 있습니다. 그중 두 가지를 시도해 보겠습니다. a. BigQuery UI b. bq 명령어 c. API

SELECT name, rating, genre, runtime FROM movies.movies_score limit 3;

BigQuery Web SQL Workspace를 사용해 쿼리를 실행한 적이 있습니다. SQL 작업공간은 다음과 같습니다.

109a0b2c7155e9b3.png

bq 명령어 사용:

bq query --use_legacy_sql=false \
SELECT name, rating, genre, runtime FROM movies.movies_score limit 3;

5. Vertex AI AutoML에서 BigQuery 데이터 사용

BigQuery의 데이터를 사용하여 Vertex AI로 직접 AutoML 모델을 만듭니다. BigQuery 자체에서 AutoML을 수행하고 Vertex AI에 모델을 등록하고 엔드포인트를 노출할 수도 있습니다. BigQuery AutoML 문서를 참조하세요. 그러나 이 예시에서는 Vertex AI AutoML을 사용하여 모델을 만들어 보겠습니다.

Vertex AI 데이터 세트 만들기

Google Cloud 콘솔에서 Vertex AI로 이동하여 Vertex AI API를 사용 설정하고, 아직 사용 설정하지 않은 경우 데이터를 확장하고, 데이터 세트를 선택하고, '데이터 세트 만들기'를 클릭하고, 테이블 형식 데이터 유형과 '회귀 / 분류'를 선택합니다. 옵션을 선택하고 만들기를 클릭합니다.

4104c75c34cbd2d9.png

데이터 소스 선택

다음 페이지에서 데이터 소스를 선택합니다. 'BigQuery에서 테이블 또는 뷰 선택'을 선택합니다. 옵션을 선택하고 BigQuery 경로 찾아보기 필드에서 BigQuery의 테이블을 선택합니다. '계속'을 클릭합니다.

주의: BigQuery 테이블이 Vertex AI에 표시되려면 BigQuery 인스턴스와 Vertex AI 데이터 세트의 리전이 동일해야 합니다.

b787ef18dbca4cff.png

소스 테이블/뷰를 선택할 때는 탐색 목록에서 라디오 버튼을 클릭하여 아래 단계를 계속 진행해야 합니다. 실수로 테이블/뷰 이름을 클릭하면 Dataplex로 이동합니다. 이 경우 Vertex AI를 다시 살펴보면 됩니다.

모델 학습

  1. 데이터 세트가 생성되면 분석 페이지에 새 모델을 학습시키는 옵션이 표시됩니다. 다음을 클릭합니다.

bf095263d57106de.png

  1. '목표'를 분류로 두고 첫 페이지에서 AutoML 옵션을 선택한 후 '계속'을 클릭하세요. e50597bc3f29894c.png
  2. 모델에 이름을 지정하고 대상 열 이름으로 'Score'를 선택합니다. 표시되는 드롭다운에서 선택하고 계속을 클릭합니다.
  3. 또한 'BigQuery로 테스트 데이터 세트 내보내기'를 선택해도 됩니다. 옵션을 사용하면 추가 통합 레이어나 서비스 간에 데이터를 이동하지 않고도 데이터베이스에서 결과가 포함된 테스트 세트를 효율적으로 쉽게 볼 수 있습니다.
  4. 다음 페이지에서는 필요한 고급 학습 옵션과 모델 학습을 위해 설정할 시간을 선택할 수 있는 옵션이 있습니다. 학습에 사용할 노드 시간을 늘리기 전에 가격 책정에 유의해야 합니다.

'학습 시작'을 클릭하여 새 모델 학습을 시작합니다.

e72b004a17849bd.png

모델 평가, 배포, 테스트

학습이 완료되면 왼쪽 메뉴의 모델 개발 제목에서 학습을 클릭하면 학습 파이프라인 섹션에 학습이 나열됩니다. 클릭하여 Model Registry 페이지로 이동합니다. 다음을 실행할 수 있어야 합니다.

  1. 학습 결과 보기 및 평가 4767b4bbd7cf93fa.png
  2. API 엔드포인트를 사용하여 모델 배포 및 테스트

모델을 배포하면 애플리케이션에서 요청을 보내고 모델 예측 결과를 응답으로 가져오는 데 사용할 수 있는 API 엔드포인트가 생성됩니다.

95fb4495618174f0.png

이 섹션으로 이동하기 전에 Vertex AI 엔드포인트 섹션에서 배포된 모델의 엔드포인트 ID, 위치, 기타 세부정보를 기록해 둡니다.

6. ML 호출을 트리거하는 Java Cloud 함수

ML 배포 단계에서 엔드포인트와 기타 세부정보가 어떻게 확인되었는지 기억하시나요? 여기서는 이를 사용하고 Java Cloud Functions를 사용하고 있으므로 종속 항목을 처리하기 위해 pom.xml을 사용하겠습니다. google-cloud-aiplatform 라이브러리를 사용하여 Vertex AI AutoML 엔드포인트 API를 사용합니다.

  1. Google Cloud 콘솔에서 Cloud Functions를 검색하고 '함수 만들기'를 클릭합니다.
  2. 환경, 함수 이름, 리전, 트리거 (이 경우 HTTPS), 원하는 인증과 같은 구성 세부정보를 입력하고 'HTTPS 필요'를 사용 설정합니다. '다음'/'저장'을 클릭하세요

a68272022df062f2.png

  1. 다음 페이지에서 런타임 (Java 11), 소스 코드 (인라인 또는 업로드)를 선택하고 수정을 시작합니다.

13df616369ca5951.png

  1. 저장소에서 javapom.xml 파일을 복사하고 인라인 편집기의 각 파일에 붙여넣습니다. 로컬 편집기를 사용하는 경우 (권장) 저장소에서 소스를 클론합니다.
  2. 이 예시에서는 .java 소스 파일에서 프로젝트 ID, 엔드포인트 ID, 위치, 엔드포인트를 변경하지만 사용자 인증 정보를 저장하는 데는 Secret Manager를 사용하는 것이 가장 좋습니다.
  3. 이 Codelab의 범위에서는 복사한 소스 코드에서 .java 클래스의 MongoDB 부분을 주석 처리합니다.

모든 변경사항이 완료되면 함수를 배포합니다. 클라이언트 애플리케이션에서 이 Cloud 함수에 요청을 보내고 영화 점수를 응답으로 수신하는 데 사용할 수 있는 엔드포인트 URL이 표시됩니다.

7. 삭제

이 게시물에서 사용한 리소스 비용이 Google Cloud 계정에 청구되지 않도록 하려면 다음 단계를 따르세요.

  1. Google Cloud 콘솔에서 리소스 관리 페이지로 이동합니다.
  2. 프로젝트 목록에서 삭제하려는 프로젝트를 선택한 후 '삭제'를 클릭합니다.
  3. 대화상자에서 프로젝트 ID를 입력한 후 '종료'를 클릭하여 프로젝트를 삭제합니다.

8. 축하합니다

축하합니다. Vertex AI AutoML에서 영화 점수 예측 모델을 만들어 배포하고 Cloud Functions에서 배포된 모델을 트리거했습니다.