1. 개요
개발자는 Vision API를 사용하여 이미지 라벨 지정, 얼굴 및 랜드마크 인식, 광학 문자 인식 (OCR), 선정적인 콘텐츠 태깅 등의 시각적 감지 기능을 애플리케이션 내에 손쉽게 통합할 수 있습니다.
이 튜토리얼에서는 Python과 함께 Vision API를 사용하는 방법을 중점적으로 살펴봅니다.
학습할 내용
- 환경을 설정하는 방법
- 라벨 감지 수행 방법
- 텍스트 감지 수행 방법
- 랜드마크 감지 수행 방법
- 얼굴 인식 수행 방법
- 객체 감지 수행 방법
필요한 항목
설문조사
이 튜토리얼을 어떻게 사용하실 계획인가요?
귀하의 Python 사용 경험이 어떤지 평가해 주세요.
귀하의 Google Cloud 서비스 경험을 평가해 주세요.
<ph type="x-smartling-placeholder">2. 설정 및 요건
자습형 환경 설정
- Google Cloud Console에 로그인하여 새 프로젝트를 만들거나 기존 프로젝트를 재사용합니다. 아직 Gmail이나 Google Workspace 계정이 없는 경우 계정을 만들어야 합니다.
- 프로젝트 이름은 이 프로젝트 참가자의 표시 이름입니다. 이는 Google API에서 사용하지 않는 문자열이며 언제든지 업데이트할 수 있습니다.
- 프로젝트 ID는 모든 Google Cloud 프로젝트에서 고유하며, 변경할 수 없습니다(설정된 후에는 변경할 수 없음). Cloud 콘솔은 고유한 문자열을 자동으로 생성합니다. 일반적으로는 신경 쓰지 않아도 됩니다. 대부분의 Codelab에서는 프로젝트 ID (일반적으로
PROJECT_ID
로 식별됨)를 참조해야 합니다. 생성된 ID가 마음에 들지 않으면 다른 임의 ID를 생성할 수 있습니다. 또는 직접 시도해 보고 사용 가능한지 확인할 수도 있습니다. 이 단계 이후에는 변경할 수 없으며 프로젝트 기간 동안 유지됩니다. - 참고로 세 번째 값은 일부 API에서 사용하는 프로젝트 번호입니다. 이 세 가지 값에 대한 자세한 내용은 문서를 참고하세요.
- 다음으로 Cloud 리소스/API를 사용하려면 Cloud 콘솔에서 결제를 사용 설정해야 합니다. 이 Codelab 실행에는 많은 비용이 들지 않습니다. 이 튜토리얼이 끝난 후에 요금이 청구되지 않도록 리소스를 종료하려면 만든 리소스 또는 프로젝트를 삭제하면 됩니다. Google Cloud 신규 사용자는 300달러(USD) 상당의 무료 체험판 프로그램에 참여할 수 있습니다.
Cloud Shell 시작
Google Cloud를 노트북에서 원격으로 실행할 수도 있지만 이 Codelab에서는 Cloud에서 실행되는 명령줄 환경인 Cloud Shell을 사용합니다.
Cloud Shell 활성화
- Cloud Console에서 Cloud Shell 활성화를 클릭합니다.
Cloud Shell을 처음 시작하는 경우에는 무엇이 있는지 설명하는 중간 화면이 표시됩니다. 중간 화면이 표시되면 계속을 클릭합니다.
Cloud Shell을 프로비저닝하고 연결하는 데 몇 분 정도만 걸립니다.
가상 머신에는 필요한 개발 도구가 모두 들어 있습니다. 영구적인 5GB 홈 디렉터리를 제공하고 Google Cloud에서 실행되므로 네트워크 성능과 인증이 크게 개선됩니다. 이 Codelab에서 대부분의 작업은 브라우저를 사용하여 수행할 수 있습니다.
Cloud Shell에 연결되면 인증이 완료되었고 프로젝트가 자신의 프로젝트 ID로 설정된 것을 확인할 수 있습니다.
- Cloud Shell에서 다음 명령어를 실행하여 인증되었는지 확인합니다.
gcloud auth list
명령어 결과
Credentialed Accounts ACTIVE ACCOUNT * <my_account>@<my_domain.com> To set the active account, run: $ gcloud config set account `ACCOUNT`
- Cloud Shell에서 다음 명령어를 실행하여 gcloud 명령어가 프로젝트를 알고 있는지 확인합니다.
gcloud config list project
명령어 결과
[core] project = <PROJECT_ID>
또는 다음 명령어로 설정할 수 있습니다.
gcloud config set project <PROJECT_ID>
명령어 결과
Updated property [core/project].
3. 환경 설정
Vision API를 사용하려면 먼저 Cloud Shell에서 다음 명령어를 실행하여 API를 사용 설정합니다.
gcloud services enable vision.googleapis.com
다음과 같은 결과를 확인할 수 있습니다.
Operation "operations/..." finished successfully.
이제 Vision API를 사용할 수 있습니다.
홈 디렉터리로 이동합니다.
cd ~
Python 가상 환경을 만들어 종속 항목을 격리합니다.
virtualenv venv-vision
가상 환경을 활성화합니다.
source venv-vision/bin/activate
IPython 및 Vision API 클라이언트 라이브러리를 설치합니다.
pip install ipython google-cloud-vision
다음과 같은 결과를 확인할 수 있습니다.
... Installing collected packages: ..., ipython, google-cloud-vision Successfully installed ... google-cloud-vision-3.4.0 ...
이제 Vision API 클라이언트 라이브러리를 사용할 준비가 되었습니다.
다음 단계에서는 이전 단계에서 설치한 대화형 Python 인터프리터인 IPython을 사용합니다. Cloud Shell에서 ipython
를 실행하여 세션을 시작합니다.
ipython
다음과 같은 결과를 확인할 수 있습니다.
Python 3.9.2 (default, Feb 28 2021, 17:03:44) Type 'copyright', 'credits' or 'license' for more information IPython 8.12.0 -- An enhanced Interactive Python. Type '?' for help. In [1]:
첫 번째 요청을 할 준비가 되었습니다...
4. 라벨 감지 실행
Vision API의 핵심 기능 중 하나는 라벨 주석이라고 하는 이미지에서 객체 또는 항목을 식별하는 것입니다. 라벨 인식은 일반적인 객체, 위치, 활동, 동물 종, 제품 등을 식별합니다. Vision API는 입력 이미지를 가져와 해당 이미지에 적용될 가능성이 가장 큰 라벨을 반환합니다. 이 함수는 이미지 일치 신뢰도 점수와 함께 가장 일치하는 라벨을 반환합니다.
이 예에서는 도쿄의 인기 지구인 세타가야의 이미지 (알렉스 나이트 제공)에 대해 라벨 인식을 수행합니다.
다음 코드를 IPython 세션에 복사합니다.
from typing import Sequence
from google.cloud import vision
def analyze_image_from_uri(
image_uri: str,
feature_types: Sequence,
) -> vision.AnnotateImageResponse:
client = vision.ImageAnnotatorClient()
image = vision.Image()
image.source.image_uri = image_uri
features = [vision.Feature(type_=feature_type) for feature_type in feature_types]
request = vision.AnnotateImageRequest(image=image, features=features)
response = client.annotate_image(request=request)
return response
def print_labels(response: vision.AnnotateImageResponse):
print("=" * 80)
for label in response.label_annotations:
print(
f"{label.score:4.0%}",
f"{label.description:5}",
sep=" | ",
)
잠시 코드를 살펴보고 annotate_image
클라이언트 라이브러리 메서드를 사용하여 특정 특성 세트의 이미지를 분석하는 방법을 알아보세요.
LABEL_DETECTION
기능을 사용하여 요청을 보냅니다.
image_uri = "gs://cloud-samples-data/vision/label/setagaya.jpeg"
features = [vision.Feature.Type.LABEL_DETECTION]
response = analyze_image_from_uri(image_uri, features)
print_labels(response)
다음과 같은 결과가 출력됩니다.
================================================================================ 97% | Bicycle 96% | Tire 94% | Wheel 91% | Automotive lighting 89% | Infrastructure 87% | Bicycle wheel 86% | Mode of transport 85% | Building 83% | Electricity 82% | Neighbourhood
온라인 데모에서 결과를 표시하는 방법은 다음과 같습니다.
요약
이 단계에서는 이미지에서 라벨 인식을 수행하고 해당 이미지와 가장 관련성이 높은 라벨을 표시할 수 있었습니다. 라벨 인식에 대해 자세히 알아보세요.
5. 텍스트 감지 실행
텍스트 감지는 광학 문자 인식 (OCR)을 수행합니다. 이미지에서 텍스트를 감지하고 추출하며 다양한 언어가 지원됩니다. 또한 자동 언어 식별이 제공됩니다.
이 예에서는 교통 표지판 이미지에 대해 텍스트 감지를 수행합니다.
다음 코드를 IPython 세션에 복사합니다.
def print_text(response: vision.AnnotateImageResponse):
print("=" * 80)
for annotation in response.text_annotations:
vertices = [f"({v.x},{v.y})" for v in annotation.bounding_poly.vertices]
print(
f"{repr(annotation.description):42}",
",".join(vertices),
sep=" | ",
)
TEXT_DETECTION
기능을 사용하여 요청을 보냅니다.
image_uri = "gs://cloud-samples-data/vision/ocr/sign.jpg"
features = [vision.Feature.Type.TEXT_DETECTION]
response = analyze_image_from_uri(image_uri, features)
print_text(response)
다음과 같은 결과가 출력됩니다.
================================================================================ 'WAITING?\nPLEASE\nTURN OFF\nYOUR\nENGINE' | (310,821),(2225,821),(2225,1965),(310,1965) 'WAITING' | (344,821),(2025,879),(2016,1127),(335,1069) '?' | (2057,881),(2225,887),(2216,1134),(2048,1128) 'PLEASE' | (1208,1230),(1895,1253),(1891,1374),(1204,1351) 'TURN' | (1217,1414),(1718,1434),(1713,1558),(1212,1538) 'OFF' | (1787,1437),(2133,1451),(2128,1575),(1782,1561) 'YOUR' | (1211,1609),(1741,1626),(1737,1747),(1207,1731) 'ENGINE' | (1213,1805),(1923,1819),(1920,1949),(1210,1935)
온라인 데모에서 결과를 표시하는 방법은 다음과 같습니다.
요약
이 단계에서는 이미지에서 텍스트 감지를 수행하고 이미지에서 인식된 텍스트를 표시할 수 있었습니다. 텍스트 감지에 대해 자세히 알아보세요.
6. 랜드마크 감지 수행
랜드마크 인식은 이미지에서 유명한 자연 구조물과 인공 구조물을 감지하는 기능입니다.
이 예에서는 에펠탑의 이미지 (John Towner 제공)에서 랜드마크 감지를 수행합니다.
다음 코드를 IPython 세션에 복사합니다.
def print_landmarks(response: vision.AnnotateImageResponse, min_score: float = 0.5):
print("=" * 80)
for landmark in response.landmark_annotations:
if landmark.score < min_score:
continue
vertices = [f"({v.x},{v.y})" for v in landmark.bounding_poly.vertices]
lat_lng = landmark.locations[0].lat_lng
print(
f"{landmark.description:18}",
",".join(vertices),
f"{lat_lng.latitude:.5f}",
f"{lat_lng.longitude:.5f}",
sep=" | ",
)
LANDMARK_DETECTION
기능을 사용하여 요청을 보냅니다.
image_uri = "gs://cloud-samples-data/vision/landmark/eiffel_tower.jpg"
features = [vision.Feature.Type.LANDMARK_DETECTION]
response = analyze_image_from_uri(image_uri, features)
print_landmarks(response)
다음과 같은 결과가 출력됩니다.
================================================================================ Trocadéro Gardens | (303,36),(520,36),(520,371),(303,371) | 48.86160 | 2.28928 Eiffel Tower | (458,76),(512,76),(512,263),(458,263) | 48.85846 | 2.29435
온라인 데모에서 결과를 표시하는 방법은 다음과 같습니다.
요약
이 단계에서는 에펠탑의 이미지에서 랜드마크 감지를 수행했습니다. 랜드마크 감지에 관해 자세히 알아보세요.
7. 얼굴 인식 실행
얼굴 특징 감지는 이미지 내의 여러 얼굴을 감정 상태 또는 모자 착용과 같은 관련 주요 얼굴 속성과 함께 감지합니다.
이 예에서는 다음 사진에서 얼굴을 감지합니다 (Himanshu Singh Gurjar 제공).
다음 코드를 IPython 세션에 복사합니다.
def print_faces(response: vision.AnnotateImageResponse):
print("=" * 80)
for face_number, face in enumerate(response.face_annotations, 1):
vertices = ",".join(f"({v.x},{v.y})" for v in face.bounding_poly.vertices)
print(f"# Face {face_number} @ {vertices}")
print(f"Joy: {face.joy_likelihood.name}")
print(f"Exposed: {face.under_exposed_likelihood.name}")
print(f"Blurred: {face.blurred_likelihood.name}")
print("-" * 80)
FACE_DETECTION
기능을 사용하여 요청을 보냅니다.
image_uri = "gs://cloud-samples-data/vision/face/faces.jpeg"
features = [vision.Feature.Type.FACE_DETECTION]
response = analyze_image_from_uri(image_uri, features)
print_faces(response)
다음과 같은 결과가 출력됩니다.
================================================================================ # Face 1 @ (1077,157),(2146,157),(2146,1399),(1077,1399) Joy: VERY_LIKELY Exposed: VERY_UNLIKELY Blurred: VERY_UNLIKELY -------------------------------------------------------------------------------- # Face 2 @ (144,1273),(793,1273),(793,1844),(144,1844) Joy: VERY_UNLIKELY Exposed: VERY_UNLIKELY Blurred: UNLIKELY -------------------------------------------------------------------------------- # Face 3 @ (785,167),(1100,167),(1100,534),(785,534) Joy: VERY_UNLIKELY Exposed: LIKELY Blurred: VERY_LIKELY --------------------------------------------------------------------------------
온라인 데모에서 결과를 표시하는 방법은 다음과 같습니다.
요약
이 단계에서는 얼굴 인식을 수행할 수 있었습니다. 얼굴 인식에 관해 자세히 알아보세요.
8. 객체 감지 수행
이 예에서는 세타가야의 동일한 이전 이미지 (알렉스 나이트 제공)에 대해 객체 감지를 수행합니다.
다음 코드를 IPython 세션에 복사합니다.
def print_objects(response: vision.AnnotateImageResponse):
print("=" * 80)
for obj in response.localized_object_annotations:
nvertices = obj.bounding_poly.normalized_vertices
print(
f"{obj.score:4.0%}",
f"{obj.name:15}",
f"{obj.mid:10}",
",".join(f"({v.x:.1f},{v.y:.1f})" for v in nvertices),
sep=" | ",
)
OBJECT_LOCALIZATION
기능을 사용하여 요청을 보냅니다.
image_uri = "gs://cloud-samples-data/vision/label/setagaya.jpeg"
features = [vision.Feature.Type.OBJECT_LOCALIZATION]
response = analyze_image_from_uri(image_uri, features)
print_objects(response)
다음과 같은 결과가 출력됩니다.
================================================================================ 93% | Bicycle | /m/0199g | (0.6,0.6),(0.8,0.6),(0.8,0.9),(0.6,0.9) 92% | Bicycle wheel | /m/01bqk0 | (0.6,0.7),(0.7,0.7),(0.7,0.9),(0.6,0.9) 91% | Tire | /m/0h9mv | (0.7,0.7),(0.8,0.7),(0.8,1.0),(0.7,1.0) 75% | Bicycle | /m/0199g | (0.3,0.6),(0.4,0.6),(0.4,0.7),(0.3,0.7) 51% | Tire | /m/0h9mv | (0.3,0.6),(0.4,0.6),(0.4,0.7),(0.3,0.7)
온라인 데모에서 결과를 표시하는 방법은 다음과 같습니다.
요약
이 단계에서는 객체 감지를 수행했습니다. 객체 감지에 대해 자세히 알아보세요.
9. 여러 기능
Vision API의 몇 가지 기능을 사용하는 방법을 살펴봤습니다. 이 외에도 더 많은 기능이 있으며 단일 요청으로 여러 기능을 요청할 수 있습니다.
다음은 모든 통계를 한 번에 얻을 수 있는 요청의 유형입니다.
image_uri = "gs://..."
features = [
vision.Feature.Type.OBJECT_LOCALIZATION,
vision.Feature.Type.FACE_DETECTION,
vision.Feature.Type.LANDMARK_DETECTION,
vision.Feature.Type.LOGO_DETECTION,
vision.Feature.Type.LABEL_DETECTION,
vision.Feature.Type.TEXT_DETECTION,
vision.Feature.Type.DOCUMENT_TEXT_DETECTION,
vision.Feature.Type.SAFE_SEARCH_DETECTION,
vision.Feature.Type.IMAGE_PROPERTIES,
vision.Feature.Type.CROP_HINTS,
vision.Feature.Type.WEB_DETECTION,
vision.Feature.Type.PRODUCT_SEARCH,
vision.Feature.Type.OBJECT_LOCALIZATION,
]
# response = analyze_image_from_uri(image_uri, features)
또한, 동기식 또는 비동기식으로 이미지 배치에 대해 감지를 수행하는 것과 같이 더 많은 가능성이 있습니다. 모든 안내 가이드를 확인하세요.
10. 축하합니다.
Python과 함께 Vision API를 사용하는 방법을 알아보고 몇 가지 이미지 감지 기능을 테스트했습니다.
삭제
Cloud Shell에서 개발 환경을 삭제하려면 다음 안내를 따르세요.
- 아직 IPython 세션에 있다면 셸로 돌아갑니다.
exit
- Python 가상 환경 사용 중지:
deactivate
- 가상 환경 폴더 삭제:
cd ~ ; rm -rf ./venv-vision
Google Cloud 프로젝트를 삭제하려면 Cloud Shell에서 다음 안내를 따르세요.
- 현재 프로젝트 ID를 가져옵니다.
PROJECT_ID=$(gcloud config get-value core/project)
- 삭제하려는 프로젝트가 맞는지 확인합니다.
echo $PROJECT_ID
- 프로젝트 삭제:
gcloud projects delete $PROJECT_ID
자세히 알아보기
- 브라우저에서 온라인 데모를 테스트합니다. https://cloud.google.com/vision
- Vision API 문서: https://cloud.google.com/vision/docs
- Google Cloud 기반 Python: https://cloud.google.com/python
- Python용 Cloud 클라이언트 라이브러리: https://github.com/googleapis/google-cloud-python
라이선스
이 작업물은 Creative Commons Attribution 2.0 일반 라이선스에 따라 사용이 허가되었습니다.