1. ওভারভিউ
ভিশন এপিআই ডেভেলপারদের সহজেই অ্যাপ্লিকেশনগুলির মধ্যে দৃষ্টি সনাক্তকরণ বৈশিষ্ট্যগুলিকে একীভূত করতে দেয়, যার মধ্যে চিত্র লেবেলিং, মুখ এবং ল্যান্ডমার্ক সনাক্তকরণ, অপটিক্যাল ক্যারেক্টার রিকগনিশন (OCR), এবং স্পষ্ট বিষয়বস্তুর ট্যাগিং সহ।
এই টিউটোরিয়ালে, আপনি পাইথনের সাথে ভিশন API ব্যবহার করার উপর ফোকাস করবেন।
আপনি কি শিখবেন
- আপনার পরিবেশ কিভাবে সেট আপ করবেন
- কিভাবে লেবেল সনাক্তকরণ সঞ্চালন
- কিভাবে টেক্সট সনাক্তকরণ সঞ্চালন
- কিভাবে ল্যান্ডমার্ক সনাক্তকরণ সঞ্চালন
- কিভাবে মুখ সনাক্তকরণ সঞ্চালন
- কিভাবে বস্তু সনাক্তকরণ সঞ্চালন
আপনি কি প্রয়োজন হবে
- একটি Google ক্লাউড প্রকল্প
- একটি ব্রাউজার, যেমন ক্রোম বা ফায়ারফক্স
- পাইথন ব্যবহার করে পরিচিতি
সমীক্ষা
আপনি কিভাবে এই টিউটোরিয়াল ব্যবহার করবেন?
পাইথনের সাথে আপনার অভিজ্ঞতাকে আপনি কীভাবে মূল্যায়ন করবেন?
আপনি Google ক্লাউড পরিষেবাগুলির সাথে আপনার অভিজ্ঞতাকে কীভাবে মূল্যায়ন করবেন?
2. সেটআপ এবং প্রয়োজনীয়তা
স্ব-গতিসম্পন্ন পরিবেশ সেটআপ
- Google ক্লাউড কনসোলে সাইন-ইন করুন এবং একটি নতুন প্রকল্প তৈরি করুন বা বিদ্যমান একটি পুনরায় ব্যবহার করুন৷ আপনার যদি ইতিমধ্যেই একটি Gmail বা Google Workspace অ্যাকাউন্ট না থাকে, তাহলে আপনাকে অবশ্যই একটি তৈরি করতে হবে।
- প্রকল্পের নাম এই প্রকল্পের অংশগ্রহণকারীদের জন্য প্রদর্শনের নাম। এটি একটি অক্ষর স্ট্রিং যা Google API দ্বারা ব্যবহৃত হয় না। আপনি সবসময় এটি আপডেট করতে পারেন.
- প্রোজেক্ট আইডি সমস্ত Google ক্লাউড প্রোজেক্ট জুড়ে অনন্য এবং অপরিবর্তনীয় (সেট করার পরে পরিবর্তন করা যাবে না)। ক্লাউড কনসোল স্বয়ংক্রিয়ভাবে একটি অনন্য স্ট্রিং তৈরি করে; সাধারণত আপনি এটা কি যত্ন না. বেশিরভাগ কোডল্যাবে, আপনাকে আপনার প্রকল্প আইডি উল্লেখ করতে হবে (সাধারণত
PROJECT_ID
হিসাবে চিহ্নিত)। আপনি যদি জেনারেট করা আইডি পছন্দ না করেন, তাহলে আপনি অন্য একটি এলোমেলো আইডি তৈরি করতে পারেন। বিকল্পভাবে, আপনি নিজের চেষ্টা করতে পারেন, এবং এটি উপলব্ধ কিনা দেখতে পারেন। এই ধাপের পরে এটি পরিবর্তন করা যাবে না এবং প্রকল্পের সময়কালের জন্য থাকে। - আপনার তথ্যের জন্য, একটি তৃতীয় মান আছে, একটি প্রকল্প নম্বর , যা কিছু API ব্যবহার করে। ডকুমেন্টেশনে এই তিনটি মান সম্পর্কে আরও জানুন।
- এরপরে, ক্লাউড রিসোর্স/এপিআই ব্যবহার করতে আপনাকে ক্লাউড কনসোলে বিলিং সক্ষম করতে হবে। এই কোডল্যাবের মাধ্যমে চালানোর জন্য খুব বেশি খরচ হবে না, যদি কিছু হয়। এই টিউটোরিয়ালের বাইরে বিলিং এড়াতে সংস্থানগুলি বন্ধ করতে, আপনি আপনার তৈরি করা সংস্থানগুলি মুছতে বা প্রকল্প মুছতে পারেন। নতুন Google ক্লাউড ব্যবহারকারীরা $300 USD বিনামূল্যের ট্রায়াল প্রোগ্রামের জন্য যোগ্য৷
ক্লাউড শেল শুরু করুন
যদিও Google ক্লাউড আপনার ল্যাপটপ থেকে দূরবর্তীভাবে পরিচালিত হতে পারে, এই কোডল্যাবে আপনি ক্লাউড শেল ব্যবহার করবেন, ক্লাউডে চলমান একটি কমান্ড লাইন পরিবেশ।
ক্লাউড শেল সক্রিয় করুন
- ক্লাউড কনসোল থেকে, ক্লাউড শেল সক্রিয় করুন ক্লিক করুন .
যদি এটি আপনার প্রথমবার ক্লাউড শেল শুরু হয়, তাহলে এটি কী তা বর্ণনা করে আপনাকে একটি মধ্যবর্তী স্ক্রীন উপস্থাপন করা হবে। যদি আপনি একটি মধ্যবর্তী স্ক্রীনের সাথে উপস্থাপিত হন, তবে চালিয়ে যান ক্লিক করুন।
ক্লাউড শেলের সাথে সংযোগ করতে এবং সংযোগ করতে এটির মাত্র কয়েক মুহূর্ত লাগবে৷
এই ভার্চুয়াল মেশিনটি প্রয়োজনীয় সমস্ত বিকাশের সরঞ্জাম দিয়ে লোড করা হয়েছে। এটি একটি ক্রমাগত 5 GB হোম ডিরেক্টরি অফার করে এবং Google ক্লাউডে চলে, যা নেটওয়ার্ক কর্মক্ষমতা এবং প্রমাণীকরণকে ব্যাপকভাবে উন্নত করে। এই কোডল্যাবে আপনার অনেক কাজ, যদি সব না হয়, ব্রাউজার দিয়ে করা যেতে পারে।
একবার ক্লাউড শেলের সাথে সংযুক্ত হয়ে গেলে, আপনি দেখতে পাবেন যে আপনি প্রমাণীকৃত হয়েছেন এবং প্রকল্পটি আপনার প্রকল্প আইডিতে সেট করা আছে।
- আপনি প্রমাণীকৃত কিনা তা নিশ্চিত করতে ক্লাউড শেলে নিম্নলিখিত কমান্ডটি চালান:
gcloud auth list
কমান্ড আউটপুট
Credentialed Accounts ACTIVE ACCOUNT * <my_account>@<my_domain.com> To set the active account, run: $ gcloud config set account `ACCOUNT`
- gcloud কমান্ড আপনার প্রকল্প সম্পর্কে জানে তা নিশ্চিত করতে ক্লাউড শেলে নিম্নলিখিত কমান্ডটি চালান:
gcloud config list project
কমান্ড আউটপুট
[core] project = <PROJECT_ID>
যদি এটি না হয়, আপনি এই কমান্ড দিয়ে এটি সেট করতে পারেন:
gcloud config set project <PROJECT_ID>
কমান্ড আউটপুট
Updated property [core/project].
3. পরিবেশ সেটআপ
আপনি ভিশন API ব্যবহার শুরু করার আগে, API সক্ষম করতে ক্লাউড শেলে নিম্নলিখিত কমান্ডটি চালান:
gcloud services enable vision.googleapis.com
আপনি এই মত কিছু দেখতে হবে:
Operation "operations/..." finished successfully.
এখন, আপনি ভিশন API ব্যবহার করতে পারেন!
আপনার হোম ডিরেক্টরিতে নেভিগেট করুন:
cd ~
নির্ভরতা বিচ্ছিন্ন করতে একটি পাইথন ভার্চুয়াল পরিবেশ তৈরি করুন:
virtualenv venv-vision
ভার্চুয়াল পরিবেশ সক্রিয় করুন:
source venv-vision/bin/activate
IPython এবং Vision API ক্লায়েন্ট লাইব্রেরি ইনস্টল করুন:
pip install ipython google-cloud-vision
আপনি এই মত কিছু দেখতে হবে:
... Installing collected packages: ..., ipython, google-cloud-vision Successfully installed ... google-cloud-vision-3.4.0 ...
এখন, আপনি ভিশন API ক্লায়েন্ট লাইব্রেরি ব্যবহার করার জন্য প্রস্তুত!
পরবর্তী ধাপে, আপনি IPython নামে একটি ইন্টারেক্টিভ পাইথন ইন্টারপ্রেটার ব্যবহার করবেন, যা আপনি আগের ধাপে ইনস্টল করেছেন। ক্লাউড শেলে ipython
চালিয়ে একটি সেশন শুরু করুন:
ipython
আপনি এই মত কিছু দেখতে হবে:
Python 3.9.2 (default, Feb 28 2021, 17:03:44) Type 'copyright', 'credits' or 'license' for more information IPython 8.12.0 -- An enhanced Interactive Python. Type '?' for help. In [1]:
আপনি আপনার প্রথম অনুরোধ করতে প্রস্তুত...
4. লেবেল সনাক্তকরণ সম্পাদন করুন
ভিশন API মূল বৈশিষ্ট্যগুলির মধ্যে একটি হল একটি ছবিতে বস্তু বা সত্তা সনাক্ত করা, যা লেবেল টীকা হিসাবে পরিচিত। লেবেল সনাক্তকরণ সাধারণ বস্তু, অবস্থান, কার্যকলাপ, প্রাণী প্রজাতি, পণ্য এবং আরও অনেক কিছু সনাক্ত করে। ভিশন এপিআই একটি ইনপুট ইমেজ নেয় এবং সেই ছবিতে প্রযোজ্য সম্ভাব্য লেবেলগুলি ফেরত দেয়। এটি ছবির সাথে একটি ম্যাচের আত্মবিশ্বাসের স্কোর সহ শীর্ষ-ম্যাচিং লেবেলগুলি ফিরিয়ে দেয়৷
এই উদাহরণে, আপনি টোকিওর একটি জনপ্রিয় জেলা সেতাগায়ার একটি ছবিতে ( অ্যালেক্স নাইটের সৌজন্যে) লেবেল সনাক্তকরণ সম্পাদন করবেন:
আপনার IPython অধিবেশনে নিম্নলিখিত কোড অনুলিপি করুন:
from typing import Sequence
from google.cloud import vision
def analyze_image_from_uri(
image_uri: str,
feature_types: Sequence,
) -> vision.AnnotateImageResponse:
client = vision.ImageAnnotatorClient()
image = vision.Image()
image.source.image_uri = image_uri
features = [vision.Feature(type_=feature_type) for feature_type in feature_types]
request = vision.AnnotateImageRequest(image=image, features=features)
response = client.annotate_image(request=request)
return response
def print_labels(response: vision.AnnotateImageResponse):
print("=" * 80)
for label in response.label_annotations:
print(
f"{label.score:4.0%}",
f"{label.description:5}",
sep=" | ",
)
কোডটি অধ্যয়ন করার জন্য একটি মুহূর্ত নিন এবং দেখুন কিভাবে এটি প্রদত্ত বৈশিষ্ট্যগুলির একটি সেটের জন্য একটি চিত্র বিশ্লেষণ করতে annotate_image
ক্লায়েন্ট লাইব্রেরি পদ্ধতি ব্যবহার করে।
LABEL_DETECTION
বৈশিষ্ট্য সহ একটি অনুরোধ পাঠান:
image_uri = "gs://cloud-samples-data/vision/label/setagaya.jpeg"
features = [vision.Feature.Type.LABEL_DETECTION]
response = analyze_image_from_uri(image_uri, features)
print_labels(response)
আপনি নিম্নলিখিত আউটপুট পেতে হবে:
================================================================================ 97% | Bicycle 96% | Tire 94% | Wheel 91% | Automotive lighting 89% | Infrastructure 87% | Bicycle wheel 86% | Mode of transport 85% | Building 83% | Electricity 82% | Neighbourhood
অনলাইন ডেমো দ্বারা ফলাফলগুলি কীভাবে উপস্থাপন করা হয় তা এখানে:
সারাংশ
এই ধাপে, আপনি একটি চিত্রের লেবেল সনাক্তকরণ সম্পাদন করতে সক্ষম হয়েছেন এবং সেই চিত্রের সাথে যুক্ত সবচেয়ে সম্ভাব্য লেবেলগুলি প্রদর্শন করতে সক্ষম হয়েছেন৷ লেবেল সনাক্তকরণ সম্পর্কে আরও পড়ুন।
5. পাঠ্য সনাক্তকরণ সম্পাদন করুন
পাঠ্য সনাক্তকরণ অপটিক্যাল ক্যারেক্টার রিকগনিশন (OCR) সঞ্চালন করে। এটি ভাষার বিস্তৃত পরিসরের সমর্থন সহ একটি চিত্রের মধ্যে পাঠ্য সনাক্ত করে এবং বের করে। এটি স্বয়ংক্রিয় ভাষা সনাক্তকরণের বৈশিষ্ট্যও রয়েছে।
এই উদাহরণে, আপনি একটি ট্রাফিক সাইন ছবিতে পাঠ্য সনাক্তকরণ সঞ্চালন করবেন:
আপনার IPython অধিবেশনে নিম্নলিখিত কোড অনুলিপি করুন:
def print_text(response: vision.AnnotateImageResponse):
print("=" * 80)
for annotation in response.text_annotations:
vertices = [f"({v.x},{v.y})" for v in annotation.bounding_poly.vertices]
print(
f"{repr(annotation.description):42}",
",".join(vertices),
sep=" | ",
)
TEXT_DETECTION
বৈশিষ্ট্য সহ একটি অনুরোধ পাঠান:
image_uri = "gs://cloud-samples-data/vision/ocr/sign.jpg"
features = [vision.Feature.Type.TEXT_DETECTION]
response = analyze_image_from_uri(image_uri, features)
print_text(response)
আপনি নিম্নলিখিত আউটপুট পেতে হবে:
================================================================================ 'WAITING?\nPLEASE\nTURN OFF\nYOUR\nENGINE' | (310,821),(2225,821),(2225,1965),(310,1965) 'WAITING' | (344,821),(2025,879),(2016,1127),(335,1069) '?' | (2057,881),(2225,887),(2216,1134),(2048,1128) 'PLEASE' | (1208,1230),(1895,1253),(1891,1374),(1204,1351) 'TURN' | (1217,1414),(1718,1434),(1713,1558),(1212,1538) 'OFF' | (1787,1437),(2133,1451),(2128,1575),(1782,1561) 'YOUR' | (1211,1609),(1741,1626),(1737,1747),(1207,1731) 'ENGINE' | (1213,1805),(1923,1819),(1920,1949),(1210,1935)
অনলাইন ডেমো দ্বারা ফলাফলগুলি কীভাবে উপস্থাপন করা হয় তা এখানে:
সারাংশ
এই ধাপে, আপনি একটি ছবিতে পাঠ্য সনাক্তকরণ সম্পাদন করতে এবং চিত্র থেকে স্বীকৃত পাঠ্য প্রদর্শন করতে সক্ষম হয়েছেন। পাঠ্য সনাক্তকরণ সম্পর্কে আরও পড়ুন।
6. ল্যান্ডমার্ক সনাক্তকরণ সম্পাদন করুন
ল্যান্ডমার্ক সনাক্তকরণ একটি চিত্রের মধ্যে জনপ্রিয় প্রাকৃতিক এবং মনুষ্যসৃষ্ট কাঠামো সনাক্ত করে।
এই উদাহরণে, আপনি আইফেল টাওয়ারের একটি ছবিতে ( জন টাউনারের সৌজন্যে) ল্যান্ডমার্ক সনাক্তকরণ সম্পাদন করবেন:
আপনার IPython অধিবেশনে নিম্নলিখিত কোড অনুলিপি করুন:
def print_landmarks(response: vision.AnnotateImageResponse, min_score: float = 0.5):
print("=" * 80)
for landmark in response.landmark_annotations:
if landmark.score < min_score:
continue
vertices = [f"({v.x},{v.y})" for v in landmark.bounding_poly.vertices]
lat_lng = landmark.locations[0].lat_lng
print(
f"{landmark.description:18}",
",".join(vertices),
f"{lat_lng.latitude:.5f}",
f"{lat_lng.longitude:.5f}",
sep=" | ",
)
LANDMARK_DETECTION
বৈশিষ্ট্য সহ একটি অনুরোধ পাঠান:
image_uri = "gs://cloud-samples-data/vision/landmark/eiffel_tower.jpg"
features = [vision.Feature.Type.LANDMARK_DETECTION]
response = analyze_image_from_uri(image_uri, features)
print_landmarks(response)
আপনি নিম্নলিখিত আউটপুট পেতে হবে:
================================================================================ Trocadéro Gardens | (303,36),(520,36),(520,371),(303,371) | 48.86160 | 2.28928 Eiffel Tower | (458,76),(512,76),(512,263),(458,263) | 48.85846 | 2.29435
অনলাইন ডেমো দ্বারা ফলাফলগুলি কীভাবে উপস্থাপন করা হয় তা এখানে:
সারাংশ
এই ধাপে, আপনি আইফেল টাওয়ারের একটি ছবিতে ল্যান্ডমার্ক সনাক্তকরণ করতে সক্ষম হয়েছেন৷ ল্যান্ডমার্ক সনাক্তকরণ সম্পর্কে আরও পড়ুন।
7. মুখ সনাক্তকরণ সঞ্চালন
মুখের বৈশিষ্ট্য সনাক্তকরণ একটি চিত্রের মধ্যে একাধিক মুখের সাথে সম্পর্কিত মুখের বৈশিষ্ট্যগুলি যেমন আবেগপূর্ণ অবস্থা বা হেডওয়্যার পরা শনাক্ত করে।
এই উদাহরণে, আপনি নিম্নলিখিত ছবিতে মুখগুলি সনাক্ত করতে পারবেন ( হিমাংশু সিং গুর্জার সৌজন্যে):
আপনার IPython অধিবেশনে নিম্নলিখিত কোড অনুলিপি করুন:
def print_faces(response: vision.AnnotateImageResponse):
print("=" * 80)
for face_number, face in enumerate(response.face_annotations, 1):
vertices = ",".join(f"({v.x},{v.y})" for v in face.bounding_poly.vertices)
print(f"# Face {face_number} @ {vertices}")
print(f"Joy: {face.joy_likelihood.name}")
print(f"Exposed: {face.under_exposed_likelihood.name}")
print(f"Blurred: {face.blurred_likelihood.name}")
print("-" * 80)
FACE_DETECTION
বৈশিষ্ট্য সহ একটি অনুরোধ পাঠান:
image_uri = "gs://cloud-samples-data/vision/face/faces.jpeg"
features = [vision.Feature.Type.FACE_DETECTION]
response = analyze_image_from_uri(image_uri, features)
print_faces(response)
আপনি নিম্নলিখিত আউটপুট পেতে হবে:
================================================================================ # Face 1 @ (1077,157),(2146,157),(2146,1399),(1077,1399) Joy: VERY_LIKELY Exposed: VERY_UNLIKELY Blurred: VERY_UNLIKELY -------------------------------------------------------------------------------- # Face 2 @ (144,1273),(793,1273),(793,1844),(144,1844) Joy: VERY_UNLIKELY Exposed: VERY_UNLIKELY Blurred: UNLIKELY -------------------------------------------------------------------------------- # Face 3 @ (785,167),(1100,167),(1100,534),(785,534) Joy: VERY_UNLIKELY Exposed: LIKELY Blurred: VERY_LIKELY --------------------------------------------------------------------------------
অনলাইন ডেমো দ্বারা ফলাফলগুলি কীভাবে উপস্থাপন করা হয় তা এখানে:
সারাংশ
এই ধাপে, আপনি মুখ সনাক্তকরণ করতে সক্ষম হয়েছেন। মুখ সনাক্তকরণ সম্পর্কে আরও পড়ুন।
8. বস্তু সনাক্তকরণ সঞ্চালন
এই উদাহরণে, আপনি Setagaya-এর একই পূর্বের ছবিতে ( Alex Knight এর সৌজন্যে) অবজেক্ট ডিটেকশন করবেন:
আপনার IPython অধিবেশনে নিম্নলিখিত কোড অনুলিপি করুন:
def print_objects(response: vision.AnnotateImageResponse):
print("=" * 80)
for obj in response.localized_object_annotations:
nvertices = obj.bounding_poly.normalized_vertices
print(
f"{obj.score:4.0%}",
f"{obj.name:15}",
f"{obj.mid:10}",
",".join(f"({v.x:.1f},{v.y:.1f})" for v in nvertices),
sep=" | ",
)
OBJECT_LOCALIZATION
বৈশিষ্ট্য সহ একটি অনুরোধ পাঠান:
image_uri = "gs://cloud-samples-data/vision/label/setagaya.jpeg"
features = [vision.Feature.Type.OBJECT_LOCALIZATION]
response = analyze_image_from_uri(image_uri, features)
print_objects(response)
আপনি নিম্নলিখিত আউটপুট পেতে হবে:
================================================================================ 93% | Bicycle | /m/0199g | (0.6,0.6),(0.8,0.6),(0.8,0.9),(0.6,0.9) 92% | Bicycle wheel | /m/01bqk0 | (0.6,0.7),(0.7,0.7),(0.7,0.9),(0.6,0.9) 91% | Tire | /m/0h9mv | (0.7,0.7),(0.8,0.7),(0.8,1.0),(0.7,1.0) 75% | Bicycle | /m/0199g | (0.3,0.6),(0.4,0.6),(0.4,0.7),(0.3,0.7) 51% | Tire | /m/0h9mv | (0.3,0.6),(0.4,0.6),(0.4,0.7),(0.3,0.7)
অনলাইন ডেমো দ্বারা ফলাফলগুলি কীভাবে উপস্থাপন করা হয় তা এখানে:
সারাংশ
এই ধাপে, আপনি বস্তু সনাক্তকরণ সঞ্চালন করতে সক্ষম হন। বস্তু সনাক্তকরণ সম্পর্কে আরও পড়ুন।
9. একাধিক বৈশিষ্ট্য
আপনি ভিশন API-এর কিছু বৈশিষ্ট্য কীভাবে ব্যবহার করবেন তা দেখেছেন, তবে আরও অনেকগুলি রয়েছে এবং আপনি একক অনুরোধে একাধিক বৈশিষ্ট্যের অনুরোধ করতে পারেন।
এখানে আপনি একবারে সমস্ত অন্তর্দৃষ্টি পেতে যে ধরনের অনুরোধ করতে পারেন:
image_uri = "gs://..."
features = [
vision.Feature.Type.OBJECT_LOCALIZATION,
vision.Feature.Type.FACE_DETECTION,
vision.Feature.Type.LANDMARK_DETECTION,
vision.Feature.Type.LOGO_DETECTION,
vision.Feature.Type.LABEL_DETECTION,
vision.Feature.Type.TEXT_DETECTION,
vision.Feature.Type.DOCUMENT_TEXT_DETECTION,
vision.Feature.Type.SAFE_SEARCH_DETECTION,
vision.Feature.Type.IMAGE_PROPERTIES,
vision.Feature.Type.CROP_HINTS,
vision.Feature.Type.WEB_DETECTION,
vision.Feature.Type.PRODUCT_SEARCH,
vision.Feature.Type.OBJECT_LOCALIZATION,
]
# response = analyze_image_from_uri(image_uri, features)
এবং আরও সম্ভাবনা রয়েছে, যেমন চিত্রগুলির একটি ব্যাচে সনাক্তকরণ, সিঙ্ক্রোনাস বা অ্যাসিঙ্ক্রোনাসভাবে। কিভাবে-করবেন সব নির্দেশিকা দেখুন।
10. অভিনন্দন!
আপনি পাইথনের সাথে ভিশন API কীভাবে ব্যবহার করবেন তা শিখেছেন এবং কয়েকটি চিত্র সনাক্তকরণ বৈশিষ্ট্য পরীক্ষা করেছেন!
পরিষ্কার করুন
ক্লাউড শেল থেকে আপনার উন্নয়ন পরিবেশ পরিষ্কার করতে:
- আপনি যদি এখনও আপনার IPython সেশনে থাকেন, তাহলে শেল এ ফিরে যান:
exit
- পাইথন ভার্চুয়াল পরিবেশ ব্যবহার বন্ধ করুন:
deactivate
- আপনার ভার্চুয়াল পরিবেশ ফোল্ডার মুছুন:
cd ~ ; rm -rf ./venv-vision
ক্লাউড শেল থেকে আপনার Google ক্লাউড প্রকল্প মুছে ফেলতে:
- আপনার বর্তমান প্রকল্প আইডি পুনরুদ্ধার করুন:
PROJECT_ID=$(gcloud config get-value core/project)
- নিশ্চিত করুন যে এই প্রকল্পটি আপনি মুছতে চান:
echo $PROJECT_ID
- প্রকল্পটি মুছুন:
gcloud projects delete $PROJECT_ID
আরও জানুন
- আপনার ব্রাউজারে অনলাইন ডেমো পরীক্ষা করুন: https://cloud.google.com/vision
- ভিশন API ডকুমেন্টেশন: https://cloud.google.com/vision/docs
- Google ক্লাউডে পাইথন: https://cloud.google.com/python
- পাইথনের জন্য ক্লাউড ক্লায়েন্ট লাইব্রেরি: https://github.com/googleapis/google-cloud-python
লাইসেন্স
এই কাজটি ক্রিয়েটিভ কমন্স অ্যাট্রিবিউশন 2.0 জেনেরিক লাইসেন্সের অধীনে লাইসেন্সপ্রাপ্ত।