1. সংক্ষিপ্ত বিবরণ

ভিশন এপিআই ডেভেলপারদের সহজেই অ্যাপ্লিকেশনের মধ্যে দৃষ্টি সনাক্তকরণ বৈশিষ্ট্যগুলিকে একীভূত করতে দেয়, যার মধ্যে রয়েছে চিত্র লেবেলিং, মুখ এবং ল্যান্ডমার্ক সনাক্তকরণ, অপটিক্যাল চরিত্র স্বীকৃতি (ওসিআর) এবং স্পষ্ট সামগ্রীর ট্যাগিং।
এই টিউটোরিয়ালে, আপনি পাইথনের সাথে ভিশন API ব্যবহারের উপর মনোযোগ দেবেন।
তুমি কি শিখবে
- আপনার পরিবেশ কীভাবে সেট আপ করবেন
- লেবেল সনাক্তকরণ কীভাবে করবেন
- টেক্সট সনাক্তকরণ কীভাবে করবেন
- ল্যান্ডমার্ক সনাক্তকরণ কীভাবে করবেন
- কীভাবে মুখ সনাক্তকরণ করবেন
- বস্তু সনাক্তকরণ কীভাবে করবেন
তোমার যা লাগবে
- একটি গুগল ক্লাউড প্রকল্প
- একটি ব্রাউজার, যেমন ক্রোম বা ফায়ারফক্স
- পাইথন ব্যবহার সম্পর্কে পরিচিতি
জরিপ
আপনি এই টিউটোরিয়ালটি কীভাবে ব্যবহার করবেন?
পাইথনের সাথে আপনার অভিজ্ঞতাকে আপনি কীভাবে মূল্যায়ন করবেন?
গুগল ক্লাউড পরিষেবার সাথে আপনার অভিজ্ঞতাকে আপনি কীভাবে মূল্যায়ন করবেন?
2. সেটআপ এবং প্রয়োজনীয়তা
স্ব-গতিসম্পন্ন পরিবেশ সেটআপ
- গুগল ক্লাউড কনসোলে সাইন-ইন করুন এবং একটি নতুন প্রকল্প তৈরি করুন অথবা বিদ্যমান একটি পুনরায় ব্যবহার করুন। যদি আপনার ইতিমধ্যেই একটি জিমেইল বা গুগল ওয়ার্কস্পেস অ্যাকাউন্ট না থাকে, তাহলে আপনাকে অবশ্যই একটি তৈরি করতে হবে।



- এই প্রকল্পের অংশগ্রহণকারীদের জন্য প্রজেক্টের নামটি প্রদর্শন করা হবে। এটি একটি অক্ষর স্ট্রিং যা Google API গুলি ব্যবহার করে না। আপনি যেকোনো সময় এটি আপডেট করতে পারেন।
- সমস্ত Google ক্লাউড প্রোজেক্টে প্রোজেক্ট আইডি অনন্য এবং অপরিবর্তনীয় (সেট করার পরে এটি পরিবর্তন করা যাবে না)। ক্লাউড কনসোল স্বয়ংক্রিয়ভাবে একটি অনন্য স্ট্রিং তৈরি করে; সাধারণত আপনি এটি কী তা নিয়ে চিন্তা করেন না। বেশিরভাগ কোডল্যাবে, আপনাকে আপনার প্রোজেক্ট আইডি (সাধারণত
PROJECT_IDহিসাবে চিহ্নিত) উল্লেখ করতে হবে। যদি আপনি জেনারেট করা আইডি পছন্দ না করেন, তাহলে আপনি অন্য একটি র্যান্ডম তৈরি করতে পারেন। বিকল্পভাবে, আপনি নিজের চেষ্টা করে দেখতে পারেন, এবং এটি উপলব্ধ কিনা তা দেখতে পারেন। এই ধাপের পরে এটি পরিবর্তন করা যাবে না এবং প্রকল্পের সময়কালের জন্য থাকবে। - আপনার তথ্যের জন্য, তৃতীয় একটি মান আছে, একটি Project Number , যা কিছু API ব্যবহার করে। ডকুমেন্টেশনে এই তিনটি মান সম্পর্কে আরও জানুন।
- এরপর, ক্লাউড রিসোর্স/API ব্যবহার করার জন্য আপনাকে ক্লাউড কনসোলে বিলিং সক্ষম করতে হবে। এই কোডল্যাবটি চালানোর জন্য খুব বেশি খরচ হবে না, এমনকি কিছু খরচও হবে না। এই টিউটোরিয়ালের বাইরে বিলিং এড়াতে রিসোর্স বন্ধ করতে, আপনি আপনার তৈরি রিসোর্সগুলি মুছে ফেলতে পারেন অথবা প্রকল্পটি মুছে ফেলতে পারেন। নতুন গুগল ক্লাউড ব্যবহারকারীরা $300 USD ফ্রি ট্রায়াল প্রোগ্রামের জন্য যোগ্য।
ক্লাউড শেল শুরু করুন
যদিও গুগল ক্লাউড আপনার ল্যাপটপ থেকে দূরবর্তীভাবে পরিচালিত হতে পারে, এই কোডল্যাবে আপনি ক্লাউড শেল ব্যবহার করবেন, যা ক্লাউডে চলমান একটি কমান্ড লাইন পরিবেশ।
ক্লাউড শেল সক্রিয় করুন
- ক্লাউড কনসোল থেকে, ক্লাউড শেল সক্রিয় করুন ক্লিক করুন
.

যদি আপনি প্রথমবারের মতো ক্লাউড শেল শুরু করেন, তাহলে আপনাকে একটি মধ্যবর্তী স্ক্রিন দেখানো হবে যা এটি কী তা বর্ণনা করবে। যদি আপনার কাছে একটি মধ্যবর্তী স্ক্রিন থাকে, তাহলে Continue এ ক্লিক করুন।

ক্লাউড শেলের সাথে সংযোগ স্থাপন এবং সংযোগ স্থাপন করতে মাত্র কয়েক মুহূর্ত সময় লাগবে।

এই ভার্চুয়াল মেশিনটিতে প্রয়োজনীয় সকল ডেভেলপমেন্ট টুল রয়েছে। এটি একটি স্থায়ী ৫ জিবি হোম ডিরেক্টরি অফার করে এবং গুগল ক্লাউডে চলে, যা নেটওয়ার্ক কর্মক্ষমতা এবং প্রমাণীকরণকে ব্যাপকভাবে উন্নত করে। এই কোডল্যাবে আপনার বেশিরভাগ কাজ, যদি সব না হয়, একটি ব্রাউজার দিয়ে করা যেতে পারে।
একবার ক্লাউড শেলের সাথে সংযুক্ত হয়ে গেলে, আপনি দেখতে পাবেন যে আপনি প্রমাণিত এবং প্রকল্পটি আপনার প্রকল্প আইডিতে সেট করা আছে।
- আপনি প্রমাণিত কিনা তা নিশ্চিত করতে ক্লাউড শেলে নিম্নলিখিত কমান্ডটি চালান:
gcloud auth list
কমান্ড আউটপুট
Credentialed Accounts
ACTIVE ACCOUNT
* <my_account>@<my_domain.com>
To set the active account, run:
$ gcloud config set account `ACCOUNT`
- gcloud কমান্ড আপনার প্রকল্প সম্পর্কে জানে কিনা তা নিশ্চিত করতে ক্লাউড শেলে নিম্নলিখিত কমান্ডটি চালান:
gcloud config list project
কমান্ড আউটপুট
[core] project = <PROJECT_ID>
যদি তা না হয়, তাহলে আপনি এই কমান্ড দিয়ে এটি সেট করতে পারেন:
gcloud config set project <PROJECT_ID>
কমান্ড আউটপুট
Updated property [core/project].
৩. পরিবেশ সেটআপ
ভিশন এপিআই ব্যবহার শুরু করার আগে, এপিআই সক্রিয় করতে ক্লাউড শেলে নিম্নলিখিত কমান্ডটি চালান:
gcloud services enable vision.googleapis.com
তোমার এরকম কিছু দেখা উচিত:
Operation "operations/..." finished successfully.
এখন, আপনি ভিশন এপিআই ব্যবহার করতে পারেন!
আপনার হোম ডিরেক্টরিতে নেভিগেট করুন:
cd ~
নির্ভরতা বিচ্ছিন্ন করার জন্য একটি পাইথন ভার্চুয়াল পরিবেশ তৈরি করুন:
virtualenv venv-vision
ভার্চুয়াল পরিবেশ সক্রিয় করুন:
source venv-vision/bin/activate
IPython এবং Vision API ক্লায়েন্ট লাইব্রেরি ইনস্টল করুন:
pip install ipython google-cloud-vision
তোমার এরকম কিছু দেখা উচিত:
... Installing collected packages: ..., ipython, google-cloud-vision Successfully installed ... google-cloud-vision-3.4.0 ...
এখন, আপনি Vision API ক্লায়েন্ট লাইব্রেরি ব্যবহার করার জন্য প্রস্তুত!
পরবর্তী ধাপে, আপনি IPython নামক একটি ইন্টারেক্টিভ পাইথন ইন্টারপ্রেটার ব্যবহার করবেন, যা আপনি আগের ধাপে ইনস্টল করেছিলেন। ক্লাউড শেলে ipython চালিয়ে একটি সেশন শুরু করুন:
ipython
তোমার এরকম কিছু দেখা উচিত:
Python 3.9.2 (default, Feb 28 2021, 17:03:44) Type 'copyright', 'credits' or 'license' for more information IPython 8.12.0 -- An enhanced Interactive Python. Type '?' for help. In [1]:
তুমি তোমার প্রথম অনুরোধ করতে প্রস্তুত...
৪. লেবেল সনাক্তকরণ সম্পাদন করুন
ভিশন এপিআই-এর মূল বৈশিষ্ট্যগুলির মধ্যে একটি হল একটি ছবিতে থাকা বস্তু বা সত্তা সনাক্ত করা, যা লেবেল অ্যানোটেশন নামে পরিচিত। লেবেল সনাক্তকরণ সাধারণ বস্তু, অবস্থান, কার্যকলাপ, প্রাণী প্রজাতি, পণ্য এবং আরও অনেক কিছু সনাক্ত করে। ভিশন এপিআই একটি ইনপুট চিত্র নেয় এবং সেই চিত্রের সাথে প্রযোজ্য সম্ভাব্য লেবেলগুলি ফেরত দেয়। এটি ছবিতে মিলের আত্মবিশ্বাসের স্কোর সহ শীর্ষ-মিলিত লেবেলগুলি ফেরত দেয়।
এই উদাহরণে, আপনি টোকিওর একটি জনপ্রিয় জেলা সেতাগায়ার একটি ছবিতে ( অ্যালেক্স নাইটের সৌজন্যে) লেবেল সনাক্তকরণ সম্পাদন করবেন:

আপনার আইপিথন সেশনে নিম্নলিখিত কোডটি কপি করুন:
from typing import Sequence
from google.cloud import vision
def analyze_image_from_uri(
image_uri: str,
feature_types: Sequence,
) -> vision.AnnotateImageResponse:
client = vision.ImageAnnotatorClient()
image = vision.Image()
image.source.image_uri = image_uri
features = [vision.Feature(type_=feature_type) for feature_type in feature_types]
request = vision.AnnotateImageRequest(image=image, features=features)
response = client.annotate_image(request=request)
return response
def print_labels(response: vision.AnnotateImageResponse):
print("=" * 80)
for label in response.label_annotations:
print(
f"{label.score:4.0%}",
f"{label.description:5}",
sep=" | ",
)
কোডটি অধ্যয়ন করার জন্য কিছুক্ষণ সময় নিন এবং দেখুন কিভাবে এটি annotate_image ক্লায়েন্ট লাইব্রেরি পদ্ধতি ব্যবহার করে নির্দিষ্ট বৈশিষ্ট্যগুলির একটি সেটের জন্য একটি ছবি বিশ্লেষণ করে।
LABEL_DETECTION বৈশিষ্ট্যটি ব্যবহার করে একটি অনুরোধ পাঠান:
image_uri = "gs://cloud-samples-data/vision/label/setagaya.jpeg"
features = [vision.Feature.Type.LABEL_DETECTION]
response = analyze_image_from_uri(image_uri, features)
print_labels(response)
আপনার নিম্নলিখিত আউটপুট পাওয়া উচিত:
================================================================================ 97% | Bicycle 96% | Tire 94% | Wheel 91% | Automotive lighting 89% | Infrastructure 87% | Bicycle wheel 86% | Mode of transport 85% | Building 83% | Electricity 82% | Neighbourhood
অনলাইন ডেমোতে ফলাফলগুলি কীভাবে উপস্থাপন করা হয় তা এখানে দেওয়া হল:

সারাংশ
এই ধাপে, আপনি একটি ছবিতে লেবেল সনাক্তকরণ করতে সক্ষম হয়েছেন এবং সেই ছবির সাথে সম্পর্কিত সম্ভাব্য লেবেলগুলি প্রদর্শন করতে সক্ষম হয়েছেন। লেবেল সনাক্তকরণ সম্পর্কে আরও পড়ুন।
৫. টেক্সট সনাক্তকরণ সম্পাদন করুন
টেক্সট ডিটেকশন অপটিক্যাল ক্যারেক্টার রিকগনিশন (OCR) সঞ্চালন করে। এটি বিভিন্ন ভাষার সমর্থন সহ একটি ছবির মধ্যে টেক্সট সনাক্ত করে এবং বের করে। এতে স্বয়ংক্রিয় ভাষা শনাক্তকরণের সুবিধাও রয়েছে।
এই উদাহরণে, আপনি একটি ট্রাফিক সাইন ছবিতে টেক্সট সনাক্তকরণ করবেন:

আপনার আইপিথন সেশনে নিম্নলিখিত কোডটি কপি করুন:
def print_text(response: vision.AnnotateImageResponse):
print("=" * 80)
for annotation in response.text_annotations:
vertices = [f"({v.x},{v.y})" for v in annotation.bounding_poly.vertices]
print(
f"{repr(annotation.description):42}",
",".join(vertices),
sep=" | ",
)
TEXT_DETECTION বৈশিষ্ট্যটি ব্যবহার করে একটি অনুরোধ পাঠান:
image_uri = "gs://cloud-samples-data/vision/ocr/sign.jpg"
features = [vision.Feature.Type.TEXT_DETECTION]
response = analyze_image_from_uri(image_uri, features)
print_text(response)
আপনার নিম্নলিখিত আউটপুট পাওয়া উচিত:
================================================================================ 'WAITING?\nPLEASE\nTURN OFF\nYOUR\nENGINE' | (310,821),(2225,821),(2225,1965),(310,1965) 'WAITING' | (344,821),(2025,879),(2016,1127),(335,1069) '?' | (2057,881),(2225,887),(2216,1134),(2048,1128) 'PLEASE' | (1208,1230),(1895,1253),(1891,1374),(1204,1351) 'TURN' | (1217,1414),(1718,1434),(1713,1558),(1212,1538) 'OFF' | (1787,1437),(2133,1451),(2128,1575),(1782,1561) 'YOUR' | (1211,1609),(1741,1626),(1737,1747),(1207,1731) 'ENGINE' | (1213,1805),(1923,1819),(1920,1949),(1210,1935)
অনলাইন ডেমোতে ফলাফলগুলি কীভাবে উপস্থাপন করা হয় তা এখানে দেওয়া হল:

সারাংশ
এই ধাপে, আপনি একটি ছবিতে টেক্সট সনাক্তকরণ করতে এবং ছবিটি থেকে স্বীকৃত টেক্সট প্রদর্শন করতে সক্ষম হয়েছেন। টেক্সট সনাক্তকরণ সম্পর্কে আরও পড়ুন।
৬. ল্যান্ডমার্ক সনাক্তকরণ সম্পাদন করুন
ল্যান্ডমার্ক সনাক্তকরণ একটি ছবির মধ্যে জনপ্রিয় প্রাকৃতিক এবং মনুষ্যসৃষ্ট কাঠামো সনাক্ত করে।
এই উদাহরণে, আপনি আইফেল টাওয়ারের একটি ছবিতে ( জন টাউনারের সৌজন্যে) ল্যান্ডমার্ক সনাক্তকরণ সম্পাদন করবেন:

আপনার আইপিথন সেশনে নিম্নলিখিত কোডটি কপি করুন:
def print_landmarks(response: vision.AnnotateImageResponse, min_score: float = 0.5):
print("=" * 80)
for landmark in response.landmark_annotations:
if landmark.score < min_score:
continue
vertices = [f"({v.x},{v.y})" for v in landmark.bounding_poly.vertices]
lat_lng = landmark.locations[0].lat_lng
print(
f"{landmark.description:18}",
",".join(vertices),
f"{lat_lng.latitude:.5f}",
f"{lat_lng.longitude:.5f}",
sep=" | ",
)
LANDMARK_DETECTION বৈশিষ্ট্যটি ব্যবহার করে একটি অনুরোধ পাঠান:
image_uri = "gs://cloud-samples-data/vision/landmark/eiffel_tower.jpg"
features = [vision.Feature.Type.LANDMARK_DETECTION]
response = analyze_image_from_uri(image_uri, features)
print_landmarks(response)
আপনার নিম্নলিখিত আউটপুট পাওয়া উচিত:
================================================================================ Trocadéro Gardens | (303,36),(520,36),(520,371),(303,371) | 48.86160 | 2.28928 Eiffel Tower | (458,76),(512,76),(512,263),(458,263) | 48.85846 | 2.29435
অনলাইন ডেমোতে ফলাফলগুলি কীভাবে উপস্থাপন করা হয় তা এখানে দেওয়া হল:

সারাংশ
এই ধাপে, আপনি আইফেল টাওয়ারের একটি ছবিতে ল্যান্ডমার্ক সনাক্তকরণ করতে সক্ষম হয়েছেন। ল্যান্ডমার্ক সনাক্তকরণ সম্পর্কে আরও পড়ুন।
৭. মুখ সনাক্তকরণ সম্পাদন করুন
মুখের বৈশিষ্ট্য সনাক্তকরণ একটি ছবির মধ্যে একাধিক মুখ সনাক্ত করে, সাথে সংশ্লিষ্ট মুখের বৈশিষ্ট্য যেমন মানসিক অবস্থা বা টুপি পরা ইত্যাদি সনাক্ত করে।
এই উদাহরণে, আপনি নিম্নলিখিত ছবিতে মুখগুলি সনাক্ত করতে পারবেন ( হিমাংশু সিং গুর্জারের সৌজন্যে):

আপনার আইপিথন সেশনে নিম্নলিখিত কোডটি কপি করুন:
def print_faces(response: vision.AnnotateImageResponse):
print("=" * 80)
for face_number, face in enumerate(response.face_annotations, 1):
vertices = ",".join(f"({v.x},{v.y})" for v in face.bounding_poly.vertices)
print(f"# Face {face_number} @ {vertices}")
print(f"Joy: {face.joy_likelihood.name}")
print(f"Exposed: {face.under_exposed_likelihood.name}")
print(f"Blurred: {face.blurred_likelihood.name}")
print("-" * 80)
FACE_DETECTION বৈশিষ্ট্য ব্যবহার করে একটি অনুরোধ পাঠান:
image_uri = "gs://cloud-samples-data/vision/face/faces.jpeg"
features = [vision.Feature.Type.FACE_DETECTION]
response = analyze_image_from_uri(image_uri, features)
print_faces(response)
আপনার নিম্নলিখিত আউটপুট পাওয়া উচিত:
================================================================================ # Face 1 @ (1077,157),(2146,157),(2146,1399),(1077,1399) Joy: VERY_LIKELY Exposed: VERY_UNLIKELY Blurred: VERY_UNLIKELY -------------------------------------------------------------------------------- # Face 2 @ (144,1273),(793,1273),(793,1844),(144,1844) Joy: VERY_UNLIKELY Exposed: VERY_UNLIKELY Blurred: UNLIKELY -------------------------------------------------------------------------------- # Face 3 @ (785,167),(1100,167),(1100,534),(785,534) Joy: VERY_UNLIKELY Exposed: LIKELY Blurred: VERY_LIKELY --------------------------------------------------------------------------------
অনলাইন ডেমোতে ফলাফলগুলি কীভাবে উপস্থাপন করা হয় তা এখানে দেওয়া হল:

সারাংশ
এই ধাপে, আপনি মুখ সনাক্তকরণ করতে সক্ষম হয়েছেন। মুখ সনাক্তকরণ সম্পর্কে আরও পড়ুন।
৮. বস্তু সনাক্তকরণ সম্পাদন করুন
এই উদাহরণে, আপনি Setagaya-এর একই পূর্ববর্তী ছবিতে ( Alex Knight- এর সৌজন্যে) বস্তু সনাক্তকরণ সম্পাদন করবেন:

আপনার আইপিথন সেশনে নিম্নলিখিত কোডটি কপি করুন:
def print_objects(response: vision.AnnotateImageResponse):
print("=" * 80)
for obj in response.localized_object_annotations:
nvertices = obj.bounding_poly.normalized_vertices
print(
f"{obj.score:4.0%}",
f"{obj.name:15}",
f"{obj.mid:10}",
",".join(f"({v.x:.1f},{v.y:.1f})" for v in nvertices),
sep=" | ",
)
OBJECT_LOCALIZATION বৈশিষ্ট্যটি ব্যবহার করে একটি অনুরোধ পাঠান:
image_uri = "gs://cloud-samples-data/vision/label/setagaya.jpeg"
features = [vision.Feature.Type.OBJECT_LOCALIZATION]
response = analyze_image_from_uri(image_uri, features)
print_objects(response)
আপনার নিম্নলিখিত আউটপুট পাওয়া উচিত:
================================================================================ 93% | Bicycle | /m/0199g | (0.6,0.6),(0.8,0.6),(0.8,0.9),(0.6,0.9) 92% | Bicycle wheel | /m/01bqk0 | (0.6,0.7),(0.7,0.7),(0.7,0.9),(0.6,0.9) 91% | Tire | /m/0h9mv | (0.7,0.7),(0.8,0.7),(0.8,1.0),(0.7,1.0) 75% | Bicycle | /m/0199g | (0.3,0.6),(0.4,0.6),(0.4,0.7),(0.3,0.7) 51% | Tire | /m/0h9mv | (0.3,0.6),(0.4,0.6),(0.4,0.7),(0.3,0.7)
অনলাইন ডেমোতে ফলাফলগুলি কীভাবে উপস্থাপন করা হয় তা এখানে দেওয়া হল:

সারাংশ
এই ধাপে, আপনি বস্তু সনাক্তকরণ করতে সক্ষম হয়েছেন। বস্তু সনাক্তকরণ সম্পর্কে আরও পড়ুন।
9. একাধিক বৈশিষ্ট্য
আপনি ভিশন এপিআই-এর কিছু বৈশিষ্ট্য কীভাবে ব্যবহার করতে হয় তা দেখেছেন, তবে আরও অনেকগুলি রয়েছে এবং আপনি একটি অনুরোধে একাধিক বৈশিষ্ট্যের জন্য অনুরোধ করতে পারেন।
একসাথে সমস্ত অন্তর্দৃষ্টি পেতে আপনি যে ধরণের অনুরোধ করতে পারেন তা এখানে:
image_uri = "gs://..."
features = [
vision.Feature.Type.OBJECT_LOCALIZATION,
vision.Feature.Type.FACE_DETECTION,
vision.Feature.Type.LANDMARK_DETECTION,
vision.Feature.Type.LOGO_DETECTION,
vision.Feature.Type.LABEL_DETECTION,
vision.Feature.Type.TEXT_DETECTION,
vision.Feature.Type.DOCUMENT_TEXT_DETECTION,
vision.Feature.Type.SAFE_SEARCH_DETECTION,
vision.Feature.Type.IMAGE_PROPERTIES,
vision.Feature.Type.CROP_HINTS,
vision.Feature.Type.WEB_DETECTION,
vision.Feature.Type.PRODUCT_SEARCH,
vision.Feature.Type.OBJECT_LOCALIZATION,
]
# response = analyze_image_from_uri(image_uri, features)
এবং আরও অনেক সম্ভাবনা রয়েছে, যেমন ছবির একটি ব্যাচে সিঙ্ক্রোনাস বা অ্যাসিঙ্ক্রোনাসভাবে সনাক্তকরণ করা। কীভাবে করবেন তার সমস্ত নির্দেশিকা দেখুন।
১০. অভিনন্দন!

তুমি পাইথনের সাথে ভিশন এপিআই ব্যবহার শিখেছো এবং কিছু ছবি সনাক্তকরণ বৈশিষ্ট্য পরীক্ষা করেছো!
পরিষ্কার কর
ক্লাউড শেল থেকে আপনার ডেভেলপমেন্ট পরিবেশ পরিষ্কার করতে:
- যদি আপনি এখনও আপনার আইপিথন সেশনে থাকেন, তাহলে শেলে ফিরে যান:
exit - পাইথন ভার্চুয়াল পরিবেশ ব্যবহার বন্ধ করুন:
deactivate - আপনার ভার্চুয়াল এনভায়রনমেন্ট ফোল্ডারটি মুছুন:
cd ~ ; rm -rf ./venv-vision
ক্লাউড শেল থেকে আপনার গুগল ক্লাউড প্রজেক্ট মুছে ফেলার জন্য:
- আপনার বর্তমান প্রকল্প আইডিটি পুনরুদ্ধার করুন:
PROJECT_ID=$(gcloud config get-value core/project) - নিশ্চিত করুন যে এই প্রকল্পটি আপনি মুছে ফেলতে চান:
echo $PROJECT_ID - প্রকল্পটি মুছুন:
gcloud projects delete $PROJECT_ID
আরও জানুন
- আপনার ব্রাউজারে অনলাইন ডেমোটি পরীক্ষা করুন: https://cloud.google.com/vision
- ভিশন এপিআই ডকুমেন্টেশন: https://cloud.google.com/vision/docs
- গুগল ক্লাউডে পাইথন: https://cloud.google.com/python
- পাইথনের জন্য ক্লাউড ক্লায়েন্ট লাইব্রেরি: https://github.com/googleapis/google-cloud-python
লাইসেন্স
এই কাজটি ক্রিয়েটিভ কমন্স অ্যাট্রিবিউশন ২.০ জেনেরিক লাইসেন্সের অধীনে লাইসেন্সপ্রাপ্ত।