১. শুরু করার আগে
ML Kit হল একটি মোবাইল SDK যা Android এবং iOS অ্যাপগুলিতে Google-এর অন-ডিভাইস মেশিন লার্নিং দক্ষতা নিয়ে আসে। আপনার অ্যাপগুলিতে সাধারণ চ্যালেঞ্জগুলি সমাধান করতে বা একেবারে নতুন ব্যবহারকারীর অভিজ্ঞতা তৈরি করতে আপনি শক্তিশালী কিন্তু ব্যবহারযোগ্য Vision এবং Natural Language API ব্যবহার করতে পারেন। সবগুলি Google-এর সেরা-শ্রেণীর ML মডেল দ্বারা চালিত এবং আপনাকে বিনামূল্যে অফার করা হয়।
ML Kit-এর API গুলি সবই ডিভাইসে চলে, যা রিয়েল-টাইম ব্যবহারের ক্ষেত্রে ব্যবহার করা সম্ভব করে তোলে, উদাহরণস্বরূপ, যেখানে আপনি লাইভ ক্যামেরা স্ট্রিম প্রক্রিয়া করতে চান। এর অর্থ হল কার্যকারিতা অফলাইনেও উপলব্ধ।
এই কোডল্যাবটি আপনার বিদ্যমান অ্যান্ড্রয়েড অ্যাপে কোনও নির্দিষ্ট ছবির জন্য অবজেক্ট ডিটেকশন অ্যান্ড ট্র্যাকিং (ODT) যোগ করার সহজ ধাপগুলি আপনাকে দেখাবে। অনুগ্রহ করে মনে রাখবেন যে এই কোডল্যাবটি ML Kit ODT ব্যবহার হাইলাইট করার জন্য কিছু শর্টকাট নেয়।
তুমি কী তৈরি করবে
এই কোডল্যাবে, আপনি ML Kit ব্যবহার করে একটি Android অ্যাপ তৈরি করতে যাচ্ছেন। আপনার অ্যাপটি ML Kit অবজেক্ট ডিটেকশন এবং ট্র্যাকিং API ব্যবহার করে একটি নির্দিষ্ট ছবিতে বস্তু সনাক্ত করবে। শেষ পর্যন্ত, আপনি ডানদিকের ছবির মতো কিছু দেখতে পাবেন। |
|
তুমি কি শিখবে
- আপনার অ্যান্ড্রয়েড অ্যাপ্লিকেশনে ML Kit SDK কীভাবে একীভূত করবেন
- ML কিট অবজেক্ট ডিটেকশন এবং ট্র্যাকিং API
তোমার যা লাগবে
- অ্যান্ড্রয়েড স্টুডিওর একটি সাম্প্রতিক সংস্করণ (v4.1.2+)
- অ্যান্ড্রয়েড স্টুডিও এমুলেটর অথবা একটি বাস্তব অ্যান্ড্রয়েড ডিভাইস
- নমুনা কোড
- কোটলিনে অ্যান্ড্রয়েড ডেভেলপমেন্টের প্রাথমিক জ্ঞান
এই কোডল্যাবটি এমএল কিটের উপর দৃষ্টি নিবদ্ধ করে। অপ্রাসঙ্গিক ধারণা এবং কোড ব্লকগুলিকে গ্লস করা হয়েছে এবং আপনার জন্য কেবল কপি এবং পেস্ট করার জন্য সরবরাহ করা হয়েছে।
2. সেট আপ করুন
কোডটি ডাউনলোড করুন
এই কোডল্যাবের সমস্ত কোড ডাউনলোড করতে নিচের লিঙ্কে ক্লিক করুন:
ডাউনলোড করা জিপ ফাইলটি আনপ্যাক করুন। এটি আপনার প্রয়োজনীয় সমস্ত রিসোর্স সহ একটি রুট ফোল্ডার ( mlkit-android-main ) আনপ্যাক করবে। এই কোডল্যাবের জন্য, আপনার কেবল object-detection সাবডিরেক্টরিতে থাকা সোর্সগুলির প্রয়োজন হবে।
mlkit-android রিপোজিটরির অবজেক্ট-ডিটেকশন সাবডিরেক্টরিতে দুটি ডিরেক্টরি রয়েছে:
স্টার্টার — এই কোডল্যাবের জন্য আপনি যে কোডের উপর ভিত্তি করে তৈরি করবেন।
চূড়ান্ত — সমাপ্ত নমুনা অ্যাপের জন্য সম্পূর্ণ কোড।
৩. প্রকল্পে এমএল কিট অবজেক্ট ডিটেকশন এবং ট্র্যাকিং এপিআই যোগ করুন
অ্যান্ড্রয়েড স্টুডিওতে অ্যাপটি আমদানি করুন
চলুন শুরু করা যাক অ্যান্ড্রয়েড স্টুডিওতে স্টার্টার অ্যাপটি আমদানি করে।
অ্যান্ড্রয়েড স্টুডিও খুলুন, ইমপোর্ট প্রজেক্ট (গ্রেডল, ইক্লিপস এডিটি, ইত্যাদি) নির্বাচন করুন এবং আপনার আগে ডাউনলোড করা সোর্স কোড থেকে starter ফোল্ডারটি নির্বাচন করুন।

এমএল কিট অবজেক্ট ডিটেকশন এবং ট্র্যাকিংয়ের জন্য নির্ভরতা যোগ করুন
ML Kit নির্ভরতা আপনাকে আপনার অ্যাপে ML Kit ODT SDK ইন্টিগ্রেট করার অনুমতি দেয়। আপনার প্রোজেক্টের app/build.gradle ফাইলের শেষে নিম্নলিখিত লাইনগুলি যোগ করুন:
বিল্ড.গ্রেডল
dependencies {
// ...
implementation 'com.google.mlkit:object-detection:16.2.4'
}
আপনার প্রকল্পটি gradle ফাইলের সাথে সিঙ্ক করুন
আপনার অ্যাপে সমস্ত নির্ভরতা উপলব্ধ আছে কিনা তা নিশ্চিত করতে, এই মুহুর্তে আপনার প্রকল্পটি gradle ফাইলের সাথে সিঙ্ক করা উচিত।
গ্রেডল ফাইলের সাথে সিঙ্ক প্রজেক্ট নির্বাচন করুন (
) অ্যান্ড্রয়েড স্টুডিও টুলবার থেকে।
(যদি এই বোতামটি নিষ্ক্রিয় থাকে, তাহলে নিশ্চিত করুন যে আপনি শুধুমাত্র starter/app/build.gradle আমদানি করছেন , সম্পূর্ণ সংগ্রহস্থল নয়।)
৪. স্টার্টার অ্যাপটি চালান
এখন আপনি অ্যান্ড্রয়েড স্টুডিওতে প্রকল্পটি আমদানি করেছেন এবং এমএল কিট অবজেক্ট ডিটেকশন এবং ট্র্যাকিংয়ের জন্য নির্ভরতা যোগ করেছেন, আপনি প্রথমবারের মতো অ্যাপটি চালানোর জন্য প্রস্তুত।
আপনার অ্যান্ড্রয়েড ডিভাইসটি USB এর মাধ্যমে আপনার হোস্টের সাথে সংযুক্ত করুন, অথবা অ্যান্ড্রয়েড স্টুডিও এমুলেটর শুরু করুন এবং রান (
) অ্যান্ড্রয়েড স্টুডিও টুলবারে।
অ্যাপটি চালান এবং অন্বেষণ করুন
অ্যাপটি আপনার অ্যান্ড্রয়েড ডিভাইসে চালু হওয়া উচিত। এতে কিছু বয়লারপ্লেট কোড আছে যা আপনাকে একটি ছবি তুলতে, অথবা একটি প্রিসেট ছবি নির্বাচন করতে এবং এই কোডল্যাবে তৈরি করা একটি অবজেক্ট ডিটেকশন এবং ট্র্যাকিং পাইপলাইনে এটি ফিড করতে সাহায্য করবে। কোড লেখার আগে অ্যাপটি একটু ঘুরে দেখা যাক।
প্রথমে, একটি বোতাম আছে (
) নীচে:
- আপনার ডিভাইস/এমুলেটরে ইন্টিগ্রেটেড ক্যামেরা অ্যাপটি আনুন।
- আপনার ক্যামেরা অ্যাপের ভিতরে একটি ছবি তুলুন
- স্টার্টার অ্যাপে ক্যাপচার করা ছবিটি পান
- ছবিটি প্রদর্শন করুন
"ছবি তোলা" বোতামটি ব্যবহার করে দেখুন, ছবি তোলার জন্য প্রম্পটগুলি অনুসরণ করুন, ছবি গ্রহণ করুন এবং স্টার্টার অ্যাপের ভিতরে প্রদর্শিত এটি পর্যবেক্ষণ করুন।
এটি কীভাবে কাজ করে তা দেখতে কয়েকবার পুনরাবৃত্তি করুন:



দ্বিতীয়ত, ৩টি প্রিসেট ছবি আছে যেগুলো থেকে আপনি বেছে নিতে পারেন। যদি আপনি অ্যান্ড্রয়েড এমুলেটর ব্যবহার করেন, তাহলে আপনি পরে এই ছবিগুলো ব্যবহার করে অবজেক্ট ডিটেকশন কোড পরীক্ষা করতে পারেন।
৩টি প্রিসেট ছবি থেকে একটি ছবি নির্বাচন করুন। দেখুন ছবিটি বৃহত্তর ভিউতে দেখা যাচ্ছে:

৫. ডিভাইসে অবজেক্ট সনাক্তকরণ যোগ করুন
এই ধাপে, আপনি ছবিতে বস্তু সনাক্ত করার জন্য স্টার্টার অ্যাপে কার্যকারিতা যুক্ত করবেন। যেমনটি আপনি আগের ধাপে দেখেছেন, স্টার্টার অ্যাপটিতে ডিভাইসে ক্যামেরা অ্যাপ দিয়ে ছবি তোলার জন্য বয়লারপ্লেট কোড রয়েছে। অ্যাপটিতে 3টি প্রিসেট ছবিও রয়েছে যা আপনি যদি অ্যান্ড্রয়েড এমুলেটরে কোডল্যাব চালান তবে আপনি বস্তু সনাক্তকরণ চেষ্টা করতে পারেন।
যখন আপনি একটি ছবি নির্বাচন করেন, হয় প্রিসেট ছবি থেকে অথবা ক্যামেরা অ্যাপ দিয়ে ছবি তোলার সময়, বয়লারপ্লেট কোড সেই ছবিটিকে একটি Bitmap ইনস্ট্যান্সে ডিকোড করে, স্ক্রিনে দেখায় এবং ছবির সাথে runObjectDetection পদ্ধতিটি কল করে।
এই ধাপে, আপনি বস্তু সনাক্তকরণের জন্য runObjectDetection পদ্ধতিতে কোড যোগ করবেন!
একটি ছবিতে ডিভাইসে অবজেক্ট সনাক্তকরণ সেট আপ এবং চালান
ML Kit ODT সেট আপ করার জন্য 3টি API সহ মাত্র 3টি সহজ ধাপ রয়েছে:
- একটি ছবি প্রস্তুত করুন:
InputImage - একটি ডিটেক্টর অবজেক্ট তৈরি করুন:
ObjectDetection.getClient(options) - উপরের দুটি বস্তু সংযুক্ত করুন:
process(image)
আপনি MainActivity.kt ফাইলের runObjectDetection(bitmap: Bitmap) ফাংশনের ভেতরে এগুলি অর্জন করতে পারবেন।
/**
* ML Kit Object Detection Function
*/
private fun runObjectDetection(bitmap: Bitmap) {
}
এই মুহূর্তে ফাংশনটি খালি। ML Kit ODT বাস্তবায়নের জন্য নিম্নলিখিত ধাপগুলিতে এগিয়ে যান! পথে, Android Studio আপনাকে প্রয়োজনীয় আমদানি যোগ করার জন্য অনুরোধ করবে:
-
com.google.mlkit.vision.common.InputImage -
com.google.mlkit.vision.objects.ObjectDetection -
com.google.mlkit.vision.objects.defaults.ObjectDetectorOptions
ধাপ ১: একটি ইনপুট ইমেজ তৈরি করুন
ML Kit একটি Bitmap থেকে InputImage তৈরি করার জন্য একটি সহজ API প্রদান করে। তারপর আপনি ML Kit API গুলিতে একটি InputImage ফিড করতে পারেন।
// Step 1: create ML Kit's InputImage object
val image = InputImage.fromBitmap(bitmap, 0)
উপরের কোডটি runObjectDetection(bitmap:Bitmap) এর উপরে যোগ করুন।
ধাপ ২: একটি ডিটেক্টর ইনস্ট্যান্স তৈরি করুন
ML Kit বিল্ডার ডিজাইন প্যাটার্ন অনুসরণ করে। আপনি কনফিগারেশনটি বিল্ডারকে দেবেন, তারপর সেখান থেকে একটি ডিটেক্টর কিনবেন। কনফিগার করার জন্য 3টি বিকল্প রয়েছে (এই কোডল্যাবে মোটা অক্ষরে ব্যবহৃত বিকল্পগুলি):
- ডিটেক্টর মোড ( একক চিত্র বা স্ট্রিম )
- সনাক্তকরণ মোড ( একক বা একাধিক বস্তু সনাক্তকরণ )
- শ্রেণীবিভাগ মোড ( চালু বা বন্ধ )
এই কোডল্যাবটি একক চিত্র - একাধিক বস্তু সনাক্তকরণ এবং শ্রেণিবিন্যাসের জন্য। এখন এটি যোগ করুন:
// Step 2: acquire detector object
val options = ObjectDetectorOptions.Builder()
.setDetectorMode(ObjectDetectorOptions.SINGLE_IMAGE_MODE)
.enableMultipleObjects()
.enableClassification()
.build()
val objectDetector = ObjectDetection.getClient(options)
ধাপ ৩: ডিটেক্টরে ছবি(গুলি) ফিড করুন
বস্তু সনাক্তকরণ এবং শ্রেণীবিভাগ হল অ্যাসিঙ্ক প্রক্রিয়াকরণ:
- আপনি ডিটেক্টরে একটি ছবি পাঠান (
process()এর মাধ্যমে)। - ডিটেক্টর এতে বেশ কঠোর পরিশ্রম করে।
- ডিটেক্টর আপনাকে কলব্যাকের মাধ্যমে ফলাফলটি রিপোর্ট করবে।
নিচের কোডটি ঠিক তাই করে ( fun runObjectDetection(bitmap:Bitmap)): এর ভিতরে বিদ্যমান কোডে এটি কপি করে যুক্ত করুন ):
// Step 3: feed given image to detector and setup callback
objectDetector.process(image)
.addOnSuccessListener {
// Task completed successfully
debugPrint(it)
}
.addOnFailureListener {
// Task failed with an exception
Log.e(TAG, it.message.toString())
}
সম্পূর্ণ হওয়ার পরে, ডিটেক্টর আপনাকে নিম্নলিখিত বিষয়গুলি সম্পর্কে অবহিত করবে:
- সনাক্ত করা বস্তুর মোট সংখ্যা। প্রতিটি সনাক্ত করা বস্তুর বর্ণনা দেওয়া হয়েছে:
-
trackingId: একটি পূর্ণসংখ্যা যা আপনি এটিকে ক্রস ফ্রেম ট্র্যাক করতে ব্যবহার করেন (এই কোডল্যাবে ব্যবহার করা হয়নি)। -
boundingBox: বস্তুর বাউন্ডিং বাক্স। -
labels:সনাক্ত করা বস্তুর জন্য লেবেল(গুলি) এর একটি তালিকা (শুধুমাত্র যখন শ্রেণীবিভাগ সক্ষম করা থাকে): -
index(এই লেবেলের সূচকটি পান) -
text("ফ্যাশন গুডস", "খাবার", "হোম গুডস", "জায়গা", "উদ্ভিদ" সহ এই লেবেলের টেক্সট পান) -
confidence(০.০ থেকে ১.০ এর মধ্যে ফ্লোট, ১.০ মানে ১০০%)
আপনি সম্ভবত লক্ষ্য করেছেন যে কোডটি debugPrint() দিয়ে সনাক্ত করা ফলাফলের জন্য printf ধরণের প্রক্রিয়াকরণ করে।
এটি MainActivity ক্লাসে যোগ করুন:
private fun debugPrint(detectedObjects: List<DetectedObject>) {
detectedObjects.forEachIndexed { index, detectedObject ->
val box = detectedObject.boundingBox
Log.d(TAG, "Detected object: $index")
Log.d(TAG, " trackingId: ${detectedObject.trackingId}")
Log.d(TAG, " boundingBox: (${box.left}, ${box.top}) - (${box.right},${box.bottom})")
detectedObject.labels.forEach {
Log.d(TAG, " categories: ${it.text}")
Log.d(TAG, " confidence: ${it.confidence}")
}
}
}
এখন আপনি সনাক্তকরণের জন্য ছবি গ্রহণ করতে প্রস্তুত!
চলুন Run এ ক্লিক করে কোডল্যাবটি রান করি (
) অ্যান্ড্রয়েড স্টুডিও টুলবারে। একটি প্রিসেট ছবি নির্বাচন করার চেষ্টা করুন, অথবা একটি ছবি তুলুন, তারপর লগক্যাট উইন্ডোটি দেখুন (
) IDE এর ভিতরে।
তুমি এইরকম কিছু দেখতে পাবে:
D/MLKit Object Detection: Detected object: 0
D/MLKit Object Detection: trackingId: null
D/MLKit Object Detection: boundingBox: (481, 2021) - (2426,3376)
D/MLKit Object Detection: categories: Food
D/MLKit Object Detection: confidence: 0.90234375
D/MLKit Object Detection: Detected object: 1
D/MLKit Object Detection: trackingId: null
D/MLKit Object Detection: boundingBox: (2639, 2633) - (3058,3577)
D/MLKit Object Detection: Detected object: 2
D/MLKit Object Detection: trackingId: null
D/MLKit Object Detection: boundingBox: (3, 1816) - (615,2597)
D/MLKit Object Detection: categories: Home good
D/MLKit Object Detection: confidence: 0.75390625
...যার মানে হল ডিটেক্টরটি 3টি বস্তু দেখেছে:
- বিভাগগুলো হলো খাবার এবং গৃহস্থালির জিনিসপত্র ।
- দ্বিতীয়টির জন্য কোনও বিভাগ ফেরত দেওয়া হয়নি কারণ এটি একটি অজানা শ্রেণি।
- কোনও
trackingIdনেই (কারণ এটি একক চিত্র সনাক্তকরণ মোড)। -
boundingBoxআয়তক্ষেত্রের ভিতরে অবস্থান (যেমন (481, 2021) – (2426, 3376)) - ডিটেক্টরটি বেশ নিশ্চিত যে প্রথমটি একটি খাবার (৯০% নিশ্চিত - এটি সালাদ ছিল )।
ML Kit Object Detection কাজ করার জন্য টেকনিক্যালি এইটুকুই আপনার প্রয়োজন: এই মুহূর্তে আপনি সবকিছুই পেয়ে গেছেন! অভিনন্দন!
UI এর দিক থেকে, আপনি এখনও সেই পর্যায়ে আছেন যখন আপনি শুরু করেছিলেন, তবে আপনি UI তে সনাক্ত করা ফলাফলগুলি ব্যবহার করতে পারেন যেমন বাউন্ডিং বক্সটি আঁকা একটি ভাল অভিজ্ঞতা তৈরি করতে: আসুন পরবর্তী ধাপে যাই - সনাক্ত করা ফলাফলগুলি পোস্ট-প্রসেস করা!
৬. সনাক্তকরণের ফলাফল প্রক্রিয়াকরণের পরে
পূর্ববর্তী ধাপগুলিতে, আপনি সনাক্ত করা ফলাফলটি logcat : সহজ এবং দ্রুত তে মুদ্রণ করবেন।
এই বিভাগে, আপনি ফলাফলটি ছবিতে ব্যবহার করবেন:
- ছবির উপর বাউন্ডিং বক্স আঁকুন
- বাউন্ডিং বাক্সের ভিতরে বিভাগের নাম এবং আত্মবিশ্বাস আঁকুন।
ভিজ্যুয়ালাইজেশন ইউটিলিটিগুলি বুঝুন
কোডল্যাবের ভেতরে কিছু বয়লারপ্লেট কোড আছে যা আপনাকে সনাক্তকরণের ফলাফলটি কল্পনা করতে সাহায্য করবে। আমাদের ভিজ্যুয়ালাইজেশন কোডটি সহজ করতে এই ইউটিলিটিগুলি ব্যবহার করুন:
-
data class BoxWithText(val box: Rect, val text: String)এটি একটি ডেটা ক্লাস যা ভিজ্যুয়ালাইজেশনের জন্য একটি অবজেক্ট সনাক্তকরণ ফলাফল সংরক্ষণ করে।boxহল বাউন্ডিং বক্স যেখানে অবজেক্টটি অবস্থান করে এবংtextহল অবজেক্টের বাউন্ডিং বক্সের সাথে প্রদর্শন করার জন্য সনাক্তকরণ ফলাফল স্ট্রিং। -
fun drawDetectionResult(bitmap: Bitmap, detectionResults: List<BoxWithText>): Bitmapএই পদ্ধতিটি ইনপুটbitmapdetectionResultsএ অবজেক্ট সনাক্তকরণের ফলাফল আঁকে এবং এর পরিবর্তিত কপি ফেরত দেয়।
এখানে drawDetectionResult ইউটিলিটি পদ্ধতির আউটপুটের একটি উদাহরণ দেওয়া হল:

এমএল কিট সনাক্তকরণের ফলাফলটি কল্পনা করুন
ইনপুট ছবির উপরে ML Kit অবজেক্ট সনাক্তকরণ ফলাফল আঁকতে ভিজ্যুয়ালাইজেশন ইউটিলিটিগুলি ব্যবহার করুন।
যেখানে আপনি debugPrint() কল করবেন সেখানে যান এবং এর নিচে নিম্নলিখিত কোড স্নিপেটটি যোগ করুন:
// Parse ML Kit's DetectedObject and create corresponding visualization data
val detectedObjects = it.map { obj ->
var text = "Unknown"
// We will show the top confident detection result if it exist
if (obj.labels.isNotEmpty()) {
val firstLabel = obj.labels.first()
text = "${firstLabel.text}, ${firstLabel.confidence.times(100).toInt()}%"
}
BoxWithText(obj.boundingBox, text)
}
// Draw the detection result on the input bitmap
val visualizedResult = drawDetectionResult(bitmap, detectedObjects)
// Show the detection result on the app screen
runOnUiThread {
inputImageView.setImageBitmap(visualizedResult)
}
- You start by parsing the ML Kit's
DetectedObjectand creating a list ofBoxWithTextobjects to display the visualization result. - তারপর আপনি
drawDetectionResultইউটিলিটি পদ্ধতি ব্যবহার করে ইনপুট চিত্রের উপরে সনাক্তকরণ ফলাফলটি আঁকুন এবং এটি স্ক্রিনে দেখান।
চালাও।
এখন রান ক্লিক করুন (
) অ্যান্ড্রয়েড স্টুডিও টুলবারে।
অ্যাপটি লোড হয়ে গেলে, ক্যামেরা আইকন সহ বোতামটি টিপুন, আপনার ক্যামেরাটিকে কোনও বস্তুর দিকে নির্দেশ করুন, একটি ছবি তুলুন, ছবি গ্রহণ করুন (ক্যামেরা অ্যাপে) অথবা আপনি সহজেই যেকোনো প্রিসেট ছবিতে ট্যাপ করতে পারেন। আপনি সনাক্তকরণের ফলাফল দেখতে পাবেন; আবার বোতামটি টিপুন অথবা সর্বশেষ ML Kit ODT অভিজ্ঞতা পেতে কয়েকবার পুনরাবৃত্তি করার জন্য অন্য একটি ছবি নির্বাচন করুন!

৭. অভিনন্দন!
তুমি তোমার অ্যাপে অবজেক্ট ডিটেকশন ক্ষমতা যোগ করার জন্য ML কিট ব্যবহার করেছ:
- ৩টি API সহ ৩টি ধাপ
- ইনপুট ছবি তৈরি করুন
- ডিটেক্টর তৈরি করুন
- ডিটেক্টরে ছবি পাঠান
এটি চালু করার জন্য আপনার কেবল এটুকুই প্রয়োজন!
এগিয়ে যাওয়ার সাথে সাথে, আপনি মডেলটিকে আরও উন্নত করতে চাইতে পারেন: যেহেতু আপনি দেখতে পাচ্ছেন যে ডিফল্ট মডেলটি কেবল 5 টি বিভাগ চিনতে পারে - মডেলটি ছুরি, কাঁটাচামচ এবং বোতলও জানে না। আপনি কীভাবে একটি কাস্টম মডেলকে প্রশিক্ষণ দিতে পারেন তা শিখতে আমাদের অন-ডিভাইস মেশিন লার্নিং - অবজেক্ট ডিটেকশন লার্নিং পাথওয়েতে অন্যান্য কোডল্যাবটি দেখুন।
আমরা যা কভার করেছি
- আপনার অ্যান্ড্রয়েড অ্যাপে এমএল কিট অবজেক্ট ডিটেকশন এবং ট্র্যাকিং কীভাবে যুক্ত করবেন
- ছবিতে বস্তু সনাক্ত করার জন্য ML কিটে ডিভাইসে অবজেক্ট সনাক্তকরণ এবং ট্র্যাকিং কীভাবে ব্যবহার করবেন
পরবর্তী পদক্ষেপ
- সনাক্তকরণ এবং শ্রেণীবিভাগের নির্ভুলতা এবং কর্মক্ষমতা অভিজ্ঞতার জন্য আরও ছবি এবং লাইভ ভিডিও সহ ML Kit ODT এর সাথে আরও অন্বেষণ করুন।
- একটি কাস্টম মডেলকে কীভাবে প্রশিক্ষণ দিতে হয় তা শিখতে অন-ডিভাইস মেশিন লার্নিং - অবজেক্ট ডিটেকশন লার্নিং পাথওয়ে দেখুন।
- আপনার নিজস্ব অ্যান্ড্রয়েড অ্যাপে ML Kit ODT প্রয়োগ করুন