1. আপনি শুরু করার আগে
ML Kit হল একটি মোবাইল SDK যা Android এবং iOS অ্যাপে Google-এর অন-ডিভাইস মেশিন লার্নিং দক্ষতা নিয়ে আসে। আপনি আপনার অ্যাপ্লিকেশানগুলিতে সাধারণ চ্যালেঞ্জগুলি সমাধান করতে বা একেবারে নতুন ব্যবহারকারীর অভিজ্ঞতা তৈরি করতে Vision এবং Natural Language APIs ব্যবহার করার জন্য শক্তিশালী কিন্তু সহজ ব্যবহার করতে পারেন৷ সমস্ত Google-এর সেরা-শ্রেণীর ML মডেল দ্বারা চালিত এবং আপনাকে বিনা খরচে অফার করা হয়৷
এমএল কিটের এপিআইগুলি সমস্ত ডিভাইসে চালিত হয়, যেখানে আপনি একটি লাইভ ক্যামেরা স্ট্রিম প্রক্রিয়া করতে চান এমন বাস্তব-সময় ব্যবহারের ক্ষেত্রে অনুমতি দেয়। এর মানে হল যে কার্যকারিতা অফলাইনে উপলব্ধ।
এই কোডল্যাবটি আপনার বিদ্যমান অ্যান্ড্রয়েড অ্যাপে একটি প্রদত্ত ছবির জন্য অবজেক্ট ডিটেকশন অ্যান্ড ট্র্যাকিং (ODT) যোগ করার জন্য আপনাকে সহজ পদক্ষেপের মধ্য দিয়ে নিয়ে যাবে। অনুগ্রহ করে মনে রাখবেন যে এই কোডল্যাবটি ML Kit ODT ব্যবহার হাইলাইট করতে কিছু শর্টকাট নেয়।
আপনি কি নির্মাণ করবেন
এই কোডল্যাবে, আপনি এমএল কিট দিয়ে একটি অ্যান্ড্রয়েড অ্যাপ তৈরি করতে যাচ্ছেন। আপনার অ্যাপটি একটি প্রদত্ত ছবিতে অবজেক্ট সনাক্ত করতে ML কিট অবজেক্ট ডিটেকশন এবং ট্র্যাকিং এপিআই ব্যবহার করবে৷ শেষ পর্যন্ত, আপনি ডানদিকে ছবির মতো কিছু দেখতে পাবেন৷ |
আপনি কি শিখবেন
- কিভাবে আপনার Android অ্যাপ্লিকেশনে ML Kit SDK সংহত করবেন
- এমএল কিট অবজেক্ট ডিটেকশন এবং ট্র্যাকিং API
আপনি কি প্রয়োজন হবে
- অ্যান্ড্রয়েড স্টুডিওর একটি সাম্প্রতিক সংস্করণ (v4.1.2+)
- অ্যান্ড্রয়েড স্টুডিও এমুলেটর বা একটি শারীরিক অ্যান্ড্রয়েড ডিভাইস
- নমুনা কোড
- কোটলিনে অ্যান্ড্রয়েড বিকাশের প্রাথমিক জ্ঞান
এই কোডল্যাবটি এমএল কিটের উপর দৃষ্টি নিবদ্ধ করে। অ-প্রাসঙ্গিক ধারণা এবং কোড ব্লকগুলিকে চকচকে করা হয়েছে এবং আপনাকে কেবল অনুলিপি এবং পেস্ট করার জন্য সরবরাহ করা হয়েছে।
2. সেট আপ করুন
কোডটি ডাউনলোড করুন
এই কোডল্যাবের সমস্ত কোড ডাউনলোড করতে নিম্নলিখিত লিঙ্কে ক্লিক করুন:
ডাউনলোড করা জিপ ফাইলটি আনপ্যাক করুন। এটি আপনার প্রয়োজনীয় সমস্ত সংস্থান সহ একটি রুট ফোল্ডার ( mlkit-android-main
) আনপ্যাক করবে। এই কোডল্যাবের জন্য, আপনার কেবলমাত্র object-detection
সাবডিরেক্টরিতে উৎসের প্রয়োজন হবে।
mlkit-android সংগ্রহস্থলের অবজেক্ট-ডিটেকশন সাবডিরেক্টরিতে দুটি ডিরেক্টরি রয়েছে:
- starter — এই কোডল্যাবের জন্য আপনি যে কোড তৈরি করেন তা শুরু করার কোড।
- চূড়ান্ত — সমাপ্ত নমুনা অ্যাপের জন্য সম্পূর্ণ কোড।
3. প্রকল্পে ML কিট অবজেক্ট ডিটেকশন এবং ট্র্যাকিং API যোগ করুন
অ্যান্ড্রয়েড স্টুডিওতে অ্যাপটি আমদানি করুন
স্টার্টার অ্যাপটি অ্যান্ড্রয়েড স্টুডিওতে আমদানি করে শুরু করা যাক।
অ্যান্ড্রয়েড স্টুডিও খুলুন, ইমপোর্ট প্রজেক্ট (গ্র্যাডল, ইক্লিপস এডিটি, ইত্যাদি) নির্বাচন করুন এবং আপনি আগে ডাউনলোড করা সোর্স কোড থেকে starter
ফোল্ডারটি বেছে নিন।
এমএল কিট অবজেক্ট ডিটেকশন এবং ট্র্যাকিংয়ের জন্য নির্ভরতা যোগ করুন
ML কিট নির্ভরতা আপনাকে আপনার অ্যাপে ML Kit ODT SDK সংহত করতে দেয়। আপনার প্রকল্পের app/build.gradle
ফাইলের শেষে নিম্নলিখিত লাইন যোগ করুন:
build.gradle
dependencies {
// ...
implementation 'com.google.mlkit:object-detection:16.2.4'
}
গ্রেডল ফাইলের সাথে আপনার প্রকল্প সিঙ্ক করুন
আপনার অ্যাপে সমস্ত নির্ভরতা উপলব্ধ রয়েছে তা নিশ্চিত করার জন্য, আপনাকে এই মুহুর্তে গ্রেডল ফাইলগুলির সাথে আপনার প্রকল্প সিঙ্ক করা উচিত।
গ্রেডল ফাইলের সাথে সিঙ্ক প্রকল্প নির্বাচন করুন ( ) অ্যান্ড্রয়েড স্টুডিও টুলবার থেকে।
(যদি এই বোতামটি অক্ষম করা থাকে, তবে নিশ্চিত করুন যে আপনি শুধুমাত্র starter/app/build.gradle
আমদানি করেছেন , সম্পূর্ণ সংগ্রহস্থল নয়।)
4. স্টার্টার অ্যাপ চালান
এখন যেহেতু আপনি অ্যান্ড্রয়েড স্টুডিওতে প্রজেক্টটি ইম্পোর্ট করেছেন এবং ML কিট অবজেক্ট ডিটেকশন এবং ট্র্যাকিংয়ের জন্য নির্ভরতা যোগ করেছেন, আপনি প্রথমবারের জন্য অ্যাপটি চালানোর জন্য প্রস্তুত৷
ইউএসবি এর মাধ্যমে আপনার অ্যান্ড্রয়েড ডিভাইসটিকে আপনার হোস্টের সাথে সংযুক্ত করুন বা অ্যান্ড্রয়েড স্টুডিও এমুলেটর শুরু করুন এবং রান ক্লিক করুন ( ) অ্যান্ড্রয়েড স্টুডিও টুলবারে।
অ্যাপটি চালান এবং অন্বেষণ করুন
অ্যাপটি আপনার অ্যান্ড্রয়েড ডিভাইসে চালু করা উচিত। এটিতে কিছু বয়লারপ্লেট কোড রয়েছে যা আপনাকে একটি ফটো ক্যাপচার করতে, বা একটি প্রিসেট চিত্র নির্বাচন করতে এবং এটিকে একটি বস্তু সনাক্তকরণ এবং ট্র্যাকিং পাইপলাইনে ফিড করতে দেয় যা আপনি এই কোডল্যাবে তৈরি করবেন। কোড লেখার আগে অ্যাপটি একটু অন্বেষণ করা যাক।
প্রথমে একটি বোতাম আছে ( ) নীচে থেকে:
- আপনার ডিভাইস/এমুলেটরে সমন্বিত ক্যামেরা অ্যাপ আনুন
- আপনার ক্যামেরা অ্যাপের ভিতরে একটি ছবি তুলুন
- স্টার্টার অ্যাপে ক্যাপচার করা ছবি পান
- ছবিটি প্রদর্শন করুন
ফটো তুলুন বোতামটি ব্যবহার করে দেখুন, ফটো তোলার জন্য প্রম্পটগুলি অনুসরণ করুন, ফটো গ্রহণ করুন এবং স্টার্টার অ্যাপের ভিতরে প্রদর্শিত এটি পর্যবেক্ষণ করুন।
এটি কিভাবে কাজ করে তা দেখতে কয়েকবার পুনরাবৃত্তি করুন:
দ্বিতীয়ত, 3টি প্রিসেট ইমেজ আছে যেগুলো থেকে আপনি বেছে নিতে পারেন। আপনি যদি একটি Android এমুলেটর চালাচ্ছেন তবে আপনি অবজেক্ট সনাক্তকরণ কোড পরীক্ষা করতে পরে এই চিত্রগুলি ব্যবহার করতে পারেন।
3টি প্রিসেট ছবি থেকে একটি ছবি নির্বাচন করুন। দেখুন যে ছবিটি বৃহত্তর দৃশ্যে দেখা যাচ্ছে:
5. ডিভাইসে অবজেক্ট সনাক্তকরণ যোগ করুন
এই ধাপে, আপনি চিত্রগুলিতে বস্তুগুলি সনাক্ত করতে স্টার্টার অ্যাপে কার্যকারিতা যুক্ত করবেন। আপনি আগের ধাপে যেমন দেখেছেন, স্টার্টার অ্যাপে ডিভাইসে ক্যামেরা অ্যাপের সাহায্যে ছবি তোলার জন্য বয়লারপ্লেট কোড রয়েছে। অ্যাপটিতে 3টি প্রিসেট চিত্রও রয়েছে যেগুলি আপনি যদি Android এমুলেটরে কোডল্যাব চালাচ্ছেন তবে আপনি অবজেক্ট সনাক্তকরণের চেষ্টা করতে পারেন।
আপনি যখন একটি ইমেজ নির্বাচন করেন, হয় প্রিসেট ইমেজ থেকে অথবা ক্যামেরা অ্যাপের মাধ্যমে একটি ছবি তোলা, তখন বয়লারপ্লেট কোড সেই ছবিটিকে একটি Bitmap
ইনস্ট্যান্সে ডিকোড করে, স্ক্রিনে দেখায় এবং ছবির সাথে runObjectDetection
পদ্ধতিতে কল করে।
এই ধাপে, আপনি অবজেক্ট ডিটেকশন করার জন্য runObjectDetection
পদ্ধতিতে কোড যোগ করবেন!
একটি ছবিতে ডিভাইসে অবজেক্ট সনাক্তকরণ সেট আপ করুন এবং চালান৷
এমএল কিট ওডিটি সেট আপ করার জন্য 3টি API সহ শুধুমাত্র 3টি সহজ ধাপ রয়েছে:
- একটি ছবি প্রস্তুত করুন:
InputImage
- একটি আবিষ্কারক বস্তু তৈরি করুন:
ObjectDetection.getClient(options)
- উপরের 2টি বস্তু সংযুক্ত করুন:
process(image)
আপনি MainActivity.kt
ফাইলে runObjectDetection(bitmap: Bitmap)
ফাংশনের ভিতরে এইগুলি অর্জন করেন।
/**
* ML Kit Object Detection Function
*/
private fun runObjectDetection(bitmap: Bitmap) {
}
এই মুহূর্তে ফাংশনটি খালি। ML Kit ODT বাস্তবায়নের জন্য নিম্নলিখিত ধাপে যান! পথে, অ্যান্ড্রয়েড স্টুডিও আপনাকে প্রয়োজনীয় আমদানি যোগ করার জন্য অনুরোধ করবে:
-
com.google.mlkit.vision.common.InputImage
-
com.google.mlkit.vision.objects.ObjectDetection
-
com.google.mlkit.vision.objects.defaults.ObjectDetectorOptions
ধাপ 1: একটি ইনপুট ইমেজ তৈরি করুন
এমএল কিট একটি Bitmap
থেকে একটি InputImage
তৈরি করতে একটি সাধারণ API প্রদান করে। তারপর আপনি ML Kit API-এ একটি InputImage
ফিড করতে পারেন।
// Step 1: create ML Kit's InputImage object
val image = InputImage.fromBitmap(bitmap, 0)
runObjectDetection(bitmap:Bitmap)
এর শীর্ষে উপরের কোডটি যোগ করুন।
ধাপ 2: একটি আবিষ্কারক উদাহরণ তৈরি করুন
এমএল কিট বিল্ডার ডিজাইন প্যাটার্ন অনুসরণ করে। আপনি নির্মাতার কাছে কনফিগারেশনটি পাস করবেন, তারপর এটি থেকে একটি আবিষ্কারক অর্জন করবেন। কনফিগার করার জন্য 3টি বিকল্প রয়েছে (এই কোডল্যাবে বোল্ড বিকল্পগুলি ব্যবহার করা হয়):
- আবিষ্কারক মোড ( একক চিত্র বা স্ট্রিম )
- সনাক্তকরণ মোড ( একক বা একাধিক বস্তু সনাক্তকরণ )
- শ্রেণিবিন্যাস মোড ( চালু বা বন্ধ )
এই কোডল্যাবটি একক চিত্রের জন্য - একাধিক বস্তু সনাক্তকরণ এবং শ্রেণীবিভাগ। এখন এটি যোগ করুন:
// Step 2: acquire detector object
val options = ObjectDetectorOptions.Builder()
.setDetectorMode(ObjectDetectorOptions.SINGLE_IMAGE_MODE)
.enableMultipleObjects()
.enableClassification()
.build()
val objectDetector = ObjectDetection.getClient(options)
ধাপ 3: ডিটেক্টরে ছবি(গুলি) ফিড করুন
বস্তু সনাক্তকরণ এবং শ্রেণীবিভাগ হল async প্রক্রিয়াকরণ:
- আপনি ডিটেক্টরে একটি চিত্র পাঠান (
process()
এর মাধ্যমে)। - ডিটেক্টর এটিতে বেশ কঠোর পরিশ্রম করে।
- ডিটেক্টর একটি কলব্যাকের মাধ্যমে আপনাকে ফলাফলটি রিপোর্ট করে।
নিম্নলিখিত কোডটি ঠিক তাই করে ( মজার রানঅবজেক্টডিটেকশন (বিটম্যাপ:বিটম্যাপ) এর ভিতরে বিদ্যমান কোডটিতে অনুলিপি করুন এবং যুক্ত করুন fun runObjectDetection(bitmap:Bitmap)):
// Step 3: feed given image to detector and setup callback
objectDetector.process(image)
.addOnSuccessListener {
// Task completed successfully
debugPrint(it)
}
.addOnFailureListener {
// Task failed with an exception
Log.e(TAG, it.message.toString())
}
সমাপ্তির পরে, আবিষ্কারক আপনাকে এর সাথে অবহিত করে:
- বস্তুর মোট সংখ্যা শনাক্ত করা হয়েছে. প্রতিটি সনাক্ত করা বস্তুর সাথে বর্ণনা করা হয়েছে:
-
trackingId
: একটি পূর্ণসংখ্যা যা আপনি ক্রস ফ্রেম ট্র্যাক করতে ব্যবহার করেন (এই কোডল্যাবে ব্যবহার করা হয়নি)। -
boundingBox
: বস্তুর বাউন্ডিং বক্স। -
labels:
সনাক্ত করা বস্তুর জন্য লেবেল(গুলি) এর একটি তালিকা (শুধুমাত্র যখন শ্রেণীবিভাগ সক্রিয় থাকে): -
index
(এই লেবেলের সূচী পান) -
text
("ফ্যাশন গুডস", "ফুড", "হোম গুডস", "প্লেস", "প্ল্যান্ট" সহ এই লেবেলের টেক্সট পান) -
confidence
(1.0 এর সাথে 0.0 থেকে 1.0 এর মধ্যে ফ্লোট মানে 100%)
আপনি সম্ভবত লক্ষ্য করেছেন যে কোডটি debugPrint()
এর সাথে সনাক্ত করা ফলাফলের জন্য একটি printf ধরনের প্রক্রিয়াকরণ করে।
এটি MainActivity
ক্লাসে যোগ করুন:
private fun debugPrint(detectedObjects: List<DetectedObject>) {
detectedObjects.forEachIndexed { index, detectedObject ->
val box = detectedObject.boundingBox
Log.d(TAG, "Detected object: $index")
Log.d(TAG, " trackingId: ${detectedObject.trackingId}")
Log.d(TAG, " boundingBox: (${box.left}, ${box.top}) - (${box.right},${box.bottom})")
detectedObject.labels.forEach {
Log.d(TAG, " categories: ${it.text}")
Log.d(TAG, " confidence: ${it.confidence}")
}
}
}
এখন আপনি সনাক্তকরণের জন্য ছবি গ্রহণ করতে প্রস্তুত!
চলুন রানে ক্লিক করে কোডল্যাব চালান ( ) অ্যান্ড্রয়েড স্টুডিও টুলবারে। একটি পূর্বনির্ধারিত চিত্র নির্বাচন করার চেষ্টা করুন, বা একটি ছবি তুলুন, তারপরে লগক্যাট উইন্ডোটি দেখুন( ) IDE এর ভিতরে।
আপনি এই অনুরূপ কিছু দেখতে হবে:
D/MLKit Object Detection: Detected object: 0
D/MLKit Object Detection: trackingId: null
D/MLKit Object Detection: boundingBox: (481, 2021) - (2426,3376)
D/MLKit Object Detection: categories: Food
D/MLKit Object Detection: confidence: 0.90234375
D/MLKit Object Detection: Detected object: 1
D/MLKit Object Detection: trackingId: null
D/MLKit Object Detection: boundingBox: (2639, 2633) - (3058,3577)
D/MLKit Object Detection: Detected object: 2
D/MLKit Object Detection: trackingId: null
D/MLKit Object Detection: boundingBox: (3, 1816) - (615,2597)
D/MLKit Object Detection: categories: Home good
D/MLKit Object Detection: confidence: 0.75390625
...যার মানে ডিটেক্টর 3টি বস্তু দেখেছে:
- ক্যাটাগরিগুলো হল ফুড এবং হোম ভালো ।
- ২য় শ্রেণীতে ফেরত দেওয়া হয়নি কারণ এটি একটি অজানা শ্রেণী।
- কোনও
trackingId
নেই (কারণ এটি একক চিত্র সনাক্তকরণ মোড)। -
boundingBox
আয়তক্ষেত্রের ভিতরে অবস্থান (যেমন (481, 2021) – (2426, 3376)) - আবিষ্কারকটি বেশ আত্মবিশ্বাসী যে 1মটি একটি খাবার (90% আত্মবিশ্বাস- এটি সালাদ ছিল )।
এমএল কিট অবজেক্ট ডিটেকশন কাজ করার জন্য আপনার যা দরকার তা প্রযুক্তিগতভাবে: আপনি এই মুহূর্তে এটি সব পেয়েছেন! অভিনন্দন!
UI এর দিকে, আপনি এখনও সেই পর্যায়ে আছেন যখন আপনি শুরু করেছিলেন, কিন্তু আপনি UI-তে শনাক্ত করা ফলাফলগুলি ব্যবহার করতে পারেন যেমন একটি ভাল অভিজ্ঞতা তৈরি করতে বাউন্ডিং বাক্সটি আঁকা: চলুন পরবর্তী ধাপে যাই – পোস্ট-প্রসেস সনাক্ত করা ফলাফল!
6. সনাক্তকরণ ফলাফল পোস্ট-প্রসেসিং
পূর্ববর্তী ধাপে, আপনি সনাক্ত করা ফলাফলটি লগক্যাটে মুদ্রণ করুন: সহজ এবং দ্রুত।
এই বিভাগে, আপনি চিত্রটিতে ফলাফলটি ব্যবহার করবেন:
- ছবির উপর আবদ্ধ বাক্স আঁকুন
- বাউন্ডিং বাক্সের ভিতরে বিভাগের নাম এবং আত্মবিশ্বাস আঁকুন
ভিজ্যুয়ালাইজেশন ইউটিলিটিগুলি বুঝুন
কোডল্যাবের ভিতরে কিছু বয়লারপ্লেট কোড রয়েছে যা আপনাকে সনাক্তকরণের ফলাফলটি কল্পনা করতে সহায়তা করে। আমাদের ভিজ্যুয়ালাইজেশন কোড সহজ করতে এই ইউটিলিটিগুলি ব্যবহার করুন:
-
data class BoxWithText(val box: Rect, val text: String)
এটি একটি ডেটা ক্লাস যা ভিজ্যুয়ালাইজেশনের জন্য একটি বস্তু সনাক্তকরণ ফলাফল সংরক্ষণ করে।box
হল বাউন্ডিং বক্স যেখানে অবজেক্টটি সনাক্ত করে এবংtext
হল ডিটেকশন রেজাল্ট স্ট্রিং যা অবজেক্টের বাউন্ডিং বক্সের সাথে একসাথে দেখানো হয়। -
fun drawDetectionResult(bitmap: Bitmap, detectionResults: List<BoxWithText>): Bitmap
এই পদ্ধতিটি ইনপুটbitmap
detectionResults
ফলাফলে অবজেক্ট সনাক্তকরণের ফলাফল আঁকে এবং এর পরিবর্তিত অনুলিপি প্রদান করে।
এখানে drawDetectionResult
ইউটিলিটি পদ্ধতির একটি আউটপুটের একটি উদাহরণ রয়েছে:
এমএল কিট সনাক্তকরণ ফলাফল কল্পনা করুন
ইনপুট ইমেজের উপরে ML Kit অবজেক্ট ডিটেকশন ফলাফল আঁকতে ভিজ্যুয়ালাইজেশন ইউটিলিটি ব্যবহার করুন।
যেখানে আপনি debugPrint()
কল করেন সেখানে যান এবং এর নীচে নিম্নলিখিত কোড স্নিপেট যোগ করুন:
// Parse ML Kit's DetectedObject and create corresponding visualization data
val detectedObjects = it.map { obj ->
var text = "Unknown"
// We will show the top confident detection result if it exist
if (obj.labels.isNotEmpty()) {
val firstLabel = obj.labels.first()
text = "${firstLabel.text}, ${firstLabel.confidence.times(100).toInt()}%"
}
BoxWithText(obj.boundingBox, text)
}
// Draw the detection result on the input bitmap
val visualizedResult = drawDetectionResult(bitmap, detectedObjects)
// Show the detection result on the app screen
runOnUiThread {
inputImageView.setImageBitmap(visualizedResult)
}
- আপনি ML Kit-এর
DetectedObject
পার্স করে এবং ভিজ্যুয়ালাইজেশন ফলাফল প্রদর্শন করতেBoxWithText
অবজেক্টের একটি তালিকা তৈরি করে শুরু করুন। - তারপর আপনি
drawDetectionResult
ইউটিলিটি পদ্ধতি ব্যবহার করে ইনপুট চিত্রের উপরে সনাক্তকরণ ফলাফলটি আঁকুন এবং এটি স্ক্রিনে দেখান।
চালান
এখন রান ক্লিক করুন ( ) অ্যান্ড্রয়েড স্টুডিও টুলবারে।
একবার অ্যাপ লোড হয়ে গেলে, ক্যামেরা আইকন সহ বোতাম টিপুন, আপনার ক্যামেরাকে একটি বস্তুর দিকে নির্দেশ করুন, একটি ছবি তুলুন, ফটো গ্রহণ করুন (ক্যামেরা অ্যাপে) অথবা আপনি সহজেই যেকোন প্রিসেট ছবি ট্যাপ করতে পারেন। আপনি সনাক্তকরণ ফলাফল দেখতে হবে; নতুন ML Kit ODT-এর অভিজ্ঞতা পেতে আবার বোতাম টিপুন বা কয়েকবার পুনরাবৃত্তি করতে অন্য ছবি নির্বাচন করুন!
7. অভিনন্দন!
আপনি আপনার অ্যাপে অবজেক্ট ডিটেকশন ক্ষমতা যোগ করতে ML Kit ব্যবহার করেছেন:
- 3টি API সহ 3টি ধাপ৷
- ইনপুট ইমেজ তৈরি করুন
- ডিটেক্টর তৈরি করুন
- ডিটেক্টরে ছবি পাঠান
যে আপনি এটি পেতে এবং চলমান প্রয়োজন!
আপনি এগিয়ে যাওয়ার সাথে সাথে আপনি মডেলটি উন্নত করতে পছন্দ করতে পারেন: আপনি দেখতে পাচ্ছেন যে ডিফল্ট মডেলটি শুধুমাত্র 5টি বিভাগ চিনতে পারে- মডেলটি এমনকি ছুরি, কাঁটা এবং বোতলও জানে না। আপনি কীভাবে একটি কাস্টম মডেলকে প্রশিক্ষণ দিতে পারেন তা জানতে আমাদের অন-ডিভাইস মেশিন লার্নিং - অবজেক্ট ডিটেকশন লার্নিং পাথওয়ের অন্যান্য কোডল্যাবটি দেখুন।
আমরা কভার করেছি কি
- আপনার অ্যান্ড্রয়েড অ্যাপে এমএল কিট অবজেক্ট ডিটেকশন এবং ট্র্যাকিং কীভাবে যুক্ত করবেন
- ইমেজে অবজেক্ট শনাক্ত করতে এমএল কিটে অন-ডিভাইস অবজেক্ট ডিটেকশন এবং ট্র্যাকিং কীভাবে ব্যবহার করবেন
পরবর্তী পদক্ষেপ
- শনাক্তকরণ এবং শ্রেণিবিন্যাস নির্ভুলতা এবং কার্যকারিতা অনুভব করতে আরও চিত্র এবং লাইভ ভিডিও সহ ML Kit ODT এর সাথে আরও অন্বেষণ করুন
- একটি কাস্টম মডেলকে কীভাবে প্রশিক্ষণ দিতে হয় তা শিখতে অন-ডিভাইস মেশিন লার্নিং - অবজেক্ট ডিটেকশন লার্নিং পাথওয়ে দেখুন
- আপনার নিজের Android অ্যাপে ML Kit ODT প্রয়োগ করুন