# Trained Models का मूल्यांकन करें

मॉडल मूल्यांकन दिखाते हैं:

1. एक production metrics explorer, जो आपको उस सर्वश्रेष्ठ confidence threshold को खोजने में मदद करता है जिस पर आप अपना मॉडल चलाएँ;
2. Model improvement recommendations, जो आपको सुझाव देते हैं कि आप अपने मॉडल की सटीकता कैसे बढ़ा सकते हैं;
3. Performance by class, जो दिखाता है कि आपका मॉडल विभिन्न वर्गों की पहचान कितनी अच्छी तरह करता है;
4. एक confusion matrix, जिसका उपयोग आप उन विशिष्ट वर्गों को खोजने के लिए कर सकते हैं जिन पर आपका मॉडल अच्छा या कमजोर प्रदर्शन करता है, और;
5. एक interactive vector explorer जो आपको उन छवियों के क्लस्टर पहचानने देता है जहाँ आपका मॉडल अच्छा या खराब प्रदर्शन करता है;

आप अपने मॉडल के सुधार के क्षेत्रों की पहचान करने के लिए मॉडल मूल्यांकन का उपयोग कर सकते हैं।

मॉडल मूल्यांकन उन सभी versioned मॉडलों के लिए स्वचालित रूप से चलाए जाते हैं जिन्हें paid users द्वारा Roboflow पर प्रशिक्षित या अपलोड किया गया है। कुछ सौ छवियों के डेटासेट के लिए एक मूल्यांकन चलने में कई मिनट लग सकते हैं, और हजारों या उससे अधिक छवियों वाले बड़े डेटासेट के लिए कई घंटे लग सकते हैं।

### Open Model Evaluation

अपने मॉडल के लिए confusion matrix और vector explorer खोजने के लिए, अपने प्रोजेक्ट में किसी भी प्रशिक्षित मॉडल वर्जन को खोलें। फिर, "View Evaluation" बटन पर क्लिक करें:

<figure><img src="https://2698615118-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F-M6S9nPJhEX9FYH6clfW%2Fuploads%2Fgit-blob-8c6db60420e1905df8d6f3c824f91f0f219e8a76%2FScreenshot%202025-05-14%20at%2014.41.23.png?alt=media" alt=""><figcaption></figcaption></figure>

एक विंडो खुलेगी जहाँ आप अपना confusion matrix और vector analysis देख सकते हैं।

### Production Metrics Explorer

production metrics explorer आपके मॉडल के लिए सभी संभव confidence thresholds पर Precision, Recall, और F1 स्कोर दिखाता है। यह जानकारी एक ग्राफ पर प्रस्तुत की जाती है।

इन सांख्यिकियों का उपयोग करते हुए, production metrics explorer एक "optimal confidence" की सिफारिश करेगा। यह वह थ्रेशोल्ड है जो आपको सबसे अच्छा Precision/Recall/F1 Score trade-off देगा।

आप इस टूल का उपयोग यह तय करने में कर सकते हैं कि प्रोडक्शन में अपने मॉडल के लिए कौन सा confidence threshold सेट करना है।

<figure><img src="https://2698615118-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F-M6S9nPJhEX9FYH6clfW%2Fuploads%2Fgit-blob-cf7be3e1155f28ab47c87709fe072e767b536898%2FScreenshot%202025-07-23%20at%2011.15.02.png?alt=media" alt=""><figcaption></figcaption></figure>

आप स्लाइडर खींचकर विभिन्न confidence thresholds पर F1/Precision/Recall मान देख सकते हैं:

<figure><img src="https://2698615118-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F-M6S9nPJhEX9FYH6clfW%2Fuploads%2Fgit-blob-c0f91bfa945e226cba1bdb659ef70c507779add8%2FScreenshot%202025-07-23%20at%2011.15.39.png?alt=media" alt=""><figcaption></figcaption></figure>

### Model Improvement Recommendations

आपके मॉडल मूल्यांकन का model improvement recommendations सेक्शन उन सुझावों की सूची देता है कि आप अपने मॉडल की सटीकता कैसे बढ़ा सकते हैं। ये सुधार आपके मॉडल से गणना किए गए confusion matrix के परिणामों पर आधारित हैं। (इस पृष्ठ पर बाद में अपनी confusion matrix के बारे में और जानकारी देखें)।

model improvement recommendations फीचर निम्न से संबंधित सुझाव दे सकता है:

* कैसे एक ऐसे मॉडल को सुधारना है जो कई false negatives भविष्यवाणी करता है।
* कैसे एक ऐसे मॉडल को सुधारना है जो कई false positives भविष्यवाणी करता है।
* कौन से क्लास अक्सर भ्रमित होते हैं (गलत पहचाने जाते हैं)।
* कौन से क्लास की सटीकता सुधारने के लिए अधिक डेटा की आवश्यकता है।
* कब कोई टेस्ट या validation सेट बहुत छोटा हो सकता है।
* और भी बहुत कुछ।

<figure><img src="https://2698615118-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F-M6S9nPJhEX9FYH6clfW%2Fuploads%2Fgit-blob-cb54b251f5e115f9a1eb549b0c03117d5b263b3b%2FScreenshot%202025-07-23%20at%2011.17.09.png?alt=media" alt=""><figcaption></figcaption></figure>

### Performance by Class

performance by class चार्ट दिखाता है कि आपके डेटासेट के सभी क्लासों में कितनी सही भविष्यवाणियाँ, misclassifications, false negatives, और false positives हैं।

आप इस जानकारी का उपयोग यह देखने के लिए कर सकते हैं, एक नज़र में, कि कौन से क्लास आपके मॉडल द्वारा अच्छी तरह पहचाने जा रहे हैं और कौन से क्लास मॉडल के लिए पहचानना मुश्किल हैं।

<figure><img src="https://2698615118-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F-M6S9nPJhEX9FYH6clfW%2Fuploads%2Fgit-blob-ffaf491bbb2d955905c575d90aeb04a4fd94f257%2FScreenshot%202025-07-23%20at%2011.18.34.png?alt=media" alt=""><figcaption></figcaption></figure>

यदि आपके डेटासेट में क्लासों की संख्या अधिक है, तो आप "All Classes" ड्रॉपडाउन खोलकर और उन्हें चुनकर चार्ट को विशिष्ट क्लासों पर केंद्रित कर सकते हैं जिन्हें आप हाइलाइट करना चाहते हैं:

<figure><img src="https://2698615118-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F-M6S9nPJhEX9FYH6clfW%2Fuploads%2Fgit-blob-9656c52d9fc2be6f7da56bcd9bd4f2538677dba3%2FScreenshot%202025-07-23%20at%2011.19.30.png?alt=media" alt=""><figcaption></figcaption></figure>

आप Confidence Threshold स्लाइडर को स्थानांतरित करके देख सकते हैं कि यह चार्ट विभिन्न confidence thresholds पर कैसे बदलता है:

<figure><img src="https://2698615118-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F-M6S9nPJhEX9FYH6clfW%2Fuploads%2Fgit-blob-443ab7ce57aba56477ab17435cb9f27f622fe7c1%2FScreenshot%202025-07-23%20at%2011.20.12.png?alt=media" alt=""><figcaption></figcaption></figure>

डिफ़ॉल्ट रूप से, यह चार्ट उस optimal confidence threshold का उपयोग करेगा जिसकी हम सिफारिश करते हैं।

### Confusion Matrix

आपका confusion matrix दिखाता है कि आपका मॉडल विभिन्न क्लासों पर कितना अच्छा प्रदर्शन करता है।

आपका confusion matrix आपके प्रशिक्षित मॉडल के साथ आपके test और validation सेट्स की छवियों को चलाकर गणना किया जाता है। उसके बाद आपके मॉडल के परिणामों की तुलना आपके डेटासेट annotations से मिले "ground truth" से की जाती है।

confusion matrix टूल के साथ, आप पहचान सकते हैं:

* वे क्लास जहाँ आपका मॉडल अच्छा प्रदर्शन करता है।
* वे क्लास जहाँ आपका मॉडल किसी ऑब्जेक्ट के लिए गलत क्लास पहचानता है (false positives)।
* ऐसे उदाहरण जहाँ आपका मॉडल एक ऑब्जेक्ट पहचानता है जबकि वहाँ कोई ऑब्जेक्ट नहीं है (false negatives)।

यहाँ एक उदाहरण confusion matrix है:

<figure><img src="https://2698615118-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F-M6S9nPJhEX9FYH6clfW%2Fuploads%2Fgit-blob-cd0af50fa3e0c4158310901798a285245a9d87bc%2FScreenshot%202025-07-23%20at%2011.20.53.png?alt=media" alt=""><figcaption></figcaption></figure>

यदि आपका मॉडल कई क्लास का पता लगाता है, तो scroll bars दिखाई देंगी जो आपको आपके confusion matrix में नेविगेट करने देती हैं।

डिफ़ॉल्ट रूप से, confusion matrix दिखाती है कि आपका मॉडल उस optimal threshold पर कैसे प्रदर्शन करता है जो आपके मॉडल के लिए गणना किया गया है।

आप Confidence Threshold स्लाइडर का उपयोग करके confidence threshold समायोजित कर सकते हैं। जैसे ही आप स्लाइडर को कॉन्फ़िगर करेंगे, आपका confusion matrix, precision, और recall अपडेट होंगे:

<figure><img src="https://2698615118-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F-M6S9nPJhEX9FYH6clfW%2Fuploads%2Fgit-blob-37d06af76a4e8f6a660dec67c79f30d7d47e67ea%2FScreenshot%202025-07-23%20at%2011.21.19.png?alt=media" alt=""><figcaption></figcaption></figure>

आप confusion matrix में प्रत्येक बॉक्स पर क्लिक करके देख सकते हैं कि संबंधित श्रेणी में कौन सी छवियाँ दिखाई देती हैं।

उदाहरण के लिए, आप "False Positive" कॉलम में किसी भी बॉक्स पर क्लिक करके उन छवियों की पहचान कर सकते हैं जहाँ आपके ground truth डेटा में मौजूद न होने पर कोई ऑब्जेक्ट पहचाना गया था।

<figure><img src="https://2698615118-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F-M6S9nPJhEX9FYH6clfW%2Fuploads%2Fgit-blob-5372c962df1b4125d6d89098a5b43ea4df21e74c%2FScreenshot%202025-07-23%20at%2011.22.08.png?alt=media" alt=""><figcaption></figcaption></figure>

आप किसी व्यक्तिगत छवि पर क्लिक करके एक interactive view में प्रवेश कर सकते हैं जहाँ आप ground truth (आपकी annotations) और model predictions के बीच टॉगल कर सकते हैं:

<figure><img src="https://2698615118-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F-M6S9nPJhEX9FYH6clfW%2Fuploads%2Fgit-blob-15edd76d7c3b4f61ddd86e3581a91b90f0b72608%2FScreenshot%202025-07-23%20at%2011.22.30.png?alt=media" alt=""><figcaption></figcaption></figure>

अपनी annotations देखने के लिए "Ground Truth" पर क्लिक करें और यह देखने के लिए कि आपके मॉडल ने क्या लौटाया, "Model Predictions" पर क्लिक करें।
