diff --git a/docs/ar/datasets/index.md b/docs/ar/datasets/index.md
new file mode 100644
index 0000000000..1bfcf65da9
--- /dev/null
+++ b/docs/ar/datasets/index.md
@@ -0,0 +1,127 @@
+---
+comments: true
+description: استكشف مجموعات بيانات الرؤية الحاسوبية المدعومة بواسطة Ultralytics لكشف الكائنات وتجزئة الصور وتقدير الركض وتصنيف الصور وتعقب الأجسام المتعددة.
+keywords: الرؤية الحاسوبية ، مجموعات البيانات ، Ultralytics ، يوه ، كشف الكائنات ، تجزئة النموذج ، تقدير الركض ، تصنيف الصور ، تعقب الأجسام المتعددة
+---
+
+# نظرة عامة على مجموعات البيانات
+
+توفر Ultralytics الدعم لمجموعة متنوعة من مجموعات البيانات لتسهيل المهام الخاصة بالرؤية الحاسوبية مثل الكشف وتجزئة الكائنات وتقدير الركض وتصنيف الصور وتعقب الأجسام المتعددة. فيما يلي قائمة بالمجموعات الرئيسية التي يدعمها Ultralytics ، تليها ملخص لكل مهمة في الرؤية الحاسوبية ومجموعات البيانات المتعلقة بها.
+
+!!! Note
+
+ 🚧 قسم الوثائق ذو اللغات المتعددة قيد الإنشاء حاليًا ، ونعمل بجد لتحسينه. نشكرك على صبرك! 🙏
+
+## [مجموعات بيانات الكشف](../../datasets/detect/index.md)
+
+يعد كشف الكائنات بواسطة صندوق محيط هو تقنية في الرؤية الحاسوبية تتضمن كشف الكائنات وتمييزها في الصورة عن طريق رسم صندوق محيط حول كل كائن.
+
+- [Argoverse](../../datasets/detect/argoverse.md): مجموعة بيانات تحتوي على بيانات تتبع ثلاثية الأبعاد وتنبؤ الحركة من البيئات الحضرية مع توجيه البيانات بشكل جيد.
+- [COCO](../../datasets/detect/coco.md): مجموعة بيانات كبيرة مصممة للكشف والتجزئة والتسمية تحتوي على أكثر من 200 ألف صورة معتمدة.
+- [COCO8](../../datasets/detect/coco8.md): يحتوي على أول 4 صور من COCO التدريب و COCO val ، مناسب للاختبار السريع.
+- [Global Wheat 2020](../../datasets/detect/globalwheat2020.md): مجموعة بيانات من صور رؤوس القمح جمعت من جميع أنحاء العالم لمهام الكشف والتحديد الموضعي.
+- [Objects365](../../datasets/detect/objects365.md): مجموعة بيانات كبيرة وعالية الجودة لاكتشاف الكائنات بتصنيفات 365 وأكثر من 600 ألف صورة مرتبطة.
+- [OpenImagesV7](../../datasets/detect/open-images-v7.md): مجموعة بيانات شاملة من جوجل تحتوي على 1.7 مليون صورة للتدريب و 42 ألف صورة للتحقق.
+- [SKU-110K](../../datasets/detect/sku-110k.md): مجموعة بيانات تتضمن الكشف المكثف للكائنات في بيئات البيع بالتجزئة مع أكثر من 11 ألف صورة و 1.7 مليون صندوق بيانات محيط.
+- [VisDrone](../../datasets/detect/visdrone.md): مجموعة بيانات تحتوي على كشف الكائنات ونماذج تعقب لأجسام متعددة من الصور الملتقطة بواسطة طائرات بدون طيار بأكثر من 10 ألف صورة وتسلسلات فيديو.
+- [VOC](../../datasets/detect/voc.md): مجموعة بيانات Pascal Visual Object Classes (VOC) لكشف الكائنات والتجزئة بـ20 فئة من الكائنات وأكثر من 11 ألف صورة.
+- [xView](../../datasets/detect/xview.md): مجموعة بيانات لكشف الكائنات في الصور الملتقطة من الأعلى بـ 60 فئة من الكائنات وأكثر من مليون كائن محدد ملحوظ.
+
+## [مجموعات بيانات التجزئة النمطية](../../datasets/segment/index.md)
+
+تعتبر التجزئة النمطية تقنية في الرؤية الحاسوبية تتطلب تحديد أجسام وتحديد مكانها في مستوى البكسل في الصورة.
+
+- [COCO](../../datasets/segment/coco.md): مجموعة بيانات كبيرة مصممة للكشف والتجزئة والتسمية تحتوي على أكثر من 200 ألف صورة معتمدة.
+- [COCO8-seg](../../datasets/segment/coco8-seg.md): مجموعة بيانات أصغر لمهام التجزئة النمطية ، تحتوي على مجموعة فرعية من 8 صور COCO مع تسميات التجزئة.
+
+## [تقدير الركض](../../datasets/pose/index.md)
+
+تقدير الركض هو تقنية تُستخدم لتحديد وضع الكائن مقارنةً بالكاميرا أو نظام الإحداثيات العالمية.
+
+- [COCO](../../datasets/pose/coco.md): مجموعة بيانات كبيرة بتعليقات وضع الإنسان المصممة لمهام تقدير الركض.
+- [COCO8-pose](../../datasets/pose/coco8-pose.md): مجموعة بيانات أصغر لمهام تقدير الركض ، تحتوي على مجموعة فرعية من 8 صور COCO مع تغييرات في وضع الإنسان.
+- [تقدير الركض النمر](../../datasets/pose/tiger-pose.md): مجموعة بيانات مدمجة تتكون من 263 صورة مركزة على النمور ، مع 12 نقطة مرجعية لكل نمر لمهام تقدير الركض.
+
+## [التصنيف](../../datasets/classify/index.md)
+
+تصنيف الصورة هو مهمة في الرؤية الحاسوبية تتضمن تصنيف صورة في فئة أو أكثر محددة مسبقًا بناءً على محتواها البصري.
+
+- [كالتك 101](../../datasets/classify/caltech101.md): مجموعة بيانات تحتوي على صور لـ 101 فئة من الكائنات لمهام تصنيف الصور.
+- [كالتك 256](../../datasets/classify/caltech256.md): نسخة موسعة من Caltech 101 بـ 256 فئة من الكائنات وصور أكثر تحديًا.
+- [CIFAR-10](../../datasets/classify/cifar10.md): مجموعة بيانات تحتوي على 60 ألف صورة ملونة بحجم 32x32 بكسل في 10 فئات ، مع 6 آلاف صورة لكل فئة.
+- [CIFAR-100](../../datasets/classify/cifar100.md): نسخة موسعة من CIFAR-10 بـ 100 فئة من الكائنات و 600 صورة لكل فئة.
+- [Fashion-MNIST](../../datasets/classify/fashion-mnist.md): مجموعة بيانات تتكون من 70,000 صورة رمادية لـ 10 فئات من الملابس لمهام تصنيف الصور.
+- [ImageNet](../../datasets/classify/imagenet.md): مجموعة بيانات بمقياس كبير لكشف الكائنات وتصنيف الصور بأكثر من 14 مليون صورة و 20,000 فئة.
+- [ImageNet-10](../../datasets/classify/imagenet10.md): نسخة أصغر من ImageNet مع 10 فئات للاختبار والتجربة الأسرع.
+- [Imagenette](../../datasets/classify/imagenette.md): مجموعة فرعية أصغر لـ ImageNet تحتوي على 10 فئات يمكن التمييز بينها بسهولة للتدريب والاختبار الأسرع.
+- [Imagewoof](../../datasets/classify/imagewoof.md): نسخة أكثر تحديًا من ImageNet تحتوي على 10 فئات من فئات كلاب العنبر لمهام تصنيف الصور.
+- [MNIST](../../datasets/classify/mnist.md): مجموعة بيانات تتكون من 70,000 صورة رمادية للأرقام المكتوبة يدويًا لمهام تصنيف الصور.
+
+## [صناديق الحدود الموجهة (OBB)](../../datasets/obb/index.md)
+
+صناديق الحدود الموجهة (OBB) هي طريقة في الرؤية الحاسوبية لاكتشاف الكائنات ذات زوايا في الصور باستخدام صناديق حدود مدورة تمت تدويرها ، وغالبًا ما يتم تطبيقها على صور الأقمار الصناعية والطائرات بدون طيار.
+
+- [DOTAv2](../../datasets/obb/dota-v2.md): مجموعة بيانات OBB الجوية الشهيرة بـ 1.7 مليون حالة و 11,268 صورة.
+
+## [تتبع الكائنات المتعددة](../../datasets/track/index.md)
+
+تعتبر تتبع الكائنات المتعددة تقنية في الرؤية الحاسوبية تتضمن كشف وتتبع عدة كائنات معًا عبر الزمن في سلسلة فيديو.
+
+- [Argoverse](../../datasets/detect/argoverse.md): مجموعة بيانات تحتوي على بيانات تتبع ثلاثية الأبعاد وتنبؤ الحركة من البيئات الحضرية مع توجيه البيانات بشكل جيد لمهام تتبع الكائنات المتعددة.
+- [VisDrone](../../datasets/detect/visdrone.md): مجموعة بيانات تحتوي على كشف الكائنات ونماذج تتبع لأجسام متعددة من الصور الملتقطة بواسطة طائرات بدون طيار بأكثر من 10 ألف صورة وتسلسلات فيديو.
+
+## المساهمة في مجموعات بيانات جديدة
+
+تشمل المساهمة في مجموعة بيانات جديدة عدة خطوات لضمان توافقها مع البنية القائمة. فيما يلي الخطوات اللازمة:
+
+### الخطوات المطلوبة للمساهمة في مجموعة بيانات جديدة
+
+1. **جمع الصور**: اجمع الصور التي تنتمي إلى مجموعة البيانات. يمكن جمع هذه الصور من مصادر مختلفة مثل قواعد البيانات العامة أو مجموعتك الخاصة.
+
+2. **وضع تعليقات على الصور**: قم بإضافة تعليقات على هذه الصور مع صناديق الحدود أو الشرائح أو النقاط التي تعتمد على المهمة.
+
+3. **تصدير التعليقات**: قم بتحويل هذه التعليقات إلى تنسيق الملف *.txt *.txt المدعوم من Ultralytics.
+
+4. **تنظيم مجموعة البيانات**: قم بترتيب مجموعة البيانات الخاصة بك في البنية المجلدات الصحيحة. يجب أن تحتوي على مجلدات أعلى المستوى `train/` و `val/` ، وداخل كل منهما ، مجلدات فرعية للـ `images/` و `labels/`.
+
+ ```
+ dataset/
+ ├── train/
+ │ ├── images/
+ │ └── labels/
+ └── val/
+ ├── images/
+ └── labels/
+ ```
+
+5. **إنشاء ملف `data.yaml`**: في المجلد الجذري لمجموعة البيانات الخاصة بك ، قم بإنشاء ملف `data.yaml` يصف المجموعة البيانات والفئات وغيرها من المعلومات الضرورية.
+
+6. **تحسين الصور (اختياري)**: إذا كنت ترغب في تقليل حجم مجموعة البيانات لمزيد من الكفاءة في المعالجة ، فيمكنك تحسين الصور باستخدام الكود أدناه. لا يلزم ذلك ، ولكنه موصى به لأحجام مجموعات البيانات الأصغر وسرعات التنزيل الأسرعة.
+
+7. **ضغط مجموعة البيانات**: قم بضغط مجلد مجموعة البيانات بالكامل وضعه في ملف zip.
+
+8. **الوثائق وإرسال طلب السحب (PR)**: قم بإنشاء صفحة وثائق تصف مجموعة البيانات الخاصة بك وكيف تتوافق مع الإطار القائم. بعد ذلك ، قدم طلب سحب (PR). راجع [مبادئ المساهمة في Ultralytics](https://docs.ultralytics.com/help/contributing) لمزيد من التفاصيل حول كيفية تقديم طلب السحب (PR).
+
+### كود مثال لتحسين وضغط مجموعة البيانات
+
+!!! Example "تحسين وضغط مجموعة البيانات"
+
+ === "Python"
+
+ ```python
+ from pathlib import Path
+ from ultralytics.data.utils import compress_one_image
+ from ultralytics.utils.downloads import zip_directory
+
+ # تعيين مسار مجلد مجموعة البيانات
+ path = Path('path/to/dataset')
+
+ # تحسين الصور في مجموعة البيانات (اختياري)
+ for f in path.rglob('*.jpg'):
+ compress_one_image(f)
+
+ # ضغط مجلد مجموعة البيانات في ملف زيب
+ zip_directory(path)
+ ```
+
+باتباع هذه الخطوات ، يمكنك المساهمة في مجموعة بيانات جديدة تتكامل بشكل جيد مع البنية القائمة لـ Ultralytics.
diff --git a/docs/ar/index.md b/docs/ar/index.md
new file mode 100644
index 0000000000..a3caa594ff
--- /dev/null
+++ b/docs/ar/index.md
@@ -0,0 +1,82 @@
+---
+comments: true
+description: استكشف دليل كامل لـ Ultralytics YOLOv8 ، نموذج كشف الكائنات وتجزئة الصور ذو السرعة العالية والدقة العالية. تثبيت المحررة ، والتنبؤ ، والتدريب والمزيد.
+keywords: Ultralytics، YOLOv8، كشف الكائنات، تجزئة الصور، التعلم الآلي، التعلم العميق، الرؤية الحاسوبية، YOLOv8 installation، YOLOv8 prediction، YOLOv8 training، تاريخ YOLO، تراخيص YOLO
+---
+
+
+
+يتم تقديم [Ultralytics](https://ultralytics.com) [YOLOv8](https://github.com/ultralytics/ultralytics) ، أحدث إصدار من نموذج كشف الكائنات وتجزئة الصور المشهورة للوقت الفعلي. يعتمد YOLOv8 على التطورات المتقدمة في التعلم العميق والرؤية الحاسوبية ، ويقدم أداءً فائقًا من حيث السرعة والدقة. يجعل التصميم البسيط له مناسبًا لمختلف التطبيقات وقابلًا للتكيف بسهولة مع منصات الأجهزة المختلفة ، من الأجهزة الحافة إلى واجهات برمجة التطبيقات في السحابة.
+
+استكشف أدلة YOLOv8 ، وهي مورد شامل يهدف إلى مساعدتك في فهم واستخدام ميزاته وقدراته. سواء كنت ممارسًا في مجال التعلم الآلي من ذوي الخبرة أو جديدًا في هذا المجال ، فإن الهدف من هذا المركز هو تحقيق الحد الأقصى لإمكانات YOLOv8 في مشاريعك.
+
+!!! Note
+
+ 🚧 تم تطوير وثائقنا متعددة اللغات حاليًا ، ونعمل بجد لتحسينها. شكراً لصبرك! 🙏
+
+## من أين أبدأ
+
+- **تثبيت** `ultralytics` بواسطة pip والبدء في العمل في دقائق [:material-clock-fast: ابدأ الآن](quickstart.md){ .md-button }
+- **توقع** الصور ومقاطع الفيديو الجديدة بواسطة YOLOv8 [:octicons-image-16: توقع على الصور](modes/predict.md){ .md-button }
+- **تدريب** نموذج YOLOv8 الجديد على مجموعة البيانات المخصصة الخاصة بك [:fontawesome-solid-brain: قم بتدريب نموذج](modes/train.md){ .md-button }
+- **استكشاف** مهام YOLOv8 مثل التجزئة والتصنيف والوضع والتتبع [:material-magnify-expand: استكشاف المهام](tasks/index.md){ .md-button }
+
+
+
+
+
+ مشاهدة: كيفية تدريب نموذج YOLOv8 على مجموعة بيانات مخصصة في جوجل كولاب.
+
+
+## YOLO: نبذة تاريخية
+
+تم تطوير [YOLO](https://arxiv.org/abs/1506.02640) (You Only Look Once) ، نموذج شهير لكشف الكائنات وتجزئة الصور ، من قبل جوزيف ريدمون وعلي فرهادي في جامعة واشنطن. في عام 2015 ، حققت YOLO شهرة سريعة بفضل سرعتها العالية ودقتها.
+
+- [YOLOv2](https://arxiv.org/abs/1612.08242) ، الذي تم إصداره في عام 2016 ، قام بتحسين النموذج الأصلي من خلال دمج التطبيع التشغيلي ، ومربعات الربط ، ومجموعات الأبعاد.
+- [YOLOv3](https://pjreddie.com/media/files/papers/YOLOv3.pdf) ، الذي تم إطلاقه في عام 2018 ، قدم تحسينات إضافية لأداء النموذج باستخدام شبكة ظهر أكثر كفاءة ومرشحات متعددة وتجميع هرم المساحة.
+- تم إصدار [YOLOv4](https://arxiv.org/abs/2004.10934) في عام 2020 ، وقدم ابتكارات مثل زيادة المساعدات في البيانات ، ورأس جديد للكشف غير المرتبط بالمرابط ، ووظيفة فقدان جديدة.
+- [YOLOv5](https://github.com/ultralytics/yolov5) قام بتحسين أداء النموذج وأضاف ميزات جديدة مثل تحسين ثوابت النموذج ، وتعقب التجارب المتكامل والتصدير التلقائي إلى تنسيقات التصدير الشهيرة.
+- [YOLOv6](https://github.com/meituan/YOLOv6) تم تَوْزيعه على [Meituan](https://about.meituan.com/) في عام 2022 وهو قيد الاستخدام في العديد من روبوتات التسليم الذاتي للشركة.
+- [YOLOv7](https://github.com/WongKinYiu/yolov7) أضاف مهمات إضافية مثل تقدير الوضع على مجموعة بيانات نقاط COCO الرئيسية.
+- [YOLOv8](https://github.com/ultralytics/ultralytics) هو أحدث إصدار من YOLO بواسطة Ultralytics. باعتباره نموذجًا حديثًا وفريدًا من نوعه ، فإن YOLOv8 يبني على نجاح الإصدارات السابقة ، ويقدم ميزات وتحسينات جديدة لتحسين الأداء والمرونة والكفاءة. يدعم YOLOv8 مجموعة كاملة من مهام الذكاء الصناعي للرؤية ، بما في ذلك [الكشف](tasks/detect.md) ، [التجزئة](tasks/segment.md) ، [تقدير الوضع](tasks/pose.md) ، [التتبع](modes/track.md) ، و [التصنيف](tasks/classify.md). تتيح هذه القابلية للتكيف للمستخدمين استغلال قدرات YOLOv8 في تطبيقات ومجالات متنوعة.
+
+## تراخيص YOLO: كيف يتم ترخيص Ultralytics YOLO؟
+
+يوفر Ultralytics خيارين للترخيص لاستيعاب الحالات الاستخدام المتنوعة:
+
+- **ترخيص AGPL-3.0**: هذا الترخيص مفتوح المصدر والمعتمد من [OSI](https://opensource.org/licenses/) وهو مثالي للطلاب والهواة ، ويشجع على التعاون المفتوح ومشاركة المعرفة. راجع ملف [LICENSE](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) لمزيد من التفاصيل.
+- **ترخيص المؤسسة**: صمم للاستخدام التجاري ، يسمح هذا الترخيص بدمج سلس للبرمجيات ونماذج AI الخاصة بشركة Ultralytics في السلع والخدمات التجارية ، وتفادي متطلبات المصدر المفتوح لـ AGPL-3.0. إذا تشمل سيناريو الخاص بك تضمين حلولنا في عرض تجاري ، فيرجى التواصل من خلال [Ultralytics Licensing](https://ultralytics.com/license).
+
+تم تصميم استراتيجية الترخيص الخاصة بنا لضمان أن أي تحسينات على مشاريعنا مفتوحة المصدر يتم إرجاعها إلى المجتمع. نحمل مبادئ المصدر المفتوح قريبة من قلوبنا ❤️ ، ومهمتنا هي ضمان أن يمكن استخدام وتوسيع مساهماتنا بطرق تعود بالنفع على الجميع.
diff --git a/docs/ar/models/index.md b/docs/ar/models/index.md
new file mode 100644
index 0000000000..f5a31db02a
--- /dev/null
+++ b/docs/ar/models/index.md
@@ -0,0 +1,93 @@
+---
+comments: true
+description: استكشف مجموعة متنوعة من عائلة YOLO، SAM، MobileSAM، FastSAM، YOLO-NAS ونماذج RT-DETR المدعومة بواسطة Ultralytics. ابدأ مع أمثلة للإستخدام باستخدام واجهة سطر الأوامر ولغة البايثون.
+keywords: Ultralytics، مستندات، YOLO، SAM، MobileSAM، FastSAM، YOLO-NAS، RT-DETR، نماذج، هندسات، Python، CLI
+---
+
+# النماذج المدعومة بواسطة Ultralytics
+
+مرحبًا بك في مستندات نماذج Ultralytics! نحن نقدم دعمًا لمجموعة واسعة من النماذج، وكل نموذج مصمم لمهام محددة مثل [كشف الكائنات](../tasks/detect.md)، [تجزئة الحالات](../tasks/segment.md)، [تصنيف الصور](../tasks/classify.md)، [تقدير الوضع](../tasks/pose.md)، و[تتبع العديد من الكائنات](../modes/track.md). إذا كنت مهتمًا بالمساهمة في بنية نموذجك في Ultralytics ، تحقق من [دليل المساهمة](../../help/contributing.md).
+
+!!! Note
+
+ 🚧 مستنداتنا متعددة اللغات قيد الإنشاء حاليًا ونحن نعمل بجد لتحسينها. شكرا لك على صبرك! 🙏
+
+## النماذج المميزة
+
+فيما يلي بعض النماذج الرئيسية المدعمة:
+
+1. **[YOLOv3](../../models/yolov3.md)**: الإصدار الثالث من عائلة نموذج YOLO، والذي أنشأه جوزيف ريدمون، والمعروف بقدرته على الكشف في الوقت الحقيقي بكفاءة.
+2. **[YOLOv4](../../models/yolov4.md)**: تحديث لنموذج YOLOv3 الأصلي من قبل اليكسي بوتشكوفسكي في عام 2020.
+3. **[YOLOv5](../../models/yolov5.md)**: إصدار محسن لبنية YOLO بواسطة Ultralytics ، يقدم أداءً أفضل وتفاوتات سرعة مقارنة بالإصدارات السابقة.
+4. **[YOLOv6](../../models/yolov6.md)**: تم إصداره بواسطة [ميتوان](https://about.meituan.com/) في عام 2022 ، ويستخدم في العديد من روبوتات التسليم الذاتي للشركة.
+5. **[YOLOv7](../../models/yolov7.md)**: نماذج YOLO المحدثة التي تم إطلاقها في عام 2022 من قبل أصحاب YOLOv4.
+6. **[YOLOv8](../../models/yolov8.md)**: أحدث إصدار من عائلة YOLO ، ويتميز بقدرات محسنة مثل تجزئة الحالات، وتقدير النقاط الرئيسة، والتصنيف.
+7. **[Segment Anything Model (SAM)](../../models/sam.md)**: نموذج Segment Anything Model (SAM) من Meta.
+8. **[Mobile Segment Anything Model (MobileSAM)](../../models/mobile-sam.md)**: MobileSAM لتطبيقات الهواتف المحمولة ، من جامعة Kyung Hee.
+9. **[Fast Segment Anything Model (FastSAM)](../../models/fast-sam.md)**: FastSAM من مجموعة تحليل الصور والفيديو، معهد الأتمتة، الأكاديمية الصينية للعلوم.
+10. **[YOLO-NAS](../../models/yolo-nas.md)**: نماذج YOLO للبحث في تصميم العمارة العصبية.
+11. **[Realtime Detection Transformers (RT-DETR)](../../models/rtdetr.md)**: نماذج PaddlePaddle Realtime Detection Transformer (RT-DETR) من Baidu.
+
+
+
+
+
+ شاهد: قم بتشغيل نماذج Ultralytics YOLO في بضعة أسطر من الكود.
+
+
+## البدء: أمثلة للإستخدام
+
+!!! Example "مثال"
+
+ === "Python"
+
+ يمكن تمرير نماذج PyTorch مدربة سابقًا بتنسيق `*.pt` بالإضافة إلى ملفات التكوين بتنسيق `*.yaml` إلى فئات `YOLO()`، `SAM()`، `NAS()` و `RTDETR()` لإنشاء نموذج في Python:
+
+ ```python
+ from ultralytics import YOLO
+
+ # قم بتحميل نموذج YOLOv8n المدرب بـ COCO المسبق
+ model = YOLO('yolov8n.pt')
+
+ # عرض معلومات النموذج (اختياري)
+ model.info()
+
+ # قم بتدريب النموذج على مجموعة بيانات COCO8 لمدة 100 حقبة
+ results = model.train(data='coco8.yaml', epochs=100, imgsz=640)
+
+ # قم بتشغيل الاستدلال مع نموذج YOLOv8n على صورة 'bus.jpg'
+ results = model('path/to/bus.jpg')
+ ```
+ === "CLI"
+
+ هناك أوامر CLI متاحة لتشغيل النماذج مباشرةً:
+
+ ```bash
+ # قم بتحميل نموذج YOLOv8n المدرب بـ COCO المسبق و تدريبه على مجموعة بيانات COCO8 لمدة 100 حقبة
+ yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640
+
+ # قم بتحميل نموذج YOLOv8n المدرب بـ COCO المسبق و قم بتشغيل الاستدلال على صورة 'bus.jpg'
+ yolo predict model=yolov8n.pt source=path/to/bus.jpg
+ ```
+
+## المساهمة في نماذج جديدة
+
+هل ترغب في المساهمة بنموذجك في Ultralytics؟ رائع! نحن مفتوحون دائمًا لتوسيع مجموعة النماذج الخاصة بنا.
+
+1. **انسخ المستودع**: ابدأ بإنشاء فرع جديد في مستودع [Ultralytics GitHub repository ](https://github.com/ultralytics/ultralytics).
+
+2. **نسخ Fork الخاص بك**: نسخ Fork الخاص بك إلى جهاز الكمبيوتر المحلي الخاص بك وأنشئ فرعًا جديدًا للعمل عليه.
+
+3. **اتبع نموذجك**: قم بإضافة نموذجك وفقًا لمعايير البرمجة والتوجيهات المقدمة في [دليل المساهمة](../../help/contributing.md).
+
+4. **اختبر بدقة**: تأكد من اختبار نموذجك بدقة ، سواء بشكل منفصل أم كجزء من السلسلة.
+
+5. **أنشئ طلبًا للدمج**: بمجرد أن تكون راضيًا عن نموذجك، قم بإنشاء طلب للدمج إلى البرنامج الرئيسي للمراجعة.
+
+6. **استعراض ودمج الكود**: بعد المراجعة، إذا كان نموذجك يلبي معاييرنا، فسيتم دمجه في البرنامج الرئيسي.
+
+للخطوات المفصلة ، استشر [دليل المساهمة](../../help/contributing.md).
diff --git a/docs/ar/modes/benchmark.md b/docs/ar/modes/benchmark.md
new file mode 100644
index 0000000000..506240afac
--- /dev/null
+++ b/docs/ar/modes/benchmark.md
@@ -0,0 +1,94 @@
+---
+comments: true
+description: تعرف على كيفية قياس سرعة ودقة YOLOv8 عبر تنسيقات التصدير المختلفة. احصل على رؤى حول مقاييس mAP50-95 وaccuracy_top5 والمزيد.
+keywords: Ultralytics، YOLOv8، اختبار الأداء، قياس السرعة، قياس الدقة، مقاييس mAP50-95 وaccuracy_top5، ONNX، OpenVINO، TensorRT، تنسيقات تصدير YOLO
+---
+
+# اختبار النموذج باستخدام Ultralytics YOLO
+
+
+
+## المقدمة
+
+بمجرد أن يتم تدريب نموذجك وتحقق صحته ، فإن الخطوة التالية بشكل منطقي هي تقييم أدائه في سيناريوهات العالم الحقيقي المختلفة. يوفر وضع الاختبار في Ultralytics YOLOv8 هذا الهدف من خلال توفير إطار قوي لتقييم سرعة ودقة النموذج عبر مجموعة من صيغ التصدير.
+
+## لماذا هو اختبار الأداء مهم؟
+
+- **قرارات مستنيرة:** اكتساب رؤى حول التنازلات بين السرعة والدقة.
+- **تخصيص الموارد:** فهم كيفية أداء تنسيقات التصدير المختلفة على أجهزة مختلفة.
+- **تحسين:** تعلم أي تنسيق تصدير يقدم أفضل أداء لحالتك الاستخدامية المحددة.
+- **كفاءة التكلفة:** استخدام الموارد الأجهزة بشكل أكثر كفاءة بناءً على نتائج الاختبار.
+
+### المقاييس الرئيسية في وضع الاختبار
+
+- **mAP50-95:** لكشف الكائنات وتقسيمها وتحديد الوضع.
+- **accuracy_top5:** لتصنيف الصور.
+- **وقت التتبع:** الوقت المستغرق لكل صورة بالميلي ثانية.
+
+### تنسيقات التصدير المدعومة
+
+- **ONNX:** لأفضل أداء على وحدة المعالجة المركزية.
+- **TensorRT:** لأقصى استفادة من وحدة المعالجة الرسومية.
+- **OpenVINO:** لتحسين الأجهزة من إنتل.
+- **CoreML و TensorFlow SavedModel وما إلى ذلك:** لتلبية احتياجات النشر المتنوعة.
+
+!!! Tip "نصيحة"
+
+ * قم بتصدير إلى نموذج ONNX أو OpenVINO لزيادة سرعة وحدة المعالجة المركزية بمقدار 3 مرات.
+ * قم بتصدير إلى نموذج TensorRT لزيادة سرعة وحدة المعالجة الرسومية بمقدار 5 مرات.
+
+## أمثلة على الاستخدام
+
+قم بتشغيل اختبارات YOLOv8n على جميع تنسيقات التصدير المدعومة بما في ذلك ONNX و TensorRT وما إلى ذلك. انظر القسم الموجود أدناه للحصول على قائمة كاملة من وسيطات التصدير.
+
+!!! Example "مثال"
+
+ === "Python"
+
+ ```python
+ from ultralytics.utils.benchmarks import benchmark
+
+ # اختبار على وحدة المعالجة الرسومية
+ benchmark(model='yolov8n.pt', data='coco8.yaml', imgsz=640, half=False, device=0)
+ ```
+ === "CLI"
+
+ ```bash
+ yolo benchmark model=yolov8n.pt data='coco8.yaml' imgsz=640 half=False device=0
+ ```
+
+## وسيطات
+
+توفر الوسائط مثل `model` و `data` و `imgsz` و `half` و `device` و `verbose` مرونة للمستخدمين لضبط الاختبارات حسب احتياجاتهم المحددة ومقارنة أداء تنسيقات التصدير المختلفة بسهولة.
+
+| المفتاح | القيمة | الوصف |
+|-----------|---------|---------------------------------------------------------------------------------------------------|
+| `model` | `None` | مسار إلى ملف النموذج ، على سبيل المثال yolov8n.pt ، yolov8n.yaml |
+| `data` | `None` | مسار إلى YAML يشير إلى مجموعة بيانات اختبار الأداء (بتحتوى على بيانات `val`) |
+| `imgsz` | `640` | حجم الصورة كرقم ، أو قائمة (h ، w) ، على سبيل المثال (640، 480) |
+| `half` | `False` | تقليل دقة العدد العشرى للأبعاد (FP16 quantization) |
+| `int8` | `False` | تقليل دقة العدد الصحيح 8 بت (INT8 quantization) |
+| `device` | `None` | الجهاز الذى ستعمل عليه العملية ، على سبيل المثال cuda device=0 أو device=0,1,2,3 أو device=cpu |
+| `verbose` | `False` | عدم المتابعة عند حدوث خطأ (مقدار منطقى)، أو مستوى الكشف عند تجاوز حد القيمة المطلوبة (قيمة عائمة) |
+
+## صيغ التصدير
+
+سيحاول التطبيق تشغيل الاختبارات تلقائيًا على جميع صيغ التصدير الممكنة الموجودة أدناه.
+
+| Format | `format` Argument | Model | Metadata | Arguments |
+|--------------------------------------------------------------------|-------------------|---------------------------|----------|-----------------------------------------------------|
+| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - |
+| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` |
+| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` |
+| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half`, `int8` |
+| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` |
+| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` |
+| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras`, `int8` |
+| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` |
+| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` |
+| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` |
+| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` |
+| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` |
+| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` |
+
+انظر تفاصيل التصدير الكاملة في الصفحة [Export](https://docs.ultralytics.com/modes/export/)
diff --git a/docs/ar/modes/export.md b/docs/ar/modes/export.md
new file mode 100644
index 0000000000..f555ec0599
--- /dev/null
+++ b/docs/ar/modes/export.md
@@ -0,0 +1,108 @@
+---
+comments: true
+description: دليل خطوة بخطوة حول تصدير نماذج YOLOv8 الخاصة بك إلى تنسيقات مختلفة مثل ONNX و TensorRT و CoreML وغيرها للنشر. استكشف الآن!.
+keywords: YOLO، YOLOv8، Ultralytics، تصدير النموذج، ONNX، TensorRT، CoreML، TensorFlow SavedModel، OpenVINO، PyTorch، تصدير النموذج
+---
+
+# تصدير النموذج باستخدام يولو من Ultralytics
+
+
+
+## مقدمة
+
+الهدف النهائي لتدريب نموذج هو نشره لتطبيقات العالم الحقيقي. يوفر وضع التصدير في يولو من Ultralytics مجموعة متنوعة من الخيارات لتصدير النموذج المدرب إلى تنسيقات مختلفة، مما يجعله يمكن استخدامه في مختلف الأنظمة والأجهزة. يهدف هذا الدليل الشامل إلى مساعدتك في فهم تفاصيل تصدير النموذج، ويعرض كيفية تحقيق أقصى توافق وأداء.
+
+
+
+
+
+ شاهد: كيفية تصدير نموذج Ultralytics YOLOv8 التدريب المخصص وتشغيل الاستدلال المباشر على كاميرا الويب.
+
+
+## لماذا اختيار وضع تصدير YOLOv8؟
+
+- **التنوع:** تصدير إلى تنسيقات متعددة بما في ذلك ONNX و TensorRT و CoreML ، وغيرها.
+- **الأداء:** الحصول على سرعة تسريع تصل إلى 5 أضعاف باستخدام TensorRT وسرعة تسريع معالج الكمبيوتر المركزي بنسبة 3 أضعاف باستخدام ONNX أو OpenVINO.
+- **التوافقية:** جعل النموذج قابلاً للنشر على الأجهزة والبرامج المختلفة.
+- **سهولة الاستخدام:** واجهة سطر الأوامر البسيطة وواجهة برمجة Python لتصدير النموذج بسرعة وسهولة.
+
+### الميزات الرئيسية لوضع التصدير
+
+إليك بعض من الميزات المميزة:
+
+- **تصدير بنقرة واحدة:** أوامر بسيطة لتصدير إلى تنسيقات مختلفة.
+- **تصدير الدُفعات:** تصدير نماذج قادرة على العمل مع الدُفعات.
+- **تنفيذ محسَّن:** يتم تحسين النماذج المصدرة لتوفير وقت تنفيذ أسرع.
+- **فيديوهات تعليمية:** مرشدين وفيديوهات تعليمية لتجربة تصدير سلسة.
+
+!!! Tip "نصيحة"
+
+ * صدّر إلى ONNX أو OpenVINO للحصول على تسريع معالج الكمبيوتر المركزي بنسبة 3 أضعاف.
+ * صدّر إلى TensorRT للحصول على تسريع وحدة المعالجة الرسومية بنسبة 5 أضعاف.
+
+## أمثلة للاستخدام
+
+قم بتصدير نموذج YOLOv8n إلى تنسيق مختلف مثل ONNX أو TensorRT. انظر الجدول أدناه للحصول على قائمة كاملة من وسائط التصدير.
+
+!!! Example "مثال"
+
+ === "بايثون"
+
+ ```python
+ from ultralytics import YOLO
+
+ # قم بتحميل نموذج
+ model = YOLO('yolov8n.pt') # تحميل نموذج رسمي
+ model = YOLO('path/to/best.pt') # تحميل نموذج مدرب مخصص
+
+ # قم بتصدير النموذج
+ model.export(format='onnx')
+ ```
+ === "واجهة سطر الأوامر"
+
+ ```bash
+ yolo export model=yolov8n.pt format=onnx # تصدير نموذج رسمي
+ yolo export model=path/to/best.pt format=onnx # تصدير نموذج مدرب مخصص
+ ```
+
+## الوسائط
+
+تشير إعدادات تصدير YOLO إلى التكوينات والخيارات المختلفة المستخدمة لحفظ أو تصدير النموذج للاستخدام في بيئات أو منصات أخرى. يمكن أن تؤثر هذه الإعدادات على أداء النموذج وحجمه وتوافقه مع الأنظمة المختلفة. تشمل بعض إعدادات تصدير YOLO الشائعة تنسيق ملف النموذج المصدر (مثل ONNX وتنسيق TensorFlow SavedModel) والجهاز الذي سيتم تشغيل النموذج عليه (مثل المعالج المركزي أو وحدة المعالجة الرسومية) ووجود ميزات إضافية مثل الأقنعة أو التسميات المتعددة لكل مربع. قد تؤثر عوامل أخرى قد تؤثر عملية التصدير تشمل المهمة النموذجة المحددة التي يتم استخدام النموذج لها ومتطلبات أو قيود البيئة أو المنصة المستهدفة. من المهم أن ننظر بعناية ونقوم بتكوين هذه الإعدادات لضمان أن النموذج المصدر هو محسَّن للحالة الاستخدام المقصودة ويمكن استخدامه بشكل فعال في البيئة المستهدفة.
+
+| المفتاح | القيمة | الوصف |
+|-------------|-----------------|-----------------------------------------------------------------------|
+| `format` | `'torchscript'` | التنسيق المراد تصديره |
+| `imgsz` | `640` | حجم الصورة كمقدار علمي أو قائمة (h ، w) ، على سبيل المثال (640 ، 480) |
+| `keras` | `False` | استخدام Keras لتصدير TF SavedModel |
+| `optimize` | `False` | TorchScript: الأمثل للجوال |
+| `half` | `False` | تكميم FP16 |
+| `int8` | `False` | تكميم INT8 |
+| `dynamic` | `False` | ONNX/TensorRT: المحاور الديناميكية |
+| `simplify` | `False` | ONNX/TensorRT: تبسيط النموذج |
+| `opset` | `None` | ONNX: إصدار opset (اختياري ، الافتراضي هو الأحدث) |
+| `workspace` | `4` | TensorRT: حجم مساحة العمل (GB) |
+| `nms` | `False` | CoreML: إضافة NMS |
+
+## تنسيقات التصدير
+
+صيغ تصدير YOLOv8 المتاحة في الجدول أدناه. يمكنك التصدير إلى أي تنسيق باستخدام الوسيطة `format` ، مثل `format='onnx'` أو `format='engine'`.
+
+| التنسيق | وسيطة format | النموذج | البيانات الوصفية | الوسائط |
+|--------------------------------------------------------------------|---------------|---------------------------|------------------|-----------------------------------------------------|
+| [بايثورش](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - |
+| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `تورتشسيريبت` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` |
+| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` |
+| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half`, `int8` |
+| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` |
+| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` |
+| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras`, `int8` |
+| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` |
+| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` |
+| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` |
+| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` |
+| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` |
+| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` |
diff --git a/docs/ar/modes/index.md b/docs/ar/modes/index.md
new file mode 100644
index 0000000000..5bd4521bd4
--- /dev/null
+++ b/docs/ar/modes/index.md
@@ -0,0 +1,77 @@
+---
+comments: true
+description: من التدريب إلى التتبع، استفد من YOLOv8 مع Ultralytics. احصل على نصائح وأمثلة لكل وضع مدعوم بما في ذلك التحقق والتصدير واختبار الأداء.
+keywords: Ultralytics, YOLOv8, التعلم الآلي، كشف الكائنات، التدريب، التحقق، التنبؤ، التصدير، التتبع، اختبار الأداء
+---
+
+# أوضاع Ultralytics YOLOv8
+
+
+
+## المقدمة
+
+YOLOv8 من Ultralytics ليست مجرد نموذج لكشف الكائنات آخر؛ إنها إطار متعدد الاستخدامات مصمم لتغطية دورة حياة نماذج التعلم الآلي بأكملها - من امتصاص البيانات وتدريب النموذج إلى التحقق والنشر وتتبع الواقع الحقيقي. يخدم كل وضع غرضًا محددًا وهو مصمم لتوفير المرونة والكفاءة المطلوبة للمهام والحالات الاستخدام المختلفة.
+
+!!! Note
+
+ 🚧 توثيقنا متعدد اللغات قيد الإنشاء حاليًا، ونحن نعمل بجهد لتحسينه. شكرًا لك على صبرك! 🙏
+
+
+
+
+
+ شاهد: برنامج التعليم Ultralytics: تدريب، التحقق، التنبؤ، التصدير، واختبار الأداء.
+
+
+### أوضاع مختصرة
+
+فهم ال**أوضاع** المختلفة المدعومة بواسطة Ultralytics YOLOv8 مهم جدًا للاستفادة القصوى من النماذج الخاصة بك:
+
+- وضع **التدريب**: قم بضبط نموذجك على مجموعة بيانات مخصصة أو محملة مسبقًا.
+- وضع **التحقق**: نقطة فحص بعد التدريب لتقييم أداء النموذج.
+- وضع **التنبؤ**: اطلق قوة التنبؤ الخاصة بنموذجك على البيانات الحقيقية.
+- وضع **التصدير**: قم بتجهيز نموذجك للاستخدام في صيغ مختلفة.
+- وضع **التتبع**: قم بتوسيع نموذج الكشف عن الكائنات الخاص بك إلى تطبيقات التتبع في الوقت الحقيقي.
+- وضع **اختبار الأداء**: قم بتحليل سرعة ودقة نموذجك في بيئات نشر متنوعة.
+
+يهدف هذا الدليل الشامل إلى تقديم لمحة عامة ونصائح عملية حول كل وضع، لمساعدتك في استغلال كامل إمكانات YOLOv8.
+
+## [وضع التدريب](train.md)
+
+يتم استخدام وضع التدريب لتدريب نموذج YOLOv8 على مجموعة بيانات مخصصة. في هذا الوضع، يتم تدريب النموذج باستخدام مجموعة البيانات والمعلمات الهايبر للحصول على دقة في توقع الفئات ومواقع الكائنات في الصورة.
+
+[أمثلة التدريب](train.md){ .md-button .md-button--primary}
+
+## [وضع التحقق](val.md)
+
+يتم استخدام وضع التحقق للتحقق من نموذج YOLOv8 بعد تدريبه. في هذا الوضع، يتم تقييم النموذج على مجموعة التحقق لقياس دقته وأداء التعميم. يمكن استخدام هذا الوضع لتعديل المعلمات الهايبر للنموذج لتحسين أدائه.
+
+[أمثلة التحقق](val.md){ .md-button .md-button--primary}
+
+## [وضع التنبؤ](predict.md)
+
+يتم استخدام وضع التنبؤ لإجراء تنبؤات باستخدام نموذج YOLOv8 المدرب على صور أو فيديوهات جديدة. في هذا الوضع، يتم تحميل النموذج من ملف الفحص، ويمكن للمستخدم توفير الصور أو مقاطع الفيديو لإجراء استدلال. يقوم النموذج بتوقع الفئات ومواقع الكائنات في الصور أو مقاطع الفيديو المدخلة.
+
+[أمثلة التنبؤ](predict.md){ .md-button .md-button--primary}
+
+## [وضع التصدير](export.md)
+
+يتم استخدام وضع التصدير لتصدير نموذج YOLOv8 إلى صيغة يمكن استخدامها للنشر. في هذا الوضع، يتم تحويل النموذج إلى صيغة يمكن استخدامها من قبل تطبيقات البرامج الأخرى أو الأجهزة الأجهزة. يكون هذا الوضع مفيدًا عند نشر النموذج في بيئات الإنتاج.
+
+[أمثلة التصدير](export.md){ .md-button .md-button--primary}
+
+## [وضع التتبع](track.md)
+
+يتم استخدام وضع التتبع لتتبع الكائنات في الوقت الحقيقي باستخدام نموذج YOLOv8. في هذا الوضع، يتم تحميل النموذج من ملف الفحص، ويمكن للمستخدم توفير تيار فيديو مباشر لأداء تتبع الكائنات في الوقت الفعلي. يكون هذا الوضع مفيدًا لتطبيقات مثل أنظمة المراقبة أو السيارات ذاتية القيادة.
+
+[أمثلة التتبع](track.md){ .md-button .md-button--primary}
+
+## [وضع اختبار الأداء](benchmark.md)
+
+يتم استخدام وضع اختبار الأداء لتقييم سرعة ودقة صيغ التصدير المختلفة لـ YOLOv8. تقدم الاختبارات معلومات حول حجم الصيغة المصدر، معيار الأداء `mAP50-95` (لكشف الكائنات والتقسيم والتصوير) أو المعيار `accuracy_top5` (للتصنيف)، ووقت الاستدلال بالملي ثانية لكل صورة في صيغ التصدير المختلفة مثل ONNX و OpenVINO و TensorRT وغيرها. يمكن لهذه المعلومات مساعدة المستخدمين على اختيار صيغة التصدير الأمثل لحالتهم الاستخدامية المحددة بناءً على متطلبات السرعة والدقة.
+
+[أمثلة اختبار الأداء](benchmark.md){ .md-button .md-button--primary}
diff --git a/docs/ar/modes/predict.md b/docs/ar/modes/predict.md
new file mode 100644
index 0000000000..69a9cb8b4a
--- /dev/null
+++ b/docs/ar/modes/predict.md
@@ -0,0 +1,217 @@
+---
+comments: true
+description: اكتشف كيفية استخدام وضع التنبؤ YOLOv8 لمهام مختلفة. تعرّف على مصادر التنبؤ المختلفة مثل الصور ومقاطع الفيديو وتنسيقات البيانات المختلفة.
+keywords: Ultralytics، YOLOv8، وضع التنبؤ، مصادر التنبؤ، مهام التنبؤ، وضع التدفق، معالجة الصور، معالجة الفيديو، التعلم الآلي، الذكاء الاصطناعي
+---
+
+# التنبؤ بالنموذج باستخدام Ultralytics YOLO
+
+
+
+## المقدمة
+
+في عالم التعلم الآلي ورؤية الحاسوب، يُطلق على عملية استخلاص المعنى من البيانات البصرية اسم "الاستدلال" أو "التنبؤ". يوفر YOLOv8 من Ultralytics ميزة قوية تُعرف بـ**وضع التنبؤ** والتي تم تصميمها خصيصًا للاستدلال في الوقت الحقيقي وبأداء عال على مجموعة واسعة من مصادر البيانات.
+
+
+
+
+
+ شاهد: كيفية استخراج النتائج من نموذج Ultralytics YOLOv8 لمشاريع مخصصة.
+
+
+## التطبيقات في العالم الحقيقي
+
+| التصنيع | الرياضة | السلامة |
+|:-------------------------------------------------:|:----------------------------------------------------:|:-------------------------------------------:|
+| ![Vehicle Spare Parts Detection][car spare parts] | ![Football Player Detection][football player detect] | ![People Fall Detection][human fall detect] |
+| كشف قطع غيار المركبات | كشف لاعبي كرة القدم | كشف سقوط الأشخاص |
+
+## لماذا يجب استخدام Ultralytics YOLO لعمليات التنبؤ؟
+
+فيما يلي الأسباب التي يجب أخذها في الاعتبار عند الاستفادة من وضع التنبؤ YOLOv8 لاحتياجات التنبؤ المختلفة:
+
+- **التنوع:** قادر على التنبؤ على الصور ومقاطع الفيديو، وحتى التدفقات الحية.
+- **الأداء:** مصمم للتطبيقات في الوقت الحقيقي والمعالجة عالية السرعة دون التضحية بالدقة.
+- **سهولة الاستخدام:** واجهات Python والواجهة السطرية لتسريع النشر والاختبار.
+- **قابلية التخصيص العالية:** إعدادات ومعلمات مختلفة لضبط سلوك التنبؤ النموذج وفقًا لمتطلباتك المحددة.
+
+### الميزات الرئيسية لوضع التنبؤ
+
+تم تصميم وضع التنبؤ الخاص بـ YOLOv8 ليكون قويًا ومتعدد الاستخدامات، ويتميز بما يلي:
+
+- **توافق متعدد مصادر البيانات:** سواء كانت بياناتك عبارة عن صور فردية أو مجموعة من الصور أو ملفات فيديو أو تدفقات فيديو في الوقت الحقيقي، سيتمكن وضع التنبؤ من التعامل معها جميعًا.
+- **وضع التدفق الحي:** استخدم ميزة التدفق لإنشاء مولد فعّال لكائنات "النتائج" باستخدام الذاكرة. قم بتمكين هذا بتعيين `stream=True` في طريقة استدعاء المتنبئ.
+- **معالجة دُفعات:** القدرة على معالجة العديد من الصور أو إطارات الفيديو في دُفعة واحدة، مما يزيد أكثر من سرعة التنبؤ.
+- **سهل التكامل:** يسهل الدمج مع خطوط الأنابيب البيانية الحالية ومكونات البرامج الأخرى بفضل واجهة برمجة التطبيقات المرنة.
+
+تُرجع نماذج Ultralytics YOLO إما قائمة Python من كائنات "النتائج" أو مُنشئ برمجياً فعّال لكائنات الـ "النتائج" في حال تم تمرير `stream=True` إلى النموذج أثناء عملية التنبؤ:
+
+!!! Example "التنبؤ"
+
+ === "العودة بقائمة واحدة باستخدام `stream=False`"
+ ```python
+ from ultralytics import YOLO
+
+ # تحميل نموذج
+ model = YOLO('yolov8n.pt') # نموذج YOLOv8n المُدرَّب مسبقًا
+
+ # تشغيل التنبؤ بدُفعة على قائمة من الصور
+ results = model(['im1.jpg', 'im2.jpg']) # العودة بقائمة من كائنات 'النتائج'
+
+ # معالجة قائمة النتائج
+ for result in results:
+ boxes = result.boxes # كائن Boxes لمخرجات bbox
+ masks = result.masks # كائن Masks لمخرجات قنوات الفصل العنقودي
+ keypoints = result.keypoints # كائن Keypoints لمخرجات الاتجاهات
+ probs = result.probs # كائن Probs لمخرجات التصنيف
+ ```
+
+ === "العودة بمُنشئ فعال مع `stream=True`"
+ ```python
+ from ultralytics import YOLO
+
+ # تحميل نموذج
+ model = YOLO('yolov8n.pt') # نموذج YOLOv8n المُدرَّب مسبقًا
+
+ # تشغيل التنبؤ بدُفعة على قائمة من الصور
+ results = model(['im1.jpg', 'im2.jpg'], stream=True) # العودة بمُنشئ فعال لكائنات 'النتائج'
+
+ # معالجة المُنشئ الفعال
+ for result in results:
+ boxes = result.boxes # كائن Boxes لمخرجات bbox
+ masks = result.masks # كائن Masks لمخرجات قنوات الفصل العنقودي
+ keypoints = result.keypoints # كائن Keypoints لمخرجات الاتجاهات
+ probs = result.probs # كائن Probs لمخرجات التصنيف
+ ```
+
+## مصادر التنبؤ
+
+يمكن لـ YOLOv8 معالجة أنواع مختلفة من مصادر الإدخال لعملية الاستدلال، على النحو الموضح في الجدول أدناه. تشمل المصادر الصور الثابتة وتيارات الفيديو وتنسيقات مختلفة للبيانات. يشير الجدول أيضًا إلى ما إذا كان يمكن استخدام كل مصدر في وضع التدفق باستخدام الوسيط `stream=True` ✅. يعتبر وضع التدفق مفيدًا لمعالجة مقاطع الفيديو أو التدفقات الحية حيث يقوم بإنشاء مُنشئ للنتائج بدلاً من تحميل جميع الإطارات في الذاكرة.
+
+!!! Tip "طراز"
+
+ استخدم `stream=True` لمعالجة مقاطع الفيديو الطويلة أو مجموعات البيانات الكبيرة لإدارة الذاكرة بكفاءة. عندما تكون القيمة مساوية لـ `stream=False`، يتم تخزين النتائج لجميع الإطارات أو نقاط البيانات في الذاكرة، والتي يمكن أن تتراكم بسرعة وتُسبِّب أخطاء الذاكرة غير الكافية للمدخلات الكبيرة. على النقيض من ذلك، يستخدم التدفق `stream=True` مولدًا يُبقي نتائج الإطار الحالي أو نقطة البيانات الحالية في الذاكرة فقط، مما يقلل بشكل كبير من استهلاك الذاكرة ويمنع مشكلات عدم كفاية الذاكرة.
+
+| مصدر | الوسيط | النوع | الملاحظات |
+|------------------|--------------------------------------------|-----------------|----------------------------------------------------------------------------------------------|
+| صورة | `'صورة.jpg'` | `str` or `Path` | ملف صورة واحدة. |
+| رابط URL | `'https://ultralytics.com/images/bus.jpg'` | `str` | رابط URL لصورة ما. |
+| لقطة شاشة برمجية | `'الشاشة'` | `str` | قم بالتقاط لقطة شاشة برمجية. |
+| PIL | `Image.open('im.jpg')` | `PIL.Image` | الصيغة HWC مع قنوات RGB. |
+| OpenCV | `cv2.imread('im.jpg')` | `np.ndarray` | الصيغة HWC مع قنوات BGR `uint8 (0-255)`. |
+| numpy | `np.zeros((640,1280,3))` | `np.ndarray` | الصيغة HWC مع قنوات BGR `uint8 (0-255)`. |
+| torch | `torch.zeros(16,3,320,640)` | `torch.Tensor` | الصيغة BCHW مع قنوات RGB `float32 (0.0-1.0)`. |
+| CSV | `'المصادر.csv'` | `str` or `Path` | ملف CSV يحتوي على مسارات الصور أو مقاطع الفيديو أو المجلدات. |
+| فيديو ✅ | `'الفيديو.mp4'` | `str` or `Path` | ملف فيديو بتنسيقات مثل MP4 و AVI وما إلى ذلك. |
+| الدليل ✅ | `'المسار/'` | `str` or `Path` | مسار إلى مجلد يحتوي على صور أو مقاطع فيديو. |
+| glob ✅ | `'المسار/*.jpg'` | `str` | نمط glob لمطابقة عدة ملفات. استخدم حرف `*` كحرطوم. |
+| يوتيوب ✅ | `'https://youtu.be/LNwODJXcvt4'` | `str` | رابط URL إلى فيديو يوتيوب. |
+| تدفق ✅ | `'rtsp://example.com/media.mp4'` | `str` | عنوان URL لبروتوكولات التدفق مثل RTSP و RTMP و TCP أو عنوان IP. |
+| تدفق متعدد ✅ | `'list.streams'` | `str` or `Path` | ملف نصي `*.streams` مع عنوان تدفق URL في كل صف، على سبيل المثال 8 تدفقات ستعمل بحجم دُفعة 8. |
+
+فيما يلي أمثلة تعليمات برمجية لاستخدام كل نوع من مصدر:
+
+!!! Example "مصادر التنبؤ"
+
+ === "الصورة"
+ قم بأجراء عملية التنبؤ على ملف صورة.
+ ```python
+ from ultralytics import YOLO
+
+ # تحميل نموذج YOLOv8n المدرب مسبقًا
+ model = YOLO('yolov8n.pt')
+
+ # تنشيط عملية التنبؤ لملف الصورة
+ source = 'المسار/إلى/الصورة.jpg'
+
+ # الجمع بين التنبؤ على المصدر
+ results = model(source) # قائمة كائنات النتائج
+ ```
+
+ === "لقطة شاشة برمجية"
+ قم بأجراء عملية التنبؤ على محتوى الشاشة الحالي كلقطة شاشة.
+ ```python
+ from ultralytics import YOLO
+
+ # تحميل نموذج YOLOv8n المدرب مسبقًا
+ model = YOLO('yolov8n.pt')
+
+ # تعريف اللقطة الحالية كمصدر
+ source = 'الشاشة'
+
+ # الجمع بين التنبؤ على المصدر
+ results = model(source) # قائمة كائنات النتائج
+ ```
+
+ === "رابط URL"
+ قم بأجراء عملية التنبؤ على صورة موجودة على الإنترنت أو فيديو.
+ ```python
+ from ultralytics import YOLO
+
+ # تحميل نموذج YOLOv8n المدرب مسبقًا
+ model = YOLO('yolov8n.pt')
+
+ # تعريف رابط الصورة أو الفيديو على الإنترنت
+ source = 'https://ultralytics.com/images/bus.jpg'
+
+ # الجمع بين التنبؤ على المصدر
+ results = model(source) # قائمة كائنات النتائج
+ ```
+
+ === "PIL"
+ قم بأجراء عملية التنبؤ على صورة مفتوحة بواسطة مكتبة Python Imaging Library (PIL).
+ ```python
+ from PIL import Image
+ from ultralytics import YOLO
+
+ # تحميل نموذج YOLOv8n المدرب مسبقًا
+ model = YOLO('yolov8n.pt')
+
+ # فتح صورة باستخدام PIL
+ source = Image.open('المسار/إلى/الصورة.jpg')
+
+ # الجمع بين التنبؤ على المصدر
+ results = model(source) # قائمة كائنات النتائج
+ ```
+
+ === "OpenCV"
+ قم بأجراء عملية التنبؤ على صورة مُقروءة بواسطة OpenCV.
+ ```python
+ import cv2
+ from ultralytics import YOLO
+
+ # تحميل نموذج YOLOv8n المدرب مسبقًا
+ model = YOLO('yolov8n.pt')
+
+ # قراءة صورة باستخدام OpenCV
+ source = cv2.imread('المسار/إلى/الصورة.jpg')
+
+ # الجمع بين التنبؤ على المصدر
+ results = model(source) # قائمة كائنات النتائج
+ ```
+
+ === "numpy"
+ قم بأجراء عملية التنبؤ على صورة مُمثلة كمصفوفة numpy.
+ ```python
+ import numpy as np
+ from ultralytics import YOLO
+
+ # تحميل نموذج YOLOv8n المدرب مسبقًا
+ model = YOLO('yolov8n.pt')
+
+ # إنشاء مصفوفة numpy عشوائية في صيغة HWC (640, 640, 3) بقيم بين [0, 255] ونوع uint8
+ source = np.random.randint(low=0, high=255, size=(640, 640, 3), dtype='uint8')
+
+ # الجمع بين التنبؤ على المصدر
+ results = model(source) # قائمة كائنات النتائج
+ ```
+
+[car spare parts]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/a0f802a8-0776-44cf-8f17-93974a4a28a1
+
+[football player detect]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/7d320e1f-fc57-4d7f-a691-78ee579c3442
+
+[human fall detect]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/86437c4a-3227-4eee-90ef-9efb697bdb43
diff --git a/docs/ar/modes/track.md b/docs/ar/modes/track.md
new file mode 100644
index 0000000000..5300ecfb80
--- /dev/null
+++ b/docs/ar/modes/track.md
@@ -0,0 +1,360 @@
+---
+comments: true
+description: تعرف على كيفية استخدام Ultralytics YOLO لتتبع الكائنات في تدفقات الفيديو. أدلة لاستخدام مختلف المتتبعين وتخصيص إعدادات المتتبع.
+keywords: Ultralytics، YOLO، تتبع الكائنات، تدفقات الفيديو، BoT-SORT، ByteTrack، دليل Python، دليل خط الأوامر (CLI)
+---
+
+# تتبع عدة كائنات باستخدام Ultralytics YOLO
+
+
+
+يعد تتبع الكائنات في مجال تحليل الفيديو مهمة حرجة ليس فقط في تحديد موقع وفئة الكائنات داخل الإطار، ولكن أيضًا في الحفاظ على هوية فريدة لكل كائن يتم اكتشافه مع تقدم الفيديو. تكاد التطبيقات لا تعد ولا تحصى - تتراوح من المراقبة والأمان إلى تحليل الرياضة الفورية.
+
+## لماذا يجب اختيار Ultralytics YOLO لتتبع الكائنات؟
+
+إن مخرجات المتتبعين في Ultralytics متسقة مع كشف الكائنات القياسي ولها قيمة مضافة من هويات الكائنات. هذا يجعل من السهل تتبع الكائنات في تدفقات الفيديو وأداء التحليلات التالية. إليك لماذا يجب أن تفكر في استخدام Ultralytics YOLO لتلبية احتياجات تتبع الكائنات الخاصة بك:
+
+- **الكفاءة:** معالجة تدفقات الفيديو في الوقت الحقيقي دون المساومة على الدقة.
+- **المرونة:** يدعم العديد من خوارزميات التتبع والتكوينات.
+- **سهولة الاستخدام:** واجهة برمجة تطبيقات بسيطة للغاية وخيارات سطر الأوامر للاستدماج السريع والنشر.
+- **إمكانية التخصيص:** سهل الاستخدام مع نماذج YOLO مدربة مخصصة، مما يسمح بالاكتمال في التطبيقات ذات النطاق الخاص.
+
+
+
+
+
+ شاهد: كشف الكائنات وتتبعها باستخدام Ultralytics YOLOv8.
+
+
+## تطبيقات في العالم الحقيقي
+
+| النقل | البيع بالتجزئة | الاستزراع المائي |
+|:----------------------------------:|:--------------------------------:|:----------------------------:|
+| ![Vehicle Tracking][vehicle track] | ![People Tracking][people track] | ![Fish Tracking][fish track] |
+| تتبع المركبات | تتبع الأشخاص | تتبع الأسماك |
+
+## ملامح بلمحة
+
+يوفر Ultralytics YOLO ميزات كشف الكائنات لتوفير تتبع فعال ومتعدد الاستخدامات للكائنات:
+
+- **تتبع فوري:** تتبع الكائنات بسلاسة في مقاطع الفيديو ذات معدل الإطارات العالي.
+- **دعم عدة متتبعين:** اختيار بين مجموعة متنوعة من خوارزميات التتبع المعتمدة.
+- **تخصيص تكوينات المتتبع المتاحة:** ضبط خوارزمية التتبع لتلبية المتطلبات المحددة عن طريق ضبط مختلف المعلمات.
+
+## متتبعون متاحون
+
+يدعم Ultralytics YOLO الخوارزميات التالية للتتبع. يمكن تمكينها عن طريق تمرير ملف تكوين YAML ذي الصلة مثل "tracker=tracker_type.yaml":
+
+* [BoT-SORT](https://github.com/NirAharon/BoT-SORT) - استخدم `botsort.yaml` لتمكين هذا المتتبع.
+* [ByteTrack](https://github.com/ifzhang/ByteTrack) - استخدم `bytetrack.yaml` لتمكين هذا المتتبع.
+
+المتتبع الافتراضي هو BoT-SORT.
+
+## تتبع
+
+لتشغيل المتتبع على تدفقات الفيديو، استخدم نموذج تحديد (Detect) أو قطع (Segment) أو وضع (Pose) مدرب مثل YOLOv8n و YOLOv8n-seg و YOLOv8n-pose.
+
+!!! Example "مثال"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # قم بتحميل نموذج رسمي أو مخصص
+ model = YOLO('yolov8n.pt') # قم بتحميل نموذج رسمي Detect
+ model = YOLO('yolov8n-seg.pt') # قم بتحميل نموذج رسمي Segment
+ model = YOLO('yolov8n-pose.pt') # قم بتحميل نموذج رسمي Pose
+ model = YOLO('path/to/best.pt') # قم بتحميل نموذج مخصص مدرب
+
+ # قم بتنفيذ التتبع باستخدام النموذج
+ results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True) # التتبع باستخدام المتتبع الافتراضي
+ results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True, tracker="bytetrack.yaml") # التتبع باستخدام متتبع ByteTrack
+ ```
+
+ === "CLI"
+
+ ```bash
+ # قم بتنفيذ التتبع باستخدام مختلف النماذج باستخدام واجهة سطر الأوامر
+ yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" # نموذج Detect رسمي
+ yolo track model=yolov8n-seg.pt source="https://youtu.be/LNwODJXcvt4" # نموذج Segment رسمي
+ yolo track model=yolov8n-pose.pt source="https://youtu.be/LNwODJXcvt4" # نموذج Pose رسمي
+ yolo track model=path/to/best.pt source="https://youtu.be/LNwODJXcvt4" # تم تدريب نموذج مخصص
+
+ # تتبع عن طريق ByteTrack متتبع
+ yolo track model=path/to/best.pt tracker="bytetrack.yaml"
+ ```
+
+كما يظهر في الاستخدام أعلاه، يتوفر التتبع لجميع نماذج Detect و Segment و Pose التي تعمل على مقاطع الفيديو أو مصادر البث.
+
+## الاعدادات
+
+### معاملات التتبع
+
+تتشارك إعدادات التتبع الخصائص مع وضع التوقعات (Predict)، مثل `conf` و `iou` و `show`. للحصول على مزيد من التكوينات، راجع صفحة النموذج [Predict](../modes/predict.md#inference-arguments).
+
+!!! Example "مثال"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # قم بتكوين معلمات التتبع وقم بتشغيل التتبع
+ model = YOLO('yolov8n.pt')
+ results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True)
+ ```
+
+ === "CLI"
+
+ ```bash
+ # قم بتكوين معلمات التتبع وقم بتشغيل التتبع باستخدام واجهة سطر الأوامر
+ yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3, iou=0.5 show
+ ```
+
+### اختيار المتتبع
+
+يتيح لك Ultralytics أيضًا استخدام ملف تكوين متتبع معدل. للقيام بذلك، أنقل نسخة من ملف تكوين المتتبع (مثل `custom_tracker.yaml`) من [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) وقم بتعديل أي تكوينات (باستثناء `tracker_type`) حسب احتياجاتك.
+
+!!! Example "مثال"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # قم بتحميل النموذج وتشغيل التتبع باستخدام ملف تكوين مخصص
+ model = YOLO('yolov8n.pt')
+ results = model.track(source="https://youtu.be/LNwODJXcvt4", tracker='custom_tracker.yaml')
+ ```
+
+ === "CLI"
+
+ ```bash
+ # قم بتحميل النموذج وتشغيل التتبع باستخدام ملف تكوين مخصص باستخدام واجهة سطر الأوامر
+ yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" tracker='custom_tracker.yaml'
+ ```
+
+للحصول على قائمة شاملة من وسائط تتبع، راجع الصفحة [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers).
+
+## أمثلة Python
+
+### الحفاظ على المسارات التكرارية
+
+فيما يلي سكريبت Python باستخدام OpenCV (cv2) و YOLOv8 لتشغيل تتبع الكائنات على إطارات الفيديو. يفترض هذا السكريبت أنك قد قمت بالفعل بتثبيت الحزم اللازمة (opencv-python و ultralytics). المعامل `persist=True` يخبر المتتبع أن الصورة الحالية أو الإطار التالي في التسلسل ومن المتوقع أن يتوفر مسارات من الصورة السابقة في الصورة الحالية.
+
+!!! Example "For-loop للتدفق مع التتبع"
+
+ ```python
+ import cv2
+ from ultralytics import YOLO
+
+ # حمّل نموذج YOLOv8
+ model = YOLO('yolov8n.pt')
+
+ # افتح ملف الفيديو
+ video_path = "path/to/video.mp4"
+ cap = cv2.VideoCapture(video_path)
+
+ # تحلق عبر إطارات الفيديو
+ while cap.isOpened():
+ # قراءة الإطار من الفيديو
+ success, frame = cap.read()
+
+ if success:
+ # تشغيل تتبع YOLOv8 على الإطار ، وحفظ المسارات بين الإطارات
+ results = model.track(frame, persist=True)
+
+ # تصور النتائج على الإطار
+ annotated_frame = results[0].plot()
+
+ # عرض الإطار المعلق
+ cv2.imshow("YOLOv8 Tracking", annotated_frame)
+
+ # كسر اللوب في حالة الضغط على 'q'
+ if cv2.waitKey(1) & 0xFF == ord("q"):
+ break
+ else:
+ # كسر اللوب في نهاية الفيديو
+ break
+
+ # إطلاق كائن التقاط الفيديو وإغلاق نافذة العرض
+ cap.release()
+ cv2.destroyAllWindows()
+ ```
+
+يرجى ملاحظة التغيير من `model(frame)` إلى `model.track(frame)` ، مما يمكن التتبع بدلاً من الكشف البسيط. سيتم تشغيل البرنامج المعدل على كل إطار فيديو وتصور النتائج وعرضها في نافذة. يمكن الخروج من الحلقة عن طريق الضغط على 'q'.
+
+### رسم المسارات عبر الوقت
+
+يمكن أن يوفر رسم المسارات الكائنية عبر الإطارات المتتالية إشارات قيمة حول أنماط الحركة والسلوك للكائنات المكتشفة في الفيديو. باستخدام Ultralytics YOLOv8 ، يعد تصوير هذه المسارات عملية سلسة وفعالة.
+
+في المثال التالي ، نوضح كيفية استخدام قدرات يوكو 8 YOLO لتتبع الكائنات لرسم حركة الكائنات المكتشفة عبر إطارات الفيديو المتعددة. يتضمن هذا البرنامج فتح ملف فيديو وقراءته إطارًا بإطار ، واستخدام نموذج YOLO لتحديد وتتبع العديد من الكائنات. عن طريق الاحتفاظ بنقاط الوسط لمربعات الحدود المكتشفة وتوصيلها ، يمكننا رسم خطوط تمثل المسارات التي تم اتباعها بواسطة الكائنات التي تمت متابعتها.
+
+!!! Example "رسم المسارات عبر إطارات الفيديو المتعددة"
+
+ ```python
+ from collections import defaultdict
+
+ import cv2
+ import numpy as np
+
+ from ultralytics import YOLO
+
+ # حمّل نموذج YOLOv8
+ model = YOLO('yolov8n.pt')
+
+ # افتح ملف الفيديو
+ video_path = "path/to/video.mp4"
+ cap = cv2.VideoCapture(video_path)
+
+ # احفظ تاريخ المسارات
+ track_history = defaultdict(lambda: [])
+
+ # تحلق عبر إطارات الفيديو
+ while cap.isOpened():
+ # قراءة الإطار من الفيديو
+ success, frame = cap.read()
+
+ if success:
+ # تشغيل تتبع YOLOv8 على الإطار ، وحفظ المسارات بين الإطارات
+ results = model.track(frame, persist=True)
+
+ # الحصول على المربعات ومعرفات المسار
+ boxes = results[0].boxes.xywh.cpu()
+ track_ids = results[0].boxes.id.int().cpu().tolist()
+
+ # تصور النتائج على الإطار
+ annotated_frame = results[0].plot()
+
+ # رسم المسارات
+ for box, track_id in zip(boxes, track_ids):
+ x, y, w, h = box
+ track = track_history[track_id]
+ track.append((float(x), float(y))) # x, y نقطة الوسط
+ if len(track) > 30: # احتفظ بـ 90 مسارًا لـ 90 إطارًا
+ track.pop(0)
+
+ # رسم خطوط التتبع
+ points = np.hstack(track).astype(np.int32).reshape((-1, 1, 2))
+ cv2.polylines(annotated_frame, [points], isClosed=False, color=(230, 230, 230), thickness=10)
+
+ # عرض الإطار المعلق
+ cv2.imshow("YOLOv8 Tracking", annotated_frame)
+
+ # كسر اللوب في حالة الضغط على 'q'
+ if cv2.waitKey(1) & 0xFF == ord("q"):
+ break
+ else:
+ # كسر اللوب في نهاية الفيديو
+ break
+
+ # إطلاق كائن التقاط الفيديو وإغلاق نافذة العرض
+ cap.release()
+ cv2.destroyAllWindows()
+ ```
+
+### التتبع متعدد الخيوط
+
+يوفر التتبع متعدد الخيوط القدرة على تشغيل تتبع الكائنات على عدة تدفقات فيديو في وقت واحد. هذا مفيد بشكل خاص عند التعامل مع مدخلات فيديو متعددة ، مثل من كاميرات المراقبة المتعددة ، حيث يمكن أن يعزز المعالجة المتزامنة الكفاءة والأداء بشكل كبير.
+
+في السكريبت البايثون المقدم ، نستخدم وحدة `threading` في Python لتشغيل عدة نسخ متزامنة من المتتبع. يكون لكل موضوع مسؤولية تشغيل المتتبع على ملف فيديو واحد ، وتعمل جميع الخيوط في الخلفية في نفس الوقت.
+
+للتأكد من أن كل خيط يتلقى المعلمات الصحيحة (ملف الفيديو والنموذج المستخدم وفهرس الملف) ، نحدد وظيفة `run_tracker_in_thread` التي تقبل هذه المعلمات وتحتوي على حلقة المتابعة الرئيسية. هذه الوظيفة تقرأ إطار الفيديو الخاصة بالفيديو مباشرة من مصدر الملف الواحد ، وتشغيل المتتبع ، وعرض النتائج.
+
+تستخدم في هذا المثال نموذجين مختلفين: 'yolov8n.pt' و 'yolov8n-seg.pt' ، يقوم كل منهما بتتبع الكائنات في ملف فيديو مختلف. تم تحديد ملفات الفيديو في `video_file1` و `video_file2`.
+
+تعديل معلمات `daemon=True` في `threading.Thread` يعني أن هذه الخيوط ستتم إغلاقها بمجرد انتهاء البرنامج الرئيسي. ثم نبدأ الخيوط باستخدام `start ()` واستخدم `join ()` لجعل الخيط الرئيسي ينتظر حتى ينتهي خيطي المتتبع.
+
+أخيرًا ، بعد اكتمال جميع الخيوط لمهمتها ، يتم إغلاق النوافذ التي تعرض النتائج باستخدام `cv2.destroyAllWindows()`.
+
+!!! Example "Streaming for-loop with tracking"
+
+ ```python
+ import threading
+ import cv2
+ from ultralytics import YOLO
+
+
+ def run_tracker_in_thread(filename, model, file_index):
+ """
+ يشغل ملف فيديو أو مصدر تيار الكاميرا بالتزامن مع YOLOv8 النموذج باستخدام تعدد الخيوط.
+
+ هذه الوظيفة تلتقط إطارات الفيديو من ملف أو مصدر الكاميرا المعروف ، وتستخدم نموذج YOLOv8 لتتبع الكائنات.
+ يعمل البرنامج في خيطه الخاص للمعالجة المتزامنة.
+
+ Args:
+ filename (str): مسار ملف الفيديو أو معرف مصدر كاميرا الويب / خارجية.
+ model (obj): كائن نموذج YOLOv8.
+ file_index (int): مؤشر لتحديد الملف بشكل فريد ، يُستخدم لأغراض العرض.
+
+ ملاحظة:
+ اضغط على 'q' لإنهاء نافذة عرض الفيديو.
+ """
+ video = cv2.VideoCapture(filename) # قراءة ملف الفيديو
+
+ while True:
+ ret, frame = video.read() # قراءة إطارات الفيديو
+
+ # إنهاء الدورة إذا لم يتبقى إطارات على الفيديوين
+ if not ret:
+ break
+
+ # تتبع كائنات في الإطارات إذا توفرت
+ results = model.track(frame, persist=True)
+ res_plotted = results[0].plot()
+ cv2.imshow(f"Tracking_Stream_{file_index}", res_plotted)
+
+ key = cv2.waitKey(1)
+ if key == ord('q'):
+ break
+
+ # إطلاق مصدري الفيديو
+ video.release()
+
+
+ # حمّل النماذج
+ model1 = YOLO('yolov8n.pt')
+ model2 = YOLO('yolov8n-seg.pt')
+
+ # حدد ملفات الفيديو للمتابعين
+ video_file1 = "path/to/video1.mp4" # مسار ملف الفيديو ، 0 لكاميرا الويب
+ video_file2 = 0 # مسار ملف الفيديو ، 0 لكاميرا الويب ، 1 لكاميرا خارجية
+
+ # إنشاء خيوط المتابع
+ tracker_thread1 = threading.Thread(target=run_tracker_in_thread, args=(video_file1, model1 ,1), daemon=True)
+ tracker_thread2 = threading.Thread(target=run_tracker_in_thread, args=(video_file2, model2, 2), daemon=True)
+
+ # بدء خيوط المتابع
+ tracker_thread1.start()
+ tracker_thread2.start()
+
+ # انتظر حتى ينتهي خيط المتابع
+ tracker_thread1.join()
+ tracker_thread2.join()
+
+ # Clean up and close windows
+ cv2.destroyAllWindows()
+ ```
+
+يمكن بسهولة توسيع هذا المثال للتعامل مع ملفات فيديو ونماذج أخرى من خلال إنشاء مزيد من الخيوط وتطبيق نفس المنهجية.
+
+## المساهمة في المتتبعون الجديدون
+
+هل أنت ماهر في التتبع متعدد الكائنات وقد نفذت أو صيغت بنجاح خوارزمية تتبع باستخدام Ultralytics YOLO؟ ندعوك للمشاركة في قسم المتتبعين لدينا في [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers)! قد تكون التطبيقات في العالم الحقيقي والحلول التي تقدمها لا تقدر بثمن للمستخدمين العاملين على مهام التتبع.
+
+من خلال المساهمة في هذا القسم ، تساعد في توسيع نطاق حلول التتبع المتاحة في إطار Ultralytics YOLO ، مضيفًا طبقة أخرى من الوظائف والفعالية للمجتمع.
+
+لبدء المساهمة ، يرجى الرجوع إلى [دليل المساهمة الخاص بنا](https://docs.ultralytics.com/help/contributing) للحصول على تعليمات شاملة حول تقديم طلب سحب (PR) 🛠️. نتطلع بشكل كبير إلى ما ستجلبه للطاولة!
+
+لنعزز معًا قدرات عملية التتبع لأجهزة Ultralytics YOLO 🙏!
+
+[vehicle track]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/ee6e6038-383b-4f21-ac29-b2a1c7d386ab
+
+[people track]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/93bb4ee2-77a0-4e4e-8eb6-eb8f527f0527
+
+[fish track]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/a5146d0f-bfa8-4e0a-b7df-3c1446cd8142
diff --git a/docs/ar/modes/train.md b/docs/ar/modes/train.md
new file mode 100644
index 0000000000..fc1e5932da
--- /dev/null
+++ b/docs/ar/modes/train.md
@@ -0,0 +1,286 @@
+---
+comments: true
+description: دليل خطوة بخطوة لتدريب نماذج YOLOv8 باستخدام Ultralytics YOLO بما في ذلك أمثلة على التدريب باستخدام بطاقة رسومات منفصلة ومتعددة البطاقات الرسومية
+keywords: Ultralytics، YOLOv8، YOLO، كشف الكائنات، وضع تدريب، مجموعة بيانات مخصصة، تدريب بطاقة رسومات، متعددة البطاقات الرسومية، معلمات تكبير، أمثلة سطر الأوامر، أمثلة بايثون
+---
+
+# تدريب النموذج باستخدام Ultralytics YOLO
+
+
+
+## المقدمة
+
+يتضمن تدريب نموذج التعلم العميق تزويده بالبيانات وضبط معلماته بحيث يتمكن من إجراء توقعات دقيقة. يتم تصميم وضع التدريب في Ultralytics YOLOv8 لتدريب فعال وفعال لنماذج كشف الكائنات، مستغلاً تمامًا إمكانات الأجهزة الحديثة. يهدف هذا الدليل إلى شرح جميع التفاصيل التي تحتاج إلى البدء في تدريب النماذج الخاصة بك باستخدام مجموعة متينة من ميزات YOLOv8.
+
+
+
+
+
+ شاهد: كيفية تدريب نموذج YOLOv8 على مجموعة البيانات المخصصة الخاصة بك في Google Colab.
+
+
+## لماذا اختيار Ultralytics YOLO للتدريب؟
+
+إليك بعض الأسباب المقنعة لاختيار وضع التدريب في YOLOv8:
+
+- **الكفاءة:** استفد إلى أقصى حد من الأجهزة الخاصة بك، سواء كنت تستخدم بطاقة رسومات واحدة أو توسيعها عبر عدة بطاقات رسومات.
+- **تعدد الاستخدامات:** قم بالتدريب على مجموعات البيانات المخصصة بالإضافة إلى المجموعات المتاحة بسهولة مثل COCO و VOC و ImageNet.
+- **سهل الاستخدام:** واجهة سطر الأوامر CLI وواجهة Python البسيطة والقوية لتجربة تدريب مباشرة.
+- **مرونة المعلمات:** مجموعة واسعة من المعلمات القابلة للتخصيص لضبط أداء النموذج.
+
+### الميزات الرئيسية لوضع التدريب
+
+تتمثل الميزات البارزة لوضع التدريب في YOLOv8 في ما يلي:
+
+- **تنزيل مجموعة البيانات تلقائيًا:** تقوم مجموعات البيانات القياسية مثل COCO و VOC و ImageNet بالتنزيل تلقائيًا عند أول استخدام.
+- **دعم متعدد البطاقات الرسومية:** قم بتوزيع العمليات التدريبية بسلاسة عبر عدة بطاقات رسومات لتسريع العملية.
+- **ضبط المعلمات:** الخيار لتعديل المعلمات التكبير من خلال ملفات تكوين YAML أو وسائط سطر الأوامر.
+- **مراقبة وتتبع:** تتبع في الوقت الفعلي لمقاييس التدريب وتصور عملية التعلم لتحقيق رؤى أفضل.
+
+!!! Example "نصيحة"
+
+ * يتم تنزيل مجموعات YOLOv8 القياسية مثل COCO و VOC و ImageNet وغيرها تلقائيًا عند الاستخدام الأول، على سبيل المثال: `yolo train data=coco.yaml`
+
+## أمثلة استخدام
+
+تدريب YOLOv8n على مجموعة بيانات COCO128 لمدة 100 حقبة بحجم صورة 640. يمكن تحديد جهاز التدريب باستخدام الوسيطة `device`. إذا لم يتم تمرير وسيطة، سيتم استخدام الجهاز بطاقة الرسومات "device=0" إذا كانت متاحة، وإلا سيتم استخدام `device=cpu`. استعرض الجدول الزمني أدناه للحصول على قائمة كاملة بوسائط التدريب.
+
+!!! Example "أمثلة سطر الأوامر للتدريب باستخدام بطاقة رسومات مستقلة ومعالج مركزي"
+
+ يتم تحديد الجهاز تلقائيًا. إذا كانت بطاقة رسومات متاحة، سيتم استخدامها، وإلا ستبدأ التدريب على المعالج المركزي.
+
+ === "بايثون"
+ ```python
+ from ultralytics import YOLO
+
+ # تحميل النموذج
+ model = YOLO('yolov8n.yaml') # إنشاء نموذج جديد من ملف YAML
+ model = YOLO('yolov8n.pt') # تحميل نموذج مدرب مسبقًا (الأكثر توصية للتدريب)
+ model = YOLO('yolov8n.yaml').load('yolov8n.pt') # إنشاء من ملف YAML ونقل الأوزان
+
+ # تدريب النموذج
+ results = model.train(data='coco128.yaml', epochs=100, imgsz=640)
+ ```
+
+ === "سطر الأوامر"
+ ```bash
+ # إنشاء نموذج جديد من ملف YAML وبدء التدريب من البداية
+ yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640
+
+ # بدء التدريب من نموذج *.pt مدرب مسبقًا
+ yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640
+
+ # إنشاء نموذج جديد من ملف YAML ونقل الأوزان المدربة مسبقًا وبدء التدريب
+ yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640
+ ```
+
+### التدريب متعدد البطاقات الرسومية
+
+يتيح التدريب متعدد البطاقات الرسومية استخدام الموارد الأجهزة المتاحة بكفاءة أكبر من خلال توزيع أعباء التدريب عبر عدة بطاقات رسومية. هذه الميزة متاحة من خلال واجهة برمجة التطبيقات باستخدام Python وسطر الأوامر. لتمكين التدريب متعدد البطاقات الرسومية، حدد معرفات أجهزة GPU التي ترغب في استخدامها.
+
+!!! Example "أمثلة على التدريب متعدد البطاقات الرسومية"
+
+ للتدريب باستخدام أجهزتي GPU، جهاز CUDA 0 و 1، استخدم الأوامر التالية. قم بتوسيعها لاستخدام المزيد من البطاقات.
+
+ === "بايثون"
+ ```python
+ from ultralytics import YOLO
+
+ # تحميل النموذج
+ model = YOLO('yolov8n.pt') # تحميل نموذج مدرب مسبقًا (الأكثر توصية للتدريب)
+
+ # تدريب النموذج بأجهزة GPU 2
+ results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device=[0, 1])
+ ```
+
+ === "سطر الأوامر"
+ ```bash
+ # بدء التدريب من نموذج *.pt مدرب مسبقًا باستخدام بطاقات GPU 0 و 1
+ yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=0,1
+ ```
+
+### التدريب باستخدام Apple M1 و M2 MPS
+
+مع دعم شرائح Apple M1 و M2 المدمج في نماذج Ultralytics YOLO، يمكنك الآن تدريب نماذجك على الأجهزة التي تستخدم نظام Metal Performance Shaders (MPS) القوي. يوفر MPS طريقة عالية الأداء لتنفيذ المهام الحسابية ومعالجة الصور على شرائح السيليكون المخصصة لعبة Apple.
+
+لتمكين التدريب على شرائح Apple M1 و M2، يجب عليك تحديد "mps" كجهازك عند بدء عملية التدريب. فيما يلي مثال لكيفية القيام بذلك في بايثون وعبر سطر الأوامر:
+
+!!! Example "مثال على التدريب بواسطة MPS"
+
+ === "بايثون"
+ ```python
+ from ultralytics import YOLO
+
+ # تحميل النموذج
+ model = YOLO('yolov8n.pt') # تحميل نموذج مدرب مسبقًا (الأكثر توصية للتدريب)
+
+ # تدريب النموذج باستخدام 2 بطاقات GPU
+ results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device='mps')
+ ```
+
+ === "سطر الأوامر"
+ ```bash
+ # بدء التدريب من نموذج *.pt مدرب مسبقًا باستخدام بطاقات GPU 0 و 1
+ yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=mps
+ ```
+
+عند الاستفادة من قدرة المعالجة الحاسوبية لشرائح M1/M2، يتيح لك هذا الحمل أداءً أكثر كفاءة لمهام التدريب. للحصول على إرشادات أكثر تفصيلاً وخيارات تكوين متقدمة، يرجى الرجوع إلى [وثائق PyTorch MPS](https://pytorch.org/docs/stable/notes/mps.html).
+
+### استئناف التدريب المقطوع
+
+يعتبر استئناف التدريب من الحالات التخزين السابقة ميزة حاسمة عند العمل مع نماذج التعلم العميق. يمكن أن يكون هذا مفيدًا في العديد من السيناريوهات، مثل عند تعطل عملية التدريب بشكل غير متوقع، أو عند الرغبة في متابعة تدريب نموذج بيانات جديدة أو لفترة زمنية أطول.
+
+عند استئناف التدريب، يقوم Ultralytics YOLO بتحميل الأوزان من آخر نموذج محفوظ وأيضًا استعادة حالة المحسن، وجدولة معدل التعلم، وعدد الحقبة. هذا يتيح لك متابعة عملية التدريب بشكل سلس من حيث توقفت.
+
+يمكنك بسهولة استئناف التدريب في Ultralytics YOLO عن طريق تعيين الوسيطة `resume` إلى `True` عند استدعاء طريقة `train`، وتحديد المسار إلى ملف `.pt` الذي يحتوي على أوزان النموذج المدرب جزئيًا.
+
+فيما يلي مثال لكيفية استئناف تدريب مقطوع باستخدام بايثون وعبر سطر الأوامر:
+
+!!! Example "مثال على استئناف التدريب"
+
+ === "بايثون"
+ ```python
+ from ultralytics import YOLO
+
+ # تحميل النموذج
+ model = YOLO('path/to/last.pt') # تحميل نموذج مدرب جزئيًا
+
+ # استئناف التدريب
+ results = model.train(resume=True)
+ ```
+
+ === "سطر الأوامر"
+ ```bash
+ # استئناف تدريب متقطع
+ yolo train resume model=path/to/last.pt
+ ```
+
+من خلال تعيين `resume=True`، ستواصل وظيفة 'train' التدريب من حيث توقفت، باستخدام الحالة المخزنة في ملف 'path/to/last.pt'. إذا تم حذف الوسيطة `resume` أو تعيينها على `False`، ستبدأ وظيفة 'train' جلسة تدريب جديدة.
+
+تذكر أنه يتم حفظ نقاط التفتيش في نهاية كل حقبة افتراضياً، أو في فترة ثابتة باستخدام وسيطة 'save_period'، لذا يجب عليك إتمام حقبة واحدة على الأقل لاستئناف تشغيل تدريب.
+
+## الوسائط
+
+تتعلق إعدادات التدريب لنماذج YOLO بالمعلمات والتكوينات المختلفة المستخدمة لتدريب النموذج على مجموعة بيانات ما. يمكن أن تؤثر هذه الإعدادات على أداء النموذج وسرعته ودقته. تتضمن بعض إعدادات YOLO التدريب الشائعة حجم الدُفعات، معدل التعلم، الزخم، والتقليل القيمي للأوزان. العوامل الأخرى التي قد تؤثر في عملية التدريب تشمل اختيار المحسن، اختيار دالة الخسارة، وحجم وتركيب مجموعة البيانات التدريب. من المهم ضبط وتجربة هذه الإعدادات بعناية لتحقيق أفضل أداء ممكن لمهمة معينة.
+
+| المفتاح | القيمة | الوصف |
+|-------------------|----------|---------------------------------------------------------------------------------------------------------------------------|
+| `model` | `None` | مسار إلى ملف النموذج، على سبيل المثال yolov8n.pt، yolov8n.yaml |
+| `data` | `None` | مسار إلى ملف البيانات، على سبيل المثال coco128.yaml |
+| `epochs` | `100` | عدد الحقب للتدريب ل |
+| `patience` | `50` | حقب للانتظار بدون تحسن ظاهر لإيقاف التدريب مبكرا |
+| `batch` | `16` | عدد الصور في كل دُفعة (-1 for AutoBatch) |
+| `imgsz` | `640` | حجم الصور الدخل بصورة مثالية |
+| `save` | `True` | حال إنقاذ النقاط المفتوحة للتدريب ونتائج الكشف |
+| `save_period` | `-1` | حفظ النقطة الفاصلة كل x حقبة (تكون معطلة إذا كانت < 1) |
+| `cache` | `False` | صحيح / ذاكرة عشوائية أو قرص / غير صحيح. استخدم ذاكرة التخزين المؤقت في تحميل البيانات |
+| `device` | `None` | الجهاز لتشغيل التدريب عليه، على سبيل المثال جهاز الرسومات cuda=0 أو جهاز الرسومات cuda=0,1,2,3 أو جهاز المعالج المركزيcpu |
+| `workers` | `8` | عدد خيوط العاملة لتحميل البيانات (لكل RANK إذا كان DDP) |
+| `project` | `None` | اسم المشروع |
+| `name` | `None` | اسم التجربة |
+| `exist_ok` | `False` | ما إذا كان سيتم الكتابة فوق تجربة موجودة |
+| `pretrained` | `True` | (bool أو str) ما إذا كان سيتم استخدام نموذج متدرب مسبقًا (bool) أو نموذج لتحميل الأوزان منه (str) |
+| `optimizer` | `'auto'` | المحسن لاستخدامه، الخيارات=[SGD، Adam، Adamax، AdamW، NAdam، RAdam، RMSProp، Auto] |
+| `verbose` | `False` | ما إذا كان سيتم طباعة مخرجات مفصلة |
+| `seed` | `0` | البذرة العشوائية لإعادة الإنتاجية |
+| `deterministic` | `True` | ما إذا كان يتم تمكين الوضع المحدد |
+| `single_cls` | `False` | يجب تدريب بيانات متعددة الفئات كفئة واحدة |
+| `rect` | `False` | تدريب مستطيل باستخدام تجميع الدُفعات للحد الأدنى من الحشو |
+| `cos_lr` | `False` | استخدم جدولة معدل التعلم بتوقيت الكوسا |
+| `close_mosaic` | `10` | (int) تعطيل التكبير التجانبي للحجم للحقب النهائية (0 للتعطيل) |
+| `resume` | `False` | استأنف التدريب من النقطة الأخيرة |
+| `amp` | `True` | تدريب دقة مختلطة تلقائية (AMP)، الخيارات=[True، False] |
+| `fraction` | `1.0` | نسبة مجموعة البيانات المراد تدريبها (الافتراضي هو 1.0، جميع الصور في مجموعة التدريب) |
+| `profile` | `False` | قم بتشغيل بروفايل السرعة لمشغلات ONNX و TensorRT أثناء التدريب للمسجلات |
+| `freeze` | `None` | (int أو list، اختياري) تجميد أول n طبقة، أو قائمة طبقات الفهرس خلال التدريب |
+| `lr0` | `0.01` | معدل التعلم الأولي (على سبيل المثال SGD=1E-2، Adam=1E-3) |
+| `lrf` | `0.01` | معدل التعلم النهائي (lr0 * lrf) |
+| `momentum` | `0.937` | الزخم SGD / Adam beta1 |
+| `weight_decay` | `0.0005` | تقليل الأوزان للمحسن (5e-4) |
+| `warmup_epochs` | `3.0` | حقب الاحماء (الأجزاء المئوية مقبولة) |
+| `warmup_momentum` | `0.8` | الزخم الأولي للتدفق الأعلى |
+| `warmup_bias_lr` | `0.1` | نسبة تعلم الانحياز الأولي للتدفق العلوي |
+| `box` | `7.5` | وزن فاقد الصندوق |
+| `cls` | `0.5` | وزن فاقد التصنيف (تناسب مع البكسل) |
+| `dfl` | `1.5` | وزن الخسارة الأمامية للتصنيف والصندوق |
+| `pose` | `12.0` | وزن فاقد الوضع (الوضع فقط) |
+| `kobj` | `2.0` | وزن فاقد نقطة المفتاح (الوضع فقط) |
+| `label_smoothing` | `0.0` | التسوية الغموض (كسر) |
+| `nbs` | `64` | حجم الدُفعة الاسمي |
+| `overlap_mask` | `True` | التحجيم يجب أن يتداخل أقنعة التدريب (التدريب الفصلي فقط) |
+| `mask_ratio` | `4` | معدل تحجيم أقنعة (التدريب الفصلي فقط) |
+| `dropout` | `0.0` | استخدام تنظيم الإسقاط (التدريب التطبيقي فقط) |
+| `val` | `True` | التحقق/الاختبار خلال التدريب |
+
+## تسجيل
+
+عند تدريب نموذج YOLOv8، قد تجد أنه من المفيد تتبع أداء النموذج مع مرور الوقت. هنا يأتي دور تسجيل. يوفر Ultralytics' YOLO دعمًا لثلاثة أنواع من أجهزة السجل - Comet و ClearML و TensorBoard.
+
+لاستخدام سجل، حدده من قائمة السحب أسفل الكود وقم بتشغيله. سيتم تثبيت السجل المختار وتهيئته.
+
+### Comet
+
+[Comet](../../integrations/comet.md) هو منصة تسمح لعلماء البيانات والمطورين بمتابعة ومقارنة وشرح وتحسين التجارب والنماذج. يوفر وظائف مثل المقاييس الزمنية في الوقت الحقيقي وفروقات الشفرة وتتبع المعلمات.
+
+لاستخدام Comet:
+
+!!! Example "أمثلة بايثون"
+
+ === "بايثون"
+ ```python
+ # pip install comet_ml
+ import comet_ml
+
+ comet_ml.init()
+ ```
+
+تذكر تسجيل الدخول إلى حسابك في Comet على موقعهم على الويب والحصول على مفتاح API الخاص بك. ستحتاج إلى إضافته إلى الإعدادات المتغيرة في البيئة الخاصة بك أو برنامج النص الخاص بك لتسجيل التجارب الخاصة بك.
+
+### ClearML
+
+[ClearML](https://www.clear.ml/) هي منصة مفتوحة المصدر تعمل على تتبع التجارب وتسهيل مشاركة الموارد بكفاءة. تم تصميمه لمساعدة الفرق في إدارة وتنفيذ وإعادة إنتاج عملهم في مجال تعلم الآلة بكفاءة أكبر.
+
+لاستخدام ClearML:
+
+!!! Example "أمثلة بايثون"
+
+ === "بايثون"
+ ```python
+ # pip install clearml
+ import clearml
+
+ clearml.browser_login()
+ ```
+
+بعد تشغيل هذا السكريبت، ستحتاج إلى تسجيل الدخول إلى حساب ClearML الخاص بك على المستعرض ومصادقة جلستك.
+
+## TensorBoard
+
+[TensorBoard](https://www.tensorflow.org/tensorboard) هي مجموعة أدوات لتصور TensorFlow ، تسمح لك بتصور نموذج TensorFlow الخاص بك ، ورسم المقاييس الكمية حول تنفيذ النموذج الخاص بك ، وعرض بيانات إضافية مثل الصور التي تمر عبرها.
+
+للاستفادة من TensorBoard في [Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb):
+
+!!! Example "أمثلة سطر الأوامر"
+
+ === "سطر الأوامر"
+ ```bash
+ load_ext tensorboard
+ tensorboard --logdir ultralytics/runs # استبدل بالدليل 'runs'
+ ```
+
+لاستخدام TensorBoard محليًا، قم بتشغيل الأمر أدناه واعرض النتائج على الرابط http://localhost:6006/.
+
+!!! Example "أمثلة سطر الأوامر"
+
+ === "سطر الأوامر"
+ ```bash
+ tensorboard --logdir ultralytics/runs # استبدل بالدليل 'runs'
+ ```
+
+سيتم تحميل TensorBoard وتوجيهه إلى الدليل الذي يتم حفظ سجلات التدريب فيه.
+
+بعد إعداد السجل الخاص بك، يمكنك الاستمرار في تدريب النموذج. سيتم سجل جميع مقاييس التدريب تلقائيًا في المنصة التي اخترتها، ويمكنك الوصول إلى هذه السجلات لمراقبة أداء النموذج الخاص بك مع مرور الوقت ومقارنة نماذج مختلفة وتحديد المجالات التي يمكن تحسينها.
diff --git a/docs/ar/modes/val.md b/docs/ar/modes/val.md
new file mode 100644
index 0000000000..ed954326fd
--- /dev/null
+++ b/docs/ar/modes/val.md
@@ -0,0 +1,86 @@
+---
+comments: true
+description: دليل لاختبار نماذج YOLOv8 الصحيحة. تعرف على كيفية تقييم أداء نماذج YOLO الخاصة بك باستخدام إعدادات ومقاييس التحقق من الصحة مع أمثلة برمجية باللغة البايثون وواجهة سطر الأوامر.
+keywords: Ultralytics, YOLO Docs, YOLOv8, التحقق من الصحة, تقييم النموذج, المعلمات الفرعية, الدقة, المقاييس, البايثون, واجهة سطر الأوامر
+---
+
+# التحقق من النماذج باستخدام Ultralytics YOLO
+
+
+
+## مقدمة
+
+يعتبر التحقق من النموذج خطوة حاسمة في خط أنابيب التعلم الآلي، حيث يتيح لك تقييم جودة النماذج المدربة. يوفر وضع الـ Val في Ultralytics YOLOv8 مجموعة أدوات ومقاييس قوية لتقييم أداء نماذج الكشف عن الكائنات الخاصة بك. يعمل هذا الدليل كمصدر كامل لفهم كيفية استخدام وضع الـ Val بشكل فعال لضمان أن نماذجك دقيقة وموثوقة.
+
+## لماذا يوفر Ultralytics YOLO التحقق من الصحة
+
+هنا هي الأسباب التي تجعل استخدام وضع الـ Val في YOLOv8 مفيدًا:
+
+- **الدقة:** الحصول على مقاييس دقيقة مثل mAP50 و mAP75 و mAP50-95 لتقييم نموذجك بشكل شامل.
+- **الراحة:** استخدم الميزات المدمجة التي تتذكر إعدادات التدريب، مما يبسط عملية التحقق من الصحة.
+- **مرونة:** قم بالتحقق من النموذج باستخدام نفس المجموعات البيانات وأحجام الصور أو مجموعات بيانات وأحجام صور مختلفة.
+- **ضبط المعلمات الفرعية:** استخدم المقاييس التحقق لضبط نموذجك لتحسين الأداء.
+
+### الميزات الرئيسية لوضع الـ Val
+
+هذه هي الوظائف المميزة التي يوفرها وضع الـ Val في YOLOv8:
+
+- **الإعدادات التلقائية:** يتذكر النماذج إعدادات التدريب الخاصة بها للتحقق من الصحة بسهولة.
+- **دعم متعدد المقاييس:** قيم نموذجك بناءً على مجموعة من مقاييس الدقة.
+- **واجهة سطر الأوامر وواجهة برمجة Python:** اختر بين واجهة سطر الأوامر أو واجهة برمجة Python حسب تفضيلك للتحقق من الصحة.
+- **توافق البيانات:** يعمل بسلاسة مع مجموعات البيانات المستخدمة خلال مرحلة التدريب بالإضافة إلى مجموعات البيانات المخصصة.
+
+!!! Tip "نصيحة"
+
+ * تتذكر نماذج YOLOv8 إعدادات التدريب تلقائيًا، لذا يمكنك التحقق من النموذج بنفس حجم الصورة وعلى مجموعة البيانات الأصلية بسهولة باستخدام "yolo val model=yolov8n.pt" أو "model('yolov8n.pt').val()"
+
+## أمثلة الاستخدام
+
+تحقق من دقة النموذج المدرب YOLOv8n على مجموعة بيانات COCO128. لا يلزم تمرير أي وسيطة كوسيطة يتذكر الـ model التدريب والوسيطات كسمات النموذج. انظر الجدول أدناه للحصول على قائمة كاملة من وسيطات التصدير.
+
+!!! Example "مثال"
+
+ === "البايثون"
+
+ ```python
+ from ultralytics import YOLO
+
+ # تحميل النموذج
+ model = YOLO('yolov8n.pt') # تحميل النموذج الرسمي
+ model = YOLO('path/to/best.pt') # تحميل نموذج مخصص
+
+ # التحقق من النموذج
+ metrics = model.val() # لا يلزم أي وسيطات، يتذكر التكوين والوسيطات
+ metrics.box.map # map50-95
+ metrics.box.map50 # map50
+ metrics.box.map75 # map75
+ metrics.box.maps # قائمة تحتوي على map50-95 لكل فئة
+ ```
+ === "واجهة سطر الأوامر"
+
+ ```bash
+ yolo detect val model=yolov8n.pt # تجريب نموذج رسمي
+ yolo detect val model=path/to/best.pt # تجٌَرب نموذج مخصص
+ ```
+
+## الوسيطات
+
+تشير إعدادات التحقق بالنسبة لنماذج YOLO إلى المعلمات الفرعية والتكوينات المختلفة المستخدمة لتقييم أداء النموذج على مجموعة بيانات التحقق. هذه الإعدادات يمكن أن تؤثر على أداء النموذج وسرعته ودقته. تشمل بعض إعدادات التحقق الشائعة في YOLO حجم الدفعة وتكرارات تنفيذ التحقق أثناء التدريب والمقاييس المستخدمة لتقييم أداء النموذج. العوامل الأخرى التي قد تؤثر على العملية الخاصة بالتحقق تشمل حجم وتركيب مجموعة البيانات التحقق والمهمة المحددة التي يتم استخدام النموذج فيها. من المهم ضبط هذه الإعدادات وتجربتها بعناية لضمان أداء جيد للنموذج على مجموعة بيانات التحقق وكشف ومنع الحالة التي يتم فيها ضبط الطراز بشكل جيد.
+
+| مفتاح | القيمة | الوصف |
+|---------------|---------|------------------------------------------------------------------------------------|
+| `data` | `None` | مسار إلى ملف البيانات، على سبيل المثال coco128.yaml |
+| `imgsz` | `640` | حجم الصور الداخلية باعتبارها عدد صحيح |
+| `batch` | `16` | عدد الصور لكل دفعة (-1 للدفع الآلي) |
+| `save_json` | `False` | حفظ النتائج في ملف JSON |
+| `save_hybrid` | `False` | حفظ النسخة المختلطة للتسميات (التسميات + التنبؤات الإضافية) |
+| `conf` | `0.001` | حد الثقة في كشف الكائن |
+| `iou` | `0.6` | حد تداخل على المتحدة (IoU) لعملية الجمع والطرح |
+| `max_det` | `300` | العدد الأقصى من الكشفات لكل صورة |
+| `half` | `True` | استخدم التنصت نصف الدقة (FP16) |
+| `device` | `None` | الجهاز الذي يتم تشغيله عليه، على سبيل المثال جهاز Cuda=0/1/2/3 أو جهاز=معالج (CPU) |
+| `dnn` | `False` | استخدم OpenCV DNN لعملية التنصت الأمثل |
+| `plots` | `False` | إظهار الرسوم البيانية أثناء التدريب |
+| `rect` | `False` | تحقق صيغة *rectangular* مع تجميع كل دفعة للحصول على الحد الأدنى من التعبئة |
+| `split` | `val` | اختر تقسيم البيانات للتحقق من الصحة، على سبيل المثال "val"، "test" أو "train" |
+|
diff --git a/docs/ar/quickstart.md b/docs/ar/quickstart.md
new file mode 100644
index 0000000000..4ebe76f667
--- /dev/null
+++ b/docs/ar/quickstart.md
@@ -0,0 +1,326 @@
+---
+comments: true
+description: استكشف أساليب مختلفة لتثبيت Ultralytics باستخدام pip و conda و git و Docker. تعرّف على كيفية استخدام Ultralytics مع واجهة سطر الأوامر أو ضمن مشاريع Python الخاصة بك.
+keywords: تثبيت Ultralytics, pip install Ultralytics, Docker install Ultralytics, Ultralytics command line interface, Ultralytics Python interface
+---
+
+## تثبيت Ultralytics
+
+يوفر Ultralytics طرق تثبيت مختلفة بما في ذلك pip و conda و Docker. يمكنك تثبيت YOLOv8 عن طريق حزمة `ultralytics` من خلال pip للإصدار الأحدث والمستقر أو من خلال استنساخ [مستودع Ultralytics على GitHub](https://github.com/ultralytics/ultralytics) للحصول على الإصدار الأحدث. يمكن استخدام Docker لتنفيذ الحزمة في حاوية معزولة، وتجنب التثبيت المحلي.
+
+!!! Note
+
+ 🚧 تم بناء وثائقنا متعددة اللغات حاليًا، ونعمل بجد لتحسينها. شكرًا لك على صبرك! 🙏
+
+!!! Example "تثبيت"
+
+ === "تثبيت باستخدام pip (الموصَى به)"
+ قم بتثبيت حزمة `ultralytics` باستخدام pip، أو قم بتحديث التثبيت الحالي عن طريق تشغيل `pip install -U ultralytics`. قم بزيارة مؤشر Python Package Index (PyPI) للحصول على مزيد من التفاصيل حول حزمة `ultralytics`: [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/).
+
+ [![نسخة PyPI](https://badge.fury.io/py/ultralytics.svg)](https://badge.fury.io/py/ultralytics) [![التنزيلات](https://static.pepy.tech/badge/ultralytics)](https://pepy.tech/project/ultralytics)
+
+ ```bash
+ # قم بتثبيت حزمة ultralytics من PyPI
+ pip install ultralytics
+ ```
+
+ يمكنك أيضًا تثبيت حزمة `ultralytics` مباشرة من مستودع GitHub [repository](https://github.com/ultralytics/ultralytics). قد يكون ذلك مفيدًا إذا كنت ترغب في الحصول على الإصدار التجريبي الأحدث. تأكد من تثبيت أداة الأوامر Git على نظامك. يُثبّت الأمر `@main` الفرع `main` ويمكن تعديله إلى فرع آخر، على سبيل المثال `@my-branch`، أو يمكن إزالته تمامًا للانتقال إلى الفرع الرئيسي `main`.
+
+ ```bash
+ # قم بتثبيت حزمة ultralytics من GitHub
+ pip install git+https://github.com/ultralytics/ultralytics.git@main
+ ```
+
+
+ === "تثبيت باستخدام conda"
+ Conda هو مدير حزم بديل لـ pip ويمكن استخدامه أيضًا للتثبيت. قم بزيارة Anaconda للحصول على مزيد من التفاصيل على [https://anaconda.org/conda-forge/ultralytics](https://anaconda.org/conda-forge/ultralytics). يمكن العثور على مستودع Ultralytics feedstock لتحديث حزمة conda على [https://github.com/conda-forge/ultralytics-feedstock/](https://github.com/conda-forge/ultralytics-feedstock/).
+
+
+ [![وصفة conda](https://img.shields.io/badge/recipe-ultralytics-green.svg)](https://anaconda.org/conda-forge/ultralytics) [![تنزيلات conda](https://img.shields.io/conda/dn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![إصدار conda](https://img.shields.io/conda/vn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![منصات conda](https://img.shields.io/conda/pn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics)
+
+ ```bash
+ # قم بتثبيت حزمة ultralytics باستخدام conda
+ conda install -c conda-forge ultralytics
+ ```
+
+ !!! Note
+
+ إذا كنت تقوم بالتثبيت في بيئة CUDA، فإن الممارسة الجيدة هي تثبيت `ultralytics`, `pytorch` و `pytorch-cuda` في نفس الأمر للسماح لمدير حزم conda بحل أي تعارضات، أو وإلا فقوم بتثبيت `pytorch-cuda` في نهاية الأمر للسماح له بتجاوز حزمة `pytorch` المحددة لوحدة المعالجة المركزية إذا لزم الأمر.
+ ```bash
+ # قم بتثبيت كافة الحزم معًا باستخدام conda
+ conda install -c pytorch -c nvidia -c conda-forge pytorch torchvision pytorch-cuda=11.8 ultralytics
+ ```
+
+ ### صورة Docker في Conda
+
+ تتوفر أيضًا صور Docker لـ Conda لـ Ultralytics من [DockerHub](https://hub.docker.com/r/ultralytics/ultralytics). تستند هذه الصور إلى [Miniconda3](https://docs.conda.io/projects/miniconda/en/latest/) وهي وسيلة بسيطة لبدء استخدام `ultralytics` في بيئة Conda.
+
+ ```bash
+ # قم بتعيين اسم الصورة بوصفه متغير
+ t=ultralytics/ultralytics:latest-conda
+
+ # اسحب أحدث صورة ultralytics من Docker Hub
+ sudo docker pull $t
+
+ # قم بتشغيل صورة ultralytics في حاوية مع دعم GPU
+ sudo docker run -it --ipc=host --gpus all $t # all GPUs
+ sudo docker run -it --ipc=host --gpus '"device=2,3"' $t # قد يتم تحديد GPUs
+ ```
+
+ === "استنساخ Git"
+ قم بنسخ مستودع `ultralytics` إذا كنت مهتمًا بالمساهمة في التطوير أو ترغب في تجربة الشفرة المصدرية الأحدث. بعد الاستنساخ، انتقل إلى الدليل وقم بتثبيت الحزمة في وضع التحرير `-e` باستخدام pip.
+ ```bash
+ # قم بنسخ مستودع ultralytics
+ git clone https://github.com/ultralytics/ultralytics
+
+ # انتقل إلى الدليل المنسوخ
+ cd ultralytics
+
+ # قم بتثبيت الحزمة في وضع التحرير
+ pip install -e .
+ ```
+
+ === "Docker"
+
+ تمكنك من استخدام Docker بسهولة لتنفيذ حزمة `ultralytics` في حاوية معزولة، مما يضمن أداءً سلسًا ومتسقًا في مختلف البيئات. عن طريق اختيار إحدى صور Docker الأصلية لـ `ultralytics` من [Docker Hub](https://hub.docker.com/r/ultralytics/ultralytics)، لن تتجنب فقط تعقيد التثبيت المحلي ولكنك ستستفيد أيضًا من وصول إلى بيئة عمل متحققة وفعالة. يقدم Ultralytics 5 صور Docker مدعومة رئيسية، يتم تصميم كل منها لتوفير توافق عالي وكفاءة لمنصات وحالات استخدام مختلفة:
+
+
+
+ - **Dockerfile:** صورة GPU الموصى بها للتدريب.
+ - **Dockerfile-arm64:** محسّن لبنية ARM64، مما يتيح النشر على أجهزة مثل Raspberry Pi ومنصات أخرى تعتمد على ARM64.
+ - **Dockerfile-cpu:** إصدار مناسب للتحكم بوحدة المعالجة المركزية فقط بدون دعم لل GPU.
+ - **Dockerfile-jetson:** مصمم خصيصًا لأجهزة NVIDIA Jetson، ويدمج دعمًا لل GPU المحسن لهذه المنصات.
+ - **Dockerfile-python:** صورة صغيرة بها فقط Python والتبعيات الضرورية، مثالية للتطبيقات والتطوير الخفيف.
+ - **Dockerfile-conda:** قائمة على Miniconda3 مع تثبيت conda لحزمة ultralytics.
+
+ فيما يلي الأوامر للحصول على أحدث صورة وتشغيلها:
+
+ ```bash
+ # قم بتعيين اسم الصورة بوصفه متغير
+ t=ultralytics/ultralytics:latest
+
+ # اسحب أحدث صورة ultralytics من Docker Hub
+ sudo docker pull $t
+
+ # قم بتشغيل صورة ultralytics في حاوية مع دعم GPU
+ sudo docker run -it --ipc=host --gpus all $t # all GPUs
+ sudo docker run -it --ipc=host --gpus '"device=2,3"' $t # قد يتم تحديد GPUs
+ ```
+
+ يقوم الأمر أعلاه بتهيئة حاوية Docker بأحدث صورة `ultralytics`. يُسند العلامة `-it` جهازًا افتراضيًا TTY ويحافظ على فتح stdin لتمكينك من التفاعل مع الحاوية. تعيين العلامة `--ipc=host` مساحة اسم IPC (Inter-Process Communication) إلى المضيف، وهو أمر ضروري لمشاركة الذاكرة بين العمليات. تُمكّن العلامة `--gpus all` الوصول إلى كل وحدات المعالجة المركزية الرسومية المتاحة داخل الحاوية، مما هو أمر حاسم للمهام التي تتطلب حسابات GPU.
+
+ ملاحظة: للعمل مع الملفات على جهازك المحلي داخل الحاوية، استخدم مجلدات Docker لتوصيل دليل محلي بالحاوية:
+
+ ```bash
+ # مجلد الدليل المحلي بالحاوية
+ sudo docker run -it --ipc=host --gpus all -v /path/on/host:/path/in/container $t
+ ```
+
+ قم بتغيير `/path/on/host` بمسار الدليل على جهازك المحلي، و `/path/in/container` باالمسار المطلوب داخل حاوية Docker للوصول إليه.
+
+ للاستفادة القصوى من استخدام Docker المتقدم، لا تتردد في استكشاف [دليل Ultralytics Docker](https://docs.ultralytics.com/guides/docker-quickstart/).
+
+راجع ملف `requirements.txt` الخاص بـ `ultralytics` [هنا](https://github.com/ultralytics/ultralytics/blob/main/requirements.txt) للحصول على قائمة المتطلبات. يُرجى ملاحظة أن جميع الأمثلة أعلاه يتم تثبيت جميع المتطلبات المطلوبة.
+
+
+
+
+
+ شاهد: دليل فتع Ultralytics YOLO السريع
+
+
+!!! Tip "نصيحة"
+
+ يختلف متطلبات PyTorch حسب نظام التشغيل ومتطلبات CUDA، لذا يُوصَى بتثبيت PyTorch أولاً باستخدام التعليمات الموجودة في [https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally).
+
+
+
+
+
+## استخدم Ultralytics مع واجهة سطر الأوامر (CLI)
+
+تتيح واجهة سطر الأوامر (CLI) في Ultralytics تشغيل أوامر بسيطة بدون الحاجة إلى بيئة Python. لا تحتاج CLI إلى أي تخصيص أو كود Python. يمكنك ببساطة تشغيل جميع المهام من الطرفية باستخدام الأمر `yolo`. تحقق من [دليل CLI](../../usage/cli.md) لمعرفة المزيد حول استخدام YOLOv8 من سطر الأوامر.
+
+!!! Example
+
+ === "الصيغة"
+ تستخدم أوامر Ultralytics `yolo` الصيغة التالية:
+ ```bash
+ yolo TASK MODE ARGS
+ ```
+
+ - `TASK` (اختياري) أحد التالي ([detect](tasks/detect.md), [segment](tasks/segment.md), [classify](tasks/classify.md), [pose](tasks/pose.md))
+ - `MODE` (مطلوب) واحد من ([train](modes/train.md), [val](modes/val.md), [predict](modes/predict.md), [export](modes/export.md), [track](modes/track.md))
+ - `ARGS` (اختياري) أزواج "arg=value" مثل `imgsz=640` التي تستبدل القيم الافتراضية.
+
+ راجع جميع `ARGS` [هنا](../usage/cfg.md) أو باستخدام الأمر `yolo cfg` في سطر الأوامر.
+
+ === "التدريب"
+ قم بتدريب نموذج اكتشاف لمدة 10 حلقات مع سعر تعلم بدءي 0.01
+ ```bash
+ yolo train data=coco128.yaml model=yolov8n.pt epochs=10 lr0=0.01
+ ```
+
+ === "التنبؤ"
+ تنبؤ بفيديو YouTube باستخدام نموذج تجزئة معتمد مسبقًا عند حجم الصورة 320:
+ ```bash
+ yolo predict model=yolov8n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320
+ ```
+
+ === "التحقق"
+ التحقق من نموذج اكتشاف معتمد مسبقًا على دُفعَة واحدة وحجم صورة قدره 640:
+ ```bash
+ yolo val model=yolov8n.pt data=coco128.yaml batch=1 imgsz=640
+ ```
+
+ === "التصدير"
+ قم بتصدير نموذج فئة YOLOv8n إلى تنسيق ONNX على حجم صورة 224 بواسطة 128 (لا يلزم TASK)
+ ```bash
+ yolo export model=yolov8n-cls.pt format=onnx imgsz=224,128
+ ```
+
+ === "خاص"
+ قم بتشغيل أوامر خاصة لعرض الإصدارة وعرض الإعدادات وتشغيل عمليات التحقق والمزيد:
+ ```bash
+ yolo help
+ yolo checks
+ yolo version
+ yolo settings
+ yolo copy-cfg
+ yolo cfg
+ ```
+
+!!! Warning "تحذير"
+يجب تمرير الوسوم كأزواج "arg=val"، وأن تُفصل بعلامة تساوي `=` وأن تُفصل بمسافات بين الأزواج. لا تستخدم بادئات الوسوم `--` أو فواصل `,` بين الوسوم.
+
+ - `yolo predict model=yolov8n.pt imgsz=640 conf=0.25` ✅
+ - `yolo predict model yolov8n.pt imgsz 640 conf 0.25` ❌ (مفقود العلامة المساواة)
+ - `yolo predict model=yolov8n.pt, imgsz=640, conf=0.25` ❌ (لا تستخدم `,`)
+ - `yolo predict --model yolov8n.pt --imgsz 640 --conf 0.25` ❌ (لا تستخدم `--`)
+
+[دليل CLI](../usage/cli.md){ .md-button .md-button--primary}
+
+## استخدم Ultralytics مع Python
+
+تسمح واجهة Python في YOLOv8 بالتكامل السلس في مشاريع Python الخاصة بك، مما يجعل من السهل تحميل النموذج وتشغيله ومعالجة نتائجه. المصممة ببساطة وسهولة الاستخدام في الاعتبار، تمكن واجهة Python المستخدمين من تنفيذ الكشف على الكائنات والتجزئة والتصنيف في مشاريعهم. يجعل هذا واجهة YOLOv8 Python أداة قيمة لأي شخص يرغب في دمج هذه الوظائف في مشاريعهم باسياتو.
+
+على سبيل المثال، يمكن للمستخدمين تحميل نموذج، تدريبه، تقييم أدائه على مجموعة التحقق، وحتى تصديره إلى تنسيق ONNX ببضعة أسطر فقط من الشفرة. تحقق من [دليل Python](../usage/python.md) لمعرفة المزيد حول استخدام YOLOv8 داخل مشاريعك الخاصة.
+
+!!! Example
+
+ ```python
+ from ultralytics import YOLO
+
+ # أنشئ نموذج YOLO جديد من البداية
+ model = YOLO('yolov8n.yaml')
+
+ # قم بتحميل نموذج YOLO معتمد مسبقًا (موصَى به للتدريب)
+ model = YOLO('yolov8n.pt')
+
+ # قم بتدريب النموذج باستخدام مجموعة البيانات 'coco128.yaml' لمدة 3 حلقات
+ results = model.train(data='coco128.yaml', epochs=3)
+
+ # قم بتقييم أداء النموذج على مجموعة التحقق
+ results = model.val()
+
+ # قم بإجراء الكشف على صورة باستخدام النموذج
+ results = model('https://ultralytics.com/images/bus.jpg')
+
+ # قم بتصدير النموذج إلى تنسيق ONNX
+ success = model.export(format='onnx')
+ ```
+
+[دليل Python](../usage/python.md){.md-button .md-button--primary}
+
+## إعدادات Ultralytics
+
+يوفر مكتبة Ultralytics نظامًا قويًا لإدارة الإعدادات لتمكين التحكم بمحاكاة تفصيلية لتجاربك. من خلال استخدام `SettingsManager` في الوحدة `ultralytics.utils`، يمكن للمستخدمين الوصول بسهولة إلى إعداداتهم وتعديلها. يتم تخزينها في ملف YAML ويمكن عرضها أو تعديلها إما مباشرة في بيئة Python أو من خلال واجهة سطر الأوامر (CLI).
+
+### فحص الإعدادات
+
+للحصول على فهم للتكوين الحالي لإعداداتك، يمكنك عرضها مباشرةً:
+
+!!! Example "عرض الإعدادات"
+
+ === "Python"
+ يُمكنك استخدام Python لعرض الإعدادات الخاصة بك. ابدأ بـاستيراد الكائن `settings` من وحدة `ultralytics`. استخدم الأوامر التالية لطباعة الإعدادات والعودة منها:
+ ```python
+ from ultralytics import settings
+
+ # عرض كل الإعدادات
+ print(settings)
+
+ # إرجاع إعداد محدد
+ value = settings['runs_dir']
+ ```
+
+ === "CLI"
+ بدلاً من ذلك، واجهة سطر الأوامر تسمح لك بالتحقق من الإعدادات الخاصة بك باستخدام أمر بسيط:
+ ```bash
+ yolo settings
+ ```
+
+### تعديل الإعدادات
+
+يسمح لك Ultralytics بتعديل الإعدادات بسهولة. يمكن تنفيذ التغييرات بالطرق التالية:
+
+!!! Example "تحديث الإعدادات"
+
+ === "Python"
+ داخل بيئة Python، اطلب الطريقة `update` على الكائن `settings` لتغيير إعداداتك:
+
+ ```python
+ from ultralytics import settings
+
+ # تحديث إعداد واحد
+ settings.update({'runs_dir': '/path/to/runs'})
+
+ # تحديث إعدادات متعددة
+ settings.update({'runs_dir': '/path/to/runs', 'tensorboard': False})
+
+ # إعادة الإعدادات إلى القيم الافتراضية
+ settings.reset()
+ ```
+
+ === "CLI"
+ إذا كنت تفضل استخدام واجهة سطر الأوامر، يمكنك استخدام الأوامر التالية لتعديل إعداداتك:
+
+ ```bash
+ # تحديث إعداد واحد
+ yolo settings runs_dir='/path/to/runs'
+
+ # تحديث إعدادات متعددة
+ yolo settings runs_dir='/path/to/runs' tensorboard=False
+
+ # إعادة الإعدادات إلى القيم الافتراضية
+ yolo settings reset
+ ```
+
+### فهم الإعدادات
+
+يوفر الجدول أدناه نظرة عامة على الإعدادات المتاحة للضبط في Ultralytics. يتم توضيح كل إعداد بالإضافة إلى قيمة مثالية ونوع البيانات ووصف موجز.
+
+| الاسم | القيمة المثالية | نوع البيانات | الوصف |
+|--------------------|-----------------------|--------------|-------------------------------------------------------------------------------------------------------------|
+| `settings_version` | `'0.0.4'` | `str` | إصدار إعدادات Ultralytics (مختلف عن إصدار Ultralytics [pip](https://pypi.org/project/ultralytics/)) |
+| `datasets_dir` | `'/path/to/datasets'` | `str` | المسار الذي يتم تخزينه فيه مجموعات البيانات |
+| `weights_dir` | `'/path/to/weights'` | `str` | المسار الذي يتم تخزينه فيه أوزان النموذج |
+| `runs_dir` | `'/path/to/runs'` | `str` | المسار الذي يتم تخزينه فيه تشغيل التجارب |
+| `uuid` | `'a1b2c3d4'` | `str` | مُعرِّف فريد لإعدادات الحالية |
+| `sync` | `True` | `bool` | ما إذا كان يتم مزامنة التحليلات وحوادث الأعطال إلى HUB |
+| `api_key` | `''` | `str` | HUB الخاص بـ Ultralytics [API Key](https://hub.ultralytics.com/settings?tab=api+keys) |
+| `clearml` | `True` | `bool` | ما إذا كان يتم استخدام ClearML لتسجيل التجارب |
+| `comet` | `True` | `bool` | ما إذا كان يتم استخدام [Comet ML](https://bit.ly/yolov8-readme-comet) لتتبع وتصور التجارب |
+| `dvc` | `True` | `bool` | ما إذا كان يتم استخدام [DVC لتتبع التجارب](https://dvc.org/doc/dvclive/ml-frameworks/yolo) والتحكم في النسخ |
+| `hub` | `True` | `bool` | ما إذا كان يتم استخدام [Ultralytics HUB](https://hub.ultralytics.com) للتكامل |
+| `mlflow` | `True` | `bool` | ما إذا كان يتم استخدام MLFlow لتتبع التجارب |
+| `neptune` | `True` | `bool` | ما إذا كان يتم استخدام Neptune لتتبع التجارب |
+| `raytune` | `True` | `bool` | ما إذا كان يتم استخدام Ray Tune لضبط الحساسية |
+| `tensorboard` | `True` | `bool` | ما إذا كان يتم استخدام TensorBoard للتصور |
+| `wandb` | `True` | `bool` | ما إذا كان يتم استخدام Weights & Biases لتسجيل البيانات |
+
+أثناء تنقلك في مشاريعك أو تجاربك، تأكد من مراجعة هذه الإعدادات لضمان تكوينها بشكل مثالي وفقًا لاحتياجاتك.
diff --git a/docs/ar/tasks/classify.md b/docs/ar/tasks/classify.md
new file mode 100644
index 0000000000..482645619f
--- /dev/null
+++ b/docs/ar/tasks/classify.md
@@ -0,0 +1,172 @@
+---
+comments: true
+description: تعرّف على نماذج YOLOv8 Classify لتصنيف الصور. احصل على معلومات مفصلة حول قائمة النماذج المدرّبة مسبقًا وكيفية التدريب والتحقق والتنبؤ وتصدير النماذج.
+keywords: Ultralytics، YOLOv8، تصنيف الصور، النماذج المدربة مسبقًا، YOLOv8n-cls، التدريب، التحقق، التنبؤ، تصدير النماذج
+---
+
+# تصنيف الصور
+
+
+
+تعتبر عملية تصنيف الصور أبسط المهام الثلاثة وتنطوي على تصنيف صورة كاملة في إحدى الفئات المحددة سابقًا.
+
+ناتج نموذج تصنيف الصور هو تسمية فئة واحدة ودرجة ثقة. يكون تصنيف الصور مفيدًا عندما تحتاج فقط إلى معرفة فئة الصورة ولا تحتاج إلى معرفة موقع الكائنات التابعة لتلك الفئة أو شكلها الدقيق.
+
+!!! Tip "نصيحة"
+
+ تستخدم نماذج YOLOv8 Classify اللاحقة "-cls"، مثالًا "yolov8n-cls.pt" وتم تدريبها على [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml).
+
+## [النماذج](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8)
+
+تظهر هنا النماذج المدرّبة مسبقًا لـ YOLOv8 للتصنيف. تم تدريب نماذج الكشف والشعبة والموضع على مجموعة البيانات [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)، بينما تم تدريب نماذج التصنيف مسبقًا على مجموعة البيانات [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml).
+
+يتم تنزيل [النماذج](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) تلقائيًا من أحدث إصدار لـ Ultralytics [releases](https://github.com/ultralytics/assets/releases) عند الاستخدام الأول.
+
+| النموذج | الحجم (بكسل) | دقة (أعلى 1) acc | دقة (أعلى 5) acc | سرعة التنفيذ ONNX للوحدة المركزية (مللي ثانية) | سرعة التنفيذ A100 TensorRT (مللي ثانية) | المعلمات (مليون) | FLOPs (مليار) لحجم 640 |
+|----------------------------------------------------------------------------------------------|----------------------|--------------------------|--------------------------|-----------------------------------------------------------|----------------------------------------------------|--------------------------|--------------------------------|
+| [YOLOv8n-cls](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8n-cls.pt) | 224 | 66.6 | 87.0 | 12.9 | 0.31 | 2.7 | 4.3 |
+| [YOLOv8s-cls](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8s-cls.pt) | 224 | 72.3 | 91.1 | 23.4 | 0.35 | 6.4 | 13.5 |
+| [YOLOv8m-cls](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8m-cls.pt) | 224 | 76.4 | 93.2 | 85.4 | 0.62 | 17.0 | 42.7 |
+| [YOLOv8l-cls](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8l-cls.pt) | 224 | 78.0 | 94.1 | 163.0 | 0.87 | 37.5 | 99.7 |
+| [YOLOv8x-cls](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8x-cls.pt) | 224 | 78.4 | 94.3 | 232.0 | 1.01 | 57.4 | 154.8 |
+
+- قيمة **acc** هي دقة النماذج على مجموعة بيانات التحقق [ImageNet](https://www.image-net.org/).
+ لإعادة إنتاج ذلك، استخدم `yolo val classify data=path/to/ImageNet device=0`
+- يتم حساب سرعة **Speed** بناءً على متوسط صور التحقق من ImageNet باستخدام [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/).
+ لإعادة إنتاج ذلك، استخدم `yolo val classify data=path/to/ImageNet batch=1 device=0|cpu`
+
+## التدريب
+
+قم بتدريب YOLOv8n-cls على مجموعة بيانات MNIST160 لمدة 100 دورة عند حجم الصورة 64 بكسل. للحصول على قائمة كاملة بالوسائط المتاحة، اطلع على صفحة [تكوين](../../usage/cfg.md).
+
+!!! Example "مثال"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # تحميل نموذج
+ model = YOLO('yolov8n-cls.yaml') # إنشاء نموذج جديد من نموذج YAML
+ model = YOLO('yolov8n-cls.pt') # تحميل نموذج مدرّب مسبقًا (موصى به للتدريب)
+ model = YOLO('yolov8n-cls.yaml').load('yolov8n-cls.pt') # إنشاء من YAML ونقل الأوزان
+
+ # تدريب النموذج
+ results = model.train(data='mnist160', epochs=100, imgsz=64)
+ ```
+
+ === "CLI"
+
+ ```bash
+ # إنشاء نموذج جديد من YAML وبدء التدريب من البداية
+ yolo classify train data=mnist160 model=yolov8n-cls.yaml epochs=100 imgsz=64
+
+ # بدء التدريب من نموذج مدرّب بصيغة pt
+ yolo classify train data=mnist160 model=yolov8n-cls.pt epochs=100 imgsz=64
+
+ # إنشاء نموذج جديد من YAML ونقل الأوزان المدرّبة مسبقًا وبدء التدريب
+ yolo classify train data=mnist160 model=yolov8n-cls.yaml pretrained=yolov8n-cls.pt epochs=100 imgsz=64
+ ```
+
+### تنسيق مجموعة البيانات
+
+يمكن العثور على تنسيق مجموعة بيانات تصنيف YOLO بالتفصيل في [مرشد المجموعة](../../datasets/classify/index.md).
+
+## التحقق
+
+قم بتحديد دقة النموذج YOLOv8n-cls المدرّب على مجموعة بيانات MNIST160. لا يلزم تمرير أي وسيطة حيث يحتفظ `model` ببيانات التدريب والوسائط كسمات النموذج.
+
+!!! Example "مثال"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # تحميل نموذج
+ model = YOLO('yolov8n-cls.pt') # تحميل نموذج رسمي
+ model = YOLO('path/to/best.pt') # تحميل نموذج مخصص
+
+ # التحقق من النموذج
+ metrics = model.val() # لا تحتاج إلى وسائط، يتم تذكر مجموعة البيانات والإعدادات النموذج
+ metrics.top1 # دقة أعلى 1
+ metrics.top5 # دقة أعلى 5
+ ```
+ === "CLI"
+
+ ```bash
+ yolo classify val model=yolov8n-cls.pt # تحقق من النموذج الرسمي
+ yolo classify val model=path/to/best.pt # تحقق من النموذج المخصص
+ ```
+
+## التنبؤ
+
+استخدم نموذج YOLOv8n-cls المدرّب لتنفيذ تنبؤات على الصور.
+
+!!! Example "مثال"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # تحميل نموذج
+ model = YOLO('yolov8n-cls.pt') # تحميل نموذج رسمي
+ model = YOLO('path/to/best.pt') # تحميل نموذج مخصص
+
+ # تنبؤ باستخدام النموذج
+ results = model('https://ultralytics.com/images/bus.jpg') # تنبؤ على صورة
+ ```
+ === "CLI"
+
+ ```bash
+ yolo classify predict model=yolov8n-cls.pt source='https://ultralytics.com/images/bus.jpg' # تنبؤ باستخدام النموذج الرسمي
+ yolo classify predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # تنبؤ باستخدام النموذج المخصص
+ ```
+
+راجع تفاصيل كاملة حول وضع `predict` في الصفحة [Predict](https://docs.ultralytics.com/modes/predict/).
+
+## تصدير
+
+قم بتصدير نموذج YOLOv8n-cls إلى تنسيق مختلف مثل ONNX، CoreML، وما إلى ذلك.
+
+!!! Example "مثال"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # تحميل نموذج
+ model = YOLO('yolov8n-cls.pt') # تحميل نموذج رسمي
+ model = YOLO('path/to/best.pt') # تحميل نموذج مدرّب مخصص
+
+ # تصدير النموذج
+ model.export(format='onnx')
+ ```
+ === "CLI"
+
+ ```bash
+ yolo export model=yolov8n-cls.pt format=onnx # تصدير النموذج الرسمي
+ yolo export model=path/to/best.pt format=onnx # تصدير نموذج مدرّب مخصص
+ ```
+
+تتوفر صيغ تصدير YOLOv8-cls في الجدول أدناه. يمكنك تنبؤ أو التحقق من الصحة مباشرةً على النماذج المصدر، أي "yolo predict model=yolov8n-cls.onnx". يتم عرض أمثلة لاستخدام النموذج الخاص بك بعد الانتهاء من التصدير.
+
+| الصيغة | وسيطة الصيغة | النموذج | البيانات الوصفية | الوسيطات |
+|--------------------------------------------------------------------|---------------|-------------------------------|------------------|-----------------------------------------------------|
+| [PyTorch](https://pytorch.org/) | - | `yolov8n-cls.pt` | ✅ | - |
+| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-cls.torchscript` | ✅ | `imgsz`, `optimize` |
+| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-cls.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` |
+| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-cls_openvino_model/` | ✅ | `imgsz`, `half` |
+| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-cls.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` |
+| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-cls.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` |
+| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-cls_saved_model/` | ✅ | `imgsz`, `keras` |
+| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-cls.pb` | ❌ | `imgsz` |
+| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-cls.tflite` | ✅ | `imgsz`, `half`, `int8` |
+| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-cls_edgetpu.tflite` | ✅ | `imgsz` |
+| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-cls_web_model/` | ✅ | `imgsz` |
+| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-cls_paddle_model/` | ✅ | `imgsz` |
+| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-cls_ncnn_model/` | ✅ | `imgsz`, `half` |
+
+راجع التفاصيل الكاملة حول `export` في الصفحة [Export](https://docs.ultralytics.com/modes/export/).
diff --git a/docs/ar/tasks/detect.md b/docs/ar/tasks/detect.md
new file mode 100644
index 0000000000..3b3e799efe
--- /dev/null
+++ b/docs/ar/tasks/detect.md
@@ -0,0 +1,185 @@
+---
+comments: true
+description: وثائق رسمية لـ YOLOv8 بواسطة Ultralytics. تعلم كيفية تدريب و التحقق من صحة و التنبؤ و تصدير النماذج بتنسيقات مختلفة. تتضمن إحصائيات الأداء التفصيلية.
+keywords: YOLOv8, Ultralytics, التعرف على الكائنات, النماذج المدربة من قبل, التدريب, التحقق من الصحة, التنبؤ, تصدير النماذج, COCO, ImageNet, PyTorch, ONNX, CoreML
+---
+
+# التعرف على الكائنات
+
+
+
+Task التعرف على الكائنات هو عبارة عن تعرف على موقع و فئة الكائنات في صورة أو فيديو.
+
+مخرجات جهاز الاستشعار هي مجموعة من مربعات تحيط بالكائنات في الصورة، مع تصنيف الفئة ودرجات وثقة لكل مربع. التعرف على الكائنات هو اختيار جيد عندما تحتاج إلى تحديد كائنات مهمة في مشهد، ولكنك لا تحتاج إلى معرفة بالضبط أين يكمن الكائن أو شكله الدقيق.
+
+
+
+
+
+ شاهد: التعرف على الكائنات باستخدام نموذج Ultralytics YOLOv8 مع تدريب مسبق.
+
+
+!!! Tip "تلميح"
+
+ نماذج YOLOv8 Detect هي النماذج الافتراضية YOLOv8، أي `yolov8n.pt` و هي مدربة مسبقًا على [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml).
+
+## [النماذج](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8)
+
+تُعرض هنا النماذج المدربة مسبقًا لـ YOLOv8 Detect. النماذج Detect و Segment و Pose معتمدة على مجموعة البيانات [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)، بينما النماذج Classify معتمدة على مجموعة البيانات [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml).
+
+تُقوم النماذج بالتنزيل تلقائيًا من أحدث [إصدار Ultralytics](https://github.com/ultralytics/assets/releases) عند الاستخدام لأول مرة.
+
+| النموذج | الحجم (بكسل) | mAPval 50-95 | السرعة CPU ONNX (مللي ثانية) | السرعة A100 TensorRT (مللي ثانية) | الوزن (ميغا) | FLOPs (مليار) |
+|--------------------------------------------------------------------------------------|----------------------|----------------------|-----------------------------------------|----------------------------------------------|----------------------|-----------------------|
+| [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8n.pt) | 640 | 37.3 | 80.4 | 0.99 | 3.2 | 8.7 |
+| [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8s.pt) | 640 | 44.9 | 128.4 | 1.20 | 11.2 | 28.6 |
+| [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8m.pt) | 640 | 50.2 | 234.7 | 1.83 | 25.9 | 78.9 |
+| [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8l.pt) | 640 | 52.9 | 375.2 | 2.39 | 43.7 | 165.2 |
+| [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8x.pt) | 640 | 53.9 | 479.1 | 3.53 | 68.2 | 257.8 |
+
+- قيم mAPval تنطبق على مقياس نموذج واحد-مقياس واحد على مجموعة بيانات [COCO val2017](http://cocodataset.org).
+ اعيد حسابها بواسطة `yolo val detect data=coco.yaml device=0`
+- السرعةتمت متوسطة على صور COCO val باستخدام [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/)
+ instance.
+ اعيد حسابها بواسطة `yolo val detect data=coco128.yaml batch=1 device=0|cpu`
+
+## تدريب
+
+قم بتدريب YOLOv8n على مجموعة البيانات COCO128 لمدة 100 دورة على حجم صورة 640. للحصول على قائمة كاملة بالوسائط المتاحة انظر الصفحة [التكوين](../../usage/cfg.md).
+
+!!! Example "مثال"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # قم بتحميل نموذج
+ model = YOLO('yolov8n.yaml') # بناء نموذج جديد من YAML
+ model = YOLO('yolov8n.pt') # قم بتحميل نموذج مدرب مسبقًا (موصى به للتدريب)
+ model = YOLO('yolov8n.yaml').load('yolov8n.pt') # بناء من YAML و نقل الأوزان
+
+ # قم بتدريب النموذج
+ results = model.train(data='coco128.yaml', epochs=100, imgsz=640)
+ ```
+ === "CLI"
+
+ ```bash
+ # قم ببناء نموذج جديد من YAML وابدأ التدريب من الصفر
+ yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640
+
+ # ابدأ التدريب من نموذج *.pt مدرب مسبقًا
+ yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640
+
+ # بناء نموذج جديد من YAML، ونقل الأوزان المدربة مسبقاً إلى النموذج وابدأ التدريب
+ yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640
+ ```
+
+### تنسيق مجموعة بيانات
+
+يمكن العثور على تنسيق مجموعة بيانات التعرف على الكائنات بالتفصيل في [دليل مجموعة البيانات](../../datasets/detect/index.md). لتحويل مجموعة البيانات الحالية من تنسيقات أخرى (مثل COCO الخ) إلى تنسيق YOLO، يرجى استخدام أداة [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) المقدمة من Ultralytics.
+
+## التحقق من الصحة
+
+قم بتحقق من دقة النموذج المدرب مسبقًا YOLOv8n على مجموعة البيانات COCO128. ليس هناك حاجة إلى تمرير أي وسيطات حيث يحتفظ النموذج ببياناته التدريبية والوسيطات كسمات النموذج.
+
+!!! Example "مثال"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # قم بتحميل نموذج
+ model = YOLO('yolov8n.pt') # تحميل نموذج رسمي
+ model = YOLO('path/to/best.pt') # تحميل نموذج مخصص
+
+ # قم بالتحقق من النموذج
+ metrics = model.val() # لا حاجة لأي بيانات، يتذكر النموذج بيانات التدريب و الوسيطات
+ metrics.box.map # map50-95
+ metrics.box.map50 # map50
+ metrics.box.map75 # map75
+ metrics.box.maps # قائمة تحتوي map50-95 لكل فئة
+ ```
+ === "CLI"
+
+ ```bash
+ yolo detect val model=yolov8n.pt # التحقق من النموذج الرسمي
+ yolo detect val model=path/to/best.pt # التحقق من النموذج المخصص
+ ```
+
+## التنبؤ
+
+استخدم نموذج YOLOv8n المدرب مسبقًا لتشغيل التنبؤات على الصور.
+
+!!! Example "مثال"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # قم بتحميل نموذج
+ model = YOLO('yolov8n.pt') # قم بتحميل نموذج رسمي
+ model = YOLO('path/to/best.pt') # قم بتحميل نموذج مخصص
+
+ # أجرِ التنبؤ باستخدام النموذج
+ results = model('https://ultralytics.com/images/bus.jpg') # التنبؤ على صورة
+ ```
+ === "CLI"
+
+ ```bash
+ yolo detect predict model=yolov8n.pt source='https://ultralytics.com/images/bus.jpg' # التنبؤ باستخدام النموذج الرسمي
+ yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # التنبؤ بالنموذج المخصص
+ ```
+
+انظر تفاصيل وضع الـ `predict` الكامل في صفحة [Predict](https://docs.ultralytics.com/modes/predict/).
+
+## تصدير
+
+قم بتصدير نموذج YOLOv8n إلى تنسيق مختلف مثل ONNX، CoreML وغيرها.
+
+!!! Example "مثال"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # قم بتحميل نموذج
+ model = YOLO('yolov8n.pt') # تحميل نموذج رسمي
+ model = YOLO('path/to/best.pt') # تحميل نموذج مدرب مخصص
+
+ # قم بتصدير النموذج
+ model.export(format='onnx')
+ ```
+ === "CLI"
+
+ ```bash
+ yolo export model=yolov8n.pt format=onnx # تصدير النموذج الرسمي
+ yolo export model=path/to/best.pt format=onnx # تصدير النموذج المدرب مخصص
+ ```
+
+التنسيقات المدعومة لتصدير YOLOv8 مدرجة في الجدول أدناه. يمكنك التنبؤ أو التحقق من صحة النماذج المصدرة مباشرة، على سبيل المثال `yolo predict model=yolov8n.onnx`. سيتم عرض أمثلة استخدام لنموذجك بعد اكتمال التصدير.
+
+| الشكل | مسافة `format` | النموذج | بيانات الوصف | وسيطات |
+|--------------------------------------------------------------------|----------------|---------------------------|--------------|-----------------------------------------------------|
+| [PyTorch](https://pytorch.org/) | - أو | `yolov8n.pt` | ✅ | - |
+| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` |
+| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` |
+| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half`, `int8` |
+| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` |
+| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` |
+| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras`, `int8` |
+| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` |
+| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` |
+| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` |
+| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` |
+| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` |
+| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` |
+
+انظر تفاصيل كاملة للـ `export` في صفحة [Export](https://docs.ultralytics.com/modes/export/).
diff --git a/docs/ar/tasks/index.md b/docs/ar/tasks/index.md
new file mode 100644
index 0000000000..39db305645
--- /dev/null
+++ b/docs/ar/tasks/index.md
@@ -0,0 +1,55 @@
+---
+comments: true
+description: تعرّف على المهام الأساسية لتقنية YOLOv8 للرؤية الحاسوبية والتي تشمل الكشف، التجزئة، التصنيف وتقدير الوضعية. تعرف على استخداماتها في مشاريع الذكاء الاصطناعي الخاصة بك.
+keywords: Ultralytics، YOLOv8، الكشف، التجزئة، التصنيف، تقدير الوضعية، الإطار الذكي للذكاء الاصطناعي، المهام الرؤية الحاسوبية
+---
+
+# مهام Ultralytics YOLOv8
+
+
+
+
+YOLOv8 هو إطار ذكاء اصطناعي يدعم عدة **مهام** للرؤية الحاسوبية. يمكن استخدام الإطار لأداء [الكشف](detect.md)، [التجزئة](segment.md)، [التصنيف](classify.md)، و[تقدير الوضعية](pose.md). كل من هذه المهام لها هدف مختلف واستخدام محدد.
+
+!!! Note
+
+ 🚧 يجري بناء وثائقنا متعددة اللغات حاليًا، ونعمل جاهدين على تحسينها. شكرًا لصبرك! 🙏
+
+
+
+## [الكشف](detect.md)
+
+الكشف هو المهمة الأساسية المدعومة بواسطة YOLOv8. يتضمن الكشف اكتشاف الكائنات في صورة أو إطار فيديو ورسم مربعات محيطة حولها. يتم تصنيف الكائنات المكتشفة إلى فئات مختلفة استنادًا إلى ميزاتها. يمكن لـ YOLOv8 اكتشاف أكثر من كائن واحد في صورة أو إطار فيديو واحد بدقة وسرعة عالية.
+
+[أمثلة للكشف](detect.md){ .md-button .md-button--primary}
+
+## [التجزئة](segment.md)
+
+التجزئة هي مهمة تتضمن تقسيم صورة إلى مناطق مختلفة استنادًا إلى محتوى الصورة. يتم تعيين علامة لكل منطقة استنادًا إلى محتواها. تعتبر هذه المهمة مفيدة في تطبيقات مثل تجزئة الصور وتصوير الطبية. يستخدم YOLOv8 نسخة معدلة من هندسة U-Net لأداء التجزئة.
+
+[أمثلة للتجزئة](segment.md){ .md-button .md-button--primary}
+
+## [التصنيف](classify.md)
+
+التصنيف هو مهمة تتضمن تصنيف صورة إلى فئات مختلفة. يمكن استخدام YOLOv8 لتصنيف الصور استنادًا إلى محتواها. يستخدم نسخة معدلة من هندسة EfficientNet لأداء التصنيف.
+
+[أمثلة للتصنيف](classify.md){ .md-button .md-button--primary}
+
+## [تقدير الوضعية](pose.md)
+
+تقدير الوضعية/النقاط الرئيسية هو مهمة تتضمن اكتشاف نقاط محددة في صورة أو إطار فيديو. يُشار إلى هذه النقاط بمصطلح النقاط الرئيسية وتُستخدم لتتبع الحركة أو تقدير الوضعية. يمكن لـ YOLOv8 اكتشاف النقاط الرئيسية في صورة أو إطار فيديو بدقة وسرعة عالية.
+
+[أمثلة لتقدير الوضعية](pose.md){ .md-button .md-button--primary}
+
+## الاستنتاج
+
+يدعم YOLOv8 مهام متعددة، بما في ذلك الكشف، التجزئة، التصنيف، وكشف النقاط الرئيسية. لكل من هذه المهام أهداف واستخدامات مختلفة. عن طريق فهم الاختلافات بين هذه المهام، يمكنك اختيار المهمة المناسبة لتطبيق الرؤية الحاسوبية الخاص بك.
diff --git a/docs/ar/tasks/pose.md b/docs/ar/tasks/pose.md
new file mode 100644
index 0000000000..f5c7919f6b
--- /dev/null
+++ b/docs/ar/tasks/pose.md
@@ -0,0 +1,186 @@
+---
+comments: true
+description: تعرّف على كيفية استخدام Ultralytics YOLOv8 لمهام تقدير الوضعية. اعثر على نماذج مدرّبة مسبقًا، وتعلم كيفية التدريب والتحقق والتنبؤ وتصدير نموذجك الخاص.
+keywords: Ultralytics، YOLO، YOLOv8، تقدير الوضعية ، كشف نقاط المفاتيح ، كشف الكائنات ، نماذج مدرّبة مسبقًا ، تعلم الآلة ، الذكاء الاصطناعي
+---
+
+# تقدير الوضعية
+
+تقدير الوضعية هو مهمة تنطوي على تحديد موقع نقاط محددة في الصورة ، وعادةً ما يشار إليها بنقاط الوضوح. يمكن أن تمثل نقاط الوضوح أجزاءً مختلفةً من الكائن مثل المفاصل أو العلامات المميزة أو الميزات البارزة الأخرى. عادةً ما يتم تمثيل مواقع نقاط الوضوح كمجموعة من الإحداثيات 2D `[x ، y]` أو 3D `[x ، y ، visible]`.
+
+يكون ناتج نموذج تقدير الوضعية مجموعة من النقاط التي تمثل نقاط الوضوح على كائن في الصورة ، عادةً مع نقاط الثقة لكل نقطة. تقدير الوضعية هو خيار جيد عندما تحتاج إلى تحديد أجزاء محددة من كائن في مشهد، وموقعها بالنسبة لبعضها البعض.
+
+
+
+!!! Tip "نصيحة"
+
+ النماذج التي تحتوي على البادئة "-pose" تستخدم لنماذج YOLOv8 pose ، على سبيل المثال `yolov8n-pose.pt`. هذه النماذج مدربة على [مجموعة بيانات نقاط الوضوح COCO]("https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml") وهي مناسبة لمجموعة متنوعة من مهام تقدير الوضعية.
+
+## [النماذج]("https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8")
+
+تعرض نماذج مدرّبة مسبقًا لـ YOLOv8 التي تستخدم لتقدير الوضعية هنا. النماذج للكشف والشريحة والوضعية يتم تدريبها على [مجموعة بيانات COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)، بينما تتم تدريب نماذج التصنيف على مجموعة بيانات ImageNet.
+
+يتم تنزيل النماذج من [آخر إصدار Ultralytics]("https://github.com/ultralytics/assets/releases") تلقائيًا عند استخدامها لأول مرة.
+
+| النموذج | الحجم (بالبكسل) | mAPالوضعية 50-95 | mAPالوضعية 50 | سرعةالوحدة المركزية ONNX(ms) | سرعةA100 TensorRT(ms) | المعلمات (مليون) | FLOPs (بالمليار) |
+|------------------------------------------------------------------------------------------------------|-----------------|-----------------------|--------------------|----------------------------------------|---------------------------------|------------------|------------------|
+| [YOLOv8n-pose](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8n-pose.pt) | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 |
+| [YOLOv8s-pose](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8s-pose.pt) | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 |
+| [YOLOv8m-pose](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8m-pose.pt) | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 |
+| [YOLOv8l-pose](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8l-pose.pt) | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 |
+| [YOLOv8x-pose](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8x-pose.pt) | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 |
+| [YOLOv8x-pose-p6](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8x-pose-p6.pt) | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 |
+
+- تعتبر القيم **mAPval** لنموذج واحد ومقياس واحد فقط على [COCO Keypoints val2017](http://cocodataset.org)
+ مجموعة البيانات.
+ يمكن إعادة إنتاجه بواسطة `يولو val pose data=coco-pose.yaml device=0`
+- يتم حساب **السرعة** من خلال متوسط صور COCO val باستخدام [المروحة الحرارية Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/)
+ مثيل.
+ يمكن إعادة إنتاجه بواسطة `يولو val pose data=coco8-pose.yaml batch=1 device=0|cpu`
+
+## التدريب
+
+يتم تدريب نموذج YOLOv8-pose على مجموعة بيانات COCO128-pose.
+
+!!! Example "مثال"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # تحميل النموذج
+ model = YOLO('yolov8n-pose.yaml') # بناء نموذج جديد من ملف YAML
+ model = YOLO('yolov8n-pose.pt') # تحميل نموذج مدرّب مسبقًا (موصى به للتدريب)
+ model = YOLO('yolov8n-pose.yaml').load('yolov8n-pose.pt') # بناء نموذج من YAML ونقل الوزن
+
+ # تدريب النموذج
+ results = model.train(data='coco8-pose.yaml', epochs=100, imgsz=640)
+ ```
+ === "CLI"
+
+ ```bash
+ # بناء نموذج جديد من YAML وبدء التدريب من البداية.
+ yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml epochs=100 imgsz=640
+
+ # البدء في التدريب من نموذج مدرب مسبقًا *.pt
+ yolo pose train data=coco8-pose.yaml model=yolov8n-pose.pt epochs=100 imgsz=640
+
+ # بناء نموذج جديد من YAML ، ونقل الأوزان المدرّبة مسبقًا إليه ، والبدء في التدريب.
+ yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml pretrained=yolov8n-pose.pt epochs=100 imgsz=640
+ ```
+
+### تنسيق مجموعة البيانات
+
+يمكن العثور على تنسيق مجموعات بيانات نقاط الوضوح YOLO في [دليل المجموعة البيانات](../../datasets/pose/index.md). لتحويل مجموعة البيانات الحالية التي لديك من تنسيقات أخرى (مثل COCO إلخ) إلى تنسيق YOLO ، يرجى استخدام أداة [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) من Ultralytics.
+
+## التحقق من الصحة
+
+تحقق من دقة نموذج YOLOv8n-pose المدرّب على مجموعة بيانات COCO128-pose. لا يلزم تمرير سبب ما كوسيط إلى `model`
+عند استدعاء.
+
+!!! Example "مثال"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # تحميل النموذج
+ model = YOLO('yolov8n-pose.pt') # تحميل نموذج رسمي
+ model = YOLO('path/to/best.pt') # تحميل نموذج مخصص
+
+ # التحقق من النموذج
+ metrics = model.val() # لا يوجد حاجة لأي سبب، يتذكر النموذج البيانات والوسائط كمجالات للنموذج
+ metrics.box.map # map50-95
+ metrics.box.map50 # map50
+ metrics.box.map75 # map75
+ metrics.box.maps # قائمة تحتوي على map50-95 لكل فئة
+ ```
+ === "CLI"
+
+ ```bash
+ yolo pose val model=yolov8n-pose.pt # التحقق من النموذج الرسمي
+ yolo pose val model=path/to/best.pt # التحقق من النموذج المخصص
+ ```
+
+## التنبؤ
+
+استخدم نموذج YOLOv8n-pose المدرّب لتشغيل توقعات على الصور.
+
+!!! Example "مثال"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # تحميل النموذج
+ model = YOLO('yolov8n-pose.pt') # تحميل نموذج رسمي
+ model = YOLO('path/to/best.pt') # تحميل نموذج مخصص
+
+ # التنبؤ باستخدام النموذج
+ results = model('https://ultralytics.com/images/bus.jpg') # التنبؤ بصورة
+ ```
+ === "CLI"
+
+ ```bash
+ yolo pose predict model=yolov8n-pose.pt source='https://ultralytics.com/images/bus.jpg' # التنبؤ باستخدام النموذج الرسمي
+ yolo pose predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # التنبؤ باستخدام النموذج المخصص
+ ```
+
+انظر تفاصيل `predict` كاملة في [صفحة التنبؤ](https://docs.ultralytics.com/modes/predict/).
+
+## التصدير
+
+قم بتصدير نموذج YOLOv8n-pose إلى تنسيق مختلف مثل ONNX، CoreML، الخ.
+
+!!! Example "مثال"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # تحميل النموذج
+ model = YOLO('yolov8n-pose.pt') # تحميل نموذج رسمي
+ model = YOLO('path/to/best.pt') # تحميل نموذج مدرب مخصص
+
+ # تصدير النموذج
+ model.export(format='onnx')
+ ```
+ === "CLI"
+
+ ```bash
+ yolo export model=yolov8n-pose.pt format=onnx # تصدير نموذج رسمي
+ yolo export model=path/to/best.pt format=onnx # تصدير نموذج مخصص
+ ```
+
+تتوفر تنسيقات تصدير YOLOv8-pose في الجدول أدناه. يمكنك التنبؤ أو التحقق مباشرةً على النماذج المصدرة ، على سبيل المثال `yolo predict model=yolov8n-pose.onnx`. توجد أمثلة استخدام متاحة لنموذجك بعد اكتمال عملية التصدير.
+
+| تنسيق | إجراء `format` | النموذج | البيانات الوصفية | الوسائط |
+|--------------------------------------------------------------------|----------------|--------------------------------|------------------|-----------------------------------------------------|
+| [PyTorch](https://pytorch.org/) | - | `yolov8n-pose.pt` | ✅ | - |
+| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-pose.torchscript` | ✅ | `imgsz`, `optimize` |
+| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-pose.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` |
+| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-pose_openvino_model/` | ✅ | `imgsz`, `half` |
+| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-pose.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` |
+| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-pose.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` |
+| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-pose_saved_model/` | ✅ | `imgsz`, `keras` |
+| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-pose.pb` | ❌ | `imgsz` |
+| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-pose.tflite` | ✅ | `imgsz`, `half`, `int8` |
+| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-pose_edgetpu.tflite` | ✅ | `imgsz` |
+| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-pose_web_model/` | ✅ | `imgsz` |
+| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-pose_paddle_model/` | ✅ | `imgsz` |
+| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-pose_ncnn_model/` | ✅ | `imgsz`, `half` |
+
+انظر تفاصيل `export` كاملة في [صفحة التصدير](https://docs.ultralytics.com/modes/export/).
diff --git a/docs/ar/tasks/segment.md b/docs/ar/tasks/segment.md
new file mode 100644
index 0000000000..e2a6efee1a
--- /dev/null
+++ b/docs/ar/tasks/segment.md
@@ -0,0 +1,189 @@
+---
+comments: true
+description: تعلم كيفية استخدام نماذج فصل الأشكال الفردية مع Ultralytics YOLO. تعليمات حول التدريب والتحقق من الصحة وتوقع الصورة وتصدير النموذج.
+keywords: yolov8 ، فصل الأشكال الفردية ، Ultralytics ، مجموعة بيانات COCO ، تجزئة الصورة ، كشف الكائنات ، تدريب النموذج ، التحقق من صحة النموذج ، توقع الصورة ، تصدير النموذج
+---
+
+# فصل الأشكال الفردية
+
+
+
+يذهب فصل الأشكال الفردية خطوة أبعد من كشف الكائنات وينطوي على تحديد الكائنات الفردية في صورة وتجزيئها عن بقية الصورة.
+
+ناتج نموذج فصل الأشكال الفردية هو مجموعة من الأقنعة أو الحدود التي تحدد كل كائن في الصورة ، جنبًا إلى جنب مع تصنيف الصنف ونقاط الثقة لكل كائن. يكون فصل الأشكال الفردية مفيدًا عندما تحتاج إلى معرفة ليس فقط أين توجد الكائنات في الصورة ، ولكن أيضًا ما هو شكلها الدقيق.
+
+
+
+
+
+ المشاهدة: تشغيل فصل الأشكال مع نموذج Ultralytics YOLOv8 مدرب مسبقًا باستخدام Python.
+
+
+!!! Tip "نصيحة"
+
+ تستخدم نماذج YOLOv8 Seg اللاحقة `-seg`، أي `yolov8n-seg.pt` وتكون مدربة مسبقًا على [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml).
+
+## [النماذج](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8)
+
+تُعرض هنا النماذج الجاهزة المدربة مسبقًا لـ YOLOv8 Segment. يتم تدريب نماذج الكشف والتجزيء والمواقف على مجموعة البيانات [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) ، بينما تدرب نماذج التصنيف على مجموعة البيانات [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml).
+
+تتم تنزيل [النماذج](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) تلقائيًا من [الإصدار](https://github.com/ultralytics/assets/releases) الأخير لـ Ultralytics عند أول استخدام.
+
+| النموذج | الحجم بكسل | mAPbox 50-95 | mAPmask 50-95 | السرعة CPU ONNX (مللي ثانية) | السرعة A100 TensorRT (مللي ثانية) | المعلمات (مليون) | FLOPs (مليار) |
+|----------------------------------------------------------------------------------------------|--------------------|----------------------|-----------------------|-----------------------------------------|----------------------------------------------|--------------------------|-----------------------|
+| [YOLOv8n-seg](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8n-seg.pt) | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 |
+| [YOLOv8s-seg](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8s-seg.pt) | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 |
+| [YOLOv8m-seg](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8m-seg.pt) | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 |
+| [YOLOv8l-seg](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8l-seg.pt) | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 |
+| [YOLOv8x-seg](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8x-seg.pt) | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 |
+
+- تُستخدم قيم **mAPval** لنموذج واحد وحجم واحد على مجموعة بيانات [COCO val2017](http://cocodataset.org).
+ يمكن إعادة إنتاجها باستخدام `yolo val segment data=coco.yaml device=0`
+- **تُحسب السرعة** كمتوسط على صور COCO val باستخدام [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/)
+ instance.
+ يمكن إعادة إنتاجها باستخدام `yolo val segment data=coco128-seg.yaml batch=1 device=0|cpu`
+
+## التدريب
+
+قم بتدريب YOLOv8n-seg على مجموعة بيانات COCO128-seg لمدة 100 دورة عند حجم صورة 640. للحصول على قائمة كاملة بالوسائط المتاحة ، راجع صفحة [التكوين](../../usage/cfg.md).
+
+!!! Example "مثال"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # قم بتحميل النموذج
+ model = YOLO('yolov8n-seg.yaml') # قم ببناء نموذج جديد من ملف YAML
+ model = YOLO('yolov8n-seg.pt') # قم بتحميل نموذج مدرب مسبقًا (موصى به للتدريب)
+ model = YOLO('yolov8n-seg.yaml').load('yolov8n.pt') # قم ببنائه من YAML ونقل الوزن
+
+ # قم بتدريب النموذج
+ results = model.train(data='coco128-seg.yaml', epochs=100, imgsz=640)
+ ```
+ === "CLI"
+
+ ```bash
+ # قم ببناء نموذج جديد من ملف YAML وبدء التدريب من البداية
+ yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml epochs=100 imgsz=640
+
+ # قم ببدء التدريب من نموذج *.pt مدرب مسبقًا
+ yolo segment train data=coco128-seg.yaml model=yolov8n-seg.pt epochs=100 imgsz=640
+
+ # قم ببناء نموذج جديد من YAML ونقل الأوزان المدربة مسبَقًا إليه وابدأ التدريب
+ yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml pretrained=yolov8n-seg.pt epochs=100 imgsz=640
+ ```
+
+### تنسيق مجموعة البيانات
+
+يمكن العثور على تنسيق مجموعة بيانات تجزيء YOLO بالتفصيل في [دليل مجموعة البيانات](../../datasets/segment/index.md). لتحويل مجموعة البيانات الحالية التي تتبع تنسيقات أخرى (مثل COCO إلخ) إلى تنسيق YOLO ، يُرجى استخدام أداة [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) من Ultralytics.
+
+## التحقق من الصحة
+
+قم بالتحقق من دقة نموذج YOLOv8n-seg المدرب على مجموعة بيانات COCO128-seg. لا حاجة لتمرير أي وسيطة كما يحتفظ النموذج ببيانات "تدريبه" والوسيطات كسمات النموذج.
+
+!!! Example "مثال"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # قم بتحميل النموذج
+ model = YOLO('yolov8n-seg.pt') # قم بتحميل نموذج رسمي
+ model = YOLO('path/to/best.pt') # قم بتحميل نموذج مخصص
+
+ # قم بالتحقق من النموذج
+ metrics = model.val() # لا حاجة إلى أي وسيطة ، يتذكر النموذج بيانات التدريب والوسيطات كسمات النموذج
+ metrics.box.map # map50-95(B)
+ metrics.box.map50 # map50(B)
+ metrics.box.map75 # map75(B)
+ metrics.box.maps # قائمة تحتوي على map50-95(B) لكل فئة
+ metrics.seg.map # map50-95(M)
+ metrics.seg.map50 # map50(M)
+ metrics.seg.map75 # map75(M)
+ metrics.seg.maps # قائمة تحتوي على map50-95(M) لكل فئة
+ ```
+ === "CLI"
+
+ ```bash
+ yolo segment val model=yolov8n-seg.pt # التحقق من النموذج الرسمي
+ yolo segment val model=path/to/best.pt # التحقق من النموذج المخصص
+ ```
+
+## التنبؤ
+
+استخدم نموذج YOLOv8n-seg المدرب للقيام بالتنبؤات على الصور.
+
+!!! Example "مثال"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # قم بتحميل النموذج
+ model = YOLO('yolov8n-seg.pt') # قم بتحميل نموذج رسمي
+ model = YOLO('path/to/best.pt') # قم بتحميل نموذج مخصص
+
+ # التنبؤ باستخدام النموذج
+ results = model('https://ultralytics.com/images/bus.jpg') # التنبؤ على صورة
+ ```
+ === "CLI"
+
+ ```bash
+ yolo segment predict model=yolov8n-seg.pt source='https://ultralytics.com/images/bus.jpg' # التنبؤ باستخدام النموذج الرسمي
+ yolo segment predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # التنبؤ باستخدام النموذج المخصص
+ ```
+
+انظر تفاصيل "التنبؤ" الكاملة في [الصفحة](https://docs.ultralytics.com/modes/predict/).
+
+## التصدير
+
+قم بتصدير نموذج YOLOv8n-seg إلى تنسيق مختلف مثل ONNX و CoreML وما إلى ذلك.
+
+!!! Example "مثال"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # قم بتحميل النموذج
+ model = YOLO('yolov8n-seg.pt') # قم بتحميل نموذج رسمي
+ model = YOLO('path/to/best.pt') # قم بتحميل نموذج مدرب مخصص
+
+ # قم بتصدير النموذج
+ model.export(format='onnx')
+ ```
+ === "CLI"
+
+ ```bash
+ yolo export model=yolov8n-seg.pt format=onnx # تصدير نموذج رسمي
+ yolo export model=path/to/best.pt format=onnx # تصدير نموذج مدرب مخصص
+ ```
+
+صيغ تصدير YOLOv8-seg المتاحة في الجدول أدناه. يمكنك التنبؤ أو التحقق من صحة الموديل المصدر بشكل مباشر ، أي `yolo predict model=yolov8n-seg.onnx`. يتم عرض أمثلة عن الاستخدام لنموذجك بعد اكتمال التصدير.
+
+| الصيغة | `format` Argument | النموذج | التعليمات | الخيارات |
+|--------------------------------------------------------------------|-------------------|-------------------------------|-----------|-------------------------------------------------|
+| [PyTorch](https://pytorch.org/) | - | `yolov8n-seg.pt` | ✅ | - |
+| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-seg.torchscript` | ✅ | `الحجم ، الأمان` |
+| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-seg.onnx` | ✅ | `الحجم ، half ، dynamic ، simplify ، opset` |
+| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-seg_openvino_model/` | ✅ | `الحجم ، half` |
+| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-seg.engine` | ✅ | `الحجم ، half ، dynamic ، simplify ، workspace` |
+| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-seg.mlpackage` | ✅ | `الحجم ، half ، int8 ، nms` |
+| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-seg_saved_model/` | ✅ | `الحجم ، keras` |
+| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-seg.pb` | ❌ | `الحجم` |
+| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-seg.tflite` | ✅ | `الحجم ، half ، int8` |
+| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-seg_edgetpu.tflite` | ✅ | `الحجم` |
+| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-seg_web_model/` | ✅ | `الحجم` |
+| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-seg_paddle_model/` | ✅ | `الحجم` |
+| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-seg_ncnn_model/` | ✅ | `الحجم ، half` |
+
+انظر تفاصيل "التصدير" الكاملة في [الصفحة](https://docs.ultralytics.com/modes/export/).
diff --git a/docs/build_reference.py b/docs/build_reference.py
index 64f07875c4..4560b32f06 100644
--- a/docs/build_reference.py
+++ b/docs/build_reference.py
@@ -48,7 +48,7 @@ def create_markdown(py_filepath: Path, module_path: str, classes: list, function
edit = f'https://github.com/ultralytics/ultralytics/edit/main/{module_path}.py'
title_content = (
f'# Reference for `{module_path}.py`\n\n'
- f'!!! note\n\n'
+ f'!!! Note\n\n'
f' This file is available at [{url}]({url}). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request]({edit}) 🛠️. Thank you 🙏!\n\n'
)
md_content = [f'---\n## ::: {module_name}.{class_name}\n
\n' for class_name in classes]
diff --git a/docs/de/datasets/index.md b/docs/de/datasets/index.md
index ff115c3d15..408880cdfa 100644
--- a/docs/de/datasets/index.md
+++ b/docs/de/datasets/index.md
@@ -8,7 +8,7 @@ keywords: Computer Vision, Datensätze, Ultralytics, YOLO, Objekterkennung, Inst
Ultralytics bietet Unterstützung für verschiedene Datensätze an, um Computervisionsaufgaben wie Erkennung, Instanzsegmentierung, Posenschätzung, Klassifizierung und Verfolgung mehrerer Objekte zu erleichtern. Unten finden Sie eine Liste der wichtigsten Ultralytics-Datensätze, gefolgt von einer Zusammenfassung jeder Computervisionsaufgabe und den jeweiligen Datensätzen.
-!!! note
+!!! Note
🚧 Unsere mehrsprachige Dokumentation befindet sich derzeit im Aufbau und wir arbeiten intensiv an deren Verbesserung. Vielen Dank für Ihre Geduld! 🙏
@@ -104,7 +104,7 @@ Das Bereitstellen eines neuen Datensatzes umfasst mehrere Schritte, um sicherzus
### Beispielcode zum Optimieren und Zippen eines Datensatzes
-!!! example "Optimieren und Zippen eines Datensatzes"
+!!! Example "Optimieren und Zippen eines Datensatzes"
=== "Python"
diff --git a/docs/de/index.md b/docs/de/index.md
index cf298d2678..1560f84742 100644
--- a/docs/de/index.md
+++ b/docs/de/index.md
@@ -38,7 +38,7 @@ Wir stellen [Ultralytics](https://ultralytics.com) [YOLOv8](https://github.com/u
Erkunden Sie die YOLOv8-Dokumentation, eine umfassende Ressource, die Ihnen helfen soll, seine Funktionen und Fähigkeiten zu verstehen und zu nutzen. Ob Sie ein erfahrener Machine-Learning-Praktiker sind oder neu in diesem Bereich, dieses Hub zielt darauf ab, das Potenzial von YOLOv8 in Ihren Projekten zu maximieren
-!!! note
+!!! Note
🚧 Unsere mehrsprachige Dokumentation wird derzeit entwickelt und wir arbeiten intensiv an ihrer Verbesserung. Wir danken für Ihre Geduld! 🙏
diff --git a/docs/de/models/index.md b/docs/de/models/index.md
index 4fd44ef3ef..1baaaad684 100644
--- a/docs/de/models/index.md
+++ b/docs/de/models/index.md
@@ -8,7 +8,7 @@ keywords: Ultralytics, Dokumentation, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, R
Willkommen in der Modell-Dokumentation von Ultralytics! Wir bieten Unterstützung für eine breite Palette von Modellen, die für spezifische Aufgaben wie [Objekterkennung](../tasks/detect.md), [Instanzsegmentierung](../tasks/segment.md), [Bildklassifizierung](../tasks/classify.md), [Poseerkennung](../tasks/pose.md) und [Multi-Objekt-Tracking](../modes/track.md) zugeschnitten sind. Wenn Sie daran interessiert sind, Ihre Modellarchitektur an Ultralytics beizutragen, werfen Sie einen Blick auf unseren [Beitragenden-Leitfaden](../../help/contributing.md).
-!!! Hinweis
+!!! Note
🚧 Unsere mehrsprachige Dokumentation befindet sich derzeit im Aufbau, und wir arbeiten hart daran, sie zu verbessern. Vielen Dank für Ihre Geduld! 🙏
@@ -41,7 +41,7 @@ Hier sind einige der wesentlichen unterstützten Modelle:
## Erste Schritte: Anwendungsbeispiele
-!!! Beispiel ""
+!!! Example "Beispiel"
=== "Python"
diff --git a/docs/de/modes/benchmark.md b/docs/de/modes/benchmark.md
index 00e4a38110..93908a1456 100644
--- a/docs/de/modes/benchmark.md
+++ b/docs/de/modes/benchmark.md
@@ -32,7 +32,7 @@ Nachdem Ihr Modell trainiert und validiert wurde, ist der nächste logische Schr
- **OpenVINO:** Für die Optimierung von Intel-Hardware
- **CoreML, TensorFlow SavedModel, und mehr:** Für vielfältige Deployment-Anforderungen.
-!!! tip "Tipp"
+!!! Tip "Tipp"
* Exportieren Sie in ONNX oder OpenVINO für bis zu 3x CPU-Beschleunigung.
* Exportieren Sie in TensorRT für bis zu 5x GPU-Beschleunigung.
@@ -41,7 +41,7 @@ Nachdem Ihr Modell trainiert und validiert wurde, ist der nächste logische Schr
Führen Sie YOLOv8n-Benchmarks auf allen unterstützten Exportformaten einschließlich ONNX, TensorRT usw. durch. Siehe den Abschnitt Argumente unten für eine vollständige Liste der Exportargumente.
-!!! example ""
+!!! Example "Beispiel"
=== "Python"
diff --git a/docs/de/modes/export.md b/docs/de/modes/export.md
index ea9753da7c..c62a1d6863 100644
--- a/docs/de/modes/export.md
+++ b/docs/de/modes/export.md
@@ -39,7 +39,7 @@ Hier sind einige der herausragenden Funktionen:
- **Optimiertes Inferenzverhalten:** Exportierte Modelle sind für schnellere Inferenzzeiten optimiert.
- **Tutorial-Videos:** Ausführliche Anleitungen und Tutorials für ein reibungsloses Exporterlebnis.
-!!! tip "Tipp"
+!!! Tip "Tipp"
* Exportieren Sie nach ONNX oder OpenVINO für bis zu 3-fache CPU-Beschleunigung.
* Exportieren Sie nach TensorRT für bis zu 5-fache GPU-Beschleunigung.
@@ -48,7 +48,7 @@ Hier sind einige der herausragenden Funktionen:
Exportieren Sie ein YOLOv8n-Modell in ein anderes Format wie ONNX oder TensorRT. Weitere Informationen zu den Exportargumenten finden Sie im Abschnitt „Argumente“ unten.
-!!! example ""
+!!! Example "Beispiel"
=== "Python"
diff --git a/docs/de/modes/predict.md b/docs/de/modes/predict.md
index 177c8df384..feb64f020e 100644
--- a/docs/de/modes/predict.md
+++ b/docs/de/modes/predict.md
@@ -50,7 +50,7 @@ Der Prognosemodus von YOLOv8 ist robust und vielseitig konzipiert und verfügt
Ultralytics YOLO-Modelle geben entweder eine Python-Liste von `Results`-Objekten zurück, oder einen speichereffizienten Python-Generator von `Results`-Objekten, wenn `stream=True` beim Inferenzvorgang an das Modell übergeben wird:
-!!! Beispiel "Predict"
+!!! Example "Predict"
=== "Gibt eine Liste mit `stream=False` zurück"
```python
@@ -92,7 +92,7 @@ Ultralytics YOLO-Modelle geben entweder eine Python-Liste von `Results`-Objekten
YOLOv8 kann verschiedene Arten von Eingabequellen für die Inferenz verarbeiten, wie in der folgenden Tabelle gezeigt. Die Quellen umfassen statische Bilder, Videostreams und verschiedene Datenformate. Die Tabelle gibt ebenfalls an, ob jede Quelle im Streaming-Modus mit dem Argument `stream=True` ✅ verwendet werden kann. Der Streaming-Modus ist vorteilhaft für die Verarbeitung von Videos oder Live-Streams, da er einen Generator von Ergebnissen statt das Laden aller Frames in den Speicher erzeugt.
-!!! Tipp "Tipp"
+!!! Tip "Tipp"
Verwenden Sie `stream=True` für die Verarbeitung langer Videos oder großer Datensätze, um den Speicher effizient zu verwalten. Bei `stream=False` werden die Ergebnisse für alle Frames oder Datenpunkte im Speicher gehalten, was bei großen Eingaben schnell zu Speicherüberläufen führen kann. Im Gegensatz dazu verwendet `stream=True` einen Generator, der nur die Ergebnisse des aktuellen Frames oder Datenpunkts im Speicher behält, was den Speicherverbrauch erheblich reduziert und Speicherüberlaufprobleme verhindert.
@@ -115,7 +115,7 @@ YOLOv8 kann verschiedene Arten von Eingabequellen für die Inferenz verarbeiten,
Untenstehend finden Sie Codebeispiele für die Verwendung jedes Quelltyps:
-!!! Beispiel "Vorhersagequellen"
+!!! Example "Vorhersagequellen"
=== "Bild"
Führen Sie die Inferenz auf einer Bilddatei aus.
diff --git a/docs/de/modes/track.md b/docs/de/modes/track.md
index 35040b04d6..f29dae9c31 100644
--- a/docs/de/modes/track.md
+++ b/docs/de/modes/track.md
@@ -58,7 +58,7 @@ Der Standardtracker ist BoT-SORT.
Um den Tracker auf Videostreams auszuführen, verwenden Sie ein trainiertes Erkennungs-, Segmentierungs- oder Posierungsmodell wie YOLOv8n, YOLOv8n-seg und YOLOv8n-pose.
-!!! beispiel ""
+!!! Example "Beispiel"
=== "Python"
@@ -97,7 +97,7 @@ Wie in der obigen Nutzung zu sehen ist, ist die Verfolgung für alle Detect-, Se
Die Tracking-Konfiguration teilt Eigenschaften mit dem Predict-Modus, wie `conf`, `iou` und `show`. Für weitere Konfigurationen siehe die Seite des [Predict](https://docs.ultralytics.com/modes/predict/)-Modells.
-!!! beispiel ""
+!!! Example "Beispiel"
=== "Python"
@@ -120,7 +120,7 @@ Die Tracking-Konfiguration teilt Eigenschaften mit dem Predict-Modus, wie `conf`
Ultralytics ermöglicht es Ihnen auch, eine modifizierte Tracker-Konfigurationsdatei zu verwenden. Hierfür kopieren Sie einfach eine Tracker-Konfigurationsdatei (zum Beispiel `custom_tracker.yaml`) von [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) und ändern jede Konfiguration (außer dem `tracker_type`), wie es Ihren Bedürfnissen entspricht.
-!!! beispiel ""
+!!! Example "Beispiel"
=== "Python"
@@ -147,7 +147,7 @@ Für eine umfassende Liste der Tracking-Argumente siehe die Seite [ultralytics/c
Hier ist ein Python-Skript, das OpenCV (`cv2`) und YOLOv8 verwendet, um Objektverfolgung in Videoframes durchzuführen. Dieses Skript setzt voraus, dass Sie die notwendigen Pakete (`opencv-python` und `ultralytics`) bereits installiert haben. Das Argument `persist=True` teilt dem Tracker mit, dass das aktuelle Bild oder Frame das nächste in einer Sequenz ist und Tracks aus dem vorherigen Bild im aktuellen Bild erwartet werden.
-!!! beispiel "Streaming-For-Schleife mit Tracking"
+!!! Example "Streaming-For-Schleife mit Tracking"
```python
import cv2
diff --git a/docs/de/modes/train.md b/docs/de/modes/train.md
index 420080f687..b7ee65e50b 100644
--- a/docs/de/modes/train.md
+++ b/docs/de/modes/train.md
@@ -41,7 +41,7 @@ Die folgenden sind einige bemerkenswerte Funktionen von YOLOv8s Trainingsmodus:
- **Konfiguration der Hyperparameter:** Die Möglichkeit zur Modifikation der Hyperparameter über YAML-Konfigurationsdateien oder CLI-Argumente.
- **Visualisierung und Überwachung:** Echtzeit-Tracking von Trainingsmetriken und Visualisierung des Lernprozesses für bessere Einsichten.
-!!! Tipp "Tipp"
+!!! Tip "Tipp"
* YOLOv8-Datensätze wie COCO, VOC, ImageNet und viele andere werden automatisch bei der ersten Verwendung heruntergeladen, d.h. `yolo train data=coco.yaml`
@@ -49,7 +49,7 @@ Die folgenden sind einige bemerkenswerte Funktionen von YOLOv8s Trainingsmodus:
Trainieren Sie YOLOv8n auf dem COCO128-Datensatz für 100 Epochen bei einer Bildgröße von 640. Das Trainingsgerät kann mit dem Argument `device` spezifiziert werden. Wenn kein Argument übergeben wird, wird GPU `device=0` verwendet, wenn verfügbar, sonst wird `device=cpu` verwendet. Siehe den Abschnitt Argumente unten für eine vollständige Liste der Trainingsargumente.
-!!! Beispiel "Beispiel für Single-GPU- und CPU-Training"
+!!! Example "Beispiel für Single-GPU- und CPU-Training"
Das Gerät wird automatisch ermittelt. Wenn eine GPU verfügbar ist, dann wird diese verwendet, sonst beginnt das Training auf der CPU.
@@ -84,7 +84,7 @@ Trainieren Sie YOLOv8n auf dem COCO128-Datensatz für 100 Epochen bei einer Bild
Multi-GPU-Training ermöglicht eine effizientere Nutzung von verfügbaren Hardware-Ressourcen, indem die Trainingslast über mehrere GPUs verteilt wird. Diese Funktion ist über sowohl die Python-API als auch die Befehlszeilenschnittstelle verfügbar. Um das Multi-GPU-Training zu aktivieren, geben Sie die GPU-Geräte-IDs an, die Sie verwenden möchten.
-!!! Beispiel "Beispiel für Multi-GPU-Training"
+!!! Example "Beispiel für Multi-GPU-Training"
Um mit 2 GPUs zu trainieren, verwenden Sie die folgenden Befehle für CUDA-Geräte 0 und 1. Erweitern Sie dies bei Bedarf auf zusätzliche GPUs.
@@ -113,7 +113,7 @@ Mit der Unterstützung für Apple M1- und M2-Chips, die in den Ultralytics YOLO-
Um das Training auf Apple M1- und M2-Chips zu ermöglichen, sollten Sie 'mps' als Ihr Gerät angeben, wenn Sie den Trainingsprozess starten. Unten ist ein Beispiel, wie Sie dies in Python und über die Befehlszeile tun könnten:
-!!! Beispiel "MPS-Training Beispiel"
+!!! Example "MPS-Training Beispiel"
=== "Python"
@@ -148,7 +148,7 @@ Um einen Logger zu verwenden, wählen Sie ihn aus dem Dropdown-Menü im obigen C
Um Comet zu verwenden:
-!!! Beispiel ""
+!!! Example "Beispiel"
=== "Python"
```python
@@ -166,7 +166,7 @@ Vergessen Sie nicht, sich auf der Comet-Website anzumelden und Ihren API-Schlüs
Um ClearML zu verwenden:
-!!! Beispiel ""
+!!! Example "Beispiel"
=== "Python"
```python
@@ -184,7 +184,7 @@ Nach dem Ausführen dieses Skripts müssen Sie sich auf dem Browser bei Ihrem Cl
Um TensorBoard in [Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb) zu verwenden:
-!!! Beispiel ""
+!!! Example "Beispiel"
=== "CLI"
```bash
@@ -194,7 +194,7 @@ Um TensorBoard in [Google Colab](https://colab.research.google.com/github/ultral
Um TensorBoard lokal auszuführen, führen Sie den folgenden Befehl aus und betrachten Sie die Ergebnisse unter http://localhost:6006/.
-!!! Beispiel ""
+!!! Example "Beispiel"
=== "CLI"
```bash
diff --git a/docs/de/modes/val.md b/docs/de/modes/val.md
index 9cd235d4c2..3f0c1880b0 100644
--- a/docs/de/modes/val.md
+++ b/docs/de/modes/val.md
@@ -30,7 +30,7 @@ Dies sind die bemerkenswerten Funktionen, die der Val-Modus von YOLOv8 bietet:
- **CLI- und Python-API:** Wählen Sie zwischen Befehlszeilenschnittstelle oder Python-API basierend auf Ihrer Präferenz für die Validierung.
- **Datenkompatibilität:** Funktioniert nahtlos mit Datensätzen, die während der Trainingsphase sowie mit benutzerdefinierten Datensätzen verwendet wurden.
-!!! tip "Tipp"
+!!! Tip "Tipp"
* YOLOv8-Modelle speichern automatisch ihre Trainingseinstellungen, sodass Sie ein Modell mit der gleichen Bildgröße und dem ursprünglichen Datensatz leicht validieren können, indem Sie einfach `yolo val model=yolov8n.pt` oder `model('yolov8n.pt').val()` ausführen
@@ -38,7 +38,7 @@ Dies sind die bemerkenswerten Funktionen, die der Val-Modus von YOLOv8 bietet:
Validieren Sie die Genauigkeit des trainierten YOLOv8n-Modells auf dem COCO128-Datensatz. Es muss kein Argument übergeben werden, da das `model` seine Trainings-`data` und Argumente als Modellattribute speichert. Siehe Abschnitt „Argumente“ unten für eine vollständige Liste der Exportargumente.
-!!! example ""
+!!! Example "Beispiel"
=== "Python"
diff --git a/docs/de/quickstart.md b/docs/de/quickstart.md
index 3cd9886ca0..0abe15f9bf 100644
--- a/docs/de/quickstart.md
+++ b/docs/de/quickstart.md
@@ -8,7 +8,7 @@ keywords: Ultralytics-Installation, pip installieren Ultralytics, Docker install
Ultralytics bietet verschiedene Installationsmethoden, darunter Pip, Conda und Docker. Installiere YOLOv8 über das `ultralytics` Pip-Paket für die neueste stabile Veröffentlichung oder indem du das [Ultralytics GitHub-Repository](https://github.com/ultralytics/ultralytics) klonst für die aktuellste Version. Docker kann verwendet werden, um das Paket in einem isolierten Container auszuführen, ohne eine lokale Installation vornehmen zu müssen.
-!!! Beispiel "Installieren"
+!!! Example "Installieren"
=== "Pip-Installation (empfohlen)"
Installieren Sie das `ultralytics` Paket mit Pip oder aktualisieren Sie eine bestehende Installation, indem Sie `pip install -U ultralytics` ausführen. Besuchen Sie den Python Package Index (PyPI) für weitere Details zum `ultralytics` Paket: [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/).
@@ -39,7 +39,7 @@ Ultralytics bietet verschiedene Installationsmethoden, darunter Pip, Conda und D
conda install -c conda-forge ultralytics
```
- !!! Hinweis
+ !!! Note
Wenn Sie in einer CUDA-Umgebung installieren, ist es am besten, `ultralytics`, `pytorch` und `pytorch-cuda` im selben Befehl zu installieren, um dem Conda-Paketmanager zu ermöglichen, Konflikte zu lösen, oder `pytorch-cuda` als letztes zu installieren, damit es das CPU-spezifische `pytorch` Paket bei Bedarf überschreiben kann.
```bash
@@ -89,7 +89,7 @@ Siehe die `ultralytics` [requirements.txt](https://github.com/ultralytics/ultral
Watch: Ultralytics YOLO Quick Start Guide
-!!! Tipp "Tipp"
+!!! Tip "Tipp"
PyTorch-Anforderungen variieren je nach Betriebssystem und CUDA-Anforderungen, daher wird empfohlen, PyTorch zuerst gemäß den Anweisungen unter [https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally) zu installieren.
@@ -101,7 +101,7 @@ Siehe die `ultralytics` [requirements.txt](https://github.com/ultralytics/ultral
Die Befehlszeilenschnittstelle (CLI) von Ultralytics ermöglicht einfache Einzeilige Befehle ohne die Notwendigkeit einer Python-Umgebung. CLI erfordert keine Anpassung oder Python-Code. Sie können alle Aufgaben einfach vom Terminal aus mit dem `yolo` Befehl ausführen. Schauen Sie sich den [CLI-Leitfaden](/../usage/cli.md) an, um mehr über die Verwendung von YOLOv8 über die Befehlszeile zu erfahren.
-!!! Beispiel
+!!! Example
=== "Syntax"
@@ -155,7 +155,7 @@ Die Befehlszeilenschnittstelle (CLI) von Ultralytics ermöglicht einfache Einzei
yolo cfg
```
-!!! Warnung "Warnung"
+!!! Warning "Warnung"
Argumente müssen als `arg=val` Paare übergeben werden, getrennt durch ein Gleichheitszeichen `=` und durch Leerzeichen ` ` zwischen den Paaren. Verwenden Sie keine `--` Argumentpräfixe oder Kommata `,` zwischen den Argumenten.
@@ -171,7 +171,7 @@ Die Python-Schnittstelle von YOLOv8 ermöglicht eine nahtlose Integration in Ihr
Benutzer können beispielsweise ein Modell laden, es trainieren, seine Leistung an einem Validierungsset auswerten und sogar in das ONNX-Format exportieren, und das alles mit nur wenigen Codezeilen. Schauen Sie sich den [Python-Leitfaden](/../usage/python.md) an, um mehr über die Verwendung von YOLOv8 in Ihren_python_pro_jek_ten zu erfahren.
-!!! Beispiel
+!!! Example
```python
from ultralytics import YOLO
diff --git a/docs/de/tasks/classify.md b/docs/de/tasks/classify.md
index eb49323970..09622a06f3 100644
--- a/docs/de/tasks/classify.md
+++ b/docs/de/tasks/classify.md
@@ -12,7 +12,7 @@ Bildklassifizierung ist die einfachste der drei Aufgaben und besteht darin, ein
Die Ausgabe eines Bildklassifizierers ist ein einzelnes Klassenlabel und eine Vertrauenspunktzahl. Bildklassifizierung ist nützlich, wenn Sie nur wissen müssen, zu welcher Klasse ein Bild gehört, und nicht wissen müssen, wo sich Objekte dieser Klasse befinden oder wie ihre genaue Form ist.
-!!! tip "Tipp"
+!!! Tip "Tipp"
YOLOv8 Classify-Modelle verwenden den Suffix `-cls`, z.B. `yolov8n-cls.pt` und sind auf [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) vortrainiert.
@@ -39,7 +39,7 @@ Hier werden vortrainierte YOLOv8 Classify-Modelle gezeigt. Detect-, Segment- und
Trainieren Sie das YOLOv8n-cls-Modell auf dem MNIST160-Datensatz für 100 Epochen bei Bildgröße 64. Eine vollständige Liste der verfügbaren Argumente finden Sie auf der Seite [Konfiguration](/../usage/cfg.md).
-!!! example ""
+!!! Example "Beispiel"
=== "Python"
@@ -76,7 +76,7 @@ Das Datenformat für YOLO-Klassifizierungsdatensätze finden Sie im Detail im [D
Validieren Sie die Genauigkeit des trainierten YOLOv8n-cls-Modells auf dem MNIST160-Datensatz. Kein Argument muss übergeben werden, da das `modell` seine Trainings`daten` und Argumente als Modellattribute behält.
-!!! example ""
+!!! Example "Beispiel"
=== "Python"
@@ -103,7 +103,7 @@ Validieren Sie die Genauigkeit des trainierten YOLOv8n-cls-Modells auf dem MNIST
Verwenden Sie ein trainiertes YOLOv8n-cls-Modell, um Vorhersagen auf Bildern durchzuführen.
-!!! example ""
+!!! Example "Beispiel"
=== "Python"
@@ -130,7 +130,7 @@ Vollständige Details zum `predict`-Modus finden Sie auf der Seite [Vorhersage](
Exportieren Sie ein YOLOv8n-cls-Modell in ein anderes Format wie ONNX, CoreML usw.
-!!! example ""
+!!! Example "Beispiel"
=== "Python"
diff --git a/docs/de/tasks/detect.md b/docs/de/tasks/detect.md
index 47fae34c68..ab2848cc99 100644
--- a/docs/de/tasks/detect.md
+++ b/docs/de/tasks/detect.md
@@ -23,7 +23,7 @@ Die Ausgabe eines Objekterkenners ist eine Menge von Begrenzungsrahmen, die die
Sehen Sie: Objekterkennung mit vortrainiertem Ultralytics YOLOv8 Modell.
-!!! tip "Tipp"
+!!! Tip "Tipp"
YOLOv8 Detect Modelle sind die Standard YOLOv8 Modelle, zum Beispiel `yolov8n.pt`, und sind vortrainiert auf dem [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)-Datensatz.
@@ -50,7 +50,7 @@ Hier werden die vortrainierten YOLOv8 Detect Modelle gezeigt. Detect, Segment un
YOLOv8n auf dem COCO128-Datensatz für 100 Epochen bei Bildgröße 640 trainieren. Für eine vollständige Liste verfügbarer Argumente siehe die [Konfigurationsseite](/../usage/cfg.md).
-!!! example ""
+!!! Example "Beispiel"
=== "Python"
@@ -86,7 +86,7 @@ Das Datenformat für YOLO-Erkennungsdatensätze finden Sie detailliert im [Datas
Genauigkeit des trainierten YOLOv8n-Modells auf dem COCO128-Datensatz validieren. Es müssen keine Argumente übergeben werden, da das `modell` seine Trainingsdaten und Argumente als Modellattribute beibehält.
-!!! example ""
+!!! Example "Beispiel"
=== "Python"
@@ -115,7 +115,7 @@ Genauigkeit des trainierten YOLOv8n-Modells auf dem COCO128-Datensatz validieren
Ein trainiertes YOLOv8n-Modell verwenden, um Vorhersagen auf Bildern durchzuführen.
-!!! example ""
+!!! Example "Beispiel"
=== "Python"
@@ -142,7 +142,7 @@ Volle Details über den `predict`-Modus finden Sie auf der [Predict-Seite](https
Ein YOLOv8n-Modell in ein anderes Format wie ONNX, CoreML usw. exportieren.
-!!! example ""
+!!! Example "Beispiel"
=== "Python"
diff --git a/docs/de/tasks/index.md b/docs/de/tasks/index.md
index 6da5787eaa..bb08c292fb 100644
--- a/docs/de/tasks/index.md
+++ b/docs/de/tasks/index.md
@@ -11,7 +11,7 @@ keywords: Ultralytics, YOLOv8, Erkennung, Segmentierung, Klassifizierung, Pose-S
YOLOv8 ist ein KI-Framework, das mehrere Aufgaben im Bereich der Computer Vision **unterstützt**. Das Framework kann für die [Erkennung](detect.md), [Segmentierung](segment.md), [Klassifizierung](classify.md) und die [Pose](pose.md)-Schätzung verwendet werden. Jede dieser Aufgaben hat ein unterschiedliches Ziel und Anwendungsgebiete.
-!!! Hinweis
+!!! Note
🚧 Unsere mehrsprachigen Dokumentation befindet sich derzeit im Aufbau und wir arbeiten hart daran, sie zu verbessern. Danke für Ihre Geduld! 🙏
diff --git a/docs/de/tasks/pose.md b/docs/de/tasks/pose.md
index 16e9cdefe9..4e2ad3c5c4 100644
--- a/docs/de/tasks/pose.md
+++ b/docs/de/tasks/pose.md
@@ -23,7 +23,7 @@ Das Ergebnis eines Pose-Schätzungsmodells ist eine Gruppe von Punkten, die die
Ansehen: Pose-Schätzung mit Ultralytics YOLOv8.
-!!! Tipp "Tipp"
+!!! Tip "Tipp"
YOLOv8 _pose_-Modelle verwenden den Suffix `-pose`, z. B. `yolov8n-pose.pt`. Diese Modelle sind auf dem [COCO-Schlüsselpunkte](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml)-Datensatz trainiert und für eine Vielzahl von Pose-Schätzungsaufgaben geeignet.
@@ -51,7 +51,7 @@ Hier werden vortrainierte YOLOv8 Pose-Modelle gezeigt. Erkennungs-, Segmentierun
Trainieren Sie ein YOLOv8-Pose-Modell auf dem COCO128-Pose-Datensatz.
-!!! Beispiel ""
+!!! Example "Beispiel"
=== "Python"
@@ -87,7 +87,7 @@ Das YOLO-Pose-Datensatzformat finden Sie detailliert im [Datensatz-Leitfaden](..
Die Genauigkeit des trainierten YOLOv8n-Pose-Modells auf dem COCO128-Pose-Datensatz validieren. Es müssen keine Argumente übergeben werden, da das `Modell` seine Trainings`daten` und Argumente als Modellattribute beibehält.
-!!! Beispiel ""
+!!! Example "Beispiel"
=== "Python"
@@ -116,7 +116,7 @@ Die Genauigkeit des trainierten YOLOv8n-Pose-Modells auf dem COCO128-Pose-Datens
Ein trainiertes YOLOv8n-Pose-Modell verwenden, um Vorhersagen auf Bildern zu machen.
-!!! Beispiel ""
+!!! Example "Beispiel"
=== "Python"
@@ -143,7 +143,7 @@ Vollständige `predict`-Modusdetails finden Sie auf der [Vorhersage](https://doc
Ein YOLOv8n-Pose-Modell in ein anderes Format wie ONNX, CoreML usw. exportieren.
-!!! Beispiel ""
+!!! Example "Beispiel"
=== "Python"
diff --git a/docs/de/tasks/segment.md b/docs/de/tasks/segment.md
index 52f7fb2d50..a70909f898 100644
--- a/docs/de/tasks/segment.md
+++ b/docs/de/tasks/segment.md
@@ -23,7 +23,7 @@ Das Ergebnis eines Instanzsegmentierungsmodells ist eine Reihe von Masken oder K
Schauen Sie: Führen Sie Segmentierung mit dem vortrainierten Ultralytics YOLOv8 Modell in Python aus.
-!!! Tipp "Tipp"
+!!! Tip "Tipp"
YOLOv8 Segment-Modelle verwenden das Suffix `-seg`, d.h. `yolov8n-seg.pt` und sind auf dem [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)-Datensatz vortrainiert.
@@ -50,7 +50,7 @@ Hier werden vortrainierte YOLOv8 Segment-Modelle gezeigt. Detect-, Segment- und
Trainieren Sie YOLOv8n-seg auf dem COCO128-seg-Datensatz für 100 Epochen mit einer Bildgröße von 640. Eine vollständige Liste der verfügbaren Argumente finden Sie auf der Seite [Konfiguration](/../usage/cfg.md).
-!!! Beispiel ""
+!!! Example "Beispiel"
=== "Python"
@@ -86,7 +86,7 @@ Das YOLO Segmentierungsdatenformat finden Sie detailliert im [Dataset Guide](../
Validieren Sie die Genauigkeit des trainierten YOLOv8n-seg-Modells auf dem COCO128-seg-Datensatz. Es müssen keine Argumente übergeben werden, da das `Modell` seine Trainingsdaten und -argumente als Modellattribute behält.
-!!! Beispiel ""
+!!! Example "Beispiel"
=== "Python"
@@ -119,7 +119,7 @@ Validieren Sie die Genauigkeit des trainierten YOLOv8n-seg-Modells auf dem COCO1
Verwenden Sie ein trainiertes YOLOv8n-seg-Modell für Vorhersagen auf Bildern.
-!!! Beispiel ""
+!!! Example "Beispiel"
=== "Python"
@@ -146,7 +146,7 @@ Die vollständigen Details zum `predict`-Modus finden Sie auf der Seite [Predict
Exportieren Sie ein YOLOv8n-seg-Modell in ein anderes Format wie ONNX, CoreML usw.
-!!! Beispiel ""
+!!! Example "Beispiel"
=== "Python"
diff --git a/docs/en/datasets/classify/caltech101.md b/docs/en/datasets/classify/caltech101.md
index bc7e91169e..767dbe0fde 100644
--- a/docs/en/datasets/classify/caltech101.md
+++ b/docs/en/datasets/classify/caltech101.md
@@ -28,7 +28,7 @@ The Caltech-101 dataset is extensively used for training and evaluating deep lea
To train a YOLO model on the Caltech-101 dataset for 100 epochs, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page.
-!!! example "Train Example"
+!!! Example "Train Example"
=== "Python"
@@ -61,7 +61,7 @@ The example showcases the variety and complexity of the objects in the Caltech-1
If you use the Caltech-101 dataset in your research or development work, please cite the following paper:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/datasets/classify/caltech256.md b/docs/en/datasets/classify/caltech256.md
index 664167dd8b..9c65d71fe8 100644
--- a/docs/en/datasets/classify/caltech256.md
+++ b/docs/en/datasets/classify/caltech256.md
@@ -28,7 +28,7 @@ The Caltech-256 dataset is extensively used for training and evaluating deep lea
To train a YOLO model on the Caltech-256 dataset for 100 epochs, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page.
-!!! example "Train Example"
+!!! Example "Train Example"
=== "Python"
@@ -61,7 +61,7 @@ The example showcases the diversity and complexity of the objects in the Caltech
If you use the Caltech-256 dataset in your research or development work, please cite the following paper:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/datasets/classify/cifar10.md b/docs/en/datasets/classify/cifar10.md
index 100c2386de..7a700ad13a 100644
--- a/docs/en/datasets/classify/cifar10.md
+++ b/docs/en/datasets/classify/cifar10.md
@@ -31,7 +31,7 @@ The CIFAR-10 dataset is widely used for training and evaluating deep learning mo
To train a YOLO model on the CIFAR-10 dataset for 100 epochs with an image size of 32x32, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page.
-!!! example "Train Example"
+!!! Example "Train Example"
=== "Python"
@@ -64,7 +64,7 @@ The example showcases the variety and complexity of the objects in the CIFAR-10
If you use the CIFAR-10 dataset in your research or development work, please cite the following paper:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/datasets/classify/cifar100.md b/docs/en/datasets/classify/cifar100.md
index 9f7f407879..e27292e8fe 100644
--- a/docs/en/datasets/classify/cifar100.md
+++ b/docs/en/datasets/classify/cifar100.md
@@ -31,7 +31,7 @@ The CIFAR-100 dataset is extensively used for training and evaluating deep learn
To train a YOLO model on the CIFAR-100 dataset for 100 epochs with an image size of 32x32, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page.
-!!! example "Train Example"
+!!! Example "Train Example"
=== "Python"
@@ -64,7 +64,7 @@ The example showcases the variety and complexity of the objects in the CIFAR-100
If you use the CIFAR-100 dataset in your research or development work, please cite the following paper:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/datasets/classify/fashion-mnist.md b/docs/en/datasets/classify/fashion-mnist.md
index 319b2210d9..cbdec5429a 100644
--- a/docs/en/datasets/classify/fashion-mnist.md
+++ b/docs/en/datasets/classify/fashion-mnist.md
@@ -45,7 +45,7 @@ The Fashion-MNIST dataset is widely used for training and evaluating deep learni
To train a CNN model on the Fashion-MNIST dataset for 100 epochs with an image size of 28x28, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page.
-!!! example "Train Example"
+!!! Example "Train Example"
=== "Python"
diff --git a/docs/en/datasets/classify/imagenet.md b/docs/en/datasets/classify/imagenet.md
index 008a3ff196..3241ed519f 100644
--- a/docs/en/datasets/classify/imagenet.md
+++ b/docs/en/datasets/classify/imagenet.md
@@ -31,7 +31,7 @@ The ImageNet dataset is widely used for training and evaluating deep learning mo
To train a deep learning model on the ImageNet dataset for 100 epochs with an image size of 224x224, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page.
-!!! example "Train Example"
+!!! Example "Train Example"
=== "Python"
@@ -64,7 +64,7 @@ The example showcases the variety and complexity of the images in the ImageNet d
If you use the ImageNet dataset in your research or development work, please cite the following paper:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/datasets/classify/imagenet10.md b/docs/en/datasets/classify/imagenet10.md
index 886d5afe9c..69fbd670c3 100644
--- a/docs/en/datasets/classify/imagenet10.md
+++ b/docs/en/datasets/classify/imagenet10.md
@@ -27,7 +27,7 @@ The ImageNet10 dataset is useful for quickly testing and debugging computer visi
To test a deep learning model on the ImageNet10 dataset with an image size of 224x224, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page.
-!!! example "Test Example"
+!!! Example "Test Example"
=== "Python"
@@ -59,7 +59,7 @@ The example showcases the variety and complexity of the images in the ImageNet10
If you use the ImageNet10 dataset in your research or development work, please cite the original ImageNet paper:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/datasets/classify/imagenette.md b/docs/en/datasets/classify/imagenette.md
index cc5cb27042..a43778f475 100644
--- a/docs/en/datasets/classify/imagenette.md
+++ b/docs/en/datasets/classify/imagenette.md
@@ -29,7 +29,7 @@ The ImageNette dataset is widely used for training and evaluating deep learning
To train a model on the ImageNette dataset for 100 epochs with a standard image size of 224x224, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page.
-!!! example "Train Example"
+!!! Example "Train Example"
=== "Python"
@@ -64,7 +64,7 @@ For faster prototyping and training, the ImageNette dataset is also available in
To use these datasets, simply replace 'imagenette' with 'imagenette160' or 'imagenette320' in the training command. The following code snippets illustrate this:
-!!! example "Train Example with ImageNette160"
+!!! Example "Train Example with ImageNette160"
=== "Python"
@@ -85,7 +85,7 @@ To use these datasets, simply replace 'imagenette' with 'imagenette160' or 'imag
yolo detect train data=imagenette160 model=yolov8n-cls.pt epochs=100 imgsz=160
```
-!!! example "Train Example with ImageNette320"
+!!! Example "Train Example with ImageNette320"
=== "Python"
diff --git a/docs/en/datasets/classify/imagewoof.md b/docs/en/datasets/classify/imagewoof.md
index 2c1271f444..d2f78c4f0d 100644
--- a/docs/en/datasets/classify/imagewoof.md
+++ b/docs/en/datasets/classify/imagewoof.md
@@ -26,7 +26,7 @@ The ImageWoof dataset is widely used for training and evaluating deep learning m
To train a CNN model on the ImageWoof dataset for 100 epochs with an image size of 224x224, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page.
-!!! example "Train Example"
+!!! Example "Train Example"
=== "Python"
diff --git a/docs/en/datasets/classify/index.md b/docs/en/datasets/classify/index.md
index 748701e6ee..b058d50d36 100644
--- a/docs/en/datasets/classify/index.md
+++ b/docs/en/datasets/classify/index.md
@@ -80,7 +80,7 @@ In this example, the `train` directory contains subdirectories for each class in
## Usage
-!!! example ""
+!!! Example ""
=== "Python"
diff --git a/docs/en/datasets/classify/mnist.md b/docs/en/datasets/classify/mnist.md
index 40f6a779ae..f36b179844 100644
--- a/docs/en/datasets/classify/mnist.md
+++ b/docs/en/datasets/classify/mnist.md
@@ -34,7 +34,7 @@ The MNIST dataset is widely used for training and evaluating deep learning model
To train a CNN model on the MNIST dataset for 100 epochs with an image size of 32x32, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page.
-!!! example "Train Example"
+!!! Example "Train Example"
=== "Python"
@@ -69,7 +69,7 @@ If you use the MNIST dataset in your
research or development work, please cite the following paper:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/datasets/detect/argoverse.md b/docs/en/datasets/detect/argoverse.md
index cbc2fd2411..54f282f374 100644
--- a/docs/en/datasets/detect/argoverse.md
+++ b/docs/en/datasets/detect/argoverse.md
@@ -8,7 +8,7 @@ keywords: Argoverse dataset, autonomous driving, YOLO, 3D tracking, motion forec
The [Argoverse](https://www.argoverse.org/) dataset is a collection of data designed to support research in autonomous driving tasks, such as 3D tracking, motion forecasting, and stereo depth estimation. Developed by Argo AI, the dataset provides a wide range of high-quality sensor data, including high-resolution images, LiDAR point clouds, and map data.
-!!! note
+!!! Note
The Argoverse dataset *.zip file required for training was removed from Amazon S3 after the shutdown of Argo AI by Ford, but we have made it available for manual download on [Google Drive](https://drive.google.com/file/d/1st9qW3BeIwQsnR0t8mRpvbsSWIo16ACi/view?usp=drive_link).
@@ -35,7 +35,7 @@ The Argoverse dataset is widely used for training and evaluating deep learning m
A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. For the case of the Argoverse dataset, the `Argoverse.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/Argoverse.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/Argoverse.yaml).
-!!! example "ultralytics/cfg/datasets/Argoverse.yaml"
+!!! Example "ultralytics/cfg/datasets/Argoverse.yaml"
```yaml
--8<-- "ultralytics/cfg/datasets/Argoverse.yaml"
@@ -45,7 +45,7 @@ A YAML (Yet Another Markup Language) file is used to define the dataset configur
To train a YOLOv8n model on the Argoverse dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page.
-!!! example "Train Example"
+!!! Example "Train Example"
=== "Python"
@@ -80,7 +80,7 @@ The example showcases the variety and complexity of the data in the Argoverse da
If you use the Argoverse dataset in your research or development work, please cite the following paper:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/datasets/detect/coco.md b/docs/en/datasets/detect/coco.md
index 903037040b..5f2ee085d3 100644
--- a/docs/en/datasets/detect/coco.md
+++ b/docs/en/datasets/detect/coco.md
@@ -31,7 +31,7 @@ The COCO dataset is widely used for training and evaluating deep learning models
A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. In the case of the COCO dataset, the `coco.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml).
-!!! example "ultralytics/cfg/datasets/coco.yaml"
+!!! Example "ultralytics/cfg/datasets/coco.yaml"
```yaml
--8<-- "ultralytics/cfg/datasets/coco.yaml"
@@ -41,7 +41,7 @@ A YAML (Yet Another Markup Language) file is used to define the dataset configur
To train a YOLOv8n model on the COCO dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page.
-!!! example "Train Example"
+!!! Example "Train Example"
=== "Python"
@@ -76,7 +76,7 @@ The example showcases the variety and complexity of the images in the COCO datas
If you use the COCO dataset in your research or development work, please cite the following paper:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/datasets/detect/coco8.md b/docs/en/datasets/detect/coco8.md
index e5472da654..bea5127915 100644
--- a/docs/en/datasets/detect/coco8.md
+++ b/docs/en/datasets/detect/coco8.md
@@ -17,7 +17,7 @@ and [YOLOv8](https://github.com/ultralytics/ultralytics).
A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. In the case of the COCO8 dataset, the `coco8.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco8.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco8.yaml).
-!!! example "ultralytics/cfg/datasets/coco8.yaml"
+!!! Example "ultralytics/cfg/datasets/coco8.yaml"
```yaml
--8<-- "ultralytics/cfg/datasets/coco8.yaml"
@@ -27,7 +27,7 @@ A YAML (Yet Another Markup Language) file is used to define the dataset configur
To train a YOLOv8n model on the COCO8 dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page.
-!!! example "Train Example"
+!!! Example "Train Example"
=== "Python"
@@ -62,7 +62,7 @@ The example showcases the variety and complexity of the images in the COCO8 data
If you use the COCO dataset in your research or development work, please cite the following paper:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/datasets/detect/globalwheat2020.md b/docs/en/datasets/detect/globalwheat2020.md
index 0f0d7c0a80..dba6dec0ce 100644
--- a/docs/en/datasets/detect/globalwheat2020.md
+++ b/docs/en/datasets/detect/globalwheat2020.md
@@ -30,7 +30,7 @@ The Global Wheat Head Dataset is widely used for training and evaluating deep le
A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. For the case of the Global Wheat Head Dataset, the `GlobalWheat2020.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/GlobalWheat2020.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/GlobalWheat2020.yaml).
-!!! example "ultralytics/cfg/datasets/GlobalWheat2020.yaml"
+!!! Example "ultralytics/cfg/datasets/GlobalWheat2020.yaml"
```yaml
--8<-- "ultralytics/cfg/datasets/GlobalWheat2020.yaml"
@@ -40,7 +40,7 @@ A YAML (Yet Another Markup Language) file is used to define the dataset configur
To train a YOLOv8n model on the Global Wheat Head Dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page.
-!!! example "Train Example"
+!!! Example "Train Example"
=== "Python"
@@ -75,7 +75,7 @@ The example showcases the variety and complexity of the data in the Global Wheat
If you use the Global Wheat Head Dataset in your research or development work, please cite the following paper:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/datasets/detect/index.md b/docs/en/datasets/detect/index.md
index a99846e464..4b8eefadc3 100644
--- a/docs/en/datasets/detect/index.md
+++ b/docs/en/datasets/detect/index.md
@@ -48,7 +48,7 @@ When using the Ultralytics YOLO format, organize your training and validation im
Here's how you can use these formats to train your model:
-!!! example ""
+!!! Example ""
=== "Python"
@@ -93,7 +93,7 @@ If you have your own dataset and would like to use it for training detection mod
You can easily convert labels from the popular COCO dataset format to the YOLO format using the following code snippet:
-!!! example ""
+!!! Example ""
=== "Python"
diff --git a/docs/en/datasets/detect/objects365.md b/docs/en/datasets/detect/objects365.md
index 06301b1941..5ecfb2cc9e 100644
--- a/docs/en/datasets/detect/objects365.md
+++ b/docs/en/datasets/detect/objects365.md
@@ -30,7 +30,7 @@ The Objects365 dataset is widely used for training and evaluating deep learning
A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. For the case of the Objects365 Dataset, the `Objects365.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/Objects365.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/Objects365.yaml).
-!!! example "ultralytics/cfg/datasets/Objects365.yaml"
+!!! Example "ultralytics/cfg/datasets/Objects365.yaml"
```yaml
--8<-- "ultralytics/cfg/datasets/Objects365.yaml"
@@ -40,7 +40,7 @@ A YAML (Yet Another Markup Language) file is used to define the dataset configur
To train a YOLOv8n model on the Objects365 dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page.
-!!! example "Train Example"
+!!! Example "Train Example"
=== "Python"
@@ -75,7 +75,7 @@ The example showcases the variety and complexity of the data in the Objects365 d
If you use the Objects365 dataset in your research or development work, please cite the following paper:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/datasets/detect/open-images-v7.md b/docs/en/datasets/detect/open-images-v7.md
index 3e656f6ff0..1e46550f62 100644
--- a/docs/en/datasets/detect/open-images-v7.md
+++ b/docs/en/datasets/detect/open-images-v7.md
@@ -40,7 +40,7 @@ Open Images V7 is a cornerstone for training and evaluating state-of-the-art mod
Typically, datasets come with a YAML (Yet Another Markup Language) file that delineates the dataset's configuration. For the case of Open Images V7, a hypothetical `OpenImagesV7.yaml` might exist. For accurate paths and configurations, one should refer to the dataset's official repository or documentation.
-!!! example "OpenImagesV7.yaml"
+!!! Example "OpenImagesV7.yaml"
```yaml
--8<-- "ultralytics/cfg/datasets/open-images-v7.yaml"
@@ -50,7 +50,7 @@ Typically, datasets come with a YAML (Yet Another Markup Language) file that del
To train a YOLOv8n model on the Open Images V7 dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page.
-!!! warning
+!!! Warning
The complete Open Images V7 dataset comprises 1,743,042 training images and 41,620 validation images, requiring approximately **561 GB of storage space** upon download.
@@ -59,7 +59,7 @@ To train a YOLOv8n model on the Open Images V7 dataset for 100 epochs with an im
- Verify that your device has enough storage capacity.
- Ensure a robust and speedy internet connection.
-!!! example "Train Example"
+!!! Example "Train Example"
=== "Python"
@@ -94,7 +94,7 @@ Researchers can gain invaluable insights into the array of computer vision chall
For those employing Open Images V7 in their work, it's prudent to cite the relevant papers and acknowledge the creators:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/datasets/detect/sku-110k.md b/docs/en/datasets/detect/sku-110k.md
index 8e6aac13bf..4d4fcbc534 100644
--- a/docs/en/datasets/detect/sku-110k.md
+++ b/docs/en/datasets/detect/sku-110k.md
@@ -32,7 +32,7 @@ The SKU-110k dataset is widely used for training and evaluating deep learning mo
A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. For the case of the SKU-110K dataset, the `SKU-110K.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/SKU-110K.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/SKU-110K.yaml).
-!!! example "ultralytics/cfg/datasets/SKU-110K.yaml"
+!!! Example "ultralytics/cfg/datasets/SKU-110K.yaml"
```yaml
--8<-- "ultralytics/cfg/datasets/SKU-110K.yaml"
@@ -42,7 +42,7 @@ A YAML (Yet Another Markup Language) file is used to define the dataset configur
To train a YOLOv8n model on the SKU-110K dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page.
-!!! example "Train Example"
+!!! Example "Train Example"
=== "Python"
@@ -77,7 +77,7 @@ The example showcases the variety and complexity of the data in the SKU-110k dat
If you use the SKU-110k dataset in your research or development work, please cite the following paper:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/datasets/detect/visdrone.md b/docs/en/datasets/detect/visdrone.md
index be0c956e1d..f0bcfd5bae 100644
--- a/docs/en/datasets/detect/visdrone.md
+++ b/docs/en/datasets/detect/visdrone.md
@@ -28,7 +28,7 @@ The VisDrone dataset is widely used for training and evaluating deep learning mo
A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. In the case of the Visdrone dataset, the `VisDrone.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/VisDrone.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/VisDrone.yaml).
-!!! example "ultralytics/cfg/datasets/VisDrone.yaml"
+!!! Example "ultralytics/cfg/datasets/VisDrone.yaml"
```yaml
--8<-- "ultralytics/cfg/datasets/VisDrone.yaml"
@@ -38,7 +38,7 @@ A YAML (Yet Another Markup Language) file is used to define the dataset configur
To train a YOLOv8n model on the VisDrone dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page.
-!!! example "Train Example"
+!!! Example "Train Example"
=== "Python"
@@ -73,7 +73,7 @@ The example showcases the variety and complexity of the data in the VisDrone dat
If you use the VisDrone dataset in your research or development work, please cite the following paper:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/datasets/detect/voc.md b/docs/en/datasets/detect/voc.md
index ec18af7ff3..0908352a49 100644
--- a/docs/en/datasets/detect/voc.md
+++ b/docs/en/datasets/detect/voc.md
@@ -31,7 +31,7 @@ The VOC dataset is widely used for training and evaluating deep learning models
A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. In the case of the VOC dataset, the `VOC.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/VOC.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/VOC.yaml).
-!!! example "ultralytics/cfg/datasets/VOC.yaml"
+!!! Example "ultralytics/cfg/datasets/VOC.yaml"
```yaml
--8<-- "ultralytics/cfg/datasets/VOC.yaml"
@@ -41,7 +41,7 @@ A YAML (Yet Another Markup Language) file is used to define the dataset configur
To train a YOLOv8n model on the VOC dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page.
-!!! example "Train Example"
+!!! Example "Train Example"
=== "Python"
@@ -77,7 +77,7 @@ The example showcases the variety and complexity of the images in the VOC datase
If you use the VOC dataset in your research or development work, please cite the following paper:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/datasets/detect/xview.md b/docs/en/datasets/detect/xview.md
index 51e886452a..9d9aa74d24 100644
--- a/docs/en/datasets/detect/xview.md
+++ b/docs/en/datasets/detect/xview.md
@@ -34,7 +34,7 @@ The xView dataset is widely used for training and evaluating deep learning model
A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. In the case of the xView dataset, the `xView.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/xView.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/xView.yaml).
-!!! example "ultralytics/cfg/datasets/xView.yaml"
+!!! Example "ultralytics/cfg/datasets/xView.yaml"
```yaml
--8<-- "ultralytics/cfg/datasets/xView.yaml"
@@ -44,7 +44,7 @@ A YAML (Yet Another Markup Language) file is used to define the dataset configur
To train a model on the xView dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page.
-!!! example "Train Example"
+!!! Example "Train Example"
=== "Python"
@@ -79,7 +79,7 @@ The example showcases the variety and complexity of the data in the xView datase
If you use the xView dataset in your research or development work, please cite the following paper:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/datasets/index.md b/docs/en/datasets/index.md
index 427a7bd9f6..697bc67c21 100644
--- a/docs/en/datasets/index.md
+++ b/docs/en/datasets/index.md
@@ -78,7 +78,7 @@ Contributing a new dataset involves several steps to ensure that it aligns well
3. **Export Annotations**: Convert these annotations into the YOLO *.txt file format which Ultralytics supports.
-4. **Organize Dataset**: Arrange your dataset into the correct folder structure. You should have `train/` and `val/` top-level directories, and within each, an `images/` and `labels/` sub-directory.
+4. **Organize Dataset**: Arrange your dataset into the correct folder structure. You should have `train/` and `val/` top-level directories, and within each, an `images/` and `labels/` subdirectory.
```
dataset/
@@ -100,7 +100,7 @@ Contributing a new dataset involves several steps to ensure that it aligns well
### Example Code to Optimize and Zip a Dataset
-!!! example "Optimize and Zip a Dataset"
+!!! Example "Optimize and Zip a Dataset"
=== "Python"
diff --git a/docs/en/datasets/obb/dota-v2.md b/docs/en/datasets/obb/dota-v2.md
index 8aa27d9a23..0a6b0f458c 100644
--- a/docs/en/datasets/obb/dota-v2.md
+++ b/docs/en/datasets/obb/dota-v2.md
@@ -60,7 +60,7 @@ DOTA v2 serves as a benchmark for training and evaluating models specifically ta
Typically, datasets incorporate a YAML (Yet Another Markup Language) file detailing the dataset's configuration. For DOTA v2, a hypothetical `DOTAv2.yaml` could be used. For accurate paths and configurations, it's vital to consult the dataset's official repository or documentation.
-!!! example "DOTAv2.yaml"
+!!! Example "DOTAv2.yaml"
```yaml
--8<-- "ultralytics/cfg/datasets/DOTAv2.yaml"
@@ -70,11 +70,11 @@ Typically, datasets incorporate a YAML (Yet Another Markup Language) file detail
To train a model on the DOTA v2 dataset, you can utilize the following code snippets. Always refer to your model's documentation for a thorough list of available arguments.
-!!! warning
+!!! Warning
Please note that all images and associated annotations in the DOTAv2 dataset can be used for academic purposes, but commercial use is prohibited. Your understanding and respect for the dataset creators' wishes are greatly appreciated!
-!!! example "Train Example"
+!!! Example "Train Example"
=== "Python"
@@ -109,7 +109,7 @@ The dataset's richness offers invaluable insights into object detection challeng
For those leveraging DOTA v2 in their endeavors, it's pertinent to cite the relevant research papers:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/datasets/obb/index.md b/docs/en/datasets/obb/index.md
index c2d326a727..5e5a17fb33 100644
--- a/docs/en/datasets/obb/index.md
+++ b/docs/en/datasets/obb/index.md
@@ -32,7 +32,7 @@ An example of a `*.txt` label file for the above image, which contains an object
To train a model using these OBB formats:
-!!! example ""
+!!! Example ""
=== "Python"
@@ -69,7 +69,7 @@ For those looking to introduce their own datasets with oriented bounding boxes,
Transitioning labels from the DOTA dataset format to the YOLO OBB format can be achieved with this script:
-!!! example ""
+!!! Example ""
=== "Python"
diff --git a/docs/en/datasets/pose/coco.md b/docs/en/datasets/pose/coco.md
index b9221d2208..e0d3fec6e7 100644
--- a/docs/en/datasets/pose/coco.md
+++ b/docs/en/datasets/pose/coco.md
@@ -32,7 +32,7 @@ The COCO-Pose dataset is specifically used for training and evaluating deep lear
A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. In the case of the COCO-Pose dataset, the `coco-pose.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml).
-!!! example "ultralytics/cfg/datasets/coco-pose.yaml"
+!!! Example "ultralytics/cfg/datasets/coco-pose.yaml"
```yaml
--8<-- "ultralytics/cfg/datasets/coco-pose.yaml"
@@ -42,7 +42,7 @@ A YAML (Yet Another Markup Language) file is used to define the dataset configur
To train a YOLOv8n-pose model on the COCO-Pose dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page.
-!!! example "Train Example"
+!!! Example "Train Example"
=== "Python"
@@ -77,7 +77,7 @@ The example showcases the variety and complexity of the images in the COCO-Pose
If you use the COCO-Pose dataset in your research or development work, please cite the following paper:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/datasets/pose/coco8-pose.md b/docs/en/datasets/pose/coco8-pose.md
index 311f66e6dd..519ea92a0a 100644
--- a/docs/en/datasets/pose/coco8-pose.md
+++ b/docs/en/datasets/pose/coco8-pose.md
@@ -17,7 +17,7 @@ and [YOLOv8](https://github.com/ultralytics/ultralytics).
A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. In the case of the COCO8-Pose dataset, the `coco8-pose.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco8-pose.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco8-pose.yaml).
-!!! example "ultralytics/cfg/datasets/coco8-pose.yaml"
+!!! Example "ultralytics/cfg/datasets/coco8-pose.yaml"
```yaml
--8<-- "ultralytics/cfg/datasets/coco8-pose.yaml"
@@ -27,7 +27,7 @@ A YAML (Yet Another Markup Language) file is used to define the dataset configur
To train a YOLOv8n-pose model on the COCO8-Pose dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page.
-!!! example "Train Example"
+!!! Example "Train Example"
=== "Python"
@@ -62,7 +62,7 @@ The example showcases the variety and complexity of the images in the COCO8-Pose
If you use the COCO dataset in your research or development work, please cite the following paper:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/datasets/pose/index.md b/docs/en/datasets/pose/index.md
index a71acad117..464aa8378b 100644
--- a/docs/en/datasets/pose/index.md
+++ b/docs/en/datasets/pose/index.md
@@ -64,7 +64,7 @@ The `train` and `val` fields specify the paths to the directories containing the
## Usage
-!!! example ""
+!!! Example ""
=== "Python"
@@ -125,7 +125,7 @@ If you have your own dataset and would like to use it for training pose estimati
Ultralytics provides a convenient conversion tool to convert labels from the popular COCO dataset format to YOLO format:
-!!! example ""
+!!! Example ""
=== "Python"
diff --git a/docs/en/datasets/pose/tiger-pose.md b/docs/en/datasets/pose/tiger-pose.md
index 66ffd1784e..c00fafb6fc 100644
--- a/docs/en/datasets/pose/tiger-pose.md
+++ b/docs/en/datasets/pose/tiger-pose.md
@@ -19,7 +19,7 @@ and [YOLOv8](https://github.com/ultralytics/ultralytics).
A YAML (Yet Another Markup Language) file serves as the means to specify the configuration details of a dataset. It encompasses crucial data such as file paths, class definitions, and other pertinent information. Specifically, for the `tiger-pose.yaml` file, you can check [Ultralytics Tiger-Pose Dataset Configuration File](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/tiger-pose.yaml).
-!!! example "ultralytics/cfg/datasets/tiger-pose.yaml"
+!!! Example "ultralytics/cfg/datasets/tiger-pose.yaml"
```yaml
--8<-- "ultralytics/cfg/datasets/tiger-pose.yaml"
@@ -29,7 +29,7 @@ A YAML (Yet Another Markup Language) file serves as the means to specify the con
To train a YOLOv8n-pose model on the Tiger-Pose dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page.
-!!! example "Train Example"
+!!! Example "Train Example"
=== "Python"
@@ -62,7 +62,7 @@ The example showcases the variety and complexity of the images in the Tiger-Pose
## Inference Example
-!!! example "Inference Example"
+!!! Example "Inference Example"
=== "Python"
diff --git a/docs/en/datasets/segment/coco.md b/docs/en/datasets/segment/coco.md
index c1810fd026..b77289a6b6 100644
--- a/docs/en/datasets/segment/coco.md
+++ b/docs/en/datasets/segment/coco.md
@@ -31,7 +31,7 @@ COCO-Seg is widely used for training and evaluating deep learning models in inst
A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. In the case of the COCO-Seg dataset, the `coco.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml).
-!!! example "ultralytics/cfg/datasets/coco.yaml"
+!!! Example "ultralytics/cfg/datasets/coco.yaml"
```yaml
--8<-- "ultralytics/cfg/datasets/coco.yaml"
@@ -41,7 +41,7 @@ A YAML (Yet Another Markup Language) file is used to define the dataset configur
To train a YOLOv8n-seg model on the COCO-Seg dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page.
-!!! example "Train Example"
+!!! Example "Train Example"
=== "Python"
@@ -76,7 +76,7 @@ The example showcases the variety and complexity of the images in the COCO-Seg d
If you use the COCO-Seg dataset in your research or development work, please cite the original COCO paper and acknowledge the extension to COCO-Seg:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/datasets/segment/coco8-seg.md b/docs/en/datasets/segment/coco8-seg.md
index 46f2a4c99d..0e55ec5a8c 100644
--- a/docs/en/datasets/segment/coco8-seg.md
+++ b/docs/en/datasets/segment/coco8-seg.md
@@ -17,7 +17,7 @@ and [YOLOv8](https://github.com/ultralytics/ultralytics).
A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. In the case of the COCO8-Seg dataset, the `coco8-seg.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco8-seg.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco8-seg.yaml).
-!!! example "ultralytics/cfg/datasets/coco8-seg.yaml"
+!!! Example "ultralytics/cfg/datasets/coco8-seg.yaml"
```yaml
--8<-- "ultralytics/cfg/datasets/coco8-seg.yaml"
@@ -27,7 +27,7 @@ A YAML (Yet Another Markup Language) file is used to define the dataset configur
To train a YOLOv8n-seg model on the COCO8-Seg dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page.
-!!! example "Train Example"
+!!! Example "Train Example"
=== "Python"
@@ -62,7 +62,7 @@ The example showcases the variety and complexity of the images in the COCO8-Seg
If you use the COCO dataset in your research or development work, please cite the following paper:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/datasets/segment/index.md b/docs/en/datasets/segment/index.md
index 3a3f3b41f1..4cd8126718 100644
--- a/docs/en/datasets/segment/index.md
+++ b/docs/en/datasets/segment/index.md
@@ -33,7 +33,7 @@ Here is an example of the YOLO dataset format for a single image with two object
1 0.504 0.000 0.501 0.004 0.498 0.004 0.493 0.010 0.492 0.0104
```
-!!! tip "Tip"
+!!! Tip "Tip"
- The length of each row does **not** have to be equal.
- Each segmentation label must have a **minimum of 3 xy points**: ``
@@ -66,7 +66,7 @@ The `train` and `val` fields specify the paths to the directories containing the
## Usage
-!!! example ""
+!!! Example ""
=== "Python"
@@ -101,7 +101,7 @@ If you have your own dataset and would like to use it for training segmentation
You can easily convert labels from the popular COCO dataset format to the YOLO format using the following code snippet:
-!!! example ""
+!!! Example ""
=== "Python"
@@ -123,7 +123,7 @@ Auto-annotation is an essential feature that allows you to generate a segmentati
To auto-annotate your dataset using the Ultralytics framework, you can use the `auto_annotate` function as shown below:
-!!! example ""
+!!! Example ""
=== "Python"
diff --git a/docs/en/datasets/track/index.md b/docs/en/datasets/track/index.md
index 71e74e18d3..89abbff9ff 100644
--- a/docs/en/datasets/track/index.md
+++ b/docs/en/datasets/track/index.md
@@ -12,7 +12,7 @@ Multi-Object Detector doesn't need standalone training and directly supports pre
## Usage
-!!! example ""
+!!! Example ""
=== "Python"
diff --git a/docs/en/guides/hyperparameter-tuning.md b/docs/en/guides/hyperparameter-tuning.md
index 0e13806292..0a7c0fc8d9 100644
--- a/docs/en/guides/hyperparameter-tuning.md
+++ b/docs/en/guides/hyperparameter-tuning.md
@@ -69,7 +69,7 @@ The process is repeated until either the set number of iterations is reached or
Here's how to use the `model.tune()` method to utilize the `Tuner` class for hyperparameter tuning of YOLOv8n on COCO8 for 30 epochs with an AdamW optimizer and skipping plotting, checkpointing and validation other than on final epoch for faster Tuning.
-!!! example ""
+!!! Example ""
=== "Python"
diff --git a/docs/en/guides/sahi-tiled-inference.md b/docs/en/guides/sahi-tiled-inference.md
index fe9c599afc..fd45384b4b 100644
--- a/docs/en/guides/sahi-tiled-inference.md
+++ b/docs/en/guides/sahi-tiled-inference.md
@@ -167,7 +167,7 @@ That's it! Now you're equipped to use YOLOv8 with SAHI for both standard and sli
If you use SAHI in your research or development work, please cite the original SAHI paper and acknowledge the authors:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/help/privacy.md b/docs/en/help/privacy.md
index dfd8137ef5..c9bc3a52a5 100644
--- a/docs/en/help/privacy.md
+++ b/docs/en/help/privacy.md
@@ -39,7 +39,7 @@ We take several measures to ensure the privacy and security of the data you entr
[Sentry](https://sentry.io/) is a developer-centric error tracking software that aids in identifying, diagnosing, and resolving issues in real-time, ensuring the robustness and reliability of applications. Within our package, it plays a crucial role by providing insights through crash reporting, significantly contributing to the stability and ongoing refinement of our software.
-!!! note
+!!! Note
Crash reporting via Sentry is activated only if the `sentry-sdk` Python package is pre-installed on your system. This package isn't included in the `ultralytics` prerequisites and won't be installed automatically by Ultralytics.
@@ -74,7 +74,7 @@ To opt out of sending analytics and crash reports, you can simply set `sync=Fals
To gain insight into the current configuration of your settings, you can view them directly:
-!!! example "View settings"
+!!! Example "View settings"
=== "Python"
You can use Python to view your settings. Start by importing the `settings` object from the `ultralytics` module. Print and return settings using the following commands:
@@ -98,7 +98,7 @@ To gain insight into the current configuration of your settings, you can view th
Ultralytics allows users to easily modify their settings. Changes can be performed in the following ways:
-!!! example "Update settings"
+!!! Example "Update settings"
=== "Python"
Within the Python environment, call the `update` method on the `settings` object to change your settings:
diff --git a/docs/en/hub/app/android.md b/docs/en/hub/app/android.md
index e6acfaf5be..fa7cd85540 100644
--- a/docs/en/hub/app/android.md
+++ b/docs/en/hub/app/android.md
@@ -43,7 +43,7 @@ FP16 (or half-precision) quantization converts the model's 32-bit floating-point
INT8 (or 8-bit integer) quantization further reduces the model's size and computation requirements by converting its 32-bit floating-point numbers to 8-bit integers. This quantization method can result in a significant speedup, but it may lead to a slight reduction in mean average precision (mAP) due to the lower numerical precision.
-!!! tip "mAP Reduction in INT8 Models"
+!!! Tip "mAP Reduction in INT8 Models"
The reduced numerical precision in INT8 models can lead to some loss of information during the quantization process, which may result in a slight decrease in mAP. However, this trade-off is often acceptable considering the substantial performance gains offered by INT8 quantization.
diff --git a/docs/en/hub/datasets.md b/docs/en/hub/datasets.md
index b248bd18b3..dfc3338d5b 100644
--- a/docs/en/hub/datasets.md
+++ b/docs/en/hub/datasets.md
@@ -30,7 +30,7 @@ You can download our [COCO8](https://github.com/ultralytics/hub/blob/main/exampl
The dataset YAML is the same standard YOLOv5 and YOLOv8 YAML format.
-!!! example "coco8.yaml"
+!!! Example "coco8.yaml"
```yaml
--8<-- "ultralytics/cfg/datasets/coco8.yaml"
@@ -92,7 +92,7 @@ Next, [train a model](https://docs.ultralytics.com/hub/models/#train-model) on y
## Share Dataset
-!!! info "Info"
+!!! Info "Info"
Ultralytics HUB's sharing functionality provides a convenient way to share datasets with others. This feature is designed to accommodate both existing Ultralytics HUB users and those who have yet to create an account.
diff --git a/docs/en/hub/inference_api.md b/docs/en/hub/inference_api.md
index 4cc62bfbb7..7ca6822523 100644
--- a/docs/en/hub/inference_api.md
+++ b/docs/en/hub/inference_api.md
@@ -106,7 +106,7 @@ The JSON list contains information about the detected objects, their coordinates
YOLO detection models, such as `yolov8n.pt`, can return JSON responses from local inference, CLI API inference, and Python API inference. All of these methods produce the same JSON response format.
-!!! example "Detect Model JSON Response"
+!!! Example "Detect Model JSON Response"
=== "Local"
```python
@@ -200,7 +200,7 @@ YOLO detection models, such as `yolov8n.pt`, can return JSON responses from loca
YOLO segmentation models, such as `yolov8n-seg.pt`, can return JSON responses from local inference, CLI API inference, and Python API inference. All of these methods produce the same JSON response format.
-!!! example "Segment Model JSON Response"
+!!! Example "Segment Model JSON Response"
=== "Local"
```python
@@ -337,7 +337,7 @@ YOLO segmentation models, such as `yolov8n-seg.pt`, can return JSON responses fr
YOLO pose models, such as `yolov8n-pose.pt`, can return JSON responses from local inference, CLI API inference, and Python API inference. All of these methods produce the same JSON response format.
-!!! example "Pose Model JSON Response"
+!!! Example "Pose Model JSON Response"
=== "Local"
```python
diff --git a/docs/en/hub/models.md b/docs/en/hub/models.md
index 65b7880c4d..9762f34568 100644
--- a/docs/en/hub/models.md
+++ b/docs/en/hub/models.md
@@ -58,7 +58,7 @@ In this step, you have to choose the project in which you want to create your mo
![Ultralytics HUB screenshot of the Train Model dialog with an arrow pointing to the project name](https://raw.githubusercontent.com/ultralytics/assets/main/docs/hub/models/hub_train_model_7.jpg)
-!!! info "Info"
+!!! Info "Info"
You can read more about the available [YOLOv8](https://docs.ultralytics.com/models/yolov8) (and [YOLOv5](https://docs.ultralytics.com/models/yolov5)) architectures in our documentation.
@@ -146,7 +146,7 @@ You can export your model to 13 different formats, including ONNX, OpenVINO, Cor
## Share Model
-!!! info "Info"
+!!! Info "Info"
Ultralytics HUB's sharing functionality provides a convenient way to share models with others. This feature is designed to accommodate both existing Ultralytics HUB users and those who have yet to create an account.
diff --git a/docs/en/hub/projects.md b/docs/en/hub/projects.md
index b11aee62b1..f712942337 100644
--- a/docs/en/hub/projects.md
+++ b/docs/en/hub/projects.md
@@ -44,7 +44,7 @@ Next, [train a model](https://docs.ultralytics.com/hub/models/#train-model) insi
## Share Project
-!!! info "Info"
+!!! Info "Info"
Ultralytics HUB's sharing functionality provides a convenient way to share projects with others. This feature is designed to accommodate both existing Ultralytics HUB users and those who have yet to create an account.
@@ -68,7 +68,7 @@ Set the general access to "Unlisted" and click **Save**.
![Ultralytics HUB screenshot of the Share Project dialog with an arrow pointing to the dropdown and one to the Save button](https://raw.githubusercontent.com/ultralytics/assets/main/docs/hub/projects/hub_share_project_3.jpg)
-!!! warning "Warning"
+!!! Warning "Warning"
When changing the general access of a project, the general access of the models inside the project will be changed as well.
@@ -108,7 +108,7 @@ Navigate to the Project page of the project you want to delete, open the project
![Ultralytics HUB screenshot of the Projects page with an arrow pointing to the Delete option of one of the projects](https://raw.githubusercontent.com/ultralytics/assets/main/docs/hub/projects/hub_delete_project_2.jpg)
-!!! warning "Warning"
+!!! Warning "Warning"
When deleting a project, the models inside the project will be deleted as well.
diff --git a/docs/en/integrations/comet.md b/docs/en/integrations/comet.md
index f2a1e48029..ac9819c876 100644
--- a/docs/en/integrations/comet.md
+++ b/docs/en/integrations/comet.md
@@ -26,7 +26,7 @@ By combining Ultralytics YOLOv8 with Comet ML, you unlock a range of benefits. T
To install the required packages, run:
-!!! tip "Installation"
+!!! Tip "Installation"
=== "CLI"
@@ -39,7 +39,7 @@ To install the required packages, run:
After installing the required packages, you’ll need to sign up, get a [Comet API Key](https://www.comet.com/signup), and configure it.
-!!! tip "Configuring Comet ML"
+!!! Tip "Configuring Comet ML"
=== "CLI"
@@ -61,7 +61,7 @@ comet_ml.init(project_name="comet-example-yolov8-coco128")
Before diving into the usage instructions, be sure to check out the range of [YOLOv8 models offered by Ultralytics](../models/index.md). This will help you choose the most appropriate model for your project requirements.
-!!! example "Usage"
+!!! Example "Usage"
=== "Python"
diff --git a/docs/en/integrations/mlflow.md b/docs/en/integrations/mlflow.md
index 4da3ce1d4c..58052df2c3 100644
--- a/docs/en/integrations/mlflow.md
+++ b/docs/en/integrations/mlflow.md
@@ -34,7 +34,7 @@ pip install mlflow
Make sure that MLflow logging is enabled in Ultralytics settings. Usually, this is controlled by the settings `mflow` key. See the [settings](https://docs.ultralytics.com/quickstart/#ultralytics-settings) page for more info.
-!!! example "Update Ultralytics MLflow Settings"
+!!! Example "Update Ultralytics MLflow Settings"
=== "Python"
Within the Python environment, call the `update` method on the `settings` object to change your settings:
diff --git a/docs/en/integrations/openvino.md b/docs/en/integrations/openvino.md
index 75fd507974..255a505b6a 100644
--- a/docs/en/integrations/openvino.md
+++ b/docs/en/integrations/openvino.md
@@ -27,7 +27,7 @@ OpenVINO, short for Open Visual Inference & Neural Network Optimization toolkit,
Export a YOLOv8n model to OpenVINO format and run inference with the exported model.
-!!! example ""
+!!! Example ""
=== "Python"
@@ -101,7 +101,7 @@ For more detailed steps and code snippets, refer to the [OpenVINO documentation]
YOLOv8 benchmarks below were run by the Ultralytics team on 4 different model formats measuring speed and accuracy: PyTorch, TorchScript, ONNX and OpenVINO. Benchmarks were run on Intel Flex and Arc GPUs, and on Intel Xeon CPUs at FP32 precision (with the `half=False` argument).
-!!! note
+!!! Note
The benchmarking results below are for reference and might vary based on the exact hardware and software configuration of a system, as well as the current workload of the system at the time the benchmarks are run.
@@ -251,7 +251,7 @@ Benchmarks below run on 13th Gen Intel® Core® i7-13700H CPU at FP32 precision.
To reproduce the Ultralytics benchmarks above on all export [formats](../modes/export.md) run this code:
-!!! example ""
+!!! Example ""
=== "Python"
diff --git a/docs/en/integrations/ray-tune.md b/docs/en/integrations/ray-tune.md
index 46eb5ffba0..3825cf7fda 100644
--- a/docs/en/integrations/ray-tune.md
+++ b/docs/en/integrations/ray-tune.md
@@ -28,7 +28,7 @@ YOLOv8 also allows optional integration with [Weights & Biases](https://wandb.ai
To install the required packages, run:
-!!! tip "Installation"
+!!! Tip "Installation"
=== "CLI"
@@ -42,7 +42,7 @@ To install the required packages, run:
## Usage
-!!! example "Usage"
+!!! Example "Usage"
=== "Python"
@@ -103,7 +103,7 @@ The following table lists the default search space parameters for hyperparameter
In this example, we demonstrate how to use a custom search space for hyperparameter tuning with Ray Tune and YOLOv8. By providing a custom search space, you can focus the tuning process on specific hyperparameters of interest.
-!!! example "Usage"
+!!! Example "Usage"
```python
from ultralytics import YOLO
diff --git a/docs/en/integrations/roboflow.md b/docs/en/integrations/roboflow.md
index ed6b8cd3b6..2f0159009c 100644
--- a/docs/en/integrations/roboflow.md
+++ b/docs/en/integrations/roboflow.md
@@ -8,7 +8,7 @@ keywords: Ultralytics, YOLOv8, Roboflow, vector analysis, confusion matrix, data
[Roboflow](https://roboflow.com/?ref=ultralytics) has everything you need to build and deploy computer vision models. Connect Roboflow at any step in your pipeline with APIs and SDKs, or use the end-to-end interface to automate the entire process from image to inference. Whether you’re in need of [data labeling](https://roboflow.com/annotate?ref=ultralytics), [model training](https://roboflow.com/train?ref=ultralytics), or [model deployment](https://roboflow.com/deploy?ref=ultralytics), Roboflow gives you building blocks to bring custom computer vision solutions to your project.
-!!! warning
+!!! Warning
Roboflow users can use Ultralytics under the [AGPL license](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) or procure an [Enterprise license](https://ultralytics.com/license) directly from Ultralytics. Be aware that Roboflow does **not** provide Ultralytics licenses, and it is the responsibility of the user to ensure appropriate licensing.
diff --git a/docs/en/models/fast-sam.md b/docs/en/models/fast-sam.md
index 2e839a5a73..9b4928d91c 100644
--- a/docs/en/models/fast-sam.md
+++ b/docs/en/models/fast-sam.md
@@ -40,7 +40,7 @@ The FastSAM models are easy to integrate into your Python applications. Ultralyt
To perform object detection on an image, use the `predict` method as shown below:
-!!! example ""
+!!! Example ""
=== "Python"
```python
@@ -87,7 +87,7 @@ This snippet demonstrates the simplicity of loading a pre-trained model and runn
Validation of the model on a dataset can be done as follows:
-!!! example ""
+!!! Example ""
=== "Python"
```python
@@ -168,7 +168,7 @@ Additionally, you can try FastSAM through a [Colab demo](https://colab.research.
We would like to acknowledge the FastSAM authors for their significant contributions in the field of real-time instance segmentation:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/models/index.md b/docs/en/models/index.md
index 83110d1c8d..410131ea3e 100644
--- a/docs/en/models/index.md
+++ b/docs/en/models/index.md
@@ -37,7 +37,7 @@ Here are some of the key models supported:
## Getting Started: Usage Examples
-!!! example ""
+!!! Example ""
=== "Python"
diff --git a/docs/en/models/mobile-sam.md b/docs/en/models/mobile-sam.md
index d9e315a49e..54f1360f0e 100644
--- a/docs/en/models/mobile-sam.md
+++ b/docs/en/models/mobile-sam.md
@@ -61,7 +61,7 @@ You can download the model [here](https://github.com/ChaoningZhang/MobileSAM/blo
### Point Prompt
-!!! example ""
+!!! Example ""
=== "Python"
```python
@@ -76,7 +76,7 @@ You can download the model [here](https://github.com/ChaoningZhang/MobileSAM/blo
### Box Prompt
-!!! example ""
+!!! Example ""
=== "Python"
```python
@@ -95,7 +95,7 @@ We have implemented `MobileSAM` and `SAM` using the same API. For more usage inf
If you find MobileSAM useful in your research or development work, please consider citing our paper:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/models/rtdetr.md b/docs/en/models/rtdetr.md
index 779da94bc2..6af5b3290f 100644
--- a/docs/en/models/rtdetr.md
+++ b/docs/en/models/rtdetr.md
@@ -30,7 +30,7 @@ The Ultralytics Python API provides pre-trained PaddlePaddle RT-DETR models with
You can use RT-DETR for object detection tasks using the `ultralytics` pip package. The following is a sample code snippet showing how to use RT-DETR models for training and inference:
-!!! example ""
+!!! Example ""
This example provides simple inference code for RT-DETR. For more options including handling inference results see [Predict](../modes/predict.md) mode. For using RT-DETR with additional modes see [Train](../modes/train.md), [Val](../modes/val.md) and [Export](../modes/export.md).
@@ -81,7 +81,7 @@ You can use RT-DETR for object detection tasks using the `ultralytics` pip packa
If you use Baidu's RT-DETR in your research or development work, please cite the [original paper](https://arxiv.org/abs/2304.08069):
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/models/sam.md b/docs/en/models/sam.md
index ee5fc93554..f40a0f28db 100644
--- a/docs/en/models/sam.md
+++ b/docs/en/models/sam.md
@@ -32,7 +32,7 @@ The Segment Anything Model can be employed for a multitude of downstream tasks t
### SAM prediction example
-!!! example "Segment with prompts"
+!!! Example "Segment with prompts"
Segment image with given prompts.
@@ -54,7 +54,7 @@ The Segment Anything Model can be employed for a multitude of downstream tasks t
model('ultralytics/assets/zidane.jpg', points=[900, 370], labels=[1])
```
-!!! example "Segment everything"
+!!! Example "Segment everything"
Segment the whole image.
@@ -82,7 +82,7 @@ The Segment Anything Model can be employed for a multitude of downstream tasks t
- The logic here is to segment the whole image if you don't pass any prompts(bboxes/points/masks).
-!!! example "SAMPredictor example"
+!!! Example "SAMPredictor example"
This way you can set image once and run prompts inference multiple times without running image encoder multiple times.
@@ -152,7 +152,7 @@ This comparison shows the order-of-magnitude differences in the model sizes and
Tests run on a 2023 Apple M2 Macbook with 16GB of RAM. To reproduce this test:
-!!! example ""
+!!! Example ""
=== "Python"
```python
@@ -187,7 +187,7 @@ Auto-annotation is a key feature of SAM, allowing users to generate a [segmentat
To auto-annotate your dataset with the Ultralytics framework, use the `auto_annotate` function as shown below:
-!!! example ""
+!!! Example ""
=== "Python"
```python
@@ -212,7 +212,7 @@ Auto-annotation with pre-trained models can dramatically cut down the time and e
If you find SAM useful in your research or development work, please consider citing our paper:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/models/yolo-nas.md b/docs/en/models/yolo-nas.md
index 4b7b16138e..1e5f7cd92e 100644
--- a/docs/en/models/yolo-nas.md
+++ b/docs/en/models/yolo-nas.md
@@ -44,7 +44,7 @@ The following examples show how to use YOLO-NAS models with the `ultralytics` pa
In this example we validate YOLO-NAS-s on the COCO8 dataset.
-!!! example ""
+!!! Example ""
This example provides simple inference and validation code for YOLO-NAS. For handling inference results see [Predict](../modes/predict.md) mode. For using YOLO-NAS with additional modes see [Val](../modes/val.md) and [Export](../modes/export.md). YOLO-NAS on the `ultralytics` package does not support training.
@@ -106,7 +106,7 @@ Harness the power of the YOLO-NAS models to drive your object detection tasks to
If you employ YOLO-NAS in your research or development work, please cite SuperGradients:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/models/yolov3.md b/docs/en/models/yolov3.md
index a7f3148d3f..3052535e10 100644
--- a/docs/en/models/yolov3.md
+++ b/docs/en/models/yolov3.md
@@ -51,7 +51,7 @@ TODO
You can use YOLOv3 for object detection tasks using the Ultralytics repository. The following is a sample code snippet showing how to use YOLOv3 model for inference:
-!!! example ""
+!!! Example ""
This example provides simple inference code for YOLOv3. For more options including handling inference results see [Predict](../modes/predict.md) mode. For using YOLOv3 with additional modes see [Train](../modes/train.md), [Val](../modes/val.md) and [Export](../modes/export.md).
@@ -91,7 +91,7 @@ You can use YOLOv3 for object detection tasks using the Ultralytics repository.
If you use YOLOv3 in your research, please cite the original YOLO papers and the Ultralytics YOLOv3 repository:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/models/yolov4.md b/docs/en/models/yolov4.md
index c2f4cabd49..e03efd537b 100644
--- a/docs/en/models/yolov4.md
+++ b/docs/en/models/yolov4.md
@@ -53,7 +53,7 @@ YOLOv4 is a powerful and efficient object detection model that strikes a balance
We would like to acknowledge the YOLOv4 authors for their significant contributions in the field of real-time object detection:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/models/yolov5.md b/docs/en/models/yolov5.md
index f4062e4e5b..4fbb9923a3 100644
--- a/docs/en/models/yolov5.md
+++ b/docs/en/models/yolov5.md
@@ -56,7 +56,7 @@ YOLOv5u represents an advancement in object detection methodologies. Originating
You can use YOLOv5u for object detection tasks using the Ultralytics repository. The following is a sample code snippet showing how to use YOLOv5u model for inference:
-!!! example ""
+!!! Example ""
This example provides simple inference code for YOLOv5. For more options including handling inference results see [Predict](../modes/predict.md) mode. For using YOLOv5 with additional modes see [Train](../modes/train.md), [Val](../modes/val.md) and [Export](../modes/export.md).
@@ -96,7 +96,7 @@ You can use YOLOv5u for object detection tasks using the Ultralytics repository.
If you use YOLOv5 or YOLOv5u in your research, please cite the Ultralytics YOLOv5 repository as follows:
-!!! note ""
+!!! Note ""
=== "BibTeX"
```bibtex
diff --git a/docs/en/models/yolov6.md b/docs/en/models/yolov6.md
index 2eb1196d63..0f4b1b1d86 100644
--- a/docs/en/models/yolov6.md
+++ b/docs/en/models/yolov6.md
@@ -37,7 +37,7 @@ YOLOv6 also provides quantized models for different precisions and models optimi
You can use YOLOv6 for object detection tasks using the Ultralytics pip package. The following is a sample code snippet showing how to use YOLOv6 models for training:
-!!! example ""
+!!! Example ""
This example provides simple training code for YOLOv6. For more options including training settings see [Train](../modes/train.md) mode. For using YOLOv6 with additional modes see [Predict](../modes/predict.md), [Val](../modes/val.md) and [Export](../modes/export.md).
@@ -95,7 +95,7 @@ You can use YOLOv6 for object detection tasks using the Ultralytics pip package.
We would like to acknowledge the authors for their significant contributions in the field of real-time object detection:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/models/yolov7.md b/docs/en/models/yolov7.md
index 4f4a035cd4..90cbcad1b7 100644
--- a/docs/en/models/yolov7.md
+++ b/docs/en/models/yolov7.md
@@ -49,7 +49,7 @@ We regret any inconvenience this may cause and will strive to update this docume
We would like to acknowledge the YOLOv7 authors for their significant contributions in the field of real-time object detection:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/models/yolov8.md b/docs/en/models/yolov8.md
index 7f9d0c98d2..af6d69f47d 100644
--- a/docs/en/models/yolov8.md
+++ b/docs/en/models/yolov8.md
@@ -95,7 +95,7 @@ YOLOv8 is the latest iteration in the YOLO series of real-time object detectors,
You can use YOLOv8 for object detection tasks using the Ultralytics pip package. The following is a sample code snippet showing how to use YOLOv8 models for inference:
-!!! example ""
+!!! Example ""
This example provides simple inference code for YOLOv8. For more options including handling inference results see [Predict](../modes/predict.md) mode. For using YOLOv8 with additional modes see [Train](../modes/train.md), [Val](../modes/val.md) and [Export](../modes/export.md).
@@ -135,7 +135,7 @@ You can use YOLOv8 for object detection tasks using the Ultralytics pip package.
If you use the YOLOv8 model or any other software from this repository in your work, please cite it using the following format:
-!!! note ""
+!!! Note ""
=== "BibTeX"
diff --git a/docs/en/modes/benchmark.md b/docs/en/modes/benchmark.md
index 83cbc7eeed..58806ee969 100644
--- a/docs/en/modes/benchmark.md
+++ b/docs/en/modes/benchmark.md
@@ -32,7 +32,7 @@ Once your model is trained and validated, the next logical step is to evaluate i
- **OpenVINO:** For Intel hardware optimization
- **CoreML, TensorFlow SavedModel, and More:** For diverse deployment needs.
-!!! tip "Tip"
+!!! Tip "Tip"
* Export to ONNX or OpenVINO for up to 3x CPU speedup.
* Export to TensorRT for up to 5x GPU speedup.
@@ -41,7 +41,7 @@ Once your model is trained and validated, the next logical step is to evaluate i
Run YOLOv8n benchmarks on all supported export formats including ONNX, TensorRT etc. See Arguments section below for a full list of export arguments.
-!!! example ""
+!!! Example ""
=== "Python"
diff --git a/docs/en/modes/export.md b/docs/en/modes/export.md
index 5e19b27bb4..bb6d00791f 100644
--- a/docs/en/modes/export.md
+++ b/docs/en/modes/export.md
@@ -39,7 +39,7 @@ Here are some of the standout functionalities:
- **Optimized Inference:** Exported models are optimized for quicker inference times.
- **Tutorial Videos:** In-depth guides and tutorials for a smooth exporting experience.
-!!! tip "Tip"
+!!! Tip "Tip"
* Export to ONNX or OpenVINO for up to 3x CPU speedup.
* Export to TensorRT for up to 5x GPU speedup.
@@ -48,7 +48,7 @@ Here are some of the standout functionalities:
Export a YOLOv8n model to a different format like ONNX or TensorRT. See Arguments section below for a full list of export arguments.
-!!! example ""
+!!! Example ""
=== "Python"
diff --git a/docs/en/modes/predict.md b/docs/en/modes/predict.md
index 16f82d0e91..6e5077e484 100644
--- a/docs/en/modes/predict.md
+++ b/docs/en/modes/predict.md
@@ -50,7 +50,7 @@ YOLOv8's predict mode is designed to be robust and versatile, featuring:
Ultralytics YOLO models return either a Python list of `Results` objects, or a memory-efficient Python generator of `Results` objects when `stream=True` is passed to the model during inference:
-!!! example "Predict"
+!!! Example "Predict"
=== "Return a list with `stream=False`"
```python
@@ -92,7 +92,7 @@ Ultralytics YOLO models return either a Python list of `Results` objects, or a m
YOLOv8 can process different types of input sources for inference, as shown in the table below. The sources include static images, video streams, and various data formats. The table also indicates whether each source can be used in streaming mode with the argument `stream=True` ✅. Streaming mode is beneficial for processing videos or live streams as it creates a generator of results instead of loading all frames into memory.
-!!! tip "Tip"
+!!! Tip "Tip"
Use `stream=True` for processing long videos or large datasets to efficiently manage memory. When `stream=False`, the results for all frames or data points are stored in memory, which can quickly add up and cause out-of-memory errors for large inputs. In contrast, `stream=True` utilizes a generator, which only keeps the results of the current frame or data point in memory, significantly reducing memory consumption and preventing out-of-memory issues.
@@ -115,7 +115,7 @@ YOLOv8 can process different types of input sources for inference, as shown in t
Below are code examples for using each source type:
-!!! example "Prediction sources"
+!!! Example "Prediction sources"
=== "image"
Run inference on an image file.
@@ -327,7 +327,7 @@ Below are code examples for using each source type:
`model.predict()` accepts multiple arguments that can be passed at inference time to override defaults:
-!!! example
+!!! Example
```python
from ultralytics import YOLO
@@ -411,7 +411,7 @@ The below table contains valid Ultralytics video formats.
All Ultralytics `predict()` calls will return a list of `Results` objects:
-!!! example "Results"
+!!! Example "Results"
```python
from ultralytics import YOLO
@@ -463,7 +463,7 @@ For more details see the `Results` class [documentation](../reference/engine/res
`Boxes` object can be used to index, manipulate, and convert bounding boxes to different formats.
-!!! example "Boxes"
+!!! Example "Boxes"
```python
from ultralytics import YOLO
@@ -501,7 +501,7 @@ For more details see the `Boxes` class [documentation](../reference/engine/resul
`Masks` object can be used index, manipulate and convert masks to segments.
-!!! example "Masks"
+!!! Example "Masks"
```python
from ultralytics import YOLO
@@ -534,7 +534,7 @@ For more details see the `Masks` class [documentation](../reference/engine/resul
`Keypoints` object can be used index, manipulate and normalize coordinates.
-!!! example "Keypoints"
+!!! Example "Keypoints"
```python
from ultralytics import YOLO
@@ -568,7 +568,7 @@ For more details see the `Keypoints` class [documentation](../reference/engine/r
`Probs` object can be used index, get `top1` and `top5` indices and scores of classification.
-!!! example "Probs"
+!!! Example "Probs"
```python
from ultralytics import YOLO
@@ -603,7 +603,7 @@ For more details see the `Probs` class [documentation](../reference/engine/resul
You can use the `plot()` method of a `Result` objects to visualize predictions. It plots all prediction types (boxes, masks, keypoints, probabilities, etc.) contained in the `Results` object onto a numpy array that can then be shown or saved.
-!!! example "Plotting"
+!!! Example "Plotting"
```python
from PIL import Image
@@ -647,7 +647,7 @@ Ensuring thread safety during inference is crucial when you are running multiple
When using YOLO models in a multi-threaded application, it's important to instantiate separate model objects for each thread or employ thread-local storage to prevent conflicts:
-!!! example "Thread-Safe Inference"
+!!! Example "Thread-Safe Inference"
Instantiate a single model inside each thread for thread-safe inference:
```python
@@ -672,7 +672,7 @@ For an in-depth look at thread-safe inference with YOLO models and step-by-step
Here's a Python script using OpenCV (`cv2`) and YOLOv8 to run inference on video frames. This script assumes you have already installed the necessary packages (`opencv-python` and `ultralytics`).
-!!! example "Streaming for-loop"
+!!! Example "Streaming for-loop"
```python
import cv2
diff --git a/docs/en/modes/track.md b/docs/en/modes/track.md
index f1ae7edc7c..c6e10a9b55 100644
--- a/docs/en/modes/track.md
+++ b/docs/en/modes/track.md
@@ -58,7 +58,7 @@ The default tracker is BoT-SORT.
To run the tracker on video streams, use a trained Detect, Segment or Pose model such as YOLOv8n, YOLOv8n-seg and YOLOv8n-pose.
-!!! example ""
+!!! Example ""
=== "Python"
@@ -97,7 +97,7 @@ As can be seen in the above usage, tracking is available for all Detect, Segment
Tracking configuration shares properties with Predict mode, such as `conf`, `iou`, and `show`. For further configurations, refer to the [Predict](../modes/predict.md#inference-arguments) model page.
-!!! example ""
+!!! Example ""
=== "Python"
@@ -120,7 +120,7 @@ Tracking configuration shares properties with Predict mode, such as `conf`, `iou
Ultralytics also allows you to use a modified tracker configuration file. To do this, simply make a copy of a tracker config file (for example, `custom_tracker.yaml`) from [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) and modify any configurations (except the `tracker_type`) as per your needs.
-!!! example ""
+!!! Example ""
=== "Python"
@@ -147,7 +147,7 @@ For a comprehensive list of tracking arguments, refer to the [ultralytics/cfg/tr
Here is a Python script using OpenCV (`cv2`) and YOLOv8 to run object tracking on video frames. This script still assumes you have already installed the necessary packages (`opencv-python` and `ultralytics`). The `persist=True` argument tells the tracker that the current image or frame is the next in a sequence and to expect tracks from the previous image in the current image.
-!!! example "Streaming for-loop with tracking"
+!!! Example "Streaming for-loop with tracking"
```python
import cv2
@@ -195,7 +195,7 @@ Visualizing object tracks over consecutive frames can provide valuable insights
In the following example, we demonstrate how to utilize YOLOv8's tracking capabilities to plot the movement of detected objects across multiple video frames. This script involves opening a video file, reading it frame by frame, and utilizing the YOLO model to identify and track various objects. By retaining the center points of the detected bounding boxes and connecting them, we can draw lines that represent the paths followed by the tracked objects.
-!!! example "Plotting tracks over multiple video frames"
+!!! Example "Plotting tracks over multiple video frames"
```python
from collections import defaultdict
@@ -272,7 +272,7 @@ The `daemon=True` parameter in `threading.Thread` means that these threads will
Finally, after all threads have completed their task, the windows displaying the results are closed using `cv2.destroyAllWindows()`.
-!!! example "Streaming for-loop with tracking"
+!!! Example "Streaming for-loop with tracking"
```python
import threading
diff --git a/docs/en/modes/train.md b/docs/en/modes/train.md
index d2ad90adba..137ea2972e 100644
--- a/docs/en/modes/train.md
+++ b/docs/en/modes/train.md
@@ -41,7 +41,7 @@ The following are some notable features of YOLOv8's Train mode:
- **Hyperparameter Configuration:** The option to modify hyperparameters through YAML configuration files or CLI arguments.
- **Visualization and Monitoring:** Real-time tracking of training metrics and visualization of the learning process for better insights.
-!!! tip "Tip"
+!!! Tip "Tip"
* YOLOv8 datasets like COCO, VOC, ImageNet and many others automatically download on first use, i.e. `yolo train data=coco.yaml`
@@ -49,7 +49,7 @@ The following are some notable features of YOLOv8's Train mode:
Train YOLOv8n on the COCO128 dataset for 100 epochs at image size 640. The training device can be specified using the `device` argument. If no argument is passed GPU `device=0` will be used if available, otherwise `device=cpu` will be used. See Arguments section below for a full list of training arguments.
-!!! example "Single-GPU and CPU Training Example"
+!!! Example "Single-GPU and CPU Training Example"
Device is determined automatically. If a GPU is available then it will be used, otherwise training will start on CPU.
@@ -84,7 +84,7 @@ Train YOLOv8n on the COCO128 dataset for 100 epochs at image size 640. The train
Multi-GPU training allows for more efficient utilization of available hardware resources by distributing the training load across multiple GPUs. This feature is available through both the Python API and the command-line interface. To enable multi-GPU training, specify the GPU device IDs you wish to use.
-!!! example "Multi-GPU Training Example"
+!!! Example "Multi-GPU Training Example"
To train with 2 GPUs, CUDA devices 0 and 1 use the following commands. Expand to additional GPUs as required.
@@ -113,7 +113,7 @@ With the support for Apple M1 and M2 chips integrated in the Ultralytics YOLO mo
To enable training on Apple M1 and M2 chips, you should specify 'mps' as your device when initiating the training process. Below is an example of how you could do this in Python and via the command line:
-!!! example "MPS Training Example"
+!!! Example "MPS Training Example"
=== "Python"
@@ -146,7 +146,7 @@ You can easily resume training in Ultralytics YOLO by setting the `resume` argum
Below is an example of how to resume an interrupted training using Python and via the command line:
-!!! example "Resume Training Example"
+!!! Example "Resume Training Example"
=== "Python"
@@ -236,7 +236,7 @@ To use a logger, select it from the dropdown menu in the code snippet above and
To use Comet:
-!!! example ""
+!!! Example ""
=== "Python"
```python
@@ -254,7 +254,7 @@ Remember to sign in to your Comet account on their website and get your API key.
To use ClearML:
-!!! example ""
+!!! Example ""
=== "Python"
```python
@@ -272,7 +272,7 @@ After running this script, you will need to sign in to your ClearML account on t
To use TensorBoard in [Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb):
-!!! example ""
+!!! Example ""
=== "CLI"
```bash
@@ -282,7 +282,7 @@ To use TensorBoard in [Google Colab](https://colab.research.google.com/github/ul
To use TensorBoard locally run the below command and view results at http://localhost:6006/.
-!!! example ""
+!!! Example ""
=== "CLI"
```bash
diff --git a/docs/en/modes/val.md b/docs/en/modes/val.md
index b964ee7b4b..79e844ff69 100644
--- a/docs/en/modes/val.md
+++ b/docs/en/modes/val.md
@@ -30,7 +30,7 @@ These are the notable functionalities offered by YOLOv8's Val mode:
- **CLI and Python API:** Choose from command-line interface or Python API based on your preference for validation.
- **Data Compatibility:** Works seamlessly with datasets used during the training phase as well as custom datasets.
-!!! tip "Tip"
+!!! Tip "Tip"
* YOLOv8 models automatically remember their training settings, so you can validate a model at the same image size and on the original dataset easily with just `yolo val model=yolov8n.pt` or `model('yolov8n.pt').val()`
@@ -38,7 +38,7 @@ These are the notable functionalities offered by YOLOv8's Val mode:
Validate trained YOLOv8n model accuracy on the COCO128 dataset. No argument need to passed as the `model` retains it's training `data` and arguments as model attributes. See Arguments section below for a full list of export arguments.
-!!! example ""
+!!! Example ""
=== "Python"
diff --git a/docs/en/quickstart.md b/docs/en/quickstart.md
index 2363a6367b..6c19d320e2 100644
--- a/docs/en/quickstart.md
+++ b/docs/en/quickstart.md
@@ -8,7 +8,7 @@ keywords: Ultralytics installation, pip install Ultralytics, Docker install Ultr
Ultralytics provides various installation methods including pip, conda, and Docker. Install YOLOv8 via the `ultralytics` pip package for the latest stable release or by cloning the [Ultralytics GitHub repository](https://github.com/ultralytics/ultralytics) for the most up-to-date version. Docker can be used to execute the package in an isolated container, avoiding local installation.
-!!! example "Install"
+!!! Example "Install"
=== "Pip install (recommended)"
Install the `ultralytics` package using pip, or update an existing installation by running `pip install -U ultralytics`. Visit the Python Package Index (PyPI) for more details on the `ultralytics` package: [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/).
@@ -39,7 +39,7 @@ Ultralytics provides various installation methods including pip, conda, and Dock
conda install -c conda-forge ultralytics
```
- !!! note
+ !!! Note
If you are installing in a CUDA environment best practice is to install `ultralytics`, `pytorch` and `pytorch-cuda` in the same command to allow the conda package manager to resolve any conflicts, or else to install `pytorch-cuda` last to allow it override the CPU-specific `pytorch` package if necessary.
```bash
@@ -129,7 +129,7 @@ See the `ultralytics` [requirements.txt](https://github.com/ultralytics/ultralyt
Watch: Ultralytics YOLO Quick Start Guide
-!!! tip "Tip"
+!!! Tip "Tip"
PyTorch requirements vary by operating system and CUDA requirements, so it's recommended to install PyTorch first following instructions at [https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally).
@@ -141,7 +141,7 @@ See the `ultralytics` [requirements.txt](https://github.com/ultralytics/ultralyt
The Ultralytics command line interface (CLI) allows for simple single-line commands without the need for a Python environment. CLI requires no customization or Python code. You can simply run all tasks from the terminal with the `yolo` command. Check out the [CLI Guide](usage/cli.md) to learn more about using YOLOv8 from the command line.
-!!! example
+!!! Example
=== "Syntax"
@@ -196,7 +196,7 @@ The Ultralytics command line interface (CLI) allows for simple single-line comma
yolo cfg
```
-!!! warning "Warning"
+!!! Warning "Warning"
Arguments must be passed as `arg=val` pairs, split by an equals `=` sign and delimited by spaces between pairs. Do not use `--` argument prefixes or commas `,` between arguments.
@@ -213,7 +213,7 @@ YOLOv8's Python interface allows for seamless integration into your Python proje
For example, users can load a model, train it, evaluate its performance on a validation set, and even export it to ONNX format with just a few lines of code. Check out the [Python Guide](usage/python.md) to learn more about using YOLOv8 within your Python projects.
-!!! example
+!!! Example
```python
from ultralytics import YOLO
@@ -247,7 +247,7 @@ The Ultralytics library provides a powerful settings management system to enable
To gain insight into the current configuration of your settings, you can view them directly:
-!!! example "View settings"
+!!! Example "View settings"
=== "Python"
You can use Python to view your settings. Start by importing the `settings` object from the `ultralytics` module. Print and return settings using the following commands:
@@ -271,7 +271,7 @@ To gain insight into the current configuration of your settings, you can view th
Ultralytics allows users to easily modify their settings. Changes can be performed in the following ways:
-!!! example "Update settings"
+!!! Example "Update settings"
=== "Python"
Within the Python environment, call the `update` method on the `settings` object to change your settings:
diff --git a/docs/en/reference/cfg/__init__.md b/docs/en/reference/cfg/__init__.md
index 3248059d74..429f4cccd3 100644
--- a/docs/en/reference/cfg/__init__.md
+++ b/docs/en/reference/cfg/__init__.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, Configuration, cfg2dict, handle_deprecation, merge_
# Reference for `ultralytics/cfg/__init__.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/__init__.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/__init__.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/cfg/__init__.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/data/annotator.md b/docs/en/reference/data/annotator.md
index a01663ff71..b2f0e99724 100644
--- a/docs/en/reference/data/annotator.md
+++ b/docs/en/reference/data/annotator.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, Auto-Annotate, Machine Learning, AI, Annotation, Data Pro
# Reference for `ultralytics/data/annotator.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/annotator.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/annotator.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/data/annotator.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/data/augment.md b/docs/en/reference/data/augment.md
index 408e3603ba..b11aae57b5 100644
--- a/docs/en/reference/data/augment.md
+++ b/docs/en/reference/data/augment.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, Data Augmentation, BaseTransform, MixUp, RandomHSV, Lette
# Reference for `ultralytics/data/augment.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/augment.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/augment.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/data/augment.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/data/base.md b/docs/en/reference/data/base.md
index 2fdc9d08e9..3e3b9a1686 100644
--- a/docs/en/reference/data/base.md
+++ b/docs/en/reference/data/base.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, docs, BaseDataset, data manipulation, dataset creation
# Reference for `ultralytics/data/base.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/base.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/base.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/data/base.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/data/build.md b/docs/en/reference/data/build.md
index 12092cf0f4..878ad52597 100644
--- a/docs/en/reference/data/build.md
+++ b/docs/en/reference/data/build.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO v3, Data build, DataLoader, InfiniteDataLoader, seed
# Reference for `ultralytics/data/build.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/build.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/build.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/data/build.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/data/converter.md b/docs/en/reference/data/converter.md
index ce869a4909..d23e32196f 100644
--- a/docs/en/reference/data/converter.md
+++ b/docs/en/reference/data/converter.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, Data Converter, coco91_to_coco80_class, merge_multi_segme
# Reference for `ultralytics/data/converter.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/converter.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/converter.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/data/converter.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/data/dataset.md b/docs/en/reference/data/dataset.md
index 2bfa8c308e..dff4a3f5ca 100644
--- a/docs/en/reference/data/dataset.md
+++ b/docs/en/reference/data/dataset.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, YOLODataset, SemanticDataset, data handling, data m
# Reference for `ultralytics/data/dataset.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/dataset.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/dataset.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/data/dataset.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/data/loaders.md b/docs/en/reference/data/loaders.md
index ff9ffede81..d047e1f965 100644
--- a/docs/en/reference/data/loaders.md
+++ b/docs/en/reference/data/loaders.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, data loaders, LoadStreams, LoadImages, LoadTensor, YOLO,
# Reference for `ultralytics/data/loaders.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/loaders.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/loaders.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/data/loaders.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/data/utils.md b/docs/en/reference/data/utils.md
index 6b73c75ec7..87d459eba7 100644
--- a/docs/en/reference/data/utils.md
+++ b/docs/en/reference/data/utils.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, data utils, YOLO, img2label_paths, exif_size, polygon2mas
# Reference for `ultralytics/data/utils.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/utils.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/utils.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/data/utils.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/engine/exporter.md b/docs/en/reference/engine/exporter.md
index 070d4b5dca..5e723509e5 100644
--- a/docs/en/reference/engine/exporter.md
+++ b/docs/en/reference/engine/exporter.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, Exporter, IOSDetectModel, Export Formats, Try export
# Reference for `ultralytics/engine/exporter.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/exporter.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/exporter.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/engine/exporter.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/engine/model.md b/docs/en/reference/engine/model.md
index 03e735b807..efe5530162 100644
--- a/docs/en/reference/engine/model.md
+++ b/docs/en/reference/engine/model.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, engine model, documentation, guide, implementation,
# Reference for `ultralytics/engine/model.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/model.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/model.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/engine/model.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/engine/predictor.md b/docs/en/reference/engine/predictor.md
index a53ae304dc..c34c851d24 100644
--- a/docs/en/reference/engine/predictor.md
+++ b/docs/en/reference/engine/predictor.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, BasePredictor, YOLO, prediction, engine
# Reference for `ultralytics/engine/predictor.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/predictor.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/predictor.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/engine/predictor.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/engine/results.md b/docs/en/reference/engine/results.md
index 36d0529528..58a7841a2f 100644
--- a/docs/en/reference/engine/results.md
+++ b/docs/en/reference/engine/results.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, engine, results, base tensor, boxes, keypoints
# Reference for `ultralytics/engine/results.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/results.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/results.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/engine/results.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/engine/trainer.md b/docs/en/reference/engine/trainer.md
index cdf88960b9..2ce555b492 100644
--- a/docs/en/reference/engine/trainer.md
+++ b/docs/en/reference/engine/trainer.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, BaseTrainer, Machine Learning, Training Control, Python l
# Reference for `ultralytics/engine/trainer.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/trainer.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/trainer.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/engine/trainer.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/engine/tuner.md b/docs/en/reference/engine/tuner.md
index bbcc5d0c4d..0dcb73b99b 100644
--- a/docs/en/reference/engine/tuner.md
+++ b/docs/en/reference/engine/tuner.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, Tuner, YOLO, hyperparameter tuning, optimization, object
# Reference for `ultralytics/engine/tuner.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/tuner.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/tuner.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/engine/tuner.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/engine/validator.md b/docs/en/reference/engine/validator.md
index 84a6bc407e..dbfcb051ab 100644
--- a/docs/en/reference/engine/validator.md
+++ b/docs/en/reference/engine/validator.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, BaseValidator, Ultralytics engine, module, components
# Reference for `ultralytics/engine/validator.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/validator.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/validator.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/engine/validator.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/hub/__init__.md b/docs/en/reference/hub/__init__.md
index a0aa8f8545..39862b32f5 100644
--- a/docs/en/reference/hub/__init__.md
+++ b/docs/en/reference/hub/__init__.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, hub functions, model export, dataset check, reset model,
# Reference for `ultralytics/hub/__init__.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/hub/__init__.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/hub/__init__.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/hub/__init__.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/hub/auth.md b/docs/en/reference/hub/auth.md
index 56ac59c5fb..7a891ccde5 100644
--- a/docs/en/reference/hub/auth.md
+++ b/docs/en/reference/hub/auth.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, Auth, API documentation, User Authentication, AI, Machine
# Reference for `ultralytics/hub/auth.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/hub/auth.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/hub/auth.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/hub/auth.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/hub/session.md b/docs/en/reference/hub/session.md
index 8c2e643ced..1d0bc86f11 100644
--- a/docs/en/reference/hub/session.md
+++ b/docs/en/reference/hub/session.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, HUBTrainingSession, Documentation, Model Training, AI, Ma
# Reference for `ultralytics/hub/session.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/hub/session.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/hub/session.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/hub/session.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/hub/utils.md b/docs/en/reference/hub/utils.md
index 52f390fdf8..6bb81b82e8 100644
--- a/docs/en/reference/hub/utils.md
+++ b/docs/en/reference/hub/utils.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, Events, request_with_credentials, smart_request, Ultralyt
# Reference for `ultralytics/hub/utils.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/hub/utils.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/hub/utils.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/hub/utils.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/fastsam/model.md b/docs/en/reference/models/fastsam/model.md
index f95c49d976..109ccae044 100644
--- a/docs/en/reference/models/fastsam/model.md
+++ b/docs/en/reference/models/fastsam/model.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, FastSAM model, Model documentation, Efficient model train
# Reference for `ultralytics/models/fastsam/model.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/fastsam/model.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/fastsam/model.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/fastsam/model.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/fastsam/predict.md b/docs/en/reference/models/fastsam/predict.md
index e03df5533a..e6d1ef911e 100644
--- a/docs/en/reference/models/fastsam/predict.md
+++ b/docs/en/reference/models/fastsam/predict.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, FastSAMPredictor, predictive modeling, AI optimization, m
# Reference for `ultralytics/models/fastsam/predict.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/fastsam/predict.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/fastsam/predict.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/fastsam/predict.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/fastsam/prompt.md b/docs/en/reference/models/fastsam/prompt.md
index 2c44bd7050..98cf2d841d 100644
--- a/docs/en/reference/models/fastsam/prompt.md
+++ b/docs/en/reference/models/fastsam/prompt.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, FastSAMPrompt, machine learning, model, guide, documentat
# Reference for `ultralytics/models/fastsam/prompt.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/fastsam/prompt.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/fastsam/prompt.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/fastsam/prompt.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/fastsam/utils.md b/docs/en/reference/models/fastsam/utils.md
index c7e9abd74b..00aa21deaf 100644
--- a/docs/en/reference/models/fastsam/utils.md
+++ b/docs/en/reference/models/fastsam/utils.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, bounding boxes, Bboxes, image borders, object detection,
# Reference for `ultralytics/models/fastsam/utils.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/fastsam/utils.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/fastsam/utils.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/fastsam/utils.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/fastsam/val.md b/docs/en/reference/models/fastsam/val.md
index a5914fe4ee..0bfc05994b 100644
--- a/docs/en/reference/models/fastsam/val.md
+++ b/docs/en/reference/models/fastsam/val.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, FastSAMValidator, model, synthetic, AI, machine learning,
# Reference for `ultralytics/models/fastsam/val.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/fastsam/val.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/fastsam/val.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/fastsam/val.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/nas/model.md b/docs/en/reference/models/nas/model.md
index ac617ccdf7..0a32dafb69 100644
--- a/docs/en/reference/models/nas/model.md
+++ b/docs/en/reference/models/nas/model.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, NAS model, NAS guide, machine learning, model documentati
# Reference for `ultralytics/models/nas/model.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/nas/model.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/nas/model.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/nas/model.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/nas/predict.md b/docs/en/reference/models/nas/predict.md
index 7dcb38433b..3334717095 100644
--- a/docs/en/reference/models/nas/predict.md
+++ b/docs/en/reference/models/nas/predict.md
@@ -5,7 +5,7 @@ keywords: NASPredictor, Ultralytics, Ultralytics model, model architecture, effi
# Reference for `ultralytics/models/nas/predict.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/nas/predict.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/nas/predict.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/nas/predict.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/nas/val.md b/docs/en/reference/models/nas/val.md
index 3669362925..d433eb0b3c 100644
--- a/docs/en/reference/models/nas/val.md
+++ b/docs/en/reference/models/nas/val.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, NASValidator, models.nas.val.NASValidator, AI models, all
# Reference for `ultralytics/models/nas/val.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/nas/val.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/nas/val.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/nas/val.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/rtdetr/model.md b/docs/en/reference/models/rtdetr/model.md
index 3e796bb7a3..0159d0bd09 100644
--- a/docs/en/reference/models/rtdetr/model.md
+++ b/docs/en/reference/models/rtdetr/model.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, RTDETR model, Ultralytics models, object detection, Ultra
# Reference for `ultralytics/models/rtdetr/model.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/rtdetr/model.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/rtdetr/model.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/rtdetr/model.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/rtdetr/predict.md b/docs/en/reference/models/rtdetr/predict.md
index 0f0fa38d9b..6eb41b32a4 100644
--- a/docs/en/reference/models/rtdetr/predict.md
+++ b/docs/en/reference/models/rtdetr/predict.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, RTDETRPredictor, model documentation, guide, real-time ob
# Reference for `ultralytics/models/rtdetr/predict.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/rtdetr/predict.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/rtdetr/predict.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/rtdetr/predict.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/rtdetr/train.md b/docs/en/reference/models/rtdetr/train.md
index 3ee22d05bf..87d885af60 100644
--- a/docs/en/reference/models/rtdetr/train.md
+++ b/docs/en/reference/models/rtdetr/train.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, RTDETRTrainer, model training, Ultralytics models, PyTorc
# Reference for `ultralytics/models/rtdetr/train.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/rtdetr/train.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/rtdetr/train.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/rtdetr/train.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/rtdetr/val.md b/docs/en/reference/models/rtdetr/val.md
index e39afd0f01..e258018c1b 100644
--- a/docs/en/reference/models/rtdetr/val.md
+++ b/docs/en/reference/models/rtdetr/val.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, RTDETRDataset, RTDETRValidator, real-time object detectio
# Reference for `ultralytics/models/rtdetr/val.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/rtdetr/val.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/rtdetr/val.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/rtdetr/val.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/sam/amg.md b/docs/en/reference/models/sam/amg.md
index 890ced9b6c..fe2345fbd4 100644
--- a/docs/en/reference/models/sam/amg.md
+++ b/docs/en/reference/models/sam/amg.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, Mask Data, Transformation, Encoding, RLE encoding, Image
# Reference for `ultralytics/models/sam/amg.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/amg.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/amg.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/sam/amg.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/sam/build.md b/docs/en/reference/models/sam/build.md
index d61af22f4b..4305c13b96 100644
--- a/docs/en/reference/models/sam/build.md
+++ b/docs/en/reference/models/sam/build.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, SAM, build sam, vision transformer, vits, build_sam_vit_l
# Reference for `ultralytics/models/sam/build.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/build.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/build.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/sam/build.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/sam/model.md b/docs/en/reference/models/sam/model.md
index ad29dccbec..b98312be07 100644
--- a/docs/en/reference/models/sam/model.md
+++ b/docs/en/reference/models/sam/model.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, SAM Model, Documentations, Machine Learning, AI, Co
# Reference for `ultralytics/models/sam/model.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/model.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/model.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/sam/model.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/sam/modules/decoders.md b/docs/en/reference/models/sam/modules/decoders.md
index 15d647c51a..bff331e5e9 100644
--- a/docs/en/reference/models/sam/modules/decoders.md
+++ b/docs/en/reference/models/sam/modules/decoders.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, MaskDecoder, SAM modules, decoders, MLP, YOLO, machine le
# Reference for `ultralytics/models/sam/modules/decoders.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/modules/decoders.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/modules/decoders.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/sam/modules/decoders.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/sam/modules/encoders.md b/docs/en/reference/models/sam/modules/encoders.md
index bb9d2c2978..494271447e 100644
--- a/docs/en/reference/models/sam/modules/encoders.md
+++ b/docs/en/reference/models/sam/modules/encoders.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, Encoders, Modules, Documentation, ImageEncoderViT, Positi
# Reference for `ultralytics/models/sam/modules/encoders.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/modules/encoders.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/modules/encoders.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/sam/modules/encoders.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/sam/modules/sam.md b/docs/en/reference/models/sam/modules/sam.md
index b4a1b42b02..39613969a1 100644
--- a/docs/en/reference/models/sam/modules/sam.md
+++ b/docs/en/reference/models/sam/modules/sam.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, Sam module, deep learning, model training, Ultralytics do
# Reference for `ultralytics/models/sam/modules/sam.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/modules/sam.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/modules/sam.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/sam/modules/sam.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/sam/modules/tiny_encoder.md b/docs/en/reference/models/sam/modules/tiny_encoder.md
index d0489b49dd..564707b48e 100644
--- a/docs/en/reference/models/sam/modules/tiny_encoder.md
+++ b/docs/en/reference/models/sam/modules/tiny_encoder.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, Tiny Encoder, Conv2d_BN, MBConv, ConvLayer, Attention, Ba
# Reference for `ultralytics/models/sam/modules/tiny_encoder.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/modules/tiny_encoder.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/modules/tiny_encoder.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/sam/modules/tiny_encoder.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/sam/modules/transformer.md b/docs/en/reference/models/sam/modules/transformer.md
index cbe62fea52..260b104044 100644
--- a/docs/en/reference/models/sam/modules/transformer.md
+++ b/docs/en/reference/models/sam/modules/transformer.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, TwoWayTransformer, Attention, AI models, transformers
# Reference for `ultralytics/models/sam/modules/transformer.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/modules/transformer.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/modules/transformer.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/sam/modules/transformer.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/sam/predict.md b/docs/en/reference/models/sam/predict.md
index 4471af7e97..7c36a3b108 100644
--- a/docs/en/reference/models/sam/predict.md
+++ b/docs/en/reference/models/sam/predict.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, predictor, models, sam.predict.Predictor, AI, machine lea
# Reference for `ultralytics/models/sam/predict.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/predict.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/predict.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/sam/predict.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/utils/loss.md b/docs/en/reference/models/utils/loss.md
index 990b11821f..82dfaafab4 100644
--- a/docs/en/reference/models/utils/loss.md
+++ b/docs/en/reference/models/utils/loss.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, Documentation, DETRLoss, Detection Loss, Loss funct
# Reference for `ultralytics/models/utils/loss.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/utils/loss.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/utils/loss.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/utils/loss.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/utils/ops.md b/docs/en/reference/models/utils/ops.md
index 1ad96a1896..58d9a153ed 100644
--- a/docs/en/reference/models/utils/ops.md
+++ b/docs/en/reference/models/utils/ops.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, HungarianMatcher, inverse_sigmoid, detection models
# Reference for `ultralytics/models/utils/ops.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/utils/ops.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/utils/ops.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/utils/ops.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/yolo/classify/predict.md b/docs/en/reference/models/yolo/classify/predict.md
index 62efbee235..ebee14e905 100644
--- a/docs/en/reference/models/yolo/classify/predict.md
+++ b/docs/en/reference/models/yolo/classify/predict.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, classification predictor, predict, YOLO, AI models, model
# Reference for `ultralytics/models/yolo/classify/predict.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/classify/predict.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/classify/predict.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/yolo/classify/predict.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/yolo/classify/train.md b/docs/en/reference/models/yolo/classify/train.md
index 056ffd4f90..9a6d51f39b 100644
--- a/docs/en/reference/models/yolo/classify/train.md
+++ b/docs/en/reference/models/yolo/classify/train.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, Classification Trainer, deep learning, training pro
# Reference for `ultralytics/models/yolo/classify/train.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/classify/train.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/classify/train.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/yolo/classify/train.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/yolo/classify/val.md b/docs/en/reference/models/yolo/classify/val.md
index 8b71246b84..4516cc32a2 100644
--- a/docs/en/reference/models/yolo/classify/val.md
+++ b/docs/en/reference/models/yolo/classify/val.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, ClassificationValidator, model validation, model fi
# Reference for `ultralytics/models/yolo/classify/val.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/classify/val.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/classify/val.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/yolo/classify/val.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/yolo/detect/predict.md b/docs/en/reference/models/yolo/detect/predict.md
index 5094ad2c70..20c0cc7ba2 100644
--- a/docs/en/reference/models/yolo/detect/predict.md
+++ b/docs/en/reference/models/yolo/detect/predict.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, DetectionPredictor, detect, predict, object detecti
# Reference for `ultralytics/models/yolo/detect/predict.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/detect/predict.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/detect/predict.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/yolo/detect/predict.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/yolo/detect/train.md b/docs/en/reference/models/yolo/detect/train.md
index bdcd807a2e..eb5a0d3cb9 100644
--- a/docs/en/reference/models/yolo/detect/train.md
+++ b/docs/en/reference/models/yolo/detect/train.md
@@ -5,7 +5,7 @@ keywords: Ultralytics YOLO, YOLO, Detection Trainer, Model Training, Machine Lea
# Reference for `ultralytics/models/yolo/detect/train.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/detect/train.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/detect/train.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/yolo/detect/train.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/yolo/detect/val.md b/docs/en/reference/models/yolo/detect/val.md
index cc1fd2be83..b688e76f05 100644
--- a/docs/en/reference/models/yolo/detect/val.md
+++ b/docs/en/reference/models/yolo/detect/val.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, Detection Validator, model valuation, precision, re
# Reference for `ultralytics/models/yolo/detect/val.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/detect/val.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/detect/val.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/yolo/detect/val.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/yolo/model.md b/docs/en/reference/models/yolo/model.md
index a56ca09d0a..9c09a800c2 100644
--- a/docs/en/reference/models/yolo/model.md
+++ b/docs/en/reference/models/yolo/model.md
@@ -5,7 +5,7 @@ keywords: Ultralytics YOLO, YOLO, YOLO model, Model Training, Machine Learning,
# Reference for `ultralytics/models/yolo/model.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/model.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/model.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/yolo/model.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/yolo/pose/predict.md b/docs/en/reference/models/yolo/pose/predict.md
index 7ec709c670..6de6df4486 100644
--- a/docs/en/reference/models/yolo/pose/predict.md
+++ b/docs/en/reference/models/yolo/pose/predict.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, PosePredictor, machine learning, AI, predictive mod
# Reference for `ultralytics/models/yolo/pose/predict.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/pose/predict.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/pose/predict.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/yolo/pose/predict.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/yolo/pose/train.md b/docs/en/reference/models/yolo/pose/train.md
index a60508f9e7..61a440a432 100644
--- a/docs/en/reference/models/yolo/pose/train.md
+++ b/docs/en/reference/models/yolo/pose/train.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, PoseTrainer, pose training, AI modeling, custom dat
# Reference for `ultralytics/models/yolo/pose/train.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/pose/train.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/pose/train.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/yolo/pose/train.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/yolo/pose/val.md b/docs/en/reference/models/yolo/pose/val.md
index 9c72b5cc0e..373a9049d6 100644
--- a/docs/en/reference/models/yolo/pose/val.md
+++ b/docs/en/reference/models/yolo/pose/val.md
@@ -5,7 +5,7 @@ keywords: PoseValidator, Ultralytics, YOLO, Object detection, Pose validation
# Reference for `ultralytics/models/yolo/pose/val.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/pose/val.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/pose/val.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/yolo/pose/val.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/yolo/segment/predict.md b/docs/en/reference/models/yolo/segment/predict.md
index f5df1a0737..58a7184919 100644
--- a/docs/en/reference/models/yolo/segment/predict.md
+++ b/docs/en/reference/models/yolo/segment/predict.md
@@ -5,7 +5,7 @@ keywords: YOLO, Ultralytics, object detection, segmentation predictor
# Reference for `ultralytics/models/yolo/segment/predict.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/segment/predict.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/segment/predict.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/yolo/segment/predict.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/yolo/segment/train.md b/docs/en/reference/models/yolo/segment/train.md
index b512b199cd..301f9579a2 100644
--- a/docs/en/reference/models/yolo/segment/train.md
+++ b/docs/en/reference/models/yolo/segment/train.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, SegmentationTrainer, image segmentation, object det
# Reference for `ultralytics/models/yolo/segment/train.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/segment/train.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/segment/train.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/yolo/segment/train.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/models/yolo/segment/val.md b/docs/en/reference/models/yolo/segment/val.md
index eb2943fce5..c6705efd77 100644
--- a/docs/en/reference/models/yolo/segment/val.md
+++ b/docs/en/reference/models/yolo/segment/val.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, SegmentationValidator, model segmentation, image cl
# Reference for `ultralytics/models/yolo/segment/val.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/segment/val.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/segment/val.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/yolo/segment/val.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/nn/autobackend.md b/docs/en/reference/nn/autobackend.md
index ecc62eab40..45afc90735 100644
--- a/docs/en/reference/nn/autobackend.md
+++ b/docs/en/reference/nn/autobackend.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, AutoBackend, check_class_names, YOLO, YOLO models, optimi
# Reference for `ultralytics/nn/autobackend.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/autobackend.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/autobackend.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/nn/autobackend.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/nn/modules/block.md b/docs/en/reference/nn/modules/block.md
index d3cb113e5b..0d38ff595f 100644
--- a/docs/en/reference/nn/modules/block.md
+++ b/docs/en/reference/nn/modules/block.md
@@ -5,7 +5,7 @@ keywords: YOLO, Ultralytics, neural network, nn.modules.block, Proto, HGBlock, S
# Reference for `ultralytics/nn/modules/block.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/modules/block.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/modules/block.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/nn/modules/block.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/nn/modules/conv.md b/docs/en/reference/nn/modules/conv.md
index 8c4fc1c396..d96cb37fbb 100644
--- a/docs/en/reference/nn/modules/conv.md
+++ b/docs/en/reference/nn/modules/conv.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, Convolution Modules, Conv2, DWConv, ConvTranspose, GhostC
# Reference for `ultralytics/nn/modules/conv.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/modules/conv.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/modules/conv.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/nn/modules/conv.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/nn/modules/head.md b/docs/en/reference/nn/modules/head.md
index 6b8e6b508e..2bf9e5361e 100644
--- a/docs/en/reference/nn/modules/head.md
+++ b/docs/en/reference/nn/modules/head.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, Detection, Pose, RTDETRDecoder, nn modules, guides
# Reference for `ultralytics/nn/modules/head.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/modules/head.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/modules/head.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/nn/modules/head.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/nn/modules/transformer.md b/docs/en/reference/nn/modules/transformer.md
index 2a509ca50b..a38aa7bd59 100644
--- a/docs/en/reference/nn/modules/transformer.md
+++ b/docs/en/reference/nn/modules/transformer.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, Ultralytics documentation, TransformerEncoderLayer, Trans
# Reference for `ultralytics/nn/modules/transformer.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/modules/transformer.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/modules/transformer.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/nn/modules/transformer.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/nn/modules/utils.md b/docs/en/reference/nn/modules/utils.md
index 116a1e2418..5bed98e710 100644
--- a/docs/en/reference/nn/modules/utils.md
+++ b/docs/en/reference/nn/modules/utils.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, neural network, nn.modules.utils, bias_init_with_prob, in
# Reference for `ultralytics/nn/modules/utils.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/modules/utils.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/modules/utils.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/nn/modules/utils.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/nn/tasks.md b/docs/en/reference/nn/tasks.md
index d404da55e2..fea43a9ec4 100644
--- a/docs/en/reference/nn/tasks.md
+++ b/docs/en/reference/nn/tasks.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, nn tasks, DetectionModel, PoseModel, RTDETRDetectio
# Reference for `ultralytics/nn/tasks.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/tasks.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/tasks.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/nn/tasks.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/trackers/basetrack.md b/docs/en/reference/trackers/basetrack.md
index a72d23e2c4..fc437ab004 100644
--- a/docs/en/reference/trackers/basetrack.md
+++ b/docs/en/reference/trackers/basetrack.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, TrackState, BaseTrack, Ultralytics tracker, Ultralytics d
# Reference for `ultralytics/trackers/basetrack.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/basetrack.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/basetrack.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/trackers/basetrack.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/trackers/bot_sort.md b/docs/en/reference/trackers/bot_sort.md
index 0c3d5f306e..56a58a7c57 100644
--- a/docs/en/reference/trackers/bot_sort.md
+++ b/docs/en/reference/trackers/bot_sort.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, BOTSORT, BOTrack, tracking system, official documentation
# Reference for `ultralytics/trackers/bot_sort.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/bot_sort.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/bot_sort.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/trackers/bot_sort.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/trackers/byte_tracker.md b/docs/en/reference/trackers/byte_tracker.md
index 9823566500..33738d860d 100644
--- a/docs/en/reference/trackers/byte_tracker.md
+++ b/docs/en/reference/trackers/byte_tracker.md
@@ -5,7 +5,7 @@ keywords: STrack, Ultralytics, BYTETracker, documentation, Ultralytics tracker,
# Reference for `ultralytics/trackers/byte_tracker.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/byte_tracker.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/byte_tracker.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/trackers/byte_tracker.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/trackers/track.md b/docs/en/reference/trackers/track.md
index f2e0e93b77..32dbabd01e 100644
--- a/docs/en/reference/trackers/track.md
+++ b/docs/en/reference/trackers/track.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, on predict start, register tracker, prediction func
# Reference for `ultralytics/trackers/track.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/track.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/track.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/trackers/track.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/trackers/utils/gmc.md b/docs/en/reference/trackers/utils/gmc.md
index e6297138ae..9181fd52c7 100644
--- a/docs/en/reference/trackers/utils/gmc.md
+++ b/docs/en/reference/trackers/utils/gmc.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, GMC utility, Ultralytics documentation, Ultralytics track
# Reference for `ultralytics/trackers/utils/gmc.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/utils/gmc.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/utils/gmc.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/trackers/utils/gmc.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/trackers/utils/kalman_filter.md b/docs/en/reference/trackers/utils/kalman_filter.md
index eae06f171e..2c5b04f7e6 100644
--- a/docs/en/reference/trackers/utils/kalman_filter.md
+++ b/docs/en/reference/trackers/utils/kalman_filter.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, KalmanFilterXYAH, tracker, documentation, guide
# Reference for `ultralytics/trackers/utils/kalman_filter.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/utils/kalman_filter.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/utils/kalman_filter.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/trackers/utils/kalman_filter.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/trackers/utils/matching.md b/docs/en/reference/trackers/utils/matching.md
index 1a866e58b5..3fc4bc1f68 100644
--- a/docs/en/reference/trackers/utils/matching.md
+++ b/docs/en/reference/trackers/utils/matching.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, Trackers Utils, Matching, merge_matches, linear_assignmen
# Reference for `ultralytics/trackers/utils/matching.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/utils/matching.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/utils/matching.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/trackers/utils/matching.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/__init__.md b/docs/en/reference/utils/__init__.md
index 811631e620..ac9f2d484c 100644
--- a/docs/en/reference/utils/__init__.md
+++ b/docs/en/reference/utils/__init__.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, Utils, utilitarian functions, colorstr, yaml_save, set_lo
# Reference for `ultralytics/utils/__init__.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/__init__.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/__init__.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/__init__.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/autobatch.md b/docs/en/reference/utils/autobatch.md
index 22dd7dfa87..9b8a729820 100644
--- a/docs/en/reference/utils/autobatch.md
+++ b/docs/en/reference/utils/autobatch.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, check_train_batch_size, autobatch, utility, machine learn
# Reference for `ultralytics/utils/autobatch.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/autobatch.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/autobatch.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/autobatch.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/benchmarks.md b/docs/en/reference/utils/benchmarks.md
index a36fa6ee31..886318cd63 100644
--- a/docs/en/reference/utils/benchmarks.md
+++ b/docs/en/reference/utils/benchmarks.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, ProfileModels, benchmarks, model profiling, performance o
# Reference for `ultralytics/utils/benchmarks.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/benchmarks.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/benchmarks.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/benchmarks.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/callbacks/base.md b/docs/en/reference/utils/callbacks/base.md
index d76ff12fca..1f934054ed 100644
--- a/docs/en/reference/utils/callbacks/base.md
+++ b/docs/en/reference/utils/callbacks/base.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, Callbacks, On-train, On-validation, On-pretrain, On-predi
# Reference for `ultralytics/utils/callbacks/base.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/base.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/base.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/callbacks/base.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/callbacks/clearml.md b/docs/en/reference/utils/callbacks/clearml.md
index 5488864914..b2dbed1aac 100644
--- a/docs/en/reference/utils/callbacks/clearml.md
+++ b/docs/en/reference/utils/callbacks/clearml.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, clearML, callbacks, pretrain routine start, validation en
# Reference for `ultralytics/utils/callbacks/clearml.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/clearml.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/clearml.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/callbacks/clearml.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/callbacks/comet.md b/docs/en/reference/utils/callbacks/comet.md
index 7961b34f1b..0a2f5491d1 100644
--- a/docs/en/reference/utils/callbacks/comet.md
+++ b/docs/en/reference/utils/callbacks/comet.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, Comet Callbacks, Training optimisation, Logging, Experime
# Reference for `ultralytics/utils/callbacks/comet.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/comet.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/comet.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/callbacks/comet.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/callbacks/dvc.md b/docs/en/reference/utils/callbacks/dvc.md
index e54ebc619e..af2167b069 100644
--- a/docs/en/reference/utils/callbacks/dvc.md
+++ b/docs/en/reference/utils/callbacks/dvc.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, callbacks, logger, training, pretraining, machine l
# Reference for `ultralytics/utils/callbacks/dvc.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/dvc.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/dvc.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/callbacks/dvc.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/callbacks/hub.md b/docs/en/reference/utils/callbacks/hub.md
index 9f1ec4ea6e..4dda485f67 100644
--- a/docs/en/reference/utils/callbacks/hub.md
+++ b/docs/en/reference/utils/callbacks/hub.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, callbacks, on_pretrain_routine_end, on_model_save, on_tra
# Reference for `ultralytics/utils/callbacks/hub.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/hub.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/hub.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/callbacks/hub.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/callbacks/mlflow.md b/docs/en/reference/utils/callbacks/mlflow.md
index 54e8b12c9b..37780c6235 100644
--- a/docs/en/reference/utils/callbacks/mlflow.md
+++ b/docs/en/reference/utils/callbacks/mlflow.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, MLflow, Callbacks, on_pretrain_routine_end, on_train_end,
# Reference for `ultralytics/utils/callbacks/mlflow.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/mlflow.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/mlflow.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/callbacks/mlflow.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/callbacks/neptune.md b/docs/en/reference/utils/callbacks/neptune.md
index d3cd0fbd40..8c5e1cf7b3 100644
--- a/docs/en/reference/utils/callbacks/neptune.md
+++ b/docs/en/reference/utils/callbacks/neptune.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, Neptune callbacks, on_train_epoch_end, on_val_end, _log_p
# Reference for `ultralytics/utils/callbacks/neptune.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/neptune.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/neptune.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/callbacks/neptune.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/callbacks/raytune.md b/docs/en/reference/utils/callbacks/raytune.md
index af92c4e981..a990789db7 100644
--- a/docs/en/reference/utils/callbacks/raytune.md
+++ b/docs/en/reference/utils/callbacks/raytune.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, on_fit_epoch_end, callbacks, documentation, deep le
# Reference for `ultralytics/utils/callbacks/raytune.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/raytune.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/raytune.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/callbacks/raytune.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/callbacks/tensorboard.md b/docs/en/reference/utils/callbacks/tensorboard.md
index 9249565b8d..ba5e51673c 100644
--- a/docs/en/reference/utils/callbacks/tensorboard.md
+++ b/docs/en/reference/utils/callbacks/tensorboard.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, documentation, callback utilities, log_scalars, on_
# Reference for `ultralytics/utils/callbacks/tensorboard.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/tensorboard.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/tensorboard.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/callbacks/tensorboard.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/callbacks/wb.md b/docs/en/reference/utils/callbacks/wb.md
index f031904742..ab9fbd7233 100644
--- a/docs/en/reference/utils/callbacks/wb.md
+++ b/docs/en/reference/utils/callbacks/wb.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, callbacks, _log_plots, on_fit_epoch_end, on_train_end
# Reference for `ultralytics/utils/callbacks/wb.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/wb.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/wb.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/callbacks/wb.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/checks.md b/docs/en/reference/utils/checks.md
index 9d72be6c08..c286f678cd 100644
--- a/docs/en/reference/utils/checks.md
+++ b/docs/en/reference/utils/checks.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, utility checks, ASCII, check_version, pip_update, check_p
# Reference for `ultralytics/utils/checks.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/checks.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/checks.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/checks.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/dist.md b/docs/en/reference/utils/dist.md
index d732412c0b..1b5150c4fc 100644
--- a/docs/en/reference/utils/dist.md
+++ b/docs/en/reference/utils/dist.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, DDP, DDP utility functions, Distributed Data Processing,
# Reference for `ultralytics/utils/dist.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/dist.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/dist.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/dist.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/downloads.md b/docs/en/reference/utils/downloads.md
index 9e7f526cef..ee9273e9c0 100644
--- a/docs/en/reference/utils/downloads.md
+++ b/docs/en/reference/utils/downloads.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, download utilities, is_url, check_disk_space, get_g
# Reference for `ultralytics/utils/downloads.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/downloads.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/downloads.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/downloads.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/errors.md b/docs/en/reference/utils/errors.md
index f7181122d6..df05d08053 100644
--- a/docs/en/reference/utils/errors.md
+++ b/docs/en/reference/utils/errors.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, HUBModelError, Machine Learning, Error troubleshooting, U
# Reference for `ultralytics/utils/errors.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/errors.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/errors.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/errors.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/files.md b/docs/en/reference/utils/files.md
index ce49b4b407..f33b9abc1e 100644
--- a/docs/en/reference/utils/files.md
+++ b/docs/en/reference/utils/files.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, utility functions, file operations, working directory, fi
# Reference for `ultralytics/utils/files.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/files.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/files.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/files.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/instance.md b/docs/en/reference/utils/instance.md
index 27bb6c246f..ff513e067e 100644
--- a/docs/en/reference/utils/instance.md
+++ b/docs/en/reference/utils/instance.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, Bboxes, _ntuple, utility, ultralytics utils.instance
# Reference for `ultralytics/utils/instance.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/instance.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/instance.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/instance.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/loss.md b/docs/en/reference/utils/loss.md
index 87fb7e49a2..c6f80f4795 100644
--- a/docs/en/reference/utils/loss.md
+++ b/docs/en/reference/utils/loss.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, Loss functions, VarifocalLoss, BboxLoss, v8DetectionLoss,
# Reference for `ultralytics/utils/loss.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/loss.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/loss.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/loss.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/metrics.md b/docs/en/reference/utils/metrics.md
index 987c53d73a..b05c679382 100644
--- a/docs/en/reference/utils/metrics.md
+++ b/docs/en/reference/utils/metrics.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, YOLOv3, YOLOv4, metrics, confusion matrix, detectio
# Reference for `ultralytics/utils/metrics.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/metrics.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/metrics.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/metrics.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/ops.md b/docs/en/reference/utils/ops.md
index 6dfdf6e222..a2a77d5f57 100644
--- a/docs/en/reference/utils/ops.md
+++ b/docs/en/reference/utils/ops.md
@@ -5,7 +5,7 @@ keywords: Ultralytics YOLO, Utility Operations, segment2box, make_divisible, cli
# Reference for `ultralytics/utils/ops.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/ops.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/ops.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/ops.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/patches.md b/docs/en/reference/utils/patches.md
index 1d471950f7..775e306723 100644
--- a/docs/en/reference/utils/patches.md
+++ b/docs/en/reference/utils/patches.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, Utils, Patches, imread, imshow, torch_save, image process
# Reference for `ultralytics/utils/patches.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/patches.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/patches.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/patches.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/plotting.md b/docs/en/reference/utils/plotting.md
index 9826479ce0..a2db0ea8b2 100644
--- a/docs/en/reference/utils/plotting.md
+++ b/docs/en/reference/utils/plotting.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, plotting, utils, color annotation, label plotting, image
# Reference for `ultralytics/utils/plotting.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/plotting.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/plotting.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/plotting.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/tal.md b/docs/en/reference/utils/tal.md
index 230ba284ce..2ad021fb4f 100644
--- a/docs/en/reference/utils/tal.md
+++ b/docs/en/reference/utils/tal.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, task aligned assigner, select highest overlaps, make anch
# Reference for `ultralytics/utils/tal.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/tal.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/tal.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/tal.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/torch_utils.md b/docs/en/reference/utils/torch_utils.md
index 471b7fd0a1..77ce278498 100644
--- a/docs/en/reference/utils/torch_utils.md
+++ b/docs/en/reference/utils/torch_utils.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, Torch Utils, Model EMA, Early Stopping, Smart Inference,
# Reference for `ultralytics/utils/torch_utils.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/torch_utils.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/torch_utils.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/torch_utils.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/triton.md b/docs/en/reference/utils/triton.md
index d133f97622..64f716a4ac 100644
--- a/docs/en/reference/utils/triton.md
+++ b/docs/en/reference/utils/triton.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, TritonRemoteModel, machine learning, model serving,
# Reference for `ultralytics/utils/triton.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/triton.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/triton.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/triton.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/reference/utils/tuner.md b/docs/en/reference/utils/tuner.md
index dd26bc8485..a4e879e9c7 100644
--- a/docs/en/reference/utils/tuner.md
+++ b/docs/en/reference/utils/tuner.md
@@ -5,7 +5,7 @@ keywords: Ultralytics, run_ray_tune, machine learning tuning, machine learning e
# Reference for `ultralytics/utils/tuner.py`
-!!! note
+!!! Note
This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/tuner.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/tuner.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/tuner.py) 🛠️. Thank you 🙏!
diff --git a/docs/en/robots.txt b/docs/en/robots.txt
index 6794e59645..6d80eaeb3b 100644
--- a/docs/en/robots.txt
+++ b/docs/en/robots.txt
@@ -1,8 +1,10 @@
User-agent: *
Sitemap: http://docs.ultralytics.com/sitemap.xml
+Sitemap: http://docs.ultralytics.com/ar/sitemap.xml
Sitemap: http://docs.ultralytics.com/de/sitemap.xml
Sitemap: http://docs.ultralytics.com/es/sitemap.xml
Sitemap: http://docs.ultralytics.com/fr/sitemap.xml
+Sitemap: http://docs.ultralytics.com/hi/sitemap.xml
Sitemap: http://docs.ultralytics.com/ja/sitemap.xml
Sitemap: http://docs.ultralytics.com/ko/sitemap.xml
Sitemap: http://docs.ultralytics.com/pt/sitemap.xml
diff --git a/docs/en/tasks/classify.md b/docs/en/tasks/classify.md
index 928574096a..b52c796cd9 100644
--- a/docs/en/tasks/classify.md
+++ b/docs/en/tasks/classify.md
@@ -12,7 +12,7 @@ Image classification is the simplest of the three tasks and involves classifying
The output of an image classifier is a single class label and a confidence score. Image classification is useful when you need to know only what class an image belongs to and don't need to know where objects of that class are located or what their exact shape is.
-!!! tip "Tip"
+!!! Tip "Tip"
YOLOv8 Classify models use the `-cls` suffix, i.e. `yolov8n-cls.pt` and are pretrained on [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml).
@@ -40,7 +40,7 @@ YOLOv8 pretrained Classify models are shown here. Detect, Segment and Pose model
Train YOLOv8n-cls on the MNIST160 dataset for 100 epochs at image size 64. For a full list of available arguments see the [Configuration](../usage/cfg.md) page.
-!!! example ""
+!!! Example ""
=== "Python"
@@ -77,7 +77,7 @@ YOLO classification dataset format can be found in detail in the [Dataset Guide]
Validate trained YOLOv8n-cls model accuracy on the MNIST160 dataset. No argument need to passed as the `model` retains it's training `data` and arguments as model attributes.
-!!! example ""
+!!! Example ""
=== "Python"
@@ -104,7 +104,7 @@ Validate trained YOLOv8n-cls model accuracy on the MNIST160 dataset. No argument
Use a trained YOLOv8n-cls model to run predictions on images.
-!!! example ""
+!!! Example ""
=== "Python"
@@ -131,7 +131,7 @@ See full `predict` mode details in the [Predict](https://docs.ultralytics.com/mo
Export a YOLOv8n-cls model to a different format like ONNX, CoreML, etc.
-!!! example ""
+!!! Example ""
=== "Python"
diff --git a/docs/en/tasks/detect.md b/docs/en/tasks/detect.md
index bed738a33e..0482ad2059 100644
--- a/docs/en/tasks/detect.md
+++ b/docs/en/tasks/detect.md
@@ -23,7 +23,7 @@ The output of an object detector is a set of bounding boxes that enclose the obj
Watch: Object Detection with Pre-trained Ultralytics YOLOv8 Model.
-!!! tip "Tip"
+!!! Tip "Tip"
YOLOv8 Detect models are the default YOLOv8 models, i.e. `yolov8n.pt` and are pretrained on [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml).
@@ -51,7 +51,7 @@ YOLOv8 pretrained Detect models are shown here. Detect, Segment and Pose models
Train YOLOv8n on the COCO128 dataset for 100 epochs at image size 640. For a full list of available arguments see the [Configuration](../usage/cfg.md) page.
-!!! example ""
+!!! Example ""
=== "Python"
@@ -87,7 +87,7 @@ YOLO detection dataset format can be found in detail in the [Dataset Guide](../d
Validate trained YOLOv8n model accuracy on the COCO128 dataset. No argument need to passed as the `model` retains it's training `data` and arguments as model attributes.
-!!! example ""
+!!! Example ""
=== "Python"
@@ -116,7 +116,7 @@ Validate trained YOLOv8n model accuracy on the COCO128 dataset. No argument need
Use a trained YOLOv8n model to run predictions on images.
-!!! example ""
+!!! Example ""
=== "Python"
@@ -143,7 +143,7 @@ See full `predict` mode details in the [Predict](https://docs.ultralytics.com/mo
Export a YOLOv8n model to a different format like ONNX, CoreML, etc.
-!!! example ""
+!!! Example ""
=== "Python"
diff --git a/docs/en/tasks/pose.md b/docs/en/tasks/pose.md
index 3c3a5c3c20..2a94579bc7 100644
--- a/docs/en/tasks/pose.md
+++ b/docs/en/tasks/pose.md
@@ -24,7 +24,7 @@ The output of a pose estimation model is a set of points that represent the keyp
Watch: Pose Estimation with Ultralytics YOLOv8.
-!!! tip "Tip"
+!!! Tip "Tip"
YOLOv8 _pose_ models use the `-pose` suffix, i.e. `yolov8n-pose.pt`. These models are trained on the [COCO keypoints](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) dataset and are suitable for a variety of pose estimation tasks.
@@ -54,7 +54,7 @@ YOLOv8 pretrained Pose models are shown here. Detect, Segment and Pose models ar
Train a YOLOv8-pose model on the COCO128-pose dataset.
-!!! example ""
+!!! Example ""
=== "Python"
@@ -91,7 +91,7 @@ YOLO pose dataset format can be found in detail in the [Dataset Guide](../datase
Validate trained YOLOv8n-pose model accuracy on the COCO128-pose dataset. No argument need to passed as the `model`
retains it's training `data` and arguments as model attributes.
-!!! example ""
+!!! Example ""
=== "Python"
@@ -120,7 +120,7 @@ retains it's training `data` and arguments as model attributes.
Use a trained YOLOv8n-pose model to run predictions on images.
-!!! example ""
+!!! Example ""
=== "Python"
@@ -147,7 +147,7 @@ See full `predict` mode details in the [Predict](https://docs.ultralytics.com/mo
Export a YOLOv8n Pose model to a different format like ONNX, CoreML, etc.
-!!! example ""
+!!! Example ""
=== "Python"
diff --git a/docs/en/tasks/segment.md b/docs/en/tasks/segment.md
index fc52b052f0..87aecd1ce7 100644
--- a/docs/en/tasks/segment.md
+++ b/docs/en/tasks/segment.md
@@ -23,7 +23,7 @@ The output of an instance segmentation model is a set of masks or contours that
Watch: Run Segmentation with Pre-Trained Ultralytics YOLOv8 Model in Python.
-!!! tip "Tip"
+!!! Tip "Tip"
YOLOv8 Segment models use the `-seg` suffix, i.e. `yolov8n-seg.pt` and are pretrained on [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml).
@@ -51,7 +51,7 @@ YOLOv8 pretrained Segment models are shown here. Detect, Segment and Pose models
Train YOLOv8n-seg on the COCO128-seg dataset for 100 epochs at image size 640. For a full list of available arguments see the [Configuration](../usage/cfg.md) page.
-!!! example ""
+!!! Example ""
=== "Python"
@@ -88,7 +88,7 @@ YOLO segmentation dataset format can be found in detail in the [Dataset Guide](.
Validate trained YOLOv8n-seg model accuracy on the COCO128-seg dataset. No argument need to passed as the `model`
retains it's training `data` and arguments as model attributes.
-!!! example ""
+!!! Example ""
=== "Python"
@@ -121,7 +121,7 @@ retains it's training `data` and arguments as model attributes.
Use a trained YOLOv8n-seg model to run predictions on images.
-!!! example ""
+!!! Example ""
=== "Python"
@@ -148,7 +148,7 @@ See full `predict` mode details in the [Predict](https://docs.ultralytics.com/mo
Export a YOLOv8n-seg model to a different format like ONNX, CoreML, etc.
-!!! example ""
+!!! Example ""
=== "Python"
diff --git a/docs/en/usage/cfg.md b/docs/en/usage/cfg.md
index 7eb8668c5b..0e2c1949d1 100644
--- a/docs/en/usage/cfg.md
+++ b/docs/en/usage/cfg.md
@@ -8,7 +8,7 @@ YOLO settings and hyperparameters play a critical role in the model's performanc
YOLOv8 `yolo` CLI commands use the following syntax:
-!!! example ""
+!!! Example ""
=== "CLI"
diff --git a/docs/en/usage/cli.md b/docs/en/usage/cli.md
index a4bdffca99..57844a5fbb 100644
--- a/docs/en/usage/cli.md
+++ b/docs/en/usage/cli.md
@@ -19,7 +19,7 @@ The YOLO command line interface (CLI) allows for simple single-line commands wit
Watch: Mastering Ultralytics YOLOv8: CLI & Python Usage and Live Inference
-!!! example
+!!! Example
=== "Syntax"
@@ -80,7 +80,7 @@ Where:
- `ARGS` (optional) are any number of custom `arg=value` pairs like `imgsz=320` that override defaults. For a full list of available `ARGS` see the [Configuration](cfg.md) page and `defaults.yaml`
GitHub [source](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/default.yaml).
-!!! warning "Warning"
+!!! Warning "Warning"
Arguments must be passed as `arg=val` pairs, split by an equals `=` sign and delimited by spaces ` ` between pairs. Do not use `--` argument prefixes or commas `,` between arguments.
@@ -92,7 +92,7 @@ Where:
Train YOLOv8n on the COCO128 dataset for 100 epochs at image size 640. For a full list of available arguments see the [Configuration](cfg.md) page.
-!!! example "Example"
+!!! Example "Example"
=== "Train"
@@ -112,7 +112,7 @@ Train YOLOv8n on the COCO128 dataset for 100 epochs at image size 640. For a ful
Validate trained YOLOv8n model accuracy on the COCO128 dataset. No argument need to passed as the `model` retains it's training `data` and arguments as model attributes.
-!!! example "Example"
+!!! Example "Example"
=== "Official"
@@ -132,7 +132,7 @@ Validate trained YOLOv8n model accuracy on the COCO128 dataset. No argument need
Use a trained YOLOv8n model to run predictions on images.
-!!! example "Example"
+!!! Example "Example"
=== "Official"
@@ -152,7 +152,7 @@ Use a trained YOLOv8n model to run predictions on images.
Export a YOLOv8n model to a different format like ONNX, CoreML, etc.
-!!! example "Example"
+!!! Example "Example"
=== "Official"
@@ -190,7 +190,7 @@ Available YOLOv8 export formats are in the table below. You can export to any fo
Default arguments can be overridden by simply passing them as arguments in the CLI in `arg=value` pairs.
-!!! tip ""
+!!! Tip ""
=== "Train"
Train a detection model for `10 epochs` with `learning_rate` of `0.01`
@@ -218,7 +218,7 @@ To do this first create a copy of `default.yaml` in your current working dir wit
This will create `default_copy.yaml`, which you can then pass as `cfg=default_copy.yaml` along with any additional args, like `imgsz=320` in this example:
-!!! example ""
+!!! Example ""
=== "CLI"
```bash
diff --git a/docs/en/usage/python.md b/docs/en/usage/python.md
index 200383c0d8..17624aab33 100644
--- a/docs/en/usage/python.md
+++ b/docs/en/usage/python.md
@@ -10,7 +10,7 @@ Welcome to the YOLOv8 Python Usage documentation! This guide is designed to help
For example, users can load a model, train it, evaluate its performance on a validation set, and even export it to ONNX format with just a few lines of code.
-!!! example "Python"
+!!! Example "Python"
```python
from ultralytics import YOLO
@@ -38,7 +38,7 @@ For example, users can load a model, train it, evaluate its performance on a val
Train mode is used for training a YOLOv8 model on a custom dataset. In this mode, the model is trained using the specified dataset and hyperparameters. The training process involves optimizing the model's parameters so that it can accurately predict the classes and locations of objects in an image.
-!!! example "Train"
+!!! Example "Train"
=== "From pretrained(recommended)"
```python
@@ -68,7 +68,7 @@ Train mode is used for training a YOLOv8 model on a custom dataset. In this mode
Val mode is used for validating a YOLOv8 model after it has been trained. In this mode, the model is evaluated on a validation set to measure its accuracy and generalization performance. This mode can be used to tune the hyperparameters of the model to improve its performance.
-!!! example "Val"
+!!! Example "Val"
=== "Val after training"
```python
@@ -96,7 +96,7 @@ Val mode is used for validating a YOLOv8 model after it has been trained. In thi
Predict mode is used for making predictions using a trained YOLOv8 model on new images or videos. In this mode, the model is loaded from a checkpoint file, and the user can provide images or videos to perform inference. The model predicts the classes and locations of objects in the input images or videos.
-!!! example "Predict"
+!!! Example "Predict"
=== "From source"
```python
@@ -164,7 +164,7 @@ Predict mode is used for making predictions using a trained YOLOv8 model on new
Export mode is used for exporting a YOLOv8 model to a format that can be used for deployment. In this mode, the model is converted to a format that can be used by other software applications or hardware devices. This mode is useful when deploying the model to production environments.
-!!! example "Export"
+!!! Example "Export"
=== "Export to ONNX"
@@ -192,7 +192,7 @@ Export mode is used for exporting a YOLOv8 model to a format that can be used fo
Track mode is used for tracking objects in real-time using a YOLOv8 model. In this mode, the model is loaded from a checkpoint file, and the user can provide a live video stream to perform real-time object tracking. This mode is useful for applications such as surveillance systems or self-driving cars.
-!!! example "Track"
+!!! Example "Track"
=== "Python"
@@ -216,7 +216,7 @@ Track mode is used for tracking objects in real-time using a YOLOv8 model. In th
Benchmark mode is used to profile the speed and accuracy of various export formats for YOLOv8. The benchmarks provide information on the size of the exported format, its `mAP50-95` metrics (for object detection and segmentation)
or `accuracy_top5` metrics (for classification), and the inference time in milliseconds per image across various export formats like ONNX, OpenVINO, TensorRT and others. This information can help users choose the optimal export format for their specific use case based on their requirements for speed and accuracy.
-!!! example "Benchmark"
+!!! Example "Benchmark"
=== "Python"
@@ -234,7 +234,7 @@ or `accuracy_top5` metrics (for classification), and the inference time in milli
`YOLO` model class is a high-level wrapper on the Trainer classes. Each YOLO task has its own trainer that inherits from `BaseTrainer`.
-!!! tip "Detection Trainer Example"
+!!! Tip "Detection Trainer Example"
```python
from ultralytics.models.yolo import DetectionTrainer, DetectionValidator, DetectionPredictor
diff --git a/docs/en/yolov5/tutorials/roboflow_datasets_integration.md b/docs/en/yolov5/tutorials/roboflow_datasets_integration.md
index c2b11f3687..8f72af4e83 100644
--- a/docs/en/yolov5/tutorials/roboflow_datasets_integration.md
+++ b/docs/en/yolov5/tutorials/roboflow_datasets_integration.md
@@ -8,7 +8,7 @@ keywords: Ultralytics, YOLOv5, Roboflow, data organization, data labelling, data
You can now use Roboflow to organize, label, prepare, version, and host your datasets for training YOLOv5 🚀 models. Roboflow is free to use with YOLOv5 if you make your workspace public. UPDATED 7 June 2023.
-!!! warning
+!!! Warning
Roboflow users can use Ultralytics under the [AGPL license](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) or procure an [Enterprise license](https://ultralytics.com/license) directly from Ultralytics. Be aware that Roboflow does **not** provide Ultralytics licenses, and it is the responsibility of the user to ensure appropriate licensing.
diff --git a/docs/en/yolov5/tutorials/train_custom_data.md b/docs/en/yolov5/tutorials/train_custom_data.md
index 2ac3ce244f..84b5ea58a7 100644
--- a/docs/en/yolov5/tutorials/train_custom_data.md
+++ b/docs/en/yolov5/tutorials/train_custom_data.md
@@ -32,7 +32,7 @@ YOLOv5 models must be trained on labelled data in order to learn classes of obje
Use Roboflow to create your dataset in YOLO format 🌟
-!!! note
+!!! Note
Roboflow users can use Ultralytics under the [AGPL license](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) or can request an [Enterprise license](https://ultralytics.com/license) directly from Ultralytics. Be aware that Roboflow does not provide Ultralytics licenses, and it is the responsibility of the user to ensure appropriate licensing.
@@ -141,11 +141,11 @@ Train a YOLOv5s model on COCO128 by specifying dataset, batch-size, image size a
python train.py --img 640 --epochs 3 --data coco128.yaml --weights yolov5s.pt
```
-!!! tip "Tip"
+!!! Tip "Tip"
💡 Add `--cache ram` or `--cache disk` to speed up training (requires significant RAM/disk resources).
-!!! tip "Tip"
+!!! Tip "Tip"
💡 Always train from a local dataset. Mounted or network drives like Google Drive will be very slow.
diff --git a/docs/es/datasets/index.md b/docs/es/datasets/index.md
index 5cc6fda6d3..fd7f1179c1 100644
--- a/docs/es/datasets/index.md
+++ b/docs/es/datasets/index.md
@@ -8,7 +8,7 @@ keywords: visión por computadora, conjuntos de datos, Ultralytics, YOLO, detecc
Ultralytics brinda soporte para varios conjuntos de datos para facilitar tareas de visión por computadora como detección, segmentación de instancias, estimación de poses, clasificación y seguimiento de múltiples objetos. A continuación se presenta una lista de los principales conjuntos de datos de Ultralytics, seguido por un resumen de cada tarea de visión por computadora y los respectivos conjuntos de datos.
-!!! note
+!!! Note
🚧 Nuestra documentación multilingüe está actualmente en construcción y estamos trabajando arduamente para mejorarla. ¡Gracias por su paciencia! 🙏
@@ -104,7 +104,7 @@ Contribuir con un nuevo conjunto de datos implica varios pasos para garantizar q
### Código de Ejemplo para Optimizar y Comprimir un Conjunto de Datos
-!!! example "Optimizar y Comprimir un Conjunto de Datos"
+!!! Example "Optimizar y Comprimir un Conjunto de Datos"
=== "Python"
diff --git a/docs/es/index.md b/docs/es/index.md
index 0d338d0816..c80693385b 100644
--- a/docs/es/index.md
+++ b/docs/es/index.md
@@ -38,7 +38,7 @@ Presentamos [Ultralytics](https://ultralytics.com) [YOLOv8](https://github.com/u
Explore los documentos de YOLOv8, un recurso integral diseñado para ayudarle a comprender y utilizar sus características y capacidades. Independientemente de que sea un practicante experimentado en aprendizaje automático o nuevo en el campo, este centro tiene como objetivo maximizar el potencial de YOLOv8 en sus proyectos.
-!!! note
+!!! Note
🚧 Nuestra documentación en varios idiomas está actualmente en construcción y estamos trabajando duro para mejorarla. ¡Gracias por su paciencia! 🙏
diff --git a/docs/es/models/index.md b/docs/es/models/index.md
index 1654c6e2bc..42be5a3630 100644
--- a/docs/es/models/index.md
+++ b/docs/es/models/index.md
@@ -8,7 +8,7 @@ keywords: Ultralytics, documentación, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS,
¡Bienvenido a la documentación de modelos de Ultralytics! Ofrecemos soporte para una amplia gama de modelos, cada uno adaptado a tareas específicas como [detección de objetos](../tasks/detect.md), [segmentación de instancias](../tasks/segment.md), [clasificación de imágenes](../tasks/classify.md), [estimación de postura](../tasks/pose.md) y [seguimiento de múltiples objetos](../modes/track.md). Si estás interesado en contribuir con tu arquitectura de modelo a Ultralytics, consulta nuestra [Guía de Contribución](../../help/contributing.md).
-!!! note
+!!! Note
🚧 Nuestra documentación en varios idiomas está actualmente en construcción y estamos trabajando arduamente para mejorarla. ¡Gracias por tu paciencia! 🙏
@@ -41,7 +41,7 @@ Aquí tienes algunos de los modelos clave soportados:
## Comenzando: Ejemplos de Uso
-!!! example ""
+!!! Example "Ejemplo"
=== "Python"
diff --git a/docs/es/modes/benchmark.md b/docs/es/modes/benchmark.md
index d430ec4b5b..3a165da65b 100644
--- a/docs/es/modes/benchmark.md
+++ b/docs/es/modes/benchmark.md
@@ -32,7 +32,7 @@ Una vez que su modelo está entrenado y validado, el siguiente paso lógico es e
- **OpenVINO:** Para la optimización en hardware de Intel
- **CoreML, TensorFlow SavedModel y Más:** Para necesidades de despliegue diversas.
-!!! tip "Consejo"
+!!! Tip "Consejo"
* Exporte a ONNX o OpenVINO para acelerar la velocidad de CPU hasta 3 veces.
* Exporte a TensorRT para acelerar la velocidad de GPU hasta 5 veces.
@@ -41,7 +41,7 @@ Una vez que su modelo está entrenado y validado, el siguiente paso lógico es e
Ejecute benchmarks de YOLOv8n en todos los formatos de exportación soportados incluyendo ONNX, TensorRT, etc. Vea la sección de Argumentos a continuación para una lista completa de argumentos de exportación.
-!!! example ""
+!!! Example "Ejemplo"
=== "Python"
diff --git a/docs/es/modes/export.md b/docs/es/modes/export.md
index 688822dd59..e701ccb268 100644
--- a/docs/es/modes/export.md
+++ b/docs/es/modes/export.md
@@ -39,7 +39,7 @@ Aquí tienes algunas de las funcionalidades destacadas:
- **Inferencia Optimizada:** Los modelos exportados están optimizados para tiempos de inferencia más rápidos.
- **Vídeos Tutoriales:** Guías y tutoriales en profundidad para una experiencia de exportación fluida.
-!!! tip "Consejo"
+!!! Tip "Consejo"
* Exporta a ONNX u OpenVINO para acelerar la CPU hasta 3 veces.
* Exporta a TensorRT para acelerar la GPU hasta 5 veces.
@@ -48,7 +48,7 @@ Aquí tienes algunas de las funcionalidades destacadas:
Exporta un modelo YOLOv8n a un formato diferente como ONNX o TensorRT. Consulta la sección Argumentos más abajo para una lista completa de argumentos de exportación.
-!!! example ""
+!!! Example "Ejemplo"
=== "Python"
diff --git a/docs/es/modes/predict.md b/docs/es/modes/predict.md
index 2384c15b59..0c1751af27 100644
--- a/docs/es/modes/predict.md
+++ b/docs/es/modes/predict.md
@@ -50,7 +50,7 @@ El modo predictivo de YOLOv8 está diseñado para ser robusto y versátil, y cue
Los modelos YOLO de Ultralytics devuelven ya sea una lista de objetos `Results` de Python, o un generador de objetos `Results` de Python eficiente en memoria cuando se pasa `stream=True` al modelo durante la inferencia:
-!!! ejemplo "Predict"
+!!! Example "Predict"
=== "Devolver una lista con `stream=False`"
```python
@@ -92,7 +92,7 @@ Los modelos YOLO de Ultralytics devuelven ya sea una lista de objetos `Results`
YOLOv8 puede procesar diferentes tipos de fuentes de entrada para la inferencia, como se muestra en la tabla a continuación. Las fuentes incluyen imágenes estáticas, transmisiones de video y varios formatos de datos. La tabla también indica si cada fuente se puede utilizar en modo de transmisión con el argumento `stream=True` ✅. El modo de transmisión es beneficioso para procesar videos o transmisiones en vivo ya que crea un generador de resultados en lugar de cargar todos los fotogramas en la memoria.
-!!! consejo "Consejo"
+!!! Tip "Consejo"
Utilice `stream=True` para procesar videos largos o conjuntos de datos grandes para gestionar eficientemente la memoria. Cuando `stream=False`, los resultados de todos los fotogramas o puntos de datos se almacenan en la memoria, lo que puede aumentar rápidamente y causar errores de memoria insuficiente para entradas grandes. En contraste, `stream=True` utiliza un generador, que solo mantiene los resultados del fotograma o punto de datos actual en la memoria, reduciendo significativamente el consumo de memoria y previniendo problemas de falta de memoria.
@@ -115,7 +115,7 @@ YOLOv8 puede procesar diferentes tipos de fuentes de entrada para la inferencia,
A continuación se muestran ejemplos de código para usar cada tipo de fuente:
-!!! ejemplo "Fuentes de predicción"
+!!! Example "Fuentes de predicción"
=== "imagen"
Ejecute inferencia en un archivo de imagen.
diff --git a/docs/es/modes/track.md b/docs/es/modes/track.md
index 719e6c7e51..e7b514d18a 100644
--- a/docs/es/modes/track.md
+++ b/docs/es/modes/track.md
@@ -58,7 +58,7 @@ El rastreador predeterminado es BoT-SORT.
Para ejecutar el rastreador en flujos de video, usa un modelo Detect, Segment o Pose entrenado tales como YOLOv8n, YOLOv8n-seg y YOLOv8n-pose.
-!!! ejemplo ""
+!!! Example "Ejemplo"
=== "Python"
@@ -97,7 +97,7 @@ Como se puede ver en el uso anterior, el seguimiento está disponible para todos
La configuración de seguimiento comparte propiedades con el modo Predict, como `conf`, `iou` y `show`. Para configuraciones adicionales, consulta la página del modelo [Predict](https://docs.ultralytics.com/modes/predict/).
-!!! ejemplo ""
+!!! Example "Ejemplo"
=== "Python"
@@ -120,7 +120,7 @@ La configuración de seguimiento comparte propiedades con el modo Predict, como
Ultralytics también te permite usar un archivo de configuración de rastreador modificado. Para hacerlo, simplemente haz una copia de un archivo de configuración de rastreador (por ejemplo, `custom_tracker.yaml`) de [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) y modifica cualquier configuración (excepto el `tracker_type`) según tus necesidades.
-!!! ejemplo ""
+!!! Example "Ejemplo"
=== "Python"
@@ -147,7 +147,7 @@ Para obtener una lista completa de los argumentos de seguimiento, consulta la p
Aquí hay un script en Python que utiliza OpenCV (`cv2`) y YOLOv8 para ejecutar el seguimiento de objetos en fotogramas de video. Este script aún asume que ya has instalado los paquetes necesarios (`opencv-python` y `ultralytics`). El argumento `persist=True` le indica al rastreador que la imagen o fotograma actual es el siguiente en una secuencia y que espera rastros de la imagen anterior en la imagen actual.
-!!! ejemplo "Bucle de transmisión en vivo con seguimiento"
+!!! Example "Bucle de transmisión en vivo con seguimiento"
```python
import cv2
diff --git a/docs/es/modes/train.md b/docs/es/modes/train.md
index 33f2688a52..6cb798aa53 100644
--- a/docs/es/modes/train.md
+++ b/docs/es/modes/train.md
@@ -41,7 +41,7 @@ Las siguientes son algunas características notables del modo Entrenamiento de Y
- **Configuración de Hiperparámetros:** La opción de modificar hiperparámetros a través de archivos de configuración YAML o argumentos CLI.
- **Visualización y Monitoreo:** Seguimiento en tiempo real de métricas de entrenamiento y visualización del proceso de aprendizaje para una mejor comprensión.
-!!! consejo "Consejo"
+!!! Tip "Consejo"
* Los conjuntos de datos de YOLOv8 como COCO, VOC, ImageNet y muchos otros se descargan automáticamente en el primer uso, es decir, `yolo train data=coco.yaml`
@@ -49,7 +49,7 @@ Las siguientes son algunas características notables del modo Entrenamiento de Y
Entrena YOLOv8n en el conjunto de datos COCO128 durante 100 épocas con un tamaño de imagen de 640. El dispositivo de entrenamiento se puede especificar usando el argumento `device`. Si no se pasa ningún argumento, se usará la GPU `device=0` si está disponible; de lo contrario, se usará `device=cpu`. Consulta la sección de Argumentos a continuación para una lista completa de argumentos de entrenamiento.
-!!! ejemplo "Ejemplo de Entrenamiento con una sola GPU y CPU"
+!!! Example "Ejemplo de Entrenamiento con una sola GPU y CPU"
El dispositivo se determina automáticamente. Si hay una GPU disponible, se usará; de lo contrario, el entrenamiento comenzará en la CPU.
@@ -84,7 +84,7 @@ Entrena YOLOv8n en el conjunto de datos COCO128 durante 100 épocas con un tama
El entrenamiento Multi-GPU permite una utilización más eficiente de los recursos de hardware disponibles, distribuyendo la carga de entrenamiento en varias GPUs. Esta característica está disponible tanto a través de la API de Python como de la interfaz de línea de comandos. Para habilitar el entrenamiento Multi-GPU, especifica los IDs de los dispositivos GPU que deseas usar.
-!!! ejemplo "Ejemplo de Entrenamiento Multi-GPU"
+!!! Example "Ejemplo de Entrenamiento Multi-GPU"
Para entrenar con 2 GPUs, dispositivos CUDA 0 y 1, usa los siguientes comandos. Amplía a GPUs adicionales según sea necesario.
@@ -113,7 +113,7 @@ Con el soporte para los chips Apple M1 y M2 integrados en los modelos Ultralytic
Para habilitar el entrenamiento en chips Apple M1 y M2, debes especificar 'mps' como tu dispositivo al iniciar el proceso de entrenamiento. A continuación se muestra un ejemplo de cómo podrías hacer esto en Python y a través de la línea de comandos:
-!!! ejemplo "Ejemplo de Entrenamiento MPS"
+!!! Example "Ejemplo de Entrenamiento MPS"
=== "Python"
@@ -148,7 +148,7 @@ Para usar un registrador, selecciónalo en el menú desplegable en el fragmento
Para usar Comet:
-!!! ejemplo ""
+!!! Example "Ejemplo"
=== "Python"
```python
@@ -166,7 +166,7 @@ Recuerda iniciar sesión en tu cuenta de Comet en su sitio web y obtener tu clav
Para usar ClearML:
-!!! ejemplo ""
+!!! Example "Ejemplo"
=== "Python"
```python
@@ -184,7 +184,7 @@ Después de ejecutar este script, necesitarás iniciar sesión en tu cuenta de C
Para usar TensorBoard en [Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb):
-!!! ejemplo ""
+!!! Example "Ejemplo"
=== "CLI"
```bash
@@ -194,7 +194,7 @@ Para usar TensorBoard en [Google Colab](https://colab.research.google.com/github
Para usar TensorBoard localmente, ejecuta el siguiente comando y visualiza los resultados en http://localhost:6006/.
-!!! ejemplo ""
+!!! Example "Ejemplo"
=== "CLI"
```bash
diff --git a/docs/es/modes/val.md b/docs/es/modes/val.md
index d70df3a74b..ee81404ddb 100644
--- a/docs/es/modes/val.md
+++ b/docs/es/modes/val.md
@@ -30,7 +30,7 @@ Estas son las funcionalidades notables ofrecidas por el modo Val de YOLOv8:
- **CLI y API de Python:** Elija entre la interfaz de línea de comandos o API de Python basada en su preferencia para validación.
- **Compatibilidad de Datos:** Funciona sin problemas con conjuntos de datos utilizados durante la fase de entrenamiento así como con conjuntos de datos personalizados.
-!!! tip "Consejo"
+!!! Tip "Consejo"
* Los modelos YOLOv8 recuerdan automáticamente sus ajustes de entrenamiento, así que puede validar un modelo en el mismo tamaño de imagen y en el conjunto de datos original fácilmente con solo `yolo val model=yolov8n.pt` o `model('yolov8n.pt').val()`
@@ -38,7 +38,7 @@ Estas son las funcionalidades notables ofrecidas por el modo Val de YOLOv8:
Valide la precisión del modelo YOLOv8n entrenado en el conjunto de datos COCO128. No es necesario pasar ningún argumento ya que el `modelo` retiene sus `datos` de entrenamiento y argumentos como atributos del modelo. Vea la sección de Argumentos a continuación para una lista completa de argumentos de exportación.
-!!! example ""
+!!! Example "Ejemplo"
=== "Python"
diff --git a/docs/es/quickstart.md b/docs/es/quickstart.md
index e64b2c8482..41305e13d1 100644
--- a/docs/es/quickstart.md
+++ b/docs/es/quickstart.md
@@ -8,7 +8,7 @@ keywords: instalación de Ultralytics, pip install Ultralytics, instalación de
Ultralytics ofrece varios métodos de instalación incluyendo pip, conda y Docker. Instala YOLOv8 a través del paquete `ultralytics` de pip para la última versión estable o clonando el [repositorio de GitHub de Ultralytics](https://github.com/ultralytics/ultralytics) para obtener la versión más actualizada. Docker se puede utilizar para ejecutar el paquete en un contenedor aislado, evitando la instalación local.
-!!! example "Instalar"
+!!! Example "Instalar"
=== "Instalación con Pip (recomendado)"
Instala el paquete `ultralytics` usando pip o actualiza una instalación existente ejecutando `pip install -U ultralytics`. Visita el Índice de Paquetes de Python (PyPI) para más detalles sobre el paquete `ultralytics`: [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/).
@@ -39,7 +39,7 @@ Ultralytics ofrece varios métodos de instalación incluyendo pip, conda y Docke
conda install -c conda-forge ultralytics
```
- !!! note
+ !!! Note
Si estás instalando en un entorno CUDA, la mejor práctica es instalar `ultralytics`, `pytorch` y `pytorch-cuda` en el mismo comando para permitir que el gestor de paquetes de conda resuelva cualquier conflicto, o en su defecto instalar `pytorch-cuda` al final para permitir que sobrescriba el paquete específico de CPU `pytorch` si es necesario.
```bash
@@ -89,7 +89,7 @@ Consulta el archivo [requirements.txt](https://github.com/ultralytics/ultralytic
Watch: Ultralytics YOLO Quick Start Guide
-!!! tip "Consejo"
+!!! Tip "Consejo"
Los requisitos de PyTorch varían según el sistema operativo y los requisitos de CUDA, por lo que se recomienda instalar primero PyTorch siguiendo las instrucciones en [https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally).
@@ -101,7 +101,7 @@ Consulta el archivo [requirements.txt](https://github.com/ultralytics/ultralytic
La interfaz de línea de comandos (CLI) de Ultralytics permite el uso de comandos simples de una sola línea sin la necesidad de un entorno de Python. La CLI no requiere personalización ni código Python. Puedes simplemente ejecutar todas las tareas desde el terminal con el comando `yolo`. Consulta la [Guía de CLI](/../usage/cli.md) para aprender más sobre el uso de YOLOv8 desde la línea de comandos.
-!!! example
+!!! Example
=== "Sintaxis"
@@ -155,7 +155,7 @@ La interfaz de línea de comandos (CLI) de Ultralytics permite el uso de comando
yolo cfg
```
-!!! warning "Advertencia"
+!!! Warning "Advertencia"
Los argumentos deben pasarse como pares `arg=valor`, separados por un signo igual `=` y delimitados por espacios ` ` entre pares. No utilices prefijos de argumentos `--` ni comas `,` entre los argumentos.
@@ -171,7 +171,7 @@ La interfaz de Python de YOLOv8 permite una integración perfecta en tus proyect
Por ejemplo, los usuarios pueden cargar un modelo, entrenarlo, evaluar su rendimiento en un conjunto de validación e incluso exportarlo al formato ONNX con solo unas pocas líneas de código. Consulta la [Guía de Python](/../usage/python.md) para aprender más sobre el uso de YOLOv8 dentro de tus proyectos de Python.
-!!! example
+!!! Example
```python
from ultralytics import YOLO
diff --git a/docs/es/tasks/classify.md b/docs/es/tasks/classify.md
index fc1d85bf2d..b9b45ff556 100644
--- a/docs/es/tasks/classify.md
+++ b/docs/es/tasks/classify.md
@@ -12,7 +12,7 @@ La clasificación de imágenes es la tarea más sencilla de las tres y consiste
La salida de un clasificador de imágenes es una única etiqueta de clase y una puntuación de confianza. La clasificación de imágenes es útil cuando solo necesita saber a qué clase pertenece una imagen y no necesita conocer dónde están ubicados los objetos de esa clase o cuál es su forma exacta.
-!!! tip "Consejo"
+!!! Tip "Consejo"
Los modelos YOLOv8 Classify utilizan el sufijo `-cls`, por ejemplo, `yolov8n-cls.pt` y están preentrenados en [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml).
@@ -39,7 +39,7 @@ Los [modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/c
Entrena el modelo YOLOv8n-cls en el conjunto de datos MNIST160 durante 100 épocas con un tamaño de imagen de 64. Para obtener una lista completa de argumentos disponibles, consulte la página de [Configuración](/../usage/cfg.md).
-!!! example ""
+!!! Example "Ejemplo"
=== "Python"
@@ -76,7 +76,7 @@ El formato del conjunto de datos de clasificación YOLO puede encontrarse en det
Validar la exactitud del modelo YOLOv8n-cls entrenado en el conjunto de datos MNIST160. No es necesario pasar ningún argumento ya que el `modelo` retiene su `data` y argumentos como atributos del modelo.
-!!! example ""
+!!! Example "Ejemplo"
=== "Python"
@@ -103,7 +103,7 @@ Validar la exactitud del modelo YOLOv8n-cls entrenado en el conjunto de datos MN
Usar un modelo YOLOv8n-cls entrenado para realizar predicciones en imágenes.
-!!! example ""
+!!! Example "Ejemplo"
=== "Python"
@@ -130,7 +130,7 @@ Ver detalles completos del modo `predict` en la página de [Predicción](https:/
Exportar un modelo YOLOv8n-cls a un formato diferente como ONNX, CoreML, etc.
-!!! example ""
+!!! Example "Ejemplo"
=== "Python"
diff --git a/docs/es/tasks/detect.md b/docs/es/tasks/detect.md
index 0ddaf15642..7779c78033 100644
--- a/docs/es/tasks/detect.md
+++ b/docs/es/tasks/detect.md
@@ -23,7 +23,7 @@ La salida de un detector de objetos es un conjunto de cajas delimitadoras que en
Ver: Detección de Objetos con Modelo Preentrenado YOLOv8 de Ultralytics.
-!!! tip "Consejo"
+!!! Tip "Consejo"
Los modelos YOLOv8 Detect son los modelos predeterminados de YOLOv8, es decir, `yolov8n.pt` y están preentrenados en [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml).
@@ -50,7 +50,7 @@ Los [modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/c
Entrena a YOLOv8n en el conjunto de datos COCO128 durante 100 épocas a tamaño de imagen 640. Para una lista completa de argumentos disponibles, consulta la página [Configuración](/../usage/cfg.md).
-!!! ejemplo ""
+!!! Example "Ejemplo"
=== "Python"
@@ -86,7 +86,7 @@ El formato del conjunto de datos de detección de YOLO se puede encontrar en det
Valida la precisión del modelo YOLOv8n entrenado en el conjunto de datos COCO128. No es necesario pasar ningún argumento, ya que el `modelo` retiene sus datos de `entrenamiento` y argumentos como atributos del modelo.
-!!! ejemplo ""
+!!! Example "Ejemplo"
=== "Python"
@@ -115,7 +115,7 @@ Valida la precisión del modelo YOLOv8n entrenado en el conjunto de datos COCO12
Utiliza un modelo YOLOv8n entrenado para realizar predicciones en imágenes.
-!!! ejemplo ""
+!!! Example "Ejemplo"
=== "Python"
@@ -142,7 +142,7 @@ Consulta los detalles completos del modo `predict` en la página [Predicción](h
Exporta un modelo YOLOv8n a un formato diferente como ONNX, CoreML, etc.
-!!! ejemplo ""
+!!! Example "Ejemplo"
=== "Python"
diff --git a/docs/es/tasks/index.md b/docs/es/tasks/index.md
index a94edd2462..97983af156 100644
--- a/docs/es/tasks/index.md
+++ b/docs/es/tasks/index.md
@@ -11,7 +11,7 @@ keywords: Ultralytics, YOLOv8, Detección, Segmentación, Clasificación, Estima
YOLOv8 es un marco de trabajo de IA que soporta múltiples **tareas** de visión por computadora. El marco puede usarse para realizar [detección](detect.md), [segmentación](segment.md), [clasificación](classify.md) y estimación de [pose](pose.md). Cada una de estas tareas tiene un objetivo y caso de uso diferente.
-!!! note
+!!! Note
🚧 Nuestra documentación multilenguaje está actualmente en construcción y estamos trabajando arduamente para mejorarla. ¡Gracias por su paciencia! 🙏
diff --git a/docs/es/tasks/pose.md b/docs/es/tasks/pose.md
index 80d756d245..5374f5f43f 100644
--- a/docs/es/tasks/pose.md
+++ b/docs/es/tasks/pose.md
@@ -23,7 +23,7 @@ La salida de un modelo de estimación de pose es un conjunto de puntos que repre
Ver: Estimación de Pose con Ultralytics YOLOv8.
-!!! tip "Consejo"
+!!! Tip "Consejo"
Los modelos _pose_ YOLOv8 utilizan el sufijo `-pose`, por ejemplo, `yolov8n-pose.pt`. Estos modelos están entrenados en el conjunto de datos [COCO keypoints](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) y son adecuados para una variedad de tareas de estimación de pose.
@@ -51,7 +51,7 @@ Los [modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/c
Entrena un modelo YOLOv8-pose en el conjunto de datos COCO128-pose.
-!!! example ""
+!!! Example "Ejemplo"
=== "Python"
@@ -87,7 +87,7 @@ El formato del conjunto de datos de pose de YOLO se puede encontrar en detalle e
Valida la precisión del modelo YOLOv8n-pose entrenado en el conjunto de datos COCO128-pose. No es necesario pasar ningún argumento ya que el `modelo` mantiene sus `datos` de entrenamiento y argumentos como atributos del modelo.
-!!! example ""
+!!! Example "Ejemplo"
=== "Python"
@@ -116,7 +116,7 @@ Valida la precisión del modelo YOLOv8n-pose entrenado en el conjunto de datos C
Usa un modelo YOLOv8n-pose entrenado para realizar predicciones en imágenes.
-!!! example ""
+!!! Example "Ejemplo"
=== "Python"
@@ -143,7 +143,7 @@ Consulta los detalles completos del modo `predict` en la página de [Predicción
Exporta un modelo YOLOv8n Pose a un formato diferente como ONNX, CoreML, etc.
-!!! example ""
+!!! Example "Ejemplo"
=== "Python"
diff --git a/docs/es/tasks/segment.md b/docs/es/tasks/segment.md
index 5bcf6fa953..24de16361b 100644
--- a/docs/es/tasks/segment.md
+++ b/docs/es/tasks/segment.md
@@ -23,7 +23,7 @@ La salida de un modelo de segmentación de instancias es un conjunto de máscara
Mira: Ejecuta la Segmentación con el Modelo Ultralytics YOLOv8 Preentrenado en Python.
-!!! tip "Consejo"
+!!! Tip "Consejo"
Los modelos YOLOv8 Segment utilizan el sufijo `-seg`, es decir, `yolov8n-seg.pt` y están preentrenados en el [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml).
@@ -50,7 +50,7 @@ Los [Modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/c
Entrena el modelo YOLOv8n-seg en el conjunto de datos COCO128-seg durante 100 épocas con tamaño de imagen de 640. Para una lista completa de argumentos disponibles, consulta la página de [Configuración](/../usage/cfg.md).
-!!! example ""
+!!! Example "Ejemplo"
=== "Python"
@@ -86,7 +86,7 @@ El formato del conjunto de datos de segmentación YOLO puede encontrarse detalla
Valida la precisión del modelo YOLOv8n-seg entrenado en el conjunto de datos COCO128-seg. No es necesario pasar ningún argumento ya que el `modelo` retiene sus `datos` de entrenamiento y argumentos como atributos del modelo.
-!!! example ""
+!!! Example "Ejemplo"
=== "Python"
@@ -119,7 +119,7 @@ Valida la precisión del modelo YOLOv8n-seg entrenado en el conjunto de datos CO
Usa un modelo YOLOv8n-seg entrenado para realizar predicciones en imágenes.
-!!! example ""
+!!! Example "Ejemplo"
=== "Python"
@@ -146,7 +146,7 @@ Consulta todos los detalles del modo `predict` en la página de [Predicción](ht
Exporta un modelo YOLOv8n-seg a un formato diferente como ONNX, CoreML, etc.
-!!! example ""
+!!! Example "Ejemplo"
=== "Python"
diff --git a/docs/fr/datasets/index.md b/docs/fr/datasets/index.md
index 9ac5643fab..be470ae6a0 100644
--- a/docs/fr/datasets/index.md
+++ b/docs/fr/datasets/index.md
@@ -8,7 +8,7 @@ keywords: vision par ordinateur, ensembles de données, Ultralytics, YOLO, déte
Ultralytics fournit un soutien pour divers ensembles de données pour faciliter les tâches de vision par ordinateur telles que la détection, la segmentation d'instance, l'estimation de la pose, la classification et le suivi multi-objets. Ci-dessous se trouve une liste des principaux ensembles de données Ultralytics, suivie d'un résumé de chaque tâche de vision par ordinateur et des ensembles de données respectifs.
-!!! note
+!!! Note
🚧 Notre documentation multilingue est actuellement en cours de construction et nous travaillons dur pour l'améliorer. Merci de votre patience ! 🙏
@@ -104,7 +104,7 @@ Contribuer un nouvel ensemble de données implique plusieurs étapes pour s'assu
### Exemple de Code pour Optimiser et Zipper un Ensemble de Données
-!!! exemple "Optimiser et Zipper un Ensemble de Données"
+!!! Example "Optimiser et Zipper un Ensemble de Données"
=== "Python"
diff --git a/docs/fr/index.md b/docs/fr/index.md
index f4aa6a9c07..4703d1d8c9 100644
--- a/docs/fr/index.md
+++ b/docs/fr/index.md
@@ -38,7 +38,7 @@ Présentation d'[Ultralytics](https://ultralytics.com) [YOLOv8](https://github.c
Explorez les Docs YOLOv8, une ressource complète conçue pour vous aider à comprendre et à utiliser ses fonctionnalités et capacités. Que vous soyez un praticien chevronné de l'apprentissage automatique ou nouveau dans le domaine, ce hub vise à maximiser le potentiel de YOLOv8 dans vos projets.
-!!! note
+!!! Note
🚧 Notre documentation multilingue est actuellement en construction et nous travaillons dur pour l'améliorer. Merci de votre patience ! 🙏
diff --git a/docs/fr/models/index.md b/docs/fr/models/index.md
index 9e43374a8f..585e63e8c2 100644
--- a/docs/fr/models/index.md
+++ b/docs/fr/models/index.md
@@ -8,7 +8,7 @@ keywords: Ultralytics, documentation, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, R
Bienvenue dans la documentation des modèles d'Ultralytics ! Nous proposons une prise en charge d'une large gamme de modèles, chacun adapté à des tâches spécifiques comme [la détection d'objets](../tasks/detect.md), [la segmentation d'instances](../tasks/segment.md), [la classification d'images](../tasks/classify.md), [l'estimation de posture](../tasks/pose.md) et [le suivi multi-objets](../modes/track.md). Si vous souhaitez contribuer avec votre architecture de modèle à Ultralytics, consultez notre [Guide de Contribution](../../help/contributing.md).
-!!! note
+!!! Note
🚧 Notre documentation multilingue est actuellement en construction et nous travaillons activement à l'améliorer. Merci de votre patience ! 🙏
@@ -41,7 +41,7 @@ Voici quelques-uns des modèles clés pris en charge :
## Pour commencer : Exemples d'utilisation
-!!! example ""
+!!! Example "Exemple"
=== "Python"
diff --git a/docs/fr/modes/benchmark.md b/docs/fr/modes/benchmark.md
index 671830a016..5708aa40b2 100644
--- a/docs/fr/modes/benchmark.md
+++ b/docs/fr/modes/benchmark.md
@@ -41,7 +41,7 @@ Une fois votre modèle entraîné et validé, l'étape logique suivante est d'é
Exécutez les benchmarks YOLOv8n sur tous les formats d'exportation supportés, y compris ONNX, TensorRT, etc. Consultez la section Arguments ci-dessous pour une liste complète des arguments d'exportation.
-!!! exemple ""
+!!! Example "Exemple"
=== "Python"
diff --git a/docs/fr/modes/export.md b/docs/fr/modes/export.md
index 79c1788ea8..e37d6e932e 100644
--- a/docs/fr/modes/export.md
+++ b/docs/fr/modes/export.md
@@ -48,7 +48,7 @@ Voici quelques-unes des fonctionnalités remarquables :
Exportez un modèle YOLOv8n vers un format différent tel que ONNX ou TensorRT. Voir la section Arguments ci-dessous pour une liste complète des arguments d'exportation.
-!!! exemple ""
+!!! Example "Exemple"
=== "Python"
diff --git a/docs/fr/modes/predict.md b/docs/fr/modes/predict.md
index c1bd7e1f75..4279dff772 100644
--- a/docs/fr/modes/predict.md
+++ b/docs/fr/modes/predict.md
@@ -50,7 +50,7 @@ Le mode de prédiction YOLOv8 est conçu pour être robuste et polyvalent, avec
Les modèles YOLO d'Ultralytics renvoient soit une liste d'objets `Results` Python, soit un générateur Python efficace en termes de mémoire d'objets `Results` lorsque `stream=True` est passé au modèle pendant l'inférence :
-!!! exemple "Prédire"
+!!! Example "Prédire"
=== "Renvoie une liste avec `stream=False`"
```python
@@ -115,7 +115,7 @@ YOLOv8 peut traiter différents types de sources d'entrée pour l'inférence, co
Ci-dessous des exemples de code pour utiliser chaque type de source :
-!!! exemple "Sources de prédiction"
+!!! Example "Sources de prédiction"
=== "image"
Exécutez une inférence sur un fichier image.
diff --git a/docs/fr/modes/track.md b/docs/fr/modes/track.md
index 5adf651751..5da691c303 100644
--- a/docs/fr/modes/track.md
+++ b/docs/fr/modes/track.md
@@ -58,7 +58,7 @@ Le traceur par défaut est BoT-SORT.
Pour exécuter le traceur sur des flux vidéo, utilisez un modèle Detect, Segment ou Pose formé tel que YOLOv8n, YOLOv8n-seg et YOLOv8n-pose.
-!!! exemple ""
+!!! Example "Exemple"
=== "Python"
@@ -97,7 +97,7 @@ Comme on peut le voir dans l'utilisation ci-dessus, le suivi est disponible pour
La configuration du suivi partage des propriétés avec le mode Prédiction, telles que `conf`, `iou`, et `show`. Pour des configurations supplémentaires, référez-vous à la page [Predict](https://docs.ultralytics.com/modes/predict/) du modèle.
-!!! exemple ""
+!!! Example "Exemple"
=== "Python"
@@ -120,7 +120,7 @@ La configuration du suivi partage des propriétés avec le mode Prédiction, tel
Ultralytics vous permet également d'utiliser un fichier de configuration de traceur modifié. Pour cela, faites simplement une copie d'un fichier de configuration de traceur (par exemple, `custom_tracker.yaml`) à partir de [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) et modifiez toute configuration (à l'exception du `tracker_type`) selon vos besoins.
-!!! exemple ""
+!!! Example "Exemple"
=== "Python"
@@ -147,7 +147,7 @@ Pour une liste complète des arguments de suivi, référez-vous à la page [ultr
Voici un script Python utilisant OpenCV (`cv2`) et YOLOv8 pour exécuter le suivi d'objet sur des images vidéo. Ce script suppose toujours que vous avez déjà installé les packages nécessaires (`opencv-python` et `ultralytics`). L'argument `persist=True` indique au traceur que l'image ou la trame actuelle est la suivante dans une séquence et s'attend à ce que les pistes de l'image précédente soient présentes dans l'image actuelle.
-!!! exemple "Boucle for streaming avec suivi"
+!!! Example "Boucle for streaming avec suivi"
```python
import cv2
diff --git a/docs/fr/modes/train.md b/docs/fr/modes/train.md
index 56934b7d0c..652a91815f 100644
--- a/docs/fr/modes/train.md
+++ b/docs/fr/modes/train.md
@@ -41,7 +41,7 @@ Voici quelques caractéristiques remarquables du mode Entraînement de YOLOv8 :
- **Configuration des hyperparamètres :** La possibilité de modifier les hyperparamètres via des fichiers de configuration YAML ou des arguments CLI.
- **Visualisation et suivi :** Suivi en temps réel des métriques d'entraînement et visualisation du processus d'apprentissage pour de meilleures perspectives.
-!!! tip "Astuce"
+!!! Tip "Astuce"
* Les jeux de données YOLOv8 comme COCO, VOC, ImageNet et bien d'autres se téléchargent automatiquement lors de la première utilisation, par exemple `yolo train data=coco.yaml`
@@ -49,7 +49,7 @@ Voici quelques caractéristiques remarquables du mode Entraînement de YOLOv8 :
Entraînez YOLOv8n sur le jeu de données COCO128 pendant 100 époques avec une taille d'image de 640. Le dispositif d'entraînement peut être spécifié à l'aide de l'argument `device`. Si aucun argument n'est passé, le GPU `device=0` sera utilisé s'il est disponible, sinon `device=cpu` sera utilisé. Consultez la section Arguments ci-dessous pour obtenir une liste complète des arguments d'entraînement.
-!!! example "Exemple d'entraînement mono-GPU et CPU"
+!!! Example "Exemple d'entraînement mono-GPU et CPU"
Le dispositif est déterminé automatiquement. Si un GPU est disponible, il sera utilisé, sinon l'entraînement commencera sur CPU.
@@ -84,7 +84,7 @@ Entraînez YOLOv8n sur le jeu de données COCO128 pendant 100 époques avec une
L'entraînement multi-GPU permet une utilisation plus efficace des ressources matérielles disponibles en répartissant la charge d'entraînement sur plusieurs GPUs. Cette fonctionnalité est disponible via l'API Python et l'interface de ligne de commande. Pour activer l'entraînement multi-GPU, spécifiez les ID des dispositifs GPU que vous souhaitez utiliser.
-!!! example "Exemple d'entraînement multi-GPU"
+!!! Example "Exemple d'entraînement multi-GPU"
Pour s'entraîner avec 2 GPUs, les dispositifs CUDA 0 et 1, utilisez les commandes suivantes. Développez à des GPUs supplémentaires selon le besoin.
@@ -113,7 +113,7 @@ Avec le support pour les puces Apple M1 et M2 intégré dans les modèles Ultral
Pour activer l'entraînement sur les puces Apple M1 et M2, vous devez spécifier 'mps' comme votre dispositif lors du lancement du processus d'entraînement. Voici un exemple de la manière dont vous pourriez le faire en Python et via la ligne de commande :
-!!! example "Exemple d'entraînement MPS"
+!!! Example "Exemple d'entraînement MPS"
=== "Python"
@@ -148,7 +148,7 @@ Pour utiliser un journal, sélectionnez-le dans le menu déroulant ci-dessus et
Pour utiliser Comet :
-!!! example ""
+!!! Example "Exemple"
=== "Python"
```python
@@ -166,7 +166,7 @@ N'oubliez pas de vous connecter à votre compte Comet sur leur site web et d'obt
Pour utiliser ClearML :
-!!! example ""
+!!! Example "Exemple"
=== "Python"
```python
@@ -184,7 +184,7 @@ Après avoir exécuté ce script, vous devrez vous connecter à votre compte Cle
Pour utiliser TensorBoard dans [Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb) :
-!!! example ""
+!!! Example "Exemple"
=== "CLI"
```bash
@@ -194,7 +194,7 @@ Pour utiliser TensorBoard dans [Google Colab](https://colab.research.google.com/
Pour utiliser TensorBoard localement, exécutez la commande ci-dessous et consultez les résultats à l'adresse http://localhost:6006/.
-!!! example ""
+!!! Example "Exemple"
=== "CLI"
```bash
diff --git a/docs/fr/modes/val.md b/docs/fr/modes/val.md
index 46f31e9060..f6f51bfb35 100644
--- a/docs/fr/modes/val.md
+++ b/docs/fr/modes/val.md
@@ -30,7 +30,7 @@ Voici les fonctionnalités notables offertes par le mode Val de YOLOv8 :
- **CLI et API Python :** Choisissez entre l'interface en ligne de commande ou l'API Python en fonction de vos préférences pour la validation.
- **Compatibilité des Données :** Fonctionne de manière transparente avec les jeux de données utilisés pendant la phase d'entraînement ainsi qu'avec les jeux personnalisés.
-!!! tip "Conseil"
+!!! Tip "Conseil"
* Les modèles YOLOv8 se souviennent automatiquement de leurs paramètres d'entraînement, vous pouvez donc facilement valider un modèle à la même taille d'image et sur le jeu de données original avec juste `yolo val model=yolov8n.pt` ou `model('yolov8n.pt').val()`
@@ -38,7 +38,7 @@ Voici les fonctionnalités notables offertes par le mode Val de YOLOv8 :
Validez la précision du modèle YOLOv8n entraîné sur le jeu de données COCO128. Aucun argument n'a besoin d'être passé car le `modèle` conserve ses `données` d'entraînement et arguments comme attributs du modèle. Consultez la section des arguments ci-dessous pour une liste complète des arguments d'exportation.
-!!! example ""
+!!! Example "Exemple"
=== "Python"
diff --git a/docs/fr/quickstart.md b/docs/fr/quickstart.md
index 8d0af0f0d6..9a11427f7b 100644
--- a/docs/fr/quickstart.md
+++ b/docs/fr/quickstart.md
@@ -8,7 +8,7 @@ keywords: installation d'Ultralytics, pip install Ultralytics, Docker install Ul
Ultralytics propose diverses méthodes d'installation, y compris pip, conda et Docker. Installez YOLOv8 via le package `ultralytics` avec pip pour obtenir la dernière version stable ou en clonant le [répertoire GitHub d'Ultralytics](https://github.com/ultralytics/ultralytics) pour la version la plus récente. Docker peut être utilisé pour exécuter le package dans un conteneur isolé, évitant l'installation locale.
-!!! exemple "Installer"
+!!! Example "Installer"
=== "Installation avec Pip (recommandé)"
Installez le package `ultralytics` en utilisant pip, ou mettez à jour une installation existante en exécutant `pip install -U ultralytics`. Visitez l'Index des Packages Python (PyPI) pour plus de détails sur le package `ultralytics` : [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/).
@@ -39,7 +39,7 @@ Ultralytics propose diverses méthodes d'installation, y compris pip, conda et D
conda install -c conda-forge ultralytics
```
- !!! note
+ !!! Note
Si vous installez dans un environnement CUDA, la meilleure pratique est d'installer `ultralytics`, `pytorch` et `pytorch-cuda` dans la même commande pour permettre au gestionnaire de package conda de résoudre les conflits, ou bien d'installer `pytorch-cuda` en dernier pour lui permettre de remplacer le package `pytorch` spécifique aux CPU si nécessaire.
```bash
@@ -101,7 +101,7 @@ Voir le fichier [requirements.txt](https://github.com/ultralytics/ultralytics/bl
L'interface en ligne de commande (CLI) d'Ultralytics permet l'utilisation de commandes simples en une seule ligne sans nécessiter d'environnement Python. La CLI ne requiert pas de personnalisation ou de code Python. Vous pouvez simplement exécuter toutes les tâches depuis le terminal avec la commande `yolo`. Consultez le [Guide CLI](/../usage/cli.md) pour en savoir plus sur l'utilisation de YOLOv8 depuis la ligne de commande.
-!!! exemple
+!!! Example
=== "Syntaxe"
@@ -155,7 +155,7 @@ L'interface en ligne de commande (CLI) d'Ultralytics permet l'utilisation de com
yolo cfg
```
-!!! avertissement "Avertissement"
+!!! Warning "Avertissement"
Les arguments doivent être passés sous forme de paires `arg=val`, séparés par un signe égal `=` et délimités par des espaces ` ` entre les paires. N'utilisez pas de préfixes d'arguments `--` ou de virgules `,` entre les arguments.
@@ -171,7 +171,7 @@ L'interface Python de YOLOv8 permet une intégration transparente dans vos proje
Par exemple, les utilisateurs peuvent charger un modèle, l'entraîner, évaluer ses performances sur un set de validation, et même l'exporter au format ONNX avec seulement quelques lignes de code. Consultez le [Guide Python](/../usage/python.md) pour en savoir plus sur l'utilisation de YOLOv8 au sein de vos projets Python.
-!!! exemple
+!!! Example
```python
from ultralytics import YOLO
diff --git a/docs/fr/tasks/classify.md b/docs/fr/tasks/classify.md
index dd42a3fc12..c9d8155da2 100644
--- a/docs/fr/tasks/classify.md
+++ b/docs/fr/tasks/classify.md
@@ -12,7 +12,7 @@ La classification d'images est la tâche la plus simple des trois et consiste à
Le résultat d'un classificateur d'images est une étiquette de classe unique et un score de confiance. La classification d'images est utile lorsque vous avez besoin de savoir seulement à quelle classe appartient une image et que vous n'avez pas besoin de connaître l'emplacement des objets de cette classe ou leur forme exacte.
-!!! tip "Astuce"
+!!! Tip "Astuce"
Les modèles YOLOv8 Classify utilisent le suffixe `-cls`, par exemple `yolov8n-cls.pt` et sont pré-entraînés sur [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml).
@@ -39,7 +39,7 @@ Les [modèles](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/
Entraînez le modèle YOLOv8n-cls sur le dataset MNIST160 pendant 100 époques avec une taille d'image de 64. Pour une liste complète des arguments disponibles, consultez la page [Configuration](/../usage/cfg.md).
-!!! example ""
+!!! Example "Exemple"
=== "Python"
@@ -76,7 +76,7 @@ Le format du dataset de classification YOLO peut être trouvé en détails dans
Validez la précision du modèle YOLOv8n-cls entraîné sur le dataset MNIST160. Aucun argument n'est nécessaire car le `modèle` conserve ses données d'entraînement et arguments en tant qu'attributs du modèle.
-!!! example ""
+!!! Example "Exemple"
=== "Python"
@@ -103,7 +103,7 @@ Validez la précision du modèle YOLOv8n-cls entraîné sur le dataset MNIST160.
Utilisez un modèle YOLOv8n-cls entraîné pour exécuter des prédictions sur des images.
-!!! example ""
+!!! Example "Exemple"
=== "Python"
@@ -130,7 +130,7 @@ Voir les détails complets du mode `predict` sur la page [Prédire](https://docs
Exportez un modèle YOLOv8n-cls dans un format différent comme ONNX, CoreML, etc.
-!!! example ""
+!!! Example "Exemple"
=== "Python"
diff --git a/docs/fr/tasks/detect.md b/docs/fr/tasks/detect.md
index ab775a77e8..21ad10806b 100644
--- a/docs/fr/tasks/detect.md
+++ b/docs/fr/tasks/detect.md
@@ -23,7 +23,7 @@ La sortie d'un détecteur d'objets est un ensemble de boîtes englobantes qui en
Regardez : Détection d'Objets avec le Modèle Pré-entraîné Ultralytics YOLOv8.
-!!! tip "Conseil"
+!!! Tip "Conseil"
Les modèles Detect YOLOv8 sont les modèles YOLOv8 par défaut, c.-à-d. `yolov8n.pt` et sont pré-entraînés sur le jeu de données [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml).
@@ -50,7 +50,7 @@ Les modèles pré-entraînés Detect YOLOv8 sont présentés ici. Les modèles D
Entraînez le modèle YOLOv8n sur le jeu de données COCO128 pendant 100 époques à la taille d'image de 640. Pour une liste complète des arguments disponibles, consultez la page [Configuration](/../usage/cfg.md).
-!!! example ""
+!!! Example "Exemple"
=== "Python"
@@ -86,7 +86,7 @@ Le format des jeux de données de détection YOLO est détaillé dans le [Guide
Validez la précision du modèle YOLOv8n entraîné sur le jeu de données COCO128. Aucun argument n'est nécessaire puisque le `modèle` conserve ses `données` d'entraînement et arguments en tant qu'attributs du modèle.
-!!! example ""
+!!! Example "Exemple"
=== "Python"
@@ -115,7 +115,7 @@ Validez la précision du modèle YOLOv8n entraîné sur le jeu de données COCO1
Utilisez un modèle YOLOv8n entraîné pour exécuter des prédictions sur des images.
-!!! example ""
+!!! Example "Exemple"
=== "Python"
@@ -142,7 +142,7 @@ Consultez les détails complets du mode `predict` sur la page [Prédire](https:/
Exportez un modèle YOLOv8n dans un format différent tel que ONNX, CoreML, etc.
-!!! example ""
+!!! Example "Exemple"
=== "Python"
diff --git a/docs/fr/tasks/index.md b/docs/fr/tasks/index.md
index 10ef4558fc..bf121610e1 100644
--- a/docs/fr/tasks/index.md
+++ b/docs/fr/tasks/index.md
@@ -11,7 +11,7 @@ keywords: Ultralytics, YOLOv8, Détection, Segmentation, Classification, Estimat
YOLOv8 est un cadre d'intelligence artificielle qui prend en charge de multiples tâches de **vision par ordinateur**. Le cadre peut être utilisé pour effectuer de la [détection](detect.md), de la [segmentation](segment.md), de la [classification](classify.md) et de l'estimation de la [pose](pose.md). Chacune de ces tâches a un objectif et un cas d'utilisation différents.
-!!! note
+!!! Note
🚧 Notre documentation multilingue est actuellement en construction et nous travaillons dur pour l'améliorer. Merci de votre patience ! 🙏
diff --git a/docs/fr/tasks/pose.md b/docs/fr/tasks/pose.md
index 7da717e658..7a972de788 100644
--- a/docs/fr/tasks/pose.md
+++ b/docs/fr/tasks/pose.md
@@ -42,7 +42,7 @@ Les [Modèles](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/
Entraînez un modèle YOLOv8-pose sur le jeu de données COCO128-pose.
-!!! exemple ""
+!!! Example "Exemple"
=== "Python"
@@ -78,7 +78,7 @@ Le format du jeu de données YOLO pose peut être trouvé en détail dans le [Gu
Validez la précision du modèle YOLOv8n-pose entraîné sur le jeu de données COCO128-pose. Aucun argument n'est nécessaire car le `modèle` conserve ses données d'entraînement et arguments en tant qu'attributs du modèle.
-!!! exemple ""
+!!! Example "Exemple"
=== "Python"
@@ -107,7 +107,7 @@ Validez la précision du modèle YOLOv8n-pose entraîné sur le jeu de données
Utilisez un modèle YOLOv8n-pose entraîné pour exécuter des prédictions sur des images.
-!!! exemple ""
+!!! Example "Exemple"
=== "Python"
@@ -134,7 +134,7 @@ Consultez les détails complets du mode `predict` sur la page [Prédire](https:/
Exportez un modèle YOLOv8n Pose dans un autre format tel que ONNX, CoreML, etc.
-!!! exemple ""
+!!! Example "Exemple"
=== "Python"
diff --git a/docs/fr/tasks/segment.md b/docs/fr/tasks/segment.md
index eafc109be7..a49d64be0f 100644
--- a/docs/fr/tasks/segment.md
+++ b/docs/fr/tasks/segment.md
@@ -50,7 +50,7 @@ Les [modèles](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/
Entraînez YOLOv8n-seg sur le jeu de données COCO128-seg pendant 100 époques à la taille d'image 640. Pour une liste complète des arguments disponibles, consultez la page [Configuration](/../usage/cfg.md).
-!!! exemple ""
+!!! Example "Exemple"
=== "Python"
@@ -87,7 +87,7 @@ Le format des données de segmentation YOLO peut être trouvé en détail dans l
Validez la précision du modèle YOLOv8n-seg entraîné sur le jeu de données COCO128-seg. Aucun argument n'est nécessaire car le `modèle`
conserve ses données de formation et ses arguments comme attributs du modèle.
-!!! exemple ""
+!!! Example "Exemple"
=== "Python"
@@ -120,7 +120,7 @@ conserve ses données de formation et ses arguments comme attributs du modèle.
Utilisez un modèle YOLOv8n-seg entraîné pour effectuer des prédictions sur des images.
-!!! exemple ""
+!!! Example "Exemple"
=== "Python"
@@ -147,7 +147,7 @@ Voir les détails complets du mode `predict` sur la page [Predict](https://docs.
Exportez un modèle YOLOv8n-seg vers un format différent comme ONNX, CoreML, etc.
-!!! exemple ""
+!!! Example "Exemple"
=== "Python"
diff --git a/docs/hi/datasets/index.md b/docs/hi/datasets/index.md
new file mode 100644
index 0000000000..cddf373a5d
--- /dev/null
+++ b/docs/hi/datasets/index.md
@@ -0,0 +1,134 @@
+---
+comments: true
+description: Ultralytics द्वारा समर्थित विभिन्न कंप्यूटर विज्ञान डेटासेट्स का अवलोकन | वस्त्र स्पष्टीकरण, संरेखण, पोज आकलन, छवि वर्गीकरण और बहु-वस्तु ट्रैकिंग के लिए।
+keywords: computer vision, datasets, Ultralytics, YOLO, object detection, instance segmentation, pose estimation, image classification, multi-object tracking
+---
+
+# डेटासेट अवलोकन
+
+Ultralytics कंप्यूटर विज्ञान कार्यों को सुविधाजनक बनाने के लिए विभिन्न डेटासेट्स का समर्थन प्रदान करता है। इसमें वस्त्र स्पष्टीकरण, संदर्भ बनाने, पोज आकलन, वर्गीकरण और बहु-वस्तु ट्रैकिंग जैसे कंप्यूटर विज्ञान कार्यों के लिए। नीचे मुख्य Ultralytics डेटासेट की सूची है, इसके पश्चात प्रत्येक कंप्यूटर विज्ञान कार्य और संबंधित डेटासेटों का संक्षेप दिया गया है।
+
+!!! Note
+
+ 🚧 हमारे बहुभाषी दस्तावेज़ीकरण वर्तमान में निर्माणाधीन है, और हम इसे सुधारने के लिए कड़ी मेहनत कर रहे हैं। आपकी सहकार्य के लिए आपका धन्यवाद! 🙏
+
+## [वस्त्र स्पष्टीकरण डेटासेट (Detection Datasets)](../../datasets/detect/index.md)
+
+बाउंडिंग बॉक्स ऑब्जेक्ट डिटेक्शन एक कंप्यूटर विज्ञान तकनीक है जिसमें प्रत्येक ऑब्जेक्ट के चारों ओर एक बाउंडिंग बॉक्स बनाकर छवि में ऑब्जेक्ट का पता लगाया जाता है।
+
+- [Argoverse](../../datasets/detect/argoverse.md): एक डेटासेट जो शहरी वातावरणों से 3D ट्रैकिंग और मोशन फोरेकास्टिंग डेटा को समृद्ध एनोटेशन के साथ स्थानांतरित करता है।
+- [COCO](../../datasets/detect/coco.md): एक बड़े पैमाने पर डिज़ाइन किए गए डेटासेट जिसमें ऑब्जेक्ट डिटेक्शन, सेगमेंटेशन और कैप्शनिंग के लिए 200K से अधिक लेबल चित्र हैं।
+- [COCO8](../../datasets/detect/coco8.md): COCO प्रशिक्षण और COCO मूल्यांकन के पहले 4 छवियां हैं, जो त्वरित परीक्षणों के लिए उपयुक्त हैं।
+- [Global Wheat 2020](../../datasets/detect/globalwheat2020.md): विश्वव्यापी गेहूँ शिर्ष छवियों का एक डेटासेट, जिसे ऑब्जेक्ट डिटेक्शन और स्थानांतरण कार्यों के लिए ऐच्छिक बनाया गया है।
+- [Objects365](../../datasets/detect/objects365.md): ऑब्जेक्ट डिटेक्शन के लिए एक उच्च गुणवत्ता वाला बड़ा-स्केल डेटासेट जिसमें 365 ऑब्जेक्ट श्रेणियाँ और 600K से अधिक एनोटेटेड छवियां हैं।
+- [OpenImagesV7](../../datasets/detect/open-images-v7.md): Google द्वारा एक व्यापक डेटासेट, जिसमें 1.7M प्रशिक्षण छवियां और 42k मान्यता छवियां हैं।
+- [SKU-110K](../../datasets/detect/sku-110k.md): विपणनीय वातावरणों में घना ऑब्जेक्ट डिटेक्शन के तत्वों के साथ एक डेटासेट, जिसमें 11K छवियां और 1.7 मिलियन बाउंडिंग बॉक्स हैं।
+- [VisDrone](../../datasets/detect/visdrone.md): ड्रोन द्वारा पकड़ी गई छवियों से ऑब्जेक्ट डिटेक्शन और बहु-ऑब्जेक्ट ट्रैकिंग डेटा का एक डेटासेट, जिसमें 10K से अधिक छवियां और वीडियो सीक्वेंसेस हैं।
+- [VOC](../../datasets/detect/voc.md): Pascal Visual Object Classes (VOC) डेटासेट, जिसमें 20 ऑब्जेक्ट कक्षाएं और 11K से अधिक छवियां हैं, के लिए ऑब्जेक्ट डिटेक्शन और संवर्धन जैसे कार्यों के लिए है।
+- [xView](../../datasets/detect/xview.md): ओवरहेड छवियों में ऑब्जेक्ट डिटेक्शन के लिए एक डेटासेट, जिसमें 60 ऑब्जेक्ट श्रेणियां और 1 मिलियन से अधिक एनोटेटेड ऑब्जेक्ट हैं।
+
+## [संरेखण डेटासेट (Instance Segmentation Datasets)](../../datasets/segment/index.md)
+
+संरेखण एक कंप्यूटर विज्ञान तकनीक है जिसमें छवि में ऑब्जेक्ट की उपयुक्त स्तर पर पहचान और स्थानांतरण होता है।
+
+- [COCO](../../datasets/segment/coco.md): ऑब्जेक्ट डिटेक्शन, संरेखण, और कैप्शनिंग के लिए डिज़ाइन किए गए एक बड़े पैमाने पर डेटासेट जिसमें 200K से अधिक लेबल चित्र हैं।
+- [COCO8-संरेखण](../../datasets/segment/coco8-seg.md): संरेखण कार्यों के लिए योग्यता युक्त 8 COCO छवियों के एक हल्का डेटासेट जिसमें संरेखण एनोटेशन्स हैं।
+
+## [पोज आकलन (Pose Estimation)](../../datasets/pose/index.md)
+
+पोज आकलन एक तकनीक है जिसमें ऑब्जेक्ट की पोज को कैमरे या विश्व संचालन सिद्धांत के मुकाबले आकलित किया जाता है।
+
+- [COCO](../../datasets/pose/coco.md): पोज आकलन कार्यों के लिए मानव पोज एनोटेशन के साथ एक बड़े पैमाने पर डेटासेट।
+- [COCO8-पोज](../../datasets/pose/coco8-pose.md): पोज आकलन कार्यों के लिए योग्यता युक्त 8 COCO छवियों के एक हल्का डेटासेट जिसमें मानव पोज एनोटेशन्स हैं।
+- [Tiger-पोज](../../datasets/pose/tiger-pose.md): पोज आकलन कार्यों के लिए 12 कीपॉइंट्स प्रति बाघ के लिए 263 छवियों का एक संक्षिप्त डेटासेट।
+
+## [वर्गीकरण (Classification)](../../datasets/classify/index.md)
+
+छवि वर्गीकरण एक कंप्यूटर विज्ञान कार्य है जिसमें एक छवि को उसके विज़ुअल सामग्री के आधार पर एक या एक से अधिक पहले से निर्धारित कक्षाओं या श्रेणियों में वर्गीकृत किया जाता है।
+
+- [Caltech 101](../../datasets/classify/caltech101.md): 101 ऑब्जेक्ट कक्षाओं की छवियां वर्गीकरण कार्यों के लिए एक डेटासेट।
+- [Caltech 256](../../datasets/classify/caltech256.md): 256 ऑब्जेक्ट कक्षाओं के साथ Caltech 101 का विस्तारित संस्करण जिसमें अधिक चुनौतीपूर्ण छवियां हैं।
+- [CIFAR-10](../../datasets/classify/cifar10.md): 10 कक्षाओं में 60K 32x32 रंगीन छवियों का डेटासेट, प्रति कक्षा 6K छवियां हैं।
+- [CIFAR-100](../../datasets/classify/cifar100.md): 100 ऑब्जेक्ट कक्षाओं के साथ CIFAR-10 का विस्तारित संस्करण जिसमें प्रति कक्षा 600 छवियां हैं।
+- [Fashion-MNIST](../../datasets/classify/fashion-mnist.md): छवि वर्गीकरण कार्यों के लिए 10 फैशन कक्षाओं के 70,000 सेंधांतरण छवि से बना एक डेटासेट।
+- [ImageNet](../../datasets/classify/imagenet.md): ऑब्जेक्ट डिटेक्शन और छवि वर्गीकरण के लिए एक बड़े पैमाने पर डेटासेट, जिसमें 14 मिलियन से अधिक छवियां और 20,000 कक्षाएं हैं।
+- [ImageNet-10](../../datasets/classify/imagenet10.md): छवि प्रायोगशाला में त्वरित प्रयोग और परीक्षण के लिए 10 कक्षाओं के ImageNet का एक छोटा संकलन।
+- [Imagenette](../../datasets/classify/imagenette.md): त्वरित प्रशिक्षण और परीक्षण के लिए 10 आसानी से पहचाने जाने वाली कक्षाएं वाले ImageNet का एक छोटा संकलन।
+- [Imagewoof](../../datasets/classify/imagewoof.md): छवि वर्गीकरण कार्यों के लिए 10 कुत्ते की नस्लों के आकृतियों के साथ ImageNet का एक अधिक चुनौतीपूर्ण संकलन।
+- [MNIST](../../datasets/classify/mnist.md): छवि वर्गीकरण कार्यों के लिए हस्तलेखित अंकों के 70,000 सेंधांतरण छवि से बना एक डेटासेट।
+
+## [उभयार्थित बाउंडिंग बॉक्सेस (Oriented Bounding Boxes, OBB)](../../datasets/obb/index.md)
+
+उभयार्थित बाउंडिंग बॉक्सेस (OBB) एक कंप्यूटर विज्ञान में एक तरीका है जिसमें घुमे हुए बाउंडिंग बॉक्स का उपयोग करके छवियों में एंगल हुए ऑब्जेक्ट्स का पता लगाया जाता है, जो अक्सर आवक और उपग्रह प्रतिमाओं पर लागू होता है।
+
+- [DOTAv2](../../datasets/obb/dota-v2.md): एक लोकप्रिय OBB आकाशीय छवि डेटासेट जिसमें 1.7 मिलियन आइंस्टेंसेज और 11,268 छवियां हैं।
+
+## [बहु-ऑब्जेक्ट ट्रैकिंग (Multi-Object Tracking)](../../datasets/track/index.md)
+
+बहु-ऑब्जेक्ट ट्रैकिंग एक कंप्यूटर विज्ञान तकनीक है जिसमें वीडियो सिक्वेंस में वक्त के साथ एक से अधिक ऑब्जेक्ट्स का पता लगाने और ट्रैक करने का शामिल है।
+
+- [Argoverse](../../datasets/detect/argoverse.md): उच्च शहरी वातावरणों से 3D ट्रैकिंग और मोशन फोरेकास्टिंग डेटा के साथ रिच एनोटेशन के लिए एक डेटासेट।
+- [VisDrone](../../datasets/detect/visdrone.md): ड्रोन-पकड़ी छवियों से ऑब्जेक्ट डिटेक्शन और बहु-ऑब्जेक्ट ट्रैकिंग डेटा का एक डेटासेट जिसमें 10K से अधिक छवियां और वीडियो सीक्वेंसेस हैं।
+
+## नई डेटासेट का योगदान दें
+
+नई डेटासेट का योगदान देना मौजूदा ढांचे के स्थानांतरण के साथ समर्थित होने के लिए कई चरणों का पालन करने की आवश्यकता होती है। नीचे दिए गए मानक कदम हैं:
+
+### नई डेटासेट के योगदान के चरण
+
+1. **छवियों का संग्रह करें**:
+ डेटासेट में शामिल होने वाली छवियों का संग्रह करें। इन्हें पब्लिक डेटाबेस से या अपने संग्रह से इकट्ठा किया जा सकता है।
+
+2. **छवि एनोटेशन करें**:
+ इन छवियों को बाउंडिंग बॉक्स, संरेखण या कीपॉइंट्स के साथ थस्क करें, टास्क के आधार पर।
+
+3. **एनोटेशन निर्यात करें**:
+ इन एनोटेशन को योलो *.txt फ़ाइल प्रारूप में निर्यात करें, जिसे Ultralytics समर्थित करता है।
+
+4. **डेटासेट व्यवस्थित करें**:
+ अपने डेटासेट को सही फ़ोल्डर संरचना में व्यवस्थित करें। आपके पास `train/` और `val/` शीर्ष-स्तर निर्देशिकाएँ होनी चाहिए, और हर एक में `images/` और `labels/` उप-निर्देशिका होनी चाहिए।
+
+ ```
+ dataset/
+ ├── train/
+ │ ├── images/
+ │ └── labels/
+ └── val/
+ ├── images/
+ └── labels/
+ ```
+
+5. **एक `data.yaml` फ़ाइल बनाएं**:
+ अपने डेटासेट के रूट निर्देशिका में, डेटासेट, कक्षाएँ, और अन्य आवश्यक जानकारी का वर्णन करने वाली `data.yaml` फ़ाइल बनाएं।
+
+6. **छवियों को अवधित करें (वैकल्पिक)**:
+ यदि आप प्रभावी प्रसंस्करण के लिए डेटासेट का आकार कम करना चाहते हैं, तो आप निम्नलिखित कोड का उपयोग करके छवियों को अवधित कर सकते हैं। यह अनिवार्य नहीं है, लेकिन छोटा डेटासेट आकार और तेज डाउनलोड की गति के लिए सिफारिश की जाती है।
+
+7. **डेटासेट को ज़िप करें**:
+ पूरे डेटासेट फ़ोल्डर को एक ज़िप फ़ाइल में संपीड़ित करें।
+
+8. **दस्तावेज़ीकरण और पीआर**: अपने डेटासेट के बारे में एक दस्तावेज़ीकरण पेज बनाएं और उसके बारे में समर्थन करने वाली मौजूदा संरचना में कैसे समाविष्ट करें इसका वर्णन करें । उसके बाद, एक पुल अनुरोध (PR) सबमिट करें। पीआर जमा करने के लिए अधिक विवरण के लिए [उल्ट्रालिटिक्स योगदान दिशानिर्देशिका](https://docs.ultralytics.com/help/contributing) देखें।
+
+### डेटासेट को अवधित करने और ज़िप करने के लिए उदाहरण कोड
+
+!!! Example "डेटासेट को अवधित करने और ज़िप करने के लिए उदाहरण कोड"
+
+ === "Python"
+
+ ```python
+ from pathlib import Path
+ from ultralytics.data.utils import compress_one_image
+ from ultralytics.utils.downloads import zip_directory
+
+ # डेटासेट निर्देशिका को परिभाषित करें
+ path = Path('path/to/dataset')
+
+ # डेटासेट में छवि अवधित करें (वैकल्पिक)
+ for f in path.rglob('*.jpg'):
+ compress_one_image(f)
+
+ # डेटासेट को 'path/to/dataset.zip' में ज़िप करें
+ zip_directory(path)
+ ```
+
+इन कदमों का पालन करके, आप अपने डेटासेट का योगदान प्रदान कर सकते हैं जो Ultralytics के मौजूदा संरचना के अच्छी तरह से समाविष्ट होता है।
diff --git a/docs/hi/index.md b/docs/hi/index.md
new file mode 100644
index 0000000000..68b48738bc
--- /dev/null
+++ b/docs/hi/index.md
@@ -0,0 +1,83 @@
+---
+comments: true
+description: Ultralytics YOLOv8 के पूर्ण गाइड को जानें, एक उच्च गति, उच्च योग्यता वाले वस्तु का पता लगाने और छवि विभाजन मॉडल। स्थापना, भविष्यवाणी, प्रशिक्षण ट्यूटोरियल और बहुत कुछ।
+keywords: Ultralytics, YOLOv8, वस्तु पता लगाना, छवि विभाजन, मशीन लर्निंग, गहरी लर्निंग, कंप्यूटर विज़न, YOLOv8 स्थापना, YOLOv8 भविष्यवाणी, YOLOv8 प्रशिक्षण, YOLO इतिहास, YOLO लाइसेंसेस
+---
+
+
+
+
+पेश करते हैं [युल्ट्रालिटिक्स](https://ultralytics.com) [YOLOv8](https://github.com/ultralytics/ultralytics), प्रसिद्ध वास्तविक समय वस्तु पता लगाने और छवि विभाजन मॉडल की नवीनतम संस्करण। YOLOv8 गहरी लर्निंग और कंप्यूटर विज़न में कटिंग-एज उन्नति पर आधारित है, इसलिए गति और योग्यता के मामले में इसका प्रदर्शन अद्वितीय है। इसका संक्षेपित डिज़ाइन इसे विभिन्न अनुप्रयोगों के लिए उपयुक्त बनाता है और विभिन्न हार्डवेयर प्लेटफ़ॉर्म्स पर आसानी से अनुकूल बनाता है, शुरू और धारण के लिए िजोग्य करता है।
+
+YOLOv8 डॉक्स का अन्वेषण करें, यह एक व्यापक स्रोत है जो आपको इसके सुविधाओं और क्षमताओं को समझने और उपयोग करने में मदद करने के लिए विकसित किया गया है। चाहे आप एक अनुभवी मशीन लर्निंग प्रैक्टीशनर हो या क्षेत्र में नये हों, इस हब का उद्देश्य आपके परियोजनाओं में YOLOv8 की क्षमताओं को अधिकतम करना है।
+
+!!! Note
+
+ 🚧 हमारी बहुभाषी दस्तावेजीकरण वर्तमान में निर्माणाधीन है, और हम इसे सुधारने के लिए कठिनताओं पर काम कर रहे हैं। आपकी सहायता के लिए धन्यवाद! 🙏
+
+## शुरुआत कहाँ से करें
+
+- **Install** `pip` के साथ `ultralytics` स्थापित करें और कुछ मिनट में चलता हुआ पाएं [:material-clock-fast: शुरू हो जाओ](quickstart.md){ .md-button }
+- **Predict** यूनिक images और videos को YOLOv8 के साथ [:octicons-image-16: छवियों पर भविष्यवाणी करें](modes/predict.md){ .md-button }
+- **Train** अपने खुद के custom डेटासेट पर एक नया YOLOv8 मॉडल [:fontawesome-solid-brain: मॉडल प्रशिक्षित करें](modes/train.md){ .md-button }
+- **अन्वेषण** करें YOLOv8 tasks जैसे कि विभाजित, वर्गीकृत, स्थिति और ट्रैक करें [:material-magnify-expand: टास्क्स अन्वेषण करें](tasks/index.md){ .md-button }
+
+
+
+
+
+ देखें: अपने कस्टम डेटासेट पर YOLOv8 मॉडल को कैसे ट्रेन करें Google Colab में।
+
+
+## YOLO: एक संक्षिप्त इतिहास
+
+[YOLO](https://arxiv.org/abs/1506.02640) (You Only Look Once), एक लोकप्रिय वस्तु पता लगाने और छवि विभाजन मॉडल, यूनिवर्सिटी ऑफ वाशिंगटन में Joseph Redmon और Ali Farhadi द्वारा विकसित किया गया था। YOLO की उच्च गति और योग्यता के कारण, यह 2015 में तेजी से प्रसिद्ध हुआ।
+
+- [YOLOv2](https://arxiv.org/abs/1612.08242), 2016 में जारी किया गया, मूल मॉडल में batch normalization, anchor boxes और dimension clusters शामिल करके मॉडल में सुधार किया।
+- [YOLOv3](https://pjreddie.com/media/files/papers/YOLOv3.pdf), 2018 में लॉन्च किया गया, एक अधिक प्रभावी बैकबोन नेटवर्क, एंकर बॉक्सेस और स्थानिक पिरामिड पूलिंग के उपयोग से मॉडल की प्रदर्शन को और बढ़ाया।
+- [YOLOv4](https://arxiv.org/abs/2004.10934) 2020 में जारी किया गया, Mosaic डेटा वृद्धि, एक नया anchor-free डिटेक्शन हेड और एक नया लॉस फ़ंक्शन के जैसे नवाचार द्वारा मॉडल को बेहतर बनाया गया।
+- [YOLOv5](https://github.com/ultralytics/yolov5) मॉडल की प्रदर्शन को और बेहतर बनाने के साथ, हाइपरपैरामीटर ऑप्टिमाइज़ेशन, एकीकृत प्रयोग ट्रैकिंग और लोकप्रिय export formats में स्वचालित निर्यात जैसे नए सुविधाएं जोड़ी गईं।
+- [YOLOv6](https://github.com/meituan/YOLOv6) 2022 में [मेटुआन](https://about.meituan.com/) द्वारा ओपन-सोस्ड किया गया था और कई कम्पनी के स्वतंत्र वितरण रोबोट में उपयोग में है।
+- [YOLOv7](https://github.com/WongKinYiu/yolov7) ने COCO keypoints डेटासेट पर पोज अनुमान जैसे अतिरिक्त टास्क जोड़ दिया।
+- [YOLOv8](https://github.com/ultralytics/ultralytics) Ultralytics द्वारा YOLO का नवीनतम संस्करण है। एक तलवार की काट, आपातता मॉडल के सफलता पर निर्मितकर्ताओं की मेहनत की चटानों पर निर्माण करके YOLOv8 ने पिछले संस्करणों की सफलता पर आधारित, नई सुविधाएं और सुधार अद्यतित प्रदर्शन, लचीलापन और प्रदार्थता के लिए प्रस्तुत किए हैं। YOLOv8 विजन AI tasks, जैसे [पता लगाना](tasks/detect.md), [विभाजन](tasks/segment.md), [पोज अनुमान](tasks/pose.md), [ट्रैकिंग](modes/track.md), और [वर्गीकरण](tasks/classify.md) का पूरा समर्थन करता है। यह विविध अनुप्रयोग और क्षेत्रों में योलोवी8 की क्षमताओं का उपयोग करने की अनुमति देता है।
+
+YOLO लाइसेंसेस: Ultralytics YOLO का प्रयोग कैसे होता है?
+
+Ultralytics विभिन्न उपयोग मामलों को समर्थित करने के लिए दो लाइसेंसिंग विकल्प प्रदान करता है:
+
+- **AGPL-3.0 लाइसेंस**: यह [OSI स्वीकृत](https://opensource.org/licenses/) ओपन-सोर्स लाइसेंस छात्रों और उत्साहीयों के लिए उपयुक्त है, गहन सहयोग और ज्ञान साझा करने के लिए प्रोत्साहित करता है। अधिक जानकारी के लिए [LICENSE](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) फ़ाइल देखें।
+- **व्यवसायिक लाइसेंस**: व्यावसायिक उपयोग के लिए डिज़ाइन किया गया, यह लाइसेंस Ultralytics सॉफ़्टवेयर और AI मॉडल को वाणिज्यिक माल और सेवाओं में सरलतापूर्वक सम्मिलित करने की अनुमति देता है, AGPL-3.0 की ओपन-सोर्स आवश्यकताओं को छोड़ता है। यदि आपके परिदृश्य में हमारे समाधानों को एक वाणिज्यिक प्रस्ताव में एम्बेड करना शामिल है, [Ultralytics Licensing](https://ultralytics.com/license) के माध्यम से संपर्क करें।
+
+हमारी लाइसेंसिंग रणनीति इस सुनिश्चित करने के लिए है कि हमारे ओपन-सोर्स परियोजनाओं में किए गए कोई भी सुधार समुदाय को लौटाए जाएं। हम ओपन सोर्स के सिद्धांतों को अपने दिल के पास रखते हैं ❤️, और हमारा मिशन यह सुनिश्चित करना है कि हमारे योगदानों का उपयोग और विस्तार किए जाने के तरीकों में क्रियान्वयन किए जाएं जो सभी के लिए लाभदायक हों।
diff --git a/docs/hi/models/index.md b/docs/hi/models/index.md
new file mode 100644
index 0000000000..db6924d812
--- /dev/null
+++ b/docs/hi/models/index.md
@@ -0,0 +1,94 @@
+---
+comments: true
+description: Ultralytics द्वारा समर्थित YOLO समूह, SAM, MobileSAM, FastSAM, YOLO-NAS, और RT-DETR मॉडल्स की विविधता का पता लगाएं। CLI और Python उपयोग के लिए उदाहरणों के साथ शुरू हो जाएं।
+keywords: Ultralytics, दस्तावेज़ीकरण, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, RT-DETR, मॉडल, वास्तुरचना, Python, CLI
+---
+
+# Ultralytics द्वारा समर्थित मॉडल्स
+
+Ultralytics के मॉडल दस्तावेज़ीकरण में आपका स्वागत है! हम विशेष टास्क जैसे [ऑब्जेक्ट डिटेक्शन](../tasks/detect.md), [इंस्टेंस सेग्मेंटेशन](../tasks/segment.md), [छवि श्रेणीबद्धीकरण](../tasks/classify.md), [पोज़ संख्यानन](../tasks/pose.md), और [मल्टी-ऑब्जेक्ट ट्रैकिंग](../modes/track.md) के लिए विशेष रूप से तैयार किए गए मॉडल का समर्थन करते हैं। अगर आप अपनी मॉडल वास्तुरचना को Ultralytics में योगदान देना चाहते हैं, तो हमारे [योगदान गाइड](../../help/contributing.md) की जांच करें।
+
+!!! Note
+
+ 🚧 हमारी बहुभाषी दस्तावेज़ीकरण वर्तमान में निर्माणाधीन है, और हम उसे सुधारने के लिए कठिनताओं पर काम कर रहे हैं। धन्यवाद आपकी सहानुभूति के लिए! 🙏
+
+## प्रमुख मॉडल
+
+यहां कुछ महत्वपूर्ण मॉडल हैं जिन्हें समर्थित किया जाता है:
+
+1. **[YOLOv3](../../models/yolov3.md)**: YOLO मॉडल परिवार का तीसरा संस्करण, जो मूल रूप में Joseph Redmon द्वारा विकसित किया गया था, जिसे उसकी क्षमता के लिए जाना जाता है सही समय में ऑब्जेक्ट डिटेक्शन की।
+2. **[YOLOv4](../../models/yolov4.md)**: YOLOv3 के लिए एक डार्कनेट जन्मित अपडेट, जिसे Alexey Bochkovskiy ने 2020 में जारी किया।
+3. **[YOLOv5](../../models/yolov5.md)**: यूल्ट्रालिटिक्स द्वारा योगदान की एक सुधारी हुई YOLO वास्तुरचि। पिछले संस्करणों की तुलना में बेहतर प्रदर्शन और गति विपरीत संलग्नाता प्रदान करने का वादा।
+4. **[YOLOv6](../../models/yolov6.md)**: 2022 में [मेटुआन](https://about.meituan.com/) द्वारा जारी किया गया, और कंपनी के कई स्वतंत्र वितरण रोबोट में प्रयोग होता है।
+5. **[YOLOv7](../../models/yolov7.md)**: YOLOv4 के लेखकों द्वारा जारी किए गए नवीनतम YOLO मॉडल्स।
+6. **[YOLOv8](../../models/yolov8.md)**: YOLO परिवार का नवीनतम संस्करण, जिसमें घटनाक्रम सेग्मेंटेशन, पोज़/कीपॉइंट्स अनुमान, और वर्गीकरण जैसी बढ़ी हुई क्षमताएं होती हैं।
+7. **[सेगमेंट एनीथिंग मॉडल (SAM)](../../models/sam.md)**: मेटा का सेगमेंट एनीथिंग मॉडल (SAM)।
+8. **[मोबाइल सेगमेंट एनीथिंग मॉडल (MobileSAM)](../../models/mobile-sam.md)**: मोबाइल एप्लिकेशनों के लिए MobileSAM, Kyung Hee विश्वविद्यालय द्वारा।
+9. **[फ़ास्ट सेगमेंट एनीथिंग मॉडल (FastSAM)](../../models/fast-sam.md)**: दृश्य और वीडियो विश्लेषण समूह, स्वचालन विज्ञान संस्थान, चीन संगठन द्वारा FastSAM।
+10. **[YOLO-NAS](../../models/yolo-nas.md)**: YOLO Neural Architecture Search (NAS) मॉडल्स।
+11. **[रियलटाइम डिटेक्शन ट्रांसफॉर्मर (RT-DETR)](../../models/rtdetr.md)**: बाइडू का PaddlePaddle रियलटाइम डिटेक्शन ट्रांसफॉर्मर (RT-DETR) मॉडल।
+
+
+
+
+
+ देखें: थोड़ी सी कोड के कुछ पंक्तियों में Ultralytics YOLO मॉडल चलाएँ।
+
+
+## प्रारंभ करना: उपयोग उदाहरण
+
+!!! Example "उदाहरण"
+
+ === "Python"
+
+ PyTorch पूर्व-प्रशिक्षित `*.pt` मॉडल और विन्यास `*.yaml` फ़ाइलों को पायथन में योगदान करने के लिए `YOLO()`, `SAM()`, `NAS()` और `RTDETR()` कक्षाओं को पास करके मॉडल की एक नमूना उत्पन्न की जा सकती है:
+
+ ```python
+ from ultralytics import YOLO
+
+ # एक COCO-पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें
+ model = YOLO('yolov8n.pt')
+
+ # मॉडल जानकारी प्रदर्शित करें (वैकल्पिक)
+ model.info()
+
+ # COCO8 उदाहरण डेटासेट पर मॉडल 100 एपॉक्स के लिए प्रशिक्षित करें
+ results = model.train(data='coco8.yaml', epochs=100, imgsz=640)
+
+ # YOLOv8n मॉडल के साथ 'bus.jpg' छवि पर इंफ़ेरेंस चलाएँ
+ results = model('path/to/bus.jpg')
+ ```
+
+ === "CLI"
+
+ मॉडलों को सीधे चलाने के लिए CLI कमांड प्रदान किए गए हैं:
+
+ ```bash
+ # एक COCO-पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें और इसे COCO8 उदाहरण डेटासेट पर 100 एपॉक्स के लिए प्रशिक्षित करें
+ yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640
+
+ # एक COCO-पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें और 'bus.jpg' छवि पर इंफ़ेरेंस चलाएँ
+ yolo predict model=yolov8n.pt source=path/to/bus.jpg
+ ```
+
+## नए मॉडल का योगदान देना
+
+Ultralytics में अपना मॉडल योगदान करने में रुचि है? शानदार! हमें हमेशा अपने मॉडल पोर्टफोलियो का विस्तार करने के लिए खुले दिमाग से आगे बढ़ने की आवश्यकता है।
+
+1. **यहाँ से रिपॉजिटरी फोर्क करें**: सबसे पहले, [Ultralytics GitHub रिपॉजिटरी](https://github.com/ultralytics/ultralytics) को फोर्क करके शुरू करें।
+
+2. **अपने फोर्क को क्लोन करें**: अपने फोर्क को अपनी स्थानीय मशीन पर क्लोन करें और काम करने के लिए एक नया शाखा बनाएं।
+
+3. **अपना मॉडल लागू करें**: अपना मॉडल उन्नत करें और Coding मानकों और दिशानिर्देशिकाओं का पालन करते हुए इसे जोड़ें। हमारे [योगदान गाइड](../../help/contributing.md) में उपलब्ध विवरणीय चरणों के लिए संपर्क करें।
+
+4. **पूरी तरह से परीक्षण करें**: अपना मॉडल सम्पूर्ण रूप से औधोगिक रूप से परीक्षण करें, एकांत में और पाइपलाइन का हिस्सा के रूप में।
+
+5. **एक पुल अनुरोध बनाएं**: अपने मॉडल से संतुष्ट होने के बाद, मुख्य रिपॉजिटरी के लिए एक पुल अनुरोध बनाएं जिसका समीक्षा की जाएगी।
+
+6. **कोड समीक्षा और मर्ज**: समीक्षा के बाद, यदि आपका मॉडल हमारे मानदंडों को पूरा करता है, तो यह मुख्य रिपॉजिटरी में मर्ज हो जाएगा।
+
+विस्तृत चरणों के लिए, हमारे [योगदान गाइड](../../help/contributing.md) पर देखें।
diff --git a/docs/hi/modes/benchmark.md b/docs/hi/modes/benchmark.md
new file mode 100644
index 0000000000..9187029cb8
--- /dev/null
+++ b/docs/hi/modes/benchmark.md
@@ -0,0 +1,94 @@
+---
+comments: true
+description: Ultralytics YOLO के विभिन्न निर्यात प्रारूपों के जरिए YOLOv8 की गति और सटीकता का जांच करें; mAP50-95, accuracy_top5 माप, और अन्य मापों पर अनुभव प्राप्त करें।
+keywords: Ultralytics, YOLOv8, बंचमार्किंग, गति प्रोफाइलिंग, सटीकता प्रोफाइलिंग, mAP50-95, accuracy_top5, ONNX, OpenVINO, TensorRT, YOLO निर्यात प्रारूप
+---
+
+# उल्ट्राल्याटिक्स YOLO के साथ मॉडल बंचमार्किंग
+
+
+
+## परिचय
+
+जब आपका मॉडल प्रशिक्षित और सत्यापित हो जाता है, तो आगामी तार्किक चरण होता है कि तत्कालिक वास्तविक-दुनिया की स्थितियों में इसके प्रदर्शन का मूल्यांकन करें। Ultralytics YOLOv8 में बेंचमार्क मोड इस उद्देश्य की सेवा करता है, जहां उपयोगकर्ताओं को अपने मॉडल की गति और सटीकता का मूल्यांकन करने के लिए एक मजबूत ढांचा प्रदान करता है।
+
+## बंचमार्किंग क्यों महत्वपूर्ण है?
+
+- **जागरूक निर्णय:** गति और सटीकता के बीच ट्रेड-ऑफ के बारे में जानकारी प्राप्त करें।
+- **संसाधन आवंटन:** अलग-अलग निर्यात प्रारूपों का विभिन्न हार्डवेयर पर कैसा काम करता है इसकी समझ पाएं।
+- **अनुकूलन:** अपने विशिष्ट उपयोग मामले में सर्वोत्तम प्रदर्शन प्रदान करने वाला निर्यात प्रारूप कौन सा है, इसकी जानकारी प्राप्त करें।
+- **लागत संचय:** बंचमार्क परिणामों के आधार पर हार्डवेयर संसाधनों का अधिक अभिकल्प सेवन करें।
+
+### बंचमार्क मोड में मुख्य माप
+
+- **mAP50-95:** वस्तु का पता लगाने, विभाजन करने और स्थिति मान के लिए।
+- **accuracy_top5:** छवि वर्गीकरण के लिए।
+- **परिन्दता समय:** प्रति छवि के लिए लिया गया समय मिलीसेकंड में।
+
+### समर्थित निर्यात प्रारूप
+
+- **ONNX:** CPU प्रदर्शन के लिए आदर्श
+- **TensorRT:** अधिकतम GPU क्षमता के लिए
+- **OpenVINO:** Intel हार्डवेयर संशोधन के लिए
+- **CoreML, TensorFlow SavedModel, और अधिक:** विविध डिप्लॉयमेंट आवश्यकताओं के लिए।
+
+!!! Tip "युक्ति"
+
+ * तकनीकी कारणों से कंप्यूटिंग संसाधनों का उपयोग करते समय ONNX या OpenVINO में निर्यात करें, ताकि आप CPU स्पीड तक upto 3x तक स्पीडअप कर सकें।
+ * GPU स्पीड तक अपने कंप्यूटिंग संसाधनों का उपयोग करते समय TensorRT में निर्यात करें ताकि आप तक 5x तक स्पीडअप कर सकें।
+
+## उपयोग उदाहरण
+
+समर्थित सभी निर्यात प्रारूपों पर ONNX, TensorRT आदि के साथ YOLOv8n बंचमार्क चलाएं। पूरी निर्यात विवरण के लिए नीचे Arguments अनुभाग देखें।
+
+!!! Example "उदाहरण"
+
+ === "Python"
+
+ ```python
+ from ultralytics.utils.benchmarks import benchmark
+
+ # GPU पर बंचमार्क
+ benchmark(model='yolov8n.pt', data='coco8.yaml', imgsz=640, half=False, device=0)
+ ```
+ === "CLI"
+
+ ```bash
+ yolo बंचमार्क model=yolov8n.pt data='coco8.yaml' imgsz=640 half=False device=0
+ ```
+
+## Arguments
+
+`model`, `data`, `imgsz`, `half`, `device`, और `verbose` जैसे तर्क उपयोगकर्ताओं को मानदंडों को अपनी विशेष आवश्यकताओं के लिए सुगमता के साथ बंचमार्क को संशोधित करने की सुविधा प्रदान करते हैं, और विभिन्न निर्यात प्रारूपों के प्रदर्शन की तुलना करने की सुविधा प्रदान करते हैं।
+
+| कुंजी | मान | विवरण |
+|-----------|------------|---------------------------------------------------------------------------------|
+| `model` | `कोई नहीं` | मॉडल फ़ाइल का पथ, यानी yolov8n.pt, yolov8n.yaml |
+| `data` | `कोई नहीं` | बेंचमार्किंग डेटासेट को संदर्भित करने वाले YAML फ़ाइल का पथ (val लेबल के तहत) |
+| `imgsz` | `640` | छवि का आकार स्कैलर या (h, w) सूची, अर्थात (640, 480) |
+| `half` | `असत्य` | FP16 माप्यांकन |
+| `int8` | `असत्य` | INT8 माप्यांकन |
+| `device` | `कोई नहीं` | चलाने के लिए युक्ति उपकरण, अर्थात cuda device=0 या device=0,1,2,3 या device=cpu |
+| `verbose` | `असत्य` | त्रुटि में न जारी रखे (बूल), या वाल (फ्लोट) |
+
+## निर्यात प्रारूप
+
+बंचमार्क प्रयास होगा निम्नलिखित सभी संभावित निर्यात प्रारूपों पर स्वचालित रूप से चलाने की कोशिश करेगा।
+
+| प्रारूप | `प्रारूप` तर्क | मॉडल | मेटाडेटा | तर्क |
+|--------------------------------------------------------------------|----------------|---------------------------|----------|-----------------------------------------------------|
+| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - |
+| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` |
+| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` |
+| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half`, `int8` |
+| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` |
+| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` |
+| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras`, `int8` |
+| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` |
+| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` |
+| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` |
+| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` |
+| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` |
+| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` |
+
+पूर्ण निर्यात विवरण देखें निर्यात पृष्ठ में [Export](https://docs.ultralytics.com/modes/export/)।
diff --git a/docs/hi/modes/export.md b/docs/hi/modes/export.md
new file mode 100644
index 0000000000..646b439493
--- /dev/null
+++ b/docs/hi/modes/export.md
@@ -0,0 +1,108 @@
+---
+comments: true
+description: सभी प्रकार के निर्यात स्तर पर YOLOv8 मॉडल्स को निर्यात करने के लिए आपके लिए चरण-दर-चरण मार्गदर्शिका। अब निर्यात की जांच करें!
+keywords: YOLO, YOLOv8, Ultralytics, मॉडल निर्यात, ONNX, TensorRT, CoreML, TensorFlow SavedModel, OpenVINO, PyTorch, निर्यात मॉडल
+---
+
+# Ultralytics YOLO के साथ मॉडल निर्यात
+
+
+
+## परिचय
+
+एक मॉडल की प्रशिक्षण की अंतिम लक्ष्य उसे वास्तविक दुनिया के आवेदनों के लिए तैनात करना होता है। उल्ट्रालिटीक्स YOLOv8 में निर्यात मोड में आपको अभिनवता रेंज के ऑप्शन प्रदान करता है, वायरले किए गए मॉडल को विभिन्न स्वरूपों में निर्यात करने के लिए, जिससे वे विभिन्न प्लेटफॉर्मों और उपकरणों पर प्रदर्शित किए जा सकें। यह व्यापक मार्गदर्शिका अधिकतम संगतता और प्रदर्शन प्राप्त करने के तरीकों को दिखाने का लक्ष्य रखती है।
+
+
+
+
+
+ देखें: अपने उत्पादन को निर्यात करने के लिए कस्टम प्रशिक्षित Ultralytics YOLOv8 मॉडल निर्यात करने और वेबकैम पर लाइव अनुमान चलाने।
+
+
+## YOLOv8 के निर्यात मोड को क्यों चुनें?
+
+- **विविधता:** ONNX, TensorRT, CoreML और अन्य सहित कई फॉर्मेट में निर्यात करें।
+- **प्रदर्शन:** TensorRT में 5x जीपीयू स्पीडअप और ONNX या OpenVINO में 3x सीपीयू स्पीडअप प्राप्त करें।
+- **संगतता:** अपने मॉडल को कई हार्डवेयर और सॉफ़्टवेयर पर संगठित करें।
+- **उपयोग की सुविधा:** त्वरित और सीधी मॉडल निर्यात के लिए सरल CLI और Python API।
+
+### निर्यात मोड की प्रमुख विशेषताएं
+
+यहाँ कुछ मुख्य विशेषताएँ हैं:
+
+- **एक-क्लिक निर्यात:** अलग-अलग फॉर्मेट में निर्यात करने के लिए सरल कमांड।
+- **बैच निर्यात:** बैच-इन्फरेंस क्षमता वाले मॉडलों को निर्यात करें।
+- **सुधारित अनुमान:** निर्यात किए गए मॉडल अनुमान समय के लिए अनुकूलन किए जाते हैं।
+- **ट्यूटोरियल वीडियो:** सुविधाएं और ट्यूटोरियल सुनिश्चित करने के लिए गहन मार्गदर्शिकाओं का उपयोग करें।
+
+!!! Tip "सुझाव"
+
+ * 3x सीपीयू स्पीडअप के लिए ONNX या OpenVINO में निर्यात करें।
+ * 5x जीपीयू स्पीडअप के लिए TensorRT में निर्यात करें।
+
+## उपयोग उदाहरण
+
+YOLOv8n मॉडल को ONNX या TensorRT जैसे अलग फॉर्मेट में निर्यात करें। पूरी सूची निर्यात तर्कों के लिए नीचे दिए गए Arguments खंड को देखें।
+
+!!! Example "उदाहरण"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # एक मॉडल लोड करें
+ model = YOLO('yolov8n.pt') # एक आधिकारिक मॉडल लोड करें
+ model = YOLO('path/to/best.pt') # एक कस्टम प्रशिक्षित मॉडल लोड करें
+
+ # मॉडल निर्यात करें
+ model.export(format='onnx')
+ ```
+ === "CLI"
+
+ ```bash
+ yolo export model=yolov8n.pt format=onnx # आधिकारिक मॉडल का निर्यात करें
+ yolo export model=path/to/best.pt format=onnx # कस्टम प्रशिक्षित मॉडल का निर्यात करें
+ ```
+
+## Arguments
+
+YOLO मॉडलों के निर्यात सेटिंग्स निर्यात के विभिन्न विन्यास और विकल्पों के बारे में होते हैं, जिन्हें यूज़ करके मॉडल को अन्य पर्यावरण या प्लेटफ़ॉर्म में सहेजने या निर्यात करने के लिए उपयोग किया जा सकता है। इन सेटिंग्स से मॉडल के प्रदर्शन, आकार और विभिन्न सिस्टम के साथ संगतता प्रभावित हो सकती हैं। कुछ सामान्य YOLO निर्यात सेटिंग्स में निर्यात की गई मॉडल फ़ाइल का स्वरूप (जैसे ONNX, TensorFlow SavedModel), मॉडल कोरी सहवास में चलाने वाली उपकरण (जैसे CPU, GPU) और मास्क या प्रत्येक बॉक्स पर कई लेबलों की उपस्थिति जैसे अतिरिक्त विशेषताएँ शामिल हो सकते हैं। निर्यात प्रक्रिया प्रभावित करने वाले अन्य कारकों में मॉडल द्वारा उपयोग के लिए एक विशेष कार्य और लक्षित पर्यावरण या प्लेटफ़ॉर्म की आवश्यकताओं या सीमाओं का ध्यान देना महत्वपूर्ण है। लक्ष्य प्रयोजन और लक्ष्यित वातावरण में प्रभावी ढंग से उपयोग होने के लिए इन सेटिंग्स को ध्यान से विचार करना महत्वपूर्ण है।
+
+| कुंजी | मान | विवरण |
+|-------------|-----------------|------------------------------------------------------------------------|
+| `format` | `'torchscript'` | योग्यता के लिए निर्यात करने के लिए स्वरूप |
+| `imgsz` | `640` | एकल रूप में छवि का आकार या (h, w) सूची, जैसे (640, 480) |
+| `keras` | `False` | TF SavedModel निर्यात के लिए केरस का प्रयोग करें |
+| `optimize` | `False` | TorchScript: मोबाइल के लिए ऑप्टिमाइज़ करें |
+| `half` | `False` | FP16 संगणना |
+| `int8` | `False` | INT8 संगणना |
+| `dynamic` | `False` | ONNX/TensorRT: गतिशील ध्यान दिलाने वाले ध्यान |
+| `simplify` | `False` | ONNX/TensorRT: मॉडल को सरल बनाएं |
+| `opset` | `None` | ONNX: ऑपसेट संस्करण (वैकल्पिक, डिफ़ॉल्ट्स को नवीनतम के रूप में छोड़ें) |
+| `workspace` | `4` | TensorRT: कार्यक्षेत्र आकार (GB) |
+| `nms` | `False` | CoreML: NMS जोड़ें |
+
+## निर्यात स्वरूप
+
+नीचे दिए गए तालिका में YOLOv8 निर्यात स्वरूप दिए गए हैं। आप किसी भी स्वरूप में निर्यात कर सकते हैं, जैसे `format='onnx'` या `format='engine'`।
+
+| स्वरूप | `format` तर्क | मॉडल | मेटाडाटा | तर्क |
+|--------------------------------------------------------------------|---------------|---------------------------|----------|-----------------------------------------------------|
+| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - |
+| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` |
+| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` |
+| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half`, `int8` |
+| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` |
+| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` |
+| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras`, `int8` |
+| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` |
+| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` |
+| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` |
+| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` |
+| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` |
+| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` |
diff --git a/docs/hi/modes/index.md b/docs/hi/modes/index.md
new file mode 100644
index 0000000000..318d0b5331
--- /dev/null
+++ b/docs/hi/modes/index.md
@@ -0,0 +1,78 @@
+---
+comments: true
+description: प्रशिक्षण से ट्रैकिंग तक, Ultralytics के साथ YOLOv8 का अधिकतम लाभ उठाएं। मान्यता प्राप्त मोड, जैसे पुष्टीकरण, निर्यात और बेंचमार्किंग, के लिए अवधारणाओं और उदाहरण प्राप्त करें।
+keywords: Ultralytics, YOLOv8, मशीन लर्निंग, ऑब्जेक्ट डिटेक्शन, प्रशिक्षण, पुष्टीकरण, पूर्वावलोकन, निर्यात, ट्रैकिंग, बेंचमार्किंग
+---
+
+# Ultralytics YOLOv8 मोड
+
+
+
+## परिचय
+
+Ultralytics YOLOv8 सिर्फ एक ओब्जेक्ट डिटेक्शन मॉडल नहीं है; यह मशीन लर्निंग मॉडलों के पूर्ण जीवन चक्र के लिए एक विकशील फ्रेमवर्क है—डेटा संग्रह और मॉडल प्रशिक्षण से पुष्टीकरण, डिप्लॉयमेंट और वास्तविक दुनिया के ट्रैकिंग तक। प्रत्येक मोड का एक विशेष उद्देश्य होता है और आपको विभिन्न कार्यों और यूज-केस के लिए आवश्यक लचीलापन और कार्यक्षमता प्रदान करने के लिए बनाया जाता है।
+
+!!! Note
+
+ 🚧 हमारी बहुभाषीय दस्तावेज़ीकरण वर्तमान में निर्माणाधीन है, और हम इसे सुधारने के लिए कड़ी मेहनत कर रहे हैं। आपकी सहनशीलता के लिए धन्यवाद! 🙏
+
+
+
+### एक पल मोडें
+
+Ultralytics YOLOv8 के समर्थित **मोड** को समझना आपके मॉडल का अधिकतम उपयोग करने के लिए महत्वपूर्ण है:
+
+- **प्रशिक्षण** मोड: अपने मॉडल को कस्टम या पूर्व-भर्ती डेटासेट में संशोधित करें।
+- **पुष्टीकरण** मोड: मॉडल प्रदर्शन को मान्यता प्राप्त करने के लिए प्रशिक्षण के बाद के चेकप्वाइंट का उपयोग करें।
+- **पूर्वावलोकन** मोड: नए छवियों या वीडियो का उपयोग करके प्रशिक्षित YOLOv8 मॉडल के माध्यम से पूर्वानुमान करें।
+- **निर्यात** मोड: डिप्लॉयमेंट के लिए मॉडल को विभिन्न प्रारूपों में तैयार करें।
+- **ट्रैक** मोड: रीयल-टाइम ट्रैकिंग अनुप्रयोगों में योजित आइटम डिटेक्शन मॉडल का विस्तार करें।
+- **बेंचमार्क** मोड: विविध डिप्लॉयमेंट वातावरणों में मॉडल की गति और सटीकता का विश्लेषण करें।
+
+यह सामग्री आपको प्रत्येक मोड का अवलोकन और व्यावहारिक अंदाज़ देने का उद्देश्य रखती है, जिससे आप YOLOv8 की पूरी क्षमता का उपयोग कर सकें।
+
+## [प्रशिक्षण](train.md)
+
+प्रशिक्षण मोड का उपयोग कस्टम डेटासेट पर YOLOv8 मॉडल के प्रशिक्षण के लिए किया जाता है। इस मोड में, मॉडल को निर्दिष्ट डेटासेट और हाइपरपैरामीटर का उपयोग करके प्रशिक्षित किया जाता है। प्रशिक्षण प्रक्रिया में, मॉडल के पैरामीटरों को अनुकूलित किया जाता है ताकि यह छवियों में ऑब्जेक्टों की कक्षाओं और स्थानों का सटीक पूर्वानुमान कर सके।
+
+[प्रशिक्षण उदाहरण](train.md){ .md-button .md-button--primary}
+
+## [पुष्टीकरण](val.md)
+
+पुष्टीकरण मोड का उपयोग YOLOv8 मॉडल के प्रशिक्षण के बाद मॉडल की मान्यता और सामान्यीकरण प्रदर्शन को मापने के लिए किया जाता है। इस मोड में, मॉडल को एक प्रमाणीकरण सेट पर मूल्यांकन किया जाता है ताकि उसकी सटीकता और सामान्यीकरण प्रदर्शन को मापा जा सके। इस मोड का उपयोग मॉडल के प्रदर्शन को सुधारने के लिए मॉडल के हाइपरपैरामीटरों को ट्यून करने के लिए किया जा सकता है।
+
+[पुष्टीकरण उदाहरण](val.md){ .md-button .md-button--primary}
+
+## [पूर्वानुमान](predict.md)
+
+पूर्वानुमान मोड का उपयोग नई छवियों या वीडियो पर प्रशिक्षित YOLOv8 मॉडल का उपयोग करके पूर्वानुमान बनाने के लिए किया जाता है। इस मोड में, मॉडल एक चेकप्वाइंट फ़ाइल से लोड किया जाता है, और उपयोगकर्ता छवियों या वीडियों को उपयोग करके इन्फेरेंस कर सकता है। मॉडल उपयोगकर्ता को इनपुट छवियों या वीडियों में ऑब्जेक्टों की कक्षाओं और स्थानों का पूर्वानुमान करता है।
+
+[पूर्वानुमान उदाहरण](predict.md){ .md-button .md-button--primary}
+
+## [निर्यात](export.md)
+
+निर्यात मोड का उपयोग एक YOLOv8 मॉडल को इस्तेमाल करने के लिए एक प्रारूप में करने के लिए किया जाता है जो कि अन्य सॉफ़्टवेयर अनुप्रयोगों या हार्डवेयर उपकरणों द्वारा इस्तेमाल किया जा सकता है। यह मोडल को उत्पादन उद्योगों में डिप्लॉय करने के लिए उपयोगी होता है।
+
+[निर्यात उदाहरण](export.md){ .md-button .md-button--primary}
+
+## [ट्रैक](track.md)
+
+ट्रैक मोड का उपयोग एक YOLOv8 मॉडल का उपयोग करके वास्तविक समय में वस्तुओं का ट्रैकिंग करने के लिए किया जाता है। इस मोड में, मॉडल एक चेकप्वाइंट फ़ाइल से लोड किया जाता है, और उपयोगकर्ता एक लाइव वीडियो स्ट्रीम प्रदान कर सकता है ताकि वास्तविक समय में वस्तुओं का ट्रैकिंग किया जा सके। यह मोड सतर्कता प्रणालियों या स्वयं चालित कार जैसे अनुप्रयोगों के लिए उपयोगी होता है।
+
+[ट्रैक उदाहरण](track.md){ .md-button .md-button--primary}
+
+## [बेंचमार्क](benchmark.md)
+
+बेंचमार्क मोड का उपयोग YOLOv8 के विभिन्न निर्यात प्रारूपों की गति और सटीकता का प्रोफ़ाइल बनाने के लिए किया जाता है। बेंचमार्क से प्राप्त जानकारी निर्यात प्रारूप के आकार, उसकी `mAP50-95` metric (ऑब्जेक्ट डिटेक्शन, सेगमेंटेशन और पोज़ के लिए)
+या `accuracy_top5` metric (वर्गीकरण के लिए), और चित्र माध्यमिक समय के मिलीसेकंड प्रति इमेज के अलग-अलग निर्यात प्रारूपों की जानकारी प्रदान करता है। यह जानकारी उपयोगकर्ताओं को उनकी विशेष उपयोग के मामले में उनकी खासियतों के लिए मिति और सटीकता के लिए सर्वोत्तम निर्यात प्रारूप का चयन करने में मदद कर सकती है।
+
+[बेंचमार्क उदाहरण](benchmark.md){ .md-button .md-button--primary}
diff --git a/docs/hi/modes/predict.md b/docs/hi/modes/predict.md
new file mode 100644
index 0000000000..86c3a04e68
--- /dev/null
+++ b/docs/hi/modes/predict.md
@@ -0,0 +1,226 @@
+---
+comments: true
+description: योलोवी 8 के अल्ट्रालायटिक्स पूर्वानुमान मोड का उपयोग करना सीखें और विभिन्न कार्यों के लिए विभिन्न पूर्वानुमान स्रोतों के बारे में जानें। इमेजेस, वीडियोज़ और डेटा प्रारूपों जैसे पूर्वानुमान स्रोतों के बारे में जानें।
+keywords: Ultralytics, YOLOv8, पूर्वानुमान मोड, पूर्वानुमान स्रोत, पूर्वानुमान कार्य, धारणा योजना, छवि प्रसंस्करण, वीडियो प्रसंस्करण, मशीन लर्निंग, एआई
+---
+
+# अल्ट्रालायटिक्स YOLO मॉडल पूर्वानुमान
+
+
+
+## परिचय
+
+मशीन लर्निंग और कंप्यूटर विजन की दुनिया में दृश्यांश से समझने की प्रक्रिया को 'पूर्वानुमान' या 'पूर्वानुमान' कहा जाता है। अल्ट्रालायटिक्स YOLOv8 एक शक्तिशाली विशेषता प्रदान करता है जिसे **पूर्वानुमान मोड** कहा जाता है, जो व्यापक डेटा स्रोतों पर उच्च प्रदर्शन, वास्तुकालिक पूर्वानुमान के लिए विशेष रूप से तैयार किया गया है।
+
+
+
+
+
+ देखें: अल्ट्रालायटिक्स YOLOv8 मॉडल से आउटपुट निकालने का तरीका कस्टम परियोजनाओं के लिए।
+
+
+## वास्तविक जगत में अनुप्रयोग
+
+| विनिर्माण | खेल संघ | सुरक्षा |
+|:-------------------------------------------:|:--------------------------------------------------:|:---------------------------------------------:|
+| ![वाहन के पुर्जे डिटेक्शन][car spare parts] | ![फुटबॉल खिलाड़ी डिटेक्शन][football player detect] | ![लोगों का गिरना डिटेक्शन][human fall detect] |
+| वाहन के पुर्जे डिटेक्शन | फुटबॉल खिलाड़ी डिटेक्शन | लोगों का गिरना |
+
+## पूर्वानुमान के लिए अल्ट्रालायटिक्स YOLO का उपयोग क्यों करें?
+
+यहां आपको योलोवी 8 के पूर्वानुमान मोड का उपयोग अपने विभिन्न पूर्वानुमान की आवश्यकताओं के लिए करना चाहिए का कारण है:
+
+- **बहुमुखीपन:** छवियों, वीडियोज और यह तक कि लाइव स्ट्रीम की पूर्वानुमान पर योग्य हैं।
+- **प्रदर्शन:** मुख्यतः बिना सटीकता पर बलवर्धित, रियल-टाइम, उच्च गति प्रसंस्करण के लिए engineering किए गए हैं।
+- **उपयोग सहज:** खद्य पाइथन और यथार्थता (CLI) इंटरफ़ेसों को जल्दी विपणन और परीक्षण के लिए।
+- **ऊच्चतम अनुकूलनयोग्यता:** अपनी विशिष्ट आवश्यकताओं के अनुसार मॉडल के पूर्वानुमान कृति को निर्धारित करने के लिए विभिन्न सेटिंग और पैरामीटर।
+
+### पूर्वानुमान मोड की प्रमुख सुविधाएँ
+
+YOLOv8 का पूर्वानुमान मोड मजबूत और विशेषता प्राप्त करने के लिए डिज़ाइन किया गया है, जिसमें शामिल हैं:
+
+- **यदि आपके डेटा के कई स्रोतों के पंजीकरण:** चाहे आपका डेटा व्यक्तिगत छवियों, छोटू माला छवियों, वीडियो फ़ाइलों या वास्तविक समय वीडियो स्ट्रीमों की रूप में हो, पूर्वानुमान मोड आपके लिए उपयुक्त है।
+- **स्ट्रीमिंग मोड:** `स्ट्रीमिंग` सुविधाका उपयोग करें और `पूर्वानुमान की कॉल विधि` में `स्ट्रीम = ट्रू` सेट करके `रिजल्ट्स` ऑब्जेक्ट के एक मेमोरी-पर्याप्त जेनरेटर का उत्पादन करें।
+- **बैच प्रोसेसिंग:** एक ही बैच में कई छवियों या वीडियो फ़्रेम्स की प्रोसेसिंग करने की क्षमता, पूर्वानुमान समय को और तेज़ करती है।
+- **इंटीग्रेशन फ्रेंडली:** लचीली API के कारण मौजूदा डेटा पाईपलाइन और अन्य सॉफ़्टवेयर घटकों के साथ आसानी से इंटीग्रेट करें।
+
+जब पूर्वानुमान के दौरान मॉडल को `गेनरेटर की `रूप में लोड किया जाता है, तो अल्ट्रालायटिक्स YOLO मॉडल निम्नलिखित मेथड से `रिजल्ट` ऑब्जेक्ट के एक पायथन सूची या यादृच्छिक संख्यकारी जनरेटर लौटाते हैं:
+
+!!! Example "पूर्वानुमान"
+
+ === "`स्ट्रीम = फाल्स` के साथ सूची यादृच्छिक"
+ ```python
+ from ultralytics import YOLO
+
+ # एक मॉडल लोड करें
+ model = YOLO('yolov8n.pt') # पूर्व-प्रशिक्षित YOLOv8n मॉडल
+
+ # सूची के लिए बैच्ड पूर्वानुमान चलाएं
+ results = model(['im1.jpg', 'im2.jpg']) # रिजल्ट्स ऑब्जेक्ट की सूची लौटाएँ
+
+ # परिणाम सूची को प्रोसेस करें
+ for result in results:
+ boxes = result.boxes # बॉक्स के लिए बॉक्स ऑब्जेक्ट
+ masks = result.masks # सेगमेंटेशन मोड के लिए मास्क्स ऑब्जेक्ट
+ keypoints = result.keypoints # पोज़ के लिए कीपॉइंट्स ऑब्जेक्ट
+ probs = result.probs # वर्गीकरण के लिए प्रोब्स ऑब्जेक्ट
+ ```
+
+ === "`स्ट्रीम = ट्रू के साथ जेनरेटर` की प्राथमिकता"
+ ```python
+ from ultralytics import YOLO
+
+ # एक मॉडल लोड करें
+ model = YOLO('yolov8n.pt') # पूर्व-प्रशिक्षित YOLOv8n मॉडल
+
+ # सूची के लिए बैच्ड पूर्वानुमान चलाएं
+ results = model(['im1.jpg', 'im2.jpg'], stream=True) # रिजल्ट्स ऑब्जेक्ट का जनरेटर लौटाएँ
+
+ # रिजल्ट्स जनरेटर को प्रोसेस करें
+ for result in results:
+ boxes = result.boxes # बॉक्स के लिए बॉक्स ऑब्जेक्ट
+ masks = result.masks # सेगमेंटेशन मास्क्स के लिए मास्क्स ऑब्जेक्ट
+ keypoints = result.keypoints # पोज़ के लिए कीपॉइंट्स ऑब्जेक्ट
+ probs = result.probs # वर्गीकरण के लिए प्रोब्स ऑब्जेक्ट
+ ```
+
+## पूर्वानुमान स्रोत
+
+YOLOv8 पूर्वानुमान के लिए विभिन्न प्रकार के इनपुट स्रोतों को process कर सकता है, जैसा कि नीचे दिए गए तालिका में दिखाया गया है। स्रोतों में स्थिर छवियाँ, वीडियो स्ट्रीम्स, और विभिन्न डेटा प्रारूपों को विकास के साथ उपयोग किया जा सकता है। यह तालिका भी इंगित करती है कि क्या प्रत्येक स्रोत को स्ट्रीमिंग मोड में `द्वारा इस्तेमाल किया जा सकता है।' यहां स्ट्रीमिंग मोड का उपयोग वीडियो या लाइव स्ट्रीम को प्रोसेस करने के लिए उपयोगी है क्योंकि इसमें सभी फ्रेम्स को मेमोरी में लोड किए बिना एक रिजल्ट की generator बनाई जाती है।
+
+!!! Tip "सुझाव"
+
+ `स्ट्रीम = ट्रू` का उपयोग बड़ी वीडियोज़ या विशाल डेटासेट को संचालित करने के लिए करें ताकि मेमोरी का दक्षिणा प्रबंधित किया जा सके। `स्ट्रीम = फाल्स` के खंड के खंड में सभी फ्रेम्स या डेटा बिंदुओं के लिए परिणाम स्तोर किए जाते हैं, जो अधिकांशता में मेमोरी में लोड हो सकते हैं और बड़े इनपुट के लिए आउट-ऑफ-मेमोरी त्रुटियां उत्पन्न कर सकते हैं। इसके बराबर उपयोग करके `स्ट्रीम= True` एक जेनरेटर का उपयोग करता है, जिसके संचित होने वाले
+
+केवल ब्रह्मण्ड के परिणामों को सीमित संग्रह किया जाता है, बहुत कम मेमोरी खपत करता है और बड़े इनपुट के लिए आउट ऑफमेमोरीनुमान syllabus नुकसान होने से बचाता है।
+
+| स्रोत | तर्क | प्रकार | टिप्पणियाँ |
+|-----------------|-------------------------------------------|---------------|-------------------------------------------------------------------------------------------------------------|
+| छवि | `'छवि.जेपीजी'` | `श. या पथ` | एकल छवि फ़ाइल। |
+| यूआरएल | `'https://ultralytics.com/छवि/बस.जेपीजी'` | `शः` | छवि होस्टेड रिमोटली उन्नत करने के लिए यूआरएल । |
+| स्क्रीनशॉट | `'स्क्रीन'` | `शः` | स्क्रीन की वर्तमान सामग्री के रूप में कैप्चर । |
+| आदर्श | `इमेज.ओपन('चित्र.जेपीजी')` | `पीआईएल.इमेज` | HWC format with RGB channels। |
+| ओपनसीवी | `ओपेंसीवी.इमरेड('चित्र.जेपीजी')` | `एनपी.न्डआरे` | HWC format with BGR channels `uint8 (0-255)`। |
+| नम्पी | `नपाई.जीरोस((640,1280,३))` | `एनपी.नडअरे` | HWC format with BGR channels `uint8 (0-255)`। |
+| टॉर्च | `टॉर्च.जीरोस(16,3,320,640)` | `टॉर्च.टेंसर` | BCHW format with RGB channels `float32 (0.0-1.0)`। |
+| सीएसवी | `'स्रोत.सीएसवी'` | `शः` or `पथ` | छवियों, वीडियोज़, या निर्देशिकाओं की पथों को समेटने वाली CSV फ़ाइल। |
+| वीडियो ✅ | `'वीडियो.म्प४'` | `पथ` or `पथ` | MP4, AVI, आदि जैसे वीडियो फ़ाइल में वीडियो। |
+| निर्देशिका ✅ | `'पथ/'` | `शः` or `पथ` | छवियों या वीडियोज़ को समेटने वाली एक निर्देशिका का पथ। |
+| ग्लॉब ✅ | `'पथ/ *.जेपीजी'` | `शः` | एकाधिक फ़ाइलों के मिलते-जुलते गोलियाँ। वाइल्डकार्ड के रूप में `*` चरित्र का उपयोग करें। |
+| यूट्यूब ✅ | `'https://youtu.be/LNwODJXcvt4'` | `शः` | एक यूट्यूब वीडियो के लिए यूआरएल। |
+| स्ट्रीम ✅ | `'rtsp://माद्यदिनता.कॉम/media.म्प४'` | `शः` | RTSP, RTMP, TCP या IP पते जैसे स्ट्रीमिंग प्रोटोकॉल्स के लिए पता। |
+| मल्टी-स्ट्रीम ✅ | `'सूची.स्ट्रीम्स'` | `शः` or `पथ` | प्रति पंक्ति एक स्ट्रिम URL के साथ `*.streams` पाठ फ़ाइल, उदाहरण के लिए 8 स्ट्रीम 8 बैच-आकार के साथ चलेंगे। |
+
+लेखक आदान प्रियतमानसों का सुझाव देते हैं:
+
+!!! Example "पूर्वानुमान स्रोत"
+
+ === "छवि"
+ एक छवि फ़ाइल पर पूर्वानुमान चलाएं।
+ ```python
+ from ultralytics import YOLO
+
+ # पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें
+ model = YOLO('yolov8n.pt')
+
+ # छवि फ़ाइल के लिए पथ निर्धारित करें
+ स्रोत = 'फाईल/पर/चित्र.jpg'
+
+ # छवि पर पूर्वानुमान चलाएं
+ परिणाम = model(स्रोत) # रिजल्ट्स ऑब्जेक्ट की सूची
+
+ # परिणाम सूची को प्रोसेस करें
+ for परिणाम in परिणाम:
+ बॉक्स = परिणाम.बॉक्स # बॉक्स आउटपुट्स के लिए बॉक्स ऑब्जेक्ट
+ मास्क्स = परिणाम.मास्क्स # सेगमेंटेशन मास्क्स आउटपुट्स के लिए मास्क्स ऑब्जेक्ट
+ कीपॉइंट्स = परिणाम.कीपॉइंट्स # पोज के लिए कीपॉइंट्स ऑब्जेक्ट
+ प्रोब्स = परिणाम.प्रोब्स # वर्गीकरण आउटपुट्स के लिए प्रोब्स ऑब्जेक्ट
+ ```
+
+ === "स्क्रीनशॉट"
+ वर्तमान स्क्रीन सामग्री पर पूर्वानुमान चलाएं।
+ ```python
+ from ultralytics import YOLO
+
+ # पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें
+ model = YOLO('yolov8n.pt')
+
+ # वर्तमान स्क्रीन सामग्री को स्रोत रूप में परिभाषित करें
+ स्रोत = 'स्क्रीन'
+
+ # वर्तमान सामग्री पर पूर्वानुमान चलाएं
+ परिणाम = model(स्रोत) # रिजल्ट्स ऑब्जेक्ट की सूची
+ ```
+
+ === "यूआरएल"
+ दूरस्थ छवि या वीडियो पर पूर्वानुमान चलाएं।
+ ```python
+ from ultralytics import YOLO
+
+ # पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें
+ model = YOLO('yolov8n.pt')
+
+ # गहनर् रूप से निर्धारित दूरस्थ छवि या वीडियो की यूआरएल
+ स्रोत = 'https://ultralytics.com/छवि/बस.जेपीजी'
+
+ # यूआरएल पर पूर्वानुमान चलाएं
+ परिणाम = model(स्रोत) # रिजल्ट्स ऑब्जेक्ट की सूची
+ ```
+
+ === "आदर्श"
+ Python Imaging Library (PIL) के साथ खोली गई छवि पर पूर्वानुमान चलाएं।
+ ```python
+ from PIL import Image
+ from ultralytics import YOLO
+
+ # पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें
+ model = YOLO('yolov8n.pt')
+
+ # Python Imaging Library (PIL) के साथ खोली गई छवि
+ स्रोत = Image.open('छवि.जेपीजी')
+
+ # आदर्श पर पूर्वानुमान चलाएं
+ परिणाम = model(स्रोत) # रिजल्ट्स ऑब्जेक्ट की सूची
+ ```
+
+ === "ओपेंसीवी"
+ OpenCV के साथ पढ़ी गई छवि पर पूर्वानुमान चलाएं।
+ ```python
+ import cv2
+ from ultralytics import YOLO
+
+ # पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें
+ model = YOLO('yolov8n.pt')
+
+ # OpenCV के साथ पढ़ी गई छवि
+ स्रोत = cv2.imread('छवि.जेपीजी')
+
+ # ओपेंसीवी पर पूर्वानुमान चलाएं
+ परिणाम = model(स्रोत) # रिजल्ट्स ऑब्जेक्ट की सूची
+ ```
+
+ === "नम्पी"
+ numpy array के रूप में प्रस्तुत छवि पर पूर्वानुमान चलाएं।
+ ```python
+ import numpy as np
+ from ultralytics import YOLO
+
+ # पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें
+ model = YOLO('yolov8n.pt')
+
+ # छवि रूप में एक हिंदी छवि को बनाएँ
+ स्रोत = np.zeros((640, 640, 3))
+
+ # नम्पी पर पूर्वानुमान चलाएं
+ परिणाम = model(स्रोत) # रिजल्ट्स ऑब्जेक्ट की सूची
+ ```
+
+[वाहन के पुर्जे डिटेक्शन]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/a0f802a8-0776-44cf-8f17-93974a4a28a1
+
+[फुटबॉल खिलाड़ी डिटेक्शन]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/7d320e1f-fc57-4d7f-a691-78ee579c3442
+
+[लोगों का गिरना डिटेक्शन]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/86437c4a-3227-4eee-90ef-9efb697bdb43
diff --git a/docs/hi/modes/track.md b/docs/hi/modes/track.md
new file mode 100644
index 0000000000..7f5773f0eb
--- /dev/null
+++ b/docs/hi/modes/track.md
@@ -0,0 +1,358 @@
+---
+comments: true
+description: वीडियो स्ट्रीम में आवक ट्रेक करने के लिए Ultralytics YOLO का उपयोग कैसे करें। ट्रैकर्स का उपयोग करने और ट्रैकर कॉन्फ़िगरेशन को अनुकूलित करने के लिए गाइड।
+keywords: Ultralytics, YOLO, आवक ट्रैकिंग, वीडियो स्ट्रीम, BoT-SORT, ByteTrack, पायथन गाइड, CLI गाइड
+---
+
+# Ultralytics YOLO के साथ मल्टी-ऑब्जेक्ट ट्रैकिंग
+
+
+
+वीडियो एनालिटिक्स के क्षेत्र में, ऑब्जेक्ट ट्रैकिंग एक महत्वपूर्ण कार्य है जो केवल फ्रेम में वस्तुओं के स्थान और वर्ग की पहचान करने के अलावा वीडियो के प्रगति के साथ-साथ प्रत्येक खोजी गई वस्तु के लिए एक अद्वितीय आईडी बनाए रखता है। इसके अनुप्रयोग हैं असीमित—निगरानी और सुरक्षा से लेकर रियल-टाइम स्पोर्ट्स एनालिटिक्स तक।
+
+## ऑब्जेक्ट ट्रैकिंग के लिए Ultralytics YOLO क्यों चुनें?
+
+Ultralytics ट्रैकरों से उत्पन्न परिणाम मानक ऑब्जेक्ट डिटेक्शन के साथ मेल खाते हैं, लेकिन वीडियो स्ट्रीम में ऑब्जेक्टों को ट्रैक करने और उपयोगी गणना करने में आसान हो जाता है। यहाँ आपको Ultralytics YOLO का उपयोग अपनी ऑब्जेक्ट ट्रैकिंग की जरूरतों के लिए करने की सलाह दी जा रही है:
+
+- **प्रदर्शनशीलता:** सटीकता के मामले में समय-सत्य ही होने के साथ वीडियो स्ट्रीम को प्रक्रिया करें।
+- **लचीलापन:** विभिन्न ट्रैकिंग ऍल्गोरिदम और विन्यास पर समर्थन करें।
+- **उपयोग करने में आसानी:** झटपट एकीकरण और डिप्लॉय करने के लिए सरल पायथन API और CLI विकल्प।
+- **कस्टमाइज़ेबिलिटी:** कस्टम ट्रेन किए गए YOLO मॉडल के साथ उपयोग में आसान, जिससे डोमेन-विशिष्ट एप्लिकेशन में समावेश करना संभव होता है।
+
+
+
+
+
+ देखें: Ultralytics YOLOv8 के साथ ऑब्जेक्ट डिटेक्शन और ट्रैकिंग।
+
+
+## वास्तविक दुनिया के अनुप्रयोग
+
+| परिवहन | खुदराबाज़ार | जलजीवाणुजनित उत्पादन |
+|:-------------------------------:|:-----------------------------:|:----------------------------:|
+| ![वाहन ट्रैकिंग][vehicle track] | ![लोग ट्रैकिंग][people track] | ![मछली ट्रैकिंग][fish track] |
+| वाहन ट्रैकिंग | लोग ट्रैकिंग | मछली ट्रैकिंग |
+
+## विशेषताएँ एक झलक में
+
+Ultralytics YOLO अपनी ऑब्जेक्ट डिटेक्शन विशेषताओं को बढ़ाकर मज़बूत और बहुमुखी ऑब्जेक्ट ट्रैकिंग प्रदान करता है:
+
+- **रीयल-टाइम ट्रैकिंग:** उच्च फ्रेम दर वाले वीडियो में समयबद्ध रूप से ऑब्जेक्ट्स को ट्रैक करें।
+- **एकाधिक ट्रैकर समर्थन:** इस्थापित ट्रैकिंग ऍल्गोरिदमों में से एक चुनें।
+- **कस्टमाइज़ेबल ट्रैकर कॉन्फ़िगरेशन:** विभिन्न पैरामीटर्स को समायोजित करके विशेष आवश्यकताओं को पूरा करने के लिए ट्रैकिंग ऍल्गोरिदम को अनुकूलित करें।
+
+## उपलब्ध ट्रैकर्स
+
+Ultralytics YOLO निम्नलिखित ट्रैकिंग ऍल्गोरिदमों का समर्थन करता है। आप इन्हें योग्य YAML कॉन्फ़िगरेशन फ़ाइल (`tracker=tracker_type.yaml`) पारित करके सक्षम कर सकते हैं:
+
+* [BoT-SORT](https://github.com/NirAharon/BoT-SORT) - इस ट्रैकर को सक्षम करने के लिए `botsort.yaml` का उपयोग करें।
+* [ByteTrack](https://github.com/ifzhang/ByteTrack) - इस ट्रैकर को सक्षम करने के लिए `bytetrack.yaml` का उपयोग करें।
+
+डिफ़ॉल्ट ट्रैकर BoT-SORT है।
+
+## ट्रैकिंग
+
+वीडियो स्ट्रीम्स पर ट्रैकर चलाने के लिए, YOLOv8n, YOLOv8n-seg और YOLOv8n-pose जैसे प्रशिक्षित Detect, Segment या Pose मॉडल का उपयोग करें।
+
+!!! Example "उदाहरण"
+
+ === "पायथन"
+
+ ```python
+ from ultralytics import YOLO
+
+ # एक आधिकारिक या कस्टम मॉडल लोड करें
+ model = YOLO('yolov8n.pt') # एक आधिकारिक Detect मॉडल लोड करें
+ model = YOLO('yolov8n-seg.pt') # एक आधिकारिक Segment मॉडल लोड करें
+ model = YOLO('yolov8n-pose.pt') # एक आधिकारिक Pose मॉडल लोड करें
+ model = YOLO('path/to/best.pt') # एक कस्टम प्रशिक्षित मॉडल लोड करें
+
+ # मॉडल के साथ ट्रैकिंग करें
+ results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True) # डिफ़ॉल्ट ट्रैकर के साथ ट्रैकिंग करें
+ results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True, tracker="bytetrack.yaml") # ByteTrack ट्रैकर के साथ ट्रैकिंग करें
+ ```
+
+ === "CLI"
+
+ ```बैश
+ # CLI के साथ विभिन्न मॉडल के साथ ट्रैकिंग करें
+ योलो ट्रैक मॉडल=yolov8n.pt स्रोत="https://youtu.be/LNwODJXcvt4" # आधिकारिक डिटेक्ट मॉडल
+ योलो ट्रैक मॉडल=yolov8n-seg.pt स्रोत="https://youtu.be/LNwODJXcvt4" # आधिकारिक सेगमेंट मॉडल
+ योलो ट्रैक मॉडल=yolov8n-pose.pt स्रोत="https://youtu.be/LNwODJXcvt4" # आधिकारिक पोज मॉडल
+ योलो ट्रैक मॉडल=path/to/best.pt स्रोत="https://youtu.be/LNwODJXcvt4" # कस्टम प्रशिक्षित मॉडल
+
+ # ByteTrack ट्रैकर का उपयोग करें
+ योलो ट्रैक मॉडल=path/to/best.pt ट्रैकर="bytetrack.yaml"
+ ```
+
+ऊपर के उपयोग में उंगलियों के निचले हिस्से के द्वारा ट्रैकिंग उपलब्ध है सभी डिटेक्ट, सेगमेंट और पोज मॉडल्स के लिए जो वीडियो या स्ट्रीमिंग स्रोत पर चला जा सकते हैं।
+
+## कॉन्फ़िगरेशन
+
+### ट्रैकिंग आर्ग्युमेंट्स
+
+ट्रैकिंग कॉन्फ़िगरेशन, जैसे कि `conf`, `iou` और `show`, ने प्रेडिक्शन मोड के साथ गुणों को साझा करता है। और विन्यास करने के लिए, कृपया [प्रेडिक्शन](../modes/predict.md#inference-arguments) मॉडल पृष्ठ पर संदर्भ करें।
+
+!!! Example "उदाहरण"
+
+ === "पायथन"
+
+ ```python
+ from ultralytics import YOLO
+
+ # ट्रैकिंग पैरामीटर आवंटन करें और ट्रैकर चलाएं
+ model = YOLO('yolov8n.pt')
+ results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True)
+ ```
+
+ === "CLI"
+
+ ```बैश
+ # कमांड लाइन इंटरफेस का उपयोग करें ट्रैकिंग पैरामीटर कॉन्फ़िगर करें और ट्रैकर चलाएं
+ योलो ट्रैक मॉडल=yolov8n.pt स्रोत="https://youtu.be/LNwODJXcvt4" conf=0.3, iou=0.5 show
+ ```
+
+### ट्रैकर चयन
+
+Ultralytics आपको एक संशोधित ट्रैकर कॉन्फ़िगरेशन फ़ाइल का उपयोग करने की भी अनुमति देता है। ऐसा करने के लिए, बस [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) से एक ट्रैकर कॉन्फ़िगरेशन फ़ाइल (जैसे `custom_tracker.yaml`) की एक प्रतिलिपि बनाएँ और किसी भी विन्यास को संशोधित करें ( `tracker_type` को छोड़कर) अपनी जरूरतों के अनुसार।
+
+!!! Example "उदाहरण"
+
+ === "पायथन"
+
+ ```python
+ from ultralytics import YOLO
+
+ # मॉडल लोड करें और एक कस्टम कॉन्फ़िगरेशन फ़ाइल के साथ ट्रैकर चलाएं
+ model = YOLO('yolov8n.pt')
+ results = model.track(source="https://youtu.be/LNwODJXcvt4", tracker='custom_tracker.yaml')
+ ```
+
+ === "CLI"
+
+ ```बैश
+ # ट्रैकर के साथ एक कस्टम कॉन्फ़िगरेशन फ़ाइल का उपयोग करके मॉडल लोड करें और ट्रैकर चलाएं
+ योलो ट्रैक मॉडल=yolov8n.pt स्रोत="https://youtu.be/LNwODJXcvt4" tracker='custom_tracker.yaml'
+ ```
+
+ट्रैकिंग आर्ग्युमेंट्स की एक व्यापक सूची के लिए, [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) पेज पर संदर्भ करें।
+
+## पायथन उदाहरण
+
+### ट्रैक पर्सिस्ट करना
+
+यहाँ एक Python स्क्रिप्ट है जो OpenCV (`cv2`) और YOLOv8 का उपयोग करके वीडियो फ़्रेम पर ऑब्जेक्ट ट्रैकिंग चलाने के लिए है। इस स्क्रिप्ट में यह मान लिया गया है कि आपने पहले ही आवश्यक पैकेज (`opencv-python` और `ultralytics`) इंस्टॉल कर लिए हैं। `persist=True` आर्ग्युमेंट ये ट्रैकर को बताता है कि मौजूदा इमेज या फ़्रेम उन अनुसरण तथ्यों के लिए होता है जो पिछले इमेज में से बनाए गए होते हैं।
+
+!!! Example "ट्रैकिंग के लिए स्ट्रीमिंग फ़ोर-लूप"
+
+ ```python
+ import cv2
+ from ultralytics import YOLO
+
+ # YOLOv8 मॉडल लोड करें
+ model = YOLO('yolov8n.pt')
+
+ # वीडियो फ़ाइल खोलें
+ video_path = "path/to/video.mp4"
+ cap = cv2.VideoCapture(video_path)
+
+ # वीडियो फ़्रेम्स पर लूप चलाएं
+ while cap.isOpened():
+ # वीडियो से एक फ्रेम पढ़ें
+ success, frame = cap.read()
+
+ if success:
+ # फ्रेम पर YOLOv8 ट्रैकिंग चलाएं, फ़्रेम के बीच ट्रैक पर्सिस्ट करता है
+ results = model.track(frame, persist=True)
+
+ # परिणामों को फ़्रेम पर दिखाएं
+ annotated_frame = results[0].plot()
+
+ # ट्रैक करें फ़्रेम को प्रदर्शित करें
+ cv2.imshow("YOLOv8 ट्रैकिंग", annotated_frame)
+
+ # 'q' दबाएं तो फ़्रेम से बाहर निकलें
+ if cv2.waitKey(1) & 0xFF == ord("q"):
+ break
+ else:
+ # वीडियो के अंत तक पहुँचने पर भी फ़्रेम से बाहर निकलें
+ break
+
+ # वीडियो कैप्चर ऑब्जेक्ट छोड़ें और प्रदर्शन विंडो बंद करें
+ cap.release()
+ cv2.destroyAllWindows()
+ ```
+
+मैने फ़्रेम से ट्रैकिंग के लिए 'model(frame)' से 'model.track(frame)' में बदलाव किया है, जो साधारण डिटेक्शन की बजाय ऑब्जेक्ट ट्रैकिंग को सक्षम करता है। यह संशोधित स्क्रिप्ट प्रति फ़्रेम वाली वीडियो पर ट्रैकर चलाएगा, परिणामों को दिखाएगा और एक विंडो में दिखाएगा। 'q' दबाने पर फ़्रेम से बाहर निकला जा सकता है।
+
+### समय के साथ ट्रैक चित्रित करना
+
+संबंधित वीडियो फ्रेम पर ऑब्जेक्ट ट्रैक्स को प्लॉट करके समान्तर स्थानीय मार्गों को प्रदर्शित करने से हमें चित्रित पथ के माध्यम से पहले के अंतरालों और पतों की आपूर्ति में मूल्यवान प्रेरणा मिल सकती है। Ultralytics YOLOv8 के साथ समय के साथ ट्रैक्स को प्लॉट करना एक चुस्त और कुशल प्रक्रिया है।
+
+निम्न उदाहरण में, हम दिखाए गए वीडियो फ्रेम्स पर YOLO मॉडल का उपयोग करके विभिन्न ऑब्जेक्ट की गति को चित्रित करने के लिए कैसे करेंगे। यह स्क्रिप्ट एक वीडियो फ़ाइल को खोलता है, फ्रेम दर फ्रेम यह पढ़ता है, और YOLO मॉडल का उपयोग करके विभिन्न ऑब्जेक्ट की पहचान और ट्रैक करता है। पहचान वाले बॉक्स के केंद्रीय प्रांक्तियों को संवेदी करके उन्हें जोड़ते हैं, हम ट्रैक किए गए वस्तुओं द्वारा फ़ालतू की जगहों को चूंकियों का संग्रहित करने के लिए लाइनें खींच सकते हैं।
+
+!!! Example "कई वीडियो फ़्रेम्स पर पथ चित्रित करना"
+
+ ```python
+ from collections import defaultdict
+
+ import cv2
+ import numpy as np
+
+ from ultralytics import YOLO
+
+ # YOLOv8 मॉडल लोड करें
+ model = YOLO('yolov8n.pt')
+
+ # वीडियो फ़ाइल खोलें
+ video_path = "path/to/video.mp4"
+ cap = cv2.VideoCapture(video_path)
+
+ # ट्रैक इतिहास को संग्रहीत करें
+ track_history = defaultdict(lambda: [])
+
+ # वीडियो फ्रेम्स पर लूप चलाएं
+ while cap.isOpened():
+ # वीडियो से एक फ्रेम पढ़ें
+ success, frame = cap.read()
+
+ if success:
+ # फ्रेम पर YOLOv8 ट्रैकिंग चलाएं, फ़्रेम के बीच ट्रैक पर्सिस्ट करता है
+ results = model.track(frame, persist=True)
+
+ # बॉक्स और ट्रैक आईडी प्राप्त करें
+ boxes = results[0].boxes.xywh.cpu()
+ track_ids = results[0].boxes.id.int().cpu().tolist()
+
+ # रिज़ल्ट पर विजुअलाइज़ करें
+ annotated_frame = results[0].plot()
+
+ # पथ चित्रित करें
+ for box, track_id in zip(boxes, track_ids):
+ x, y, w, h = box
+ track = track_history[track_id]
+ track.append((float(x), float(y))) # x, y centre point
+ if len(track) > 30: # 90 फ़्रेम्स के लिए 90 ट्रैक्स को जमा करें
+ track.pop(0)
+
+ # ट्रैकिंग लाइनें खींचें
+ points = np.hstack(track).astype(np.int32).reshape((-1, 1, 2))
+ cv2.polylines(annotated_frame, [points], isClosed=False, color=(230, 230, 230), thickness=10)
+
+ # पथ को प्रदर्शित करें
+ cv2.imshow("YOLOv8 ट्रैकिंग", annotated_frame)
+
+ # 'q' दबायें तो फ़्रेम से बाहर निकलें
+ if cv2.waitKey(1) & 0xFF == ord("q"):
+ break
+ else:
+ # वीडियो के अंत तक पहुँचने पर भी फ़्रेम से बाहर निकलें
+ break
+
+ # वीडियो कैप्चर ऑब्जेक्ट छोड़ें और प्रदर्शन विंडो बंद करें
+ cap.release()
+ cv2.destroyAllWindows()
+ ```
+
+### मल्टीथ्रेड ट्रैकिंग
+
+मल्टीथ्रेड ट्रैकिंग एक साथ कई वीडियो स्ट्रीमों पर ऑब्जेक्ट ट्रैकिंग चलाने की क्षमता प्रदान करता है। यह खासकर उपयोगी होता है जब हम कई निगरानी कैमरों से जैसे कि वहां से मौजूद वीडियो इनपुट को संभालने के लिए परस्पर प्रोसेसिंग करने की क्षमता बढ़ा सकते हैं।
+
+प्रदान किए गए पायथन स्क्रिप्ट में हम Python के `threading` मॉड्यूल का उपयोग करके यह संभव करते हैं कि कई इंस्टेंसेज को एक साथ ट्रैकर चलाया जा सके। यह हर थ्रेड के लिए एक ट्रैकर चलाने की जिम्मेदारी होती है, और सभी थ्रेड संघ थ्रेड बैकग्राउंड में एक साथ चलते हैं।
+
+हर थ्रेड को सही पैरामीटर्स (वीडियो फ़ाइल, उपयोग करने के लिए मॉडल और फ़ाइल इंडेक्स) प्राप्त करने के लिए, हम `run_tracker_in_thread` नामक एक फ़ंक्शन को परिभाषित करते हैं जो इन पैरामीटर्स को स्वीकार करता है और मुख्य ट्रैकिंग लूप को संबंधित करता है। यह फ़ंक्शन वीडियो फ्रेम्स को फ्रेम द्वारा पढकर, ट्रैकर चलाने और परिणामों को प्रदर्शित कर रही है।
+
+इस उदाहरण में दो अलग मॉडल इस्तेमाल होते हैं: `yolov8n.pt` और `yolov8n-seg.pt`, जो हर एक अलग वीडियो फ़ाइल में ऑब्जेक्ट को ट्रैक करते हैं। वीडियो फाइल `video_file1` और `video_file2` में निर्दिष्ट किए गए हैं। `threading.Thread` में `daemon=True` विधिमति का उपयोग संकेत करता है कि यह सुनिश्चित करता है कि जब प्रमुख कार्यक्रम समाप्त हो जाए, तो ये सभी थ्रेड बंद हो जाएंगे। हम `start()` का उपयोग करके थ्रेडों को शुरू करते हैं और `join()` का उपयोग करके मुख्य थ्रेड को प्रतीक्षा करने के लिए बनाते हैं जब तक कि ट्रैकर थ्रेड खत्म नहीं हो जाते।
+
+चूंकि सभी थ्रेडों ने अपना कार्य पूरा कर लिया है, इसलिए `cv2.destroyAllWindows()` का उपयोग करके परिणामों को दिखाने वाली विंडो को बंद करते हैं।
+
+!!! Example "ट्रैकिंग के लिए स्ट्रीमिंग फ़ोर-लूप"
+
+ ```python
+ import threading
+ import cv2
+ from ultralytics import YOLO
+
+
+ def run_tracker_in_thread(filename, model, file_index):
+ """
+ थ्रेडिंग के साथ YOLOv8 मॉडल के साथ एक वीडियो फ़ाइल या webcam स्रोत संगतरूप पर ट्रैकर चलाता है।
+
+ यह फ़ंक्शन एक वेदनीय वीडियो फ़ाइल या कैमरा स्रोत से वीडियो फ़्रेमों को पकड़ता है और ऑब्जेक्ट ट्रैकिंग के लिए YOLOv8 मॉडल का उपयोग करता है। यह फ़ंक्शन अपनी थ्रेड में चलता है जो कार्य प्रसंस्करण के रूप में एक साथ चलता है।
+
+ Args:
+ filename (str): वीडियो फ़ाइल के पथ या कैमरे / बाहरी कैमरे स्रोत का पहचानकर्ता।
+ model (obj): YOLOv8 मॉडल ऑब्जेक्ट।
+ file_index (int): फ़ाइल को पहचानने के लिए ऐंद्रिक कोड।
+
+ ध्यान दें:
+ वीडियो डिस्प्ले विंडो बंद करने के लिए 'q' दबाएं।
+ """
+ वीडियो = cv2.VideoCapture(filename) # वीडियो फ़ाइल पढ़ें
+
+ while True:
+ सफलता, फ़्रेम = वीडियो.read() # वीडियो फ़्रेम पढ़ें
+
+ # कोई भी फ़्रेम न बचा हो, तो लूप से बाहर निकलें
+ if not सफलता:
+ तोड़ो
+ तोड़ो
+
+ # ऑब्जेक्ट्स को ट्रैक करें यदि उपलब्ध हों
+ results = model.track(फ़्रेम, persist=True)
+ res_plotted = results[0].plot()
+ cv2.imshow(f"स्रोत_{file_index} पर ट्रैकिंग", res_plotted)
+
+ कुंजी = cv2.waitKey(1)
+ if कुंजी == ord('q'):
+ तोड़ो
+
+ # वीडियो स्रोतों को छोड़ें
+ वीडियो.रिलीज़े()
+
+
+ # मॉडल लोड करें
+ model1 = YOLO('yolov8n.pt')
+ model2 = YOLO('yolov8n-seg.pt')
+
+ # ट्रैकर के लिए वीडियो फ़ाइलें परिभाषित करें
+ video_file1 = "path/to/video1.mp4" # वीडियो फ़ाइल का पथ, वेबकैम के लिए 0
+ video_file2 = 0 # वीडियो फ़ाइल का पथ, वेबकैम के लिए 0, बाहरी कैमरा के लिए 1
+
+ # ट्रैकर थ्रेड सबसे ऊपर बनाएं
+ tracker_thread1 = threading.Thread(target=run_tracker_in_thread, args=(video_file1, model1, 1), daemon=True)
+ tracker_thread2 = threading.Thread(target=run_tracker_in_thread, args=(video_file2, model2, 2), daemon=True)
+
+ # ट्रैकर थ्रेड प्रारंभ करें
+ tracker_thread1.start()
+ tracker_thread2.start()
+
+ # ट्रैकर थ्रेड की प्रतीक्षा करें
+ tracker_thread1.join()
+ tracker_thread2.join()
+
+ # सभी ट्रैकर थ्रेडों के निपटाए जाने के बाद, परिणामों को प्रदर्शन विंडोज बंद करें
+ cv2.destroyAllWindows()
+ ```
+
+यह उदाहरण स्क्रिप्ट जोड़कर और इसी मार्गदर्शन का उपयोग करके और अधिक वीडियो फ़ाइल और मॉडल के लिए बाहरी थ्रेड बना कर इसे कार्यान्वित करने के लिए आसानी से विस्तारित किया जा सकता है।
+
+## नए ट्रैकरों में सहयोग दें
+
+क्या आप बहु-ऑब्जेक्ट ट्रैकिंग में माहिर हैं और उल्ट्रालिटिक्स YOLO के साथ एक ट्रैकिंग ऍल्गोरिदम को सफलतापूर्वक अमल में लाया है? हम आपको [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) में हमारे ट्रैकर खंड के लिए योगदान देने के लिए आमंत्रित करते हैं! आपका वास्तविक दुनिया के अनुप्रयोग और समाधान आपके समुदाय के लिए अमूल्य हो सकते हैं।
+
+इस खंड में योगदान देकर, आप उल्ट्रालिटिक्स YOLO फ्रेमवर्क के भीतर उपलब्ध ट्रैकिंग समाधानों की विस्तारवादी सूची बढ़ा सकते हैं, जो उल्ट्रालिटिक्स YOLO माध्यम से काम कर रहे उपयोगकर्ताओं के लिए अत्यधिक समर्पणशीलता और उपयोगीता जोड़ते हैं।
+
+अपनी योगदान की शुरुआत करने के लिए, कृपया हमारे [योगदान गाइड](https://docs.ultralytics.com/help/contributing) का संदर्भ लें जहां परामर्शिका प्रस्तुत करने के सचेत निर्देश दिए गए हैं। हम इंतजार कर रहे हैं देखें आप क्या लाते हैं!
+
+साथ में, चलिए Ultralytics YOLO पारिस्थितिकी की गतिशीलता को मजबूत करें 🙏!
+
+[वाहन ट्रैकिंग]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/ee6e6038-383b-4f21-ac29-b2a1c7d386ab
+
+[लोग ट्रैकिंग]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/93bb4ee2-77a0-4e4e-8eb6-eb8f527f0527
+
+[मछली ट्रैकिंग]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/a5146d0f-bfa8-4e0a-b7df-3c1446cd8142
diff --git a/docs/hi/modes/train.md b/docs/hi/modes/train.md
new file mode 100644
index 0000000000..74c0371b97
--- /dev/null
+++ b/docs/hi/modes/train.md
@@ -0,0 +1,293 @@
+---
+comments: true
+description: Ultralytics YOLO के साथ YOLOv8 मॉडल ट्रेन करने के लिए चरणबद्ध मार्गदर्शिका, एकल-GPU और बहु-GPU ट्रेनिंग के उदाहरणों के साथ।
+keywords: Ultralytics, YOLOv8, YOLO, ऑब्जेक्ट डिटेक्शन, ट्रेन मोड, कस्टम डेटासेट, GPU ट्रेनिंग, बहु-GPU, हाइपरपैरामीटर, CLI उदाहरण, Python उदाहरण
+---
+
+# Ultralytics YOLO के साथ मॉडल ट्रेनिंग
+
+
+
+## परिचय
+
+एक गहरी यान्त्रिकी मॉडल को ट्रेनिंग देना उसे डेटा खिलाते हुए और इसके पैरामीटर्स को समायोजित करके सही पूर्वानुमान करने की सामर्थ्य को शामिल करता है। YOLOv8 मॉडल में Ultralytics YOLO के ट्रेन मोड ने ऑब्जेक्ट डिटेक्शन मॉडल्स को प्रभावी और दक्ष ट्रेनिंग के लिए इंजीनियरिंग किया गया है, जिससे आधुनिक हार्डवेयर क्षमताओं का पूरी तरह से उपयोग किया जा सके। यह मार्गदर्शिका उन सभी विवरणों को कवर करने का उद्देश्य रखती है जो आपको YOLOv8 के मजबूत सेट ऑफ़ सुविधाओं का उपयोग करके अपने खुद के मॉडल्स को ट्रेनिंग शुरू करने के लिए चाहिए।
+
+
+
+
+
+ देखें: Google Colab में अपने कस्टम डेटासेट पर एक YOLOv8 मॉडल को ट्रेन करने का तरीका।
+
+
+## प्रशिक्षण के लिए Ultralytics YOLO का चयन क्यों करें?
+
+यहां YOLOv8 के ट्रेन मोड को चुनने के कुछ प्रमुख कारण हैं:
+
+- **दक्षता:** अपने हार्डवेयर से सबसे अधिक लाभ उठाएं, चाहे आप सिंगल-GPU सेटअप पर हों या कई GPU पर स्केल कर रहें हों।
+- **प्राक्तिशिल्ता:** COCO, VOC और ImageNet जैसे तत्परता उपलब्ध डेटासेटों के अलावा कस्टम डेटासेट पर ट्रेन करें।
+- **उपयोगकर्ता मित्रपूर्णता:** सीधे और शक्तिशाली CLI और Python इंटरफ़ेस का उपयोग एक सीधी ट्रेनिंग अनुभव के लिए।
+- **हाइपरपैरामीटर लचीलापन:** मॉडल प्रदर्शन को सुधारने के लिए वैश्विक स्तर पर अनुकूलन योग्य हाइपरपैरामीटरों की एक व्यापक श्रृंखला।
+
+### ट्रेन मोड की प्रमुख सुविधाएं
+
+निम्नलिखित YOLOv8 के ट्रेन मोड की कुछ महत्वपूर्ण सुविधाएं हैं:
+
+- **स्वत: डेटासेट डाउनलोड:** COCO, VOC और ImageNet जैसे मानक डेटासेट्स को पहली बार के उपयोग पर स्वत: डाउनलोड किया जाता है।
+- **बहु-GPU समर्थन:** प्रक्रिया की गति को तेज करने के लिए अनुप्रयोग में कई जीपीयू का उपयोग करें।
+- **हाइपरपैरामीटर कॉन्फ़िगरेशन:** हाइपरपैरामीटर को यामल कॉन्फ़िगरेशन फ़ाइल या CLI तर्कों के माध्यम से संशोधित करने का विकल्प।
+- **दृश्यीकरण और मॉनिटरिंग:** प्रशिक्षण मैट्रिक्स के वास्तविक समय ट्रैकिंग और सीखने की प्रक्रिया के दृश्यीकरण के लिए बेहतर अवधारणा के लिए।
+
+!!! Tip "टिप"
+
+ * COCO, VOC, ImageNet और कई अन्य जैसे YOLOv8 डेटासेट पहले से आपूर्ति हो जाते हैं, उपयोग पर स्वत: डाउनलोड होते हैं, जैसे `yolo train data=coco.yaml`
+
+## उपयोग उदाहरण
+
+सौंधांग्रही कोड को नजरअंदाज किए बिना कोई उत्तर देने के लिए, कोको128 डेटासेट के लिए YOLOv8n पर ट्रेनिंग करें। ट्रेनिंग उपकरण `device` तर्क का उपयोग करके निर्दिष्ट किया जा सकता है। आगर कोई तर्क निर्दिष्ट नहीं किया जाता है, तो प्रशिक्षण `device=0` लगाने के लिए उपयुक्त GPU `device=0` का उपयोग करेगा, अन्यथा `device=cpu` का उपयोग किया जाएगा। पूरी प्रशिक्षण तर्कों की पूरी सूची के लिए नीचे देखें।
+
+!!! Example "सिंगल-जीपीयू और सीपीयू प्रशिक्षण उदाहरण"
+
+ उपकरण स्वत: निर्धारित किया जाता है। यदि साझा-GPU उपलब्ध हो तो उसका उपयोग किया जाएगा, अन्यथा प्रशिक्षण सीपीयू पर शुरू होगा।
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # एक मॉडल लोड करें
+ model = YOLO('yolov8n.yaml') # YAML से एक नया मॉडल बनाएं
+ model = YOLO('yolov8n.pt') # प्रशिक्षण के लिए सिफारिश की जाती है, एक पूर्व-प्रशिक्षित मॉडल लोड करें
+ model = YOLO('yolov8n.yaml').load('yolov8n.pt') # YAML से बनाएं और वजन मारे ट्रांसफर करें
+
+ # मॉडल प्रशिक्षण
+ results = model.train(data='coco128.yaml', epochs=100, imgsz=640)
+ ```
+
+ === "CLI"
+
+ ```bash बैश
+ # YAML से एक नया मॉडल बनाएं और शुरू से प्रशिक्षण शुरू करें
+ yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640
+
+ # पूर्व-प्रशिक्षित *.pt मॉडल से प्रशिक्षण शुरू करें
+ yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640
+
+ # YAML से एक नया मॉडल बनाएं, पूर्व-प्रशिक्षित वजनों को इसमें स्थानांतरित करें और प्रशिक्षण शुरू करें
+ yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640
+ ```
+
+### बहु-जीपीयू प्रशिक्षण
+
+बहु-जीपीयू प्रशिक्षण एकाधिक जीपीयू के उपयोग से उपलब्ध होता है और उपकरण माध्यम से भी Python API के माध्यम से उपलब्ध है। बहु-जीपीयू प्रशिक्षण को सक्षम करने के लिए, आप उपयोग करना चाहते हैं उन जीपीयू उपकरण आईडीजी को निर्दिष्ट करें।
+
+!!! Example "बहु-जीपीयू प्रशिक्षण का उदाहरण"
+
+ 2 जीपीयू के साथ प्रशिक्षित करें, CUDA उपकरण 0 और 1 का उपयोग करें। अतिरिक्त जीपीयू के लिए विस्तार करें जितना आवश्यक हो।
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # एक मॉडल लोड करें
+ model = YOLO('yolov8n.pt') # प्रशिक्षण के लिए सिफारिश की जाती है, एक पूर्व-प्रशिक्षित मॉडल लोड करें
+
+ # दो जीपीयू के साथ मॉडल प्रशिक्षण
+ results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device=[0, 1])
+ ```
+
+ === "CLI"
+
+ ```bash
+ # पूर्व-प्रशिक्षित *.pt मॉडल से जीपीयू 0 और 1 का उपयोग करके प्रशिक्षण शुरू करें
+ yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=0,1
+ ```
+
+### ऐपल M1 और M2 MPS प्रशिक्षण
+
+ऐपल M1 और M2 चिप्स के समर्थन के साथ Ultralytics YOLO मॉडल पर ट्रेनिंग करना अब ऐसे उपकरणों पर संभव होता है जहां शक्तिशाली मेटल परफार्मेंस शेडर (MPS) फ़्रेमवर्क का उपयोग किया जाता है। MPS कंप्यूटेशन और छवि प्रसंस्करण कार्यों को आईयूपी स्लिकॉन पर निष्पादित करने का एक उच्च कार्यक्षमता तरीका प्रदान करता है।
+
+ऐपल M1 और M2 चिप्स पर प्रशिक्षण को सक्षम करने के लिए, आपको प्रशिक्षण प्रक्रिया शुरू करते समय "mps" को अपने उपकरण के रूप में निर्दिष्ट करना चाहिए। नीचे Python और कमांड लाइन में इसे कैसे कर सकते हैं उसका एक उदाहरण दिया गया है:
+
+!!! Example "MPS प्रशिक्षण का उदाहरण"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # एक मॉडल लोड करें
+ model = YOLO('yolov8n.pt') # प्रशिक्षण के लिए सिफारिश की जाती है, एक पूर्व-प्रशिक्षित मॉडल लोड करें
+
+ # दो जीपीयू के साथ मॉडल प्रशिक्षण
+ results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device='mps')
+ ```
+
+ === "CLI"
+
+ ```bash
+ # पूर्व-प्रशिक्षित *.pt मॉडल से जीपीयू 0 और 1 का उपयोग करके प्रशिक्षण शुरू करें
+ yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=mps
+ ```
+
+M1/M2 चिप्स के गणितात्मक शक्ति का लाभ लेते हुए, इससे प्रशिक्षण कार्यों की कार्यक्षमता को और बढ़ाया जाता है। अधिक विस्तृत मार्गदर्शन और उन्नत रूपरेखा विकल्पों के लिए, कृपया [PyTorch MPS दस्तावेज़ीकरण](https://pytorch.org/docs/stable/notes/mps.html) का संदर्भ देखें।
+
+### बाधित प्रशिक्षण को बहाल करना
+
+पहले ही बचे हुए अवस्था की तालिका स्थापित करना, गहरी यान्त्रिकी मॉडल के साथ काम करते समय एक महत्वपूर्ण सुविधा है। यह विविध परिदृश्यों में उपयोगी है, जैसे जब अप्रत्याशित रूप से प्रशिक्षण प्रक्रिया रुक गई हो, या जब आप नए डेटा के साथ या अधिक इपॉक्स के लिए एक मॉडल को प्रशिक्षण जारी रखना चाहते हैं।
+
+प्रशिक्षण बहाल करने पर, Ultralytics YOLO अंतिम सहेजे गए मॉडल से वजनों को लोड करता है और अद्यतनकर्ता की स्थिति, शिक्षा दर नियोजक और युग क्रमांक को भी पुनर्स्थापित करता है। इससे आप प्रशिक्षण प्रक्रिया को बिना किसी गड़बड़ के बाहर छोड़ देने के लिए कर सकते हैं।
+
+आप आसानी से Ultralytics YOLO में प्रशिक्षण को बहाल कर सकते हैं जब आप `train` विधि को बुलाने पर `resume` तर्क को `True` निर्दिष्ट करके और आंशिक रूप से निर्दिष्ट `pt` फ़ाइल के पथ को निर्दिष्ट करके, और आपका ट्रेनिंग प्रक्रिया जहां से छोड़ गई थी से प्रशिक्षण जारी रखने के लिए `train` फ़ंक्शन को कम्युट कीजिए।
+
+नीचे एक उदाहरण दिया गया है कि कैसे पायथन और कमांड लाइन में एक अविरल प्रशिक्षण को कैसे बहाल करें:
+
+!!! Example "प्रशिक्षण बहाल करने का उदाहरण"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # एक मॉडल लोड करें
+ model = YOLO('path/to/last.pt') # एक आंशिक-प्रशिक्षित मॉडल लोड करें
+
+ # प्रशिक्षण बहाल करें
+ results = model.train(resume=True)
+ ```
+
+ === "CLI"
+ ```bash शैल
+ # एक अविरल प्रशिक्षण बहाल करें
+ yolo train resume model=path/to/last.pt
+ ```
+
+`resume=True` सेट करके, `train` फ़ंक्शन पहले से बचे हुए मॉडल के स्थान में बचे हुए अवस्था में से प्रशिक्षण जारी रखेगा। यदि `resume` तर्क छोड़ दिया जाता है या `False` के रूप में निर्दिष्ट किया जाता है, तो `train` फ़ंक्शन एक नया प्रशिक्षण सत्र शुरू करेगा।
+
+याद रखें कि डिफ़ॉल्ट रूप स्थिति पर दशा-अतीत प्रति के अंत में बचावात्मक संग्रहण होते हैं, या `save_period` तर्क का उपयोग करके निश्चित अंतराल पर, इसलिए आपको एक प्रशिक्षण दौड़ को बहाल करने के लिए कम से कम 1 इपॉक्स पूर्ण करना होगा।
+
+## तर्क
+
+YOLO मॉडलों के लिए प्रशिक्षण सेटिंग विभिन्न हाइपरपैरामीटर और कॉन्फ़िगरेशन का उपयोग करते हैं जो मॉडल को एक डेटासेट पर प्रशिक्षित करने के लिए उपयोग होता है। इन सेटिंग्स में मॉडल के प्रदर्शन, गति और नियमितता पर प्रभाव पड़ सकता है। कुछ सामान्य YOLO प्रशिक्षण सेटिंग्स में बैच का आकार, सीखने दर, मोमेंटम और वेट डिके जैसी मानक अद्यतन वाली चीजें शामिल हैं। प्रशिक्षण प्रक्रिया को प्रभावी ढंग से स्थापित करने के लिए इन सेटिंग्स को सावधानीपूर्वक संयोजित करना महत्वपूर्ण है और एक दिए गए कार्य के लिए श्रेणी में सबसे अच्छे परिणाम प्राप्त करने के लिए इन सेटिंग्स के साथ संगतन करने की आवश्यकता होती है।
+
+| कुंजी | मान | विवरण |
+|-------------------|----------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
+| `model` | `None` | मॉडल फ़ाइल का पथ, चाहे yolov8n.pt, yolov8n.yaml |
+| `data` | `None` | डेटा फ़ाइल का पथ, चाहे coco128.yaml |
+| `epochs` | `100` | प्रशिक्षण के लिए बार की संख्या |
+| `patience` | `50` | प्रशिक्षण के आरंभ में कोई देखने के योग्य सुधार के लिए इपॉक्स इंतजार करें |
+| `batch` | `16` | प्रति बैच छवि की संख्या (-1 के लिए AutoBatch) |
+| `imgsz` | `640` | प्रारंभिक छवियों का आकार मानदंड |
+| `save` | `True` | प्रशिक्षण नियंत्रितक और पूर्वानुमान परिणाम सहेजें |
+| `save_period` | `-1` | प्रत्येक x ईपॉक्स पर निर्वाचित चेकप्वाइंट (1 से कम द्वारा अक्षम) |
+| `cache` | `False` | [सही/रैम](https://github.com/rwightman/pytorch-image-models/blob/master/timm/data/constants.py) या खोलने के लिए ब्राउज़र के लिए ब्राउज़र डेटा लोड करने के लिए उपयोग करें |
+| `device` | `None` | चलाने के लिए उपकरण, उदाहरण के लिए cuda उपकरण का उपयोग करें device=0 या device=0,1 या device=cpu |
+| `workers` | `8` | वर्कर सूत्रों की संख्या |
+| `project` | `None` | प्रोजेक्ट का नाम |
+| `name` | `None` | प्रयोग का नाम |
+| `exist_ok` | `False` | मौजूदा प्रयोग को अधिलेखित करने के लिए या नहीं |
+| `pretrained` | `True` | (बूल या स्ट्रिंग) आज्ञानुसार एक पूर्व-प्रशिक्षित मॉडल का उपयोग करें (बूल) या वजनों को लोड करने के लिए मॉडल से (स्ट्रिंग) |
+| `optimizer` | `'auto'` | चयन के लिए बराबरी=[SGD, Adam, Adamax, AdamW, NAdam, RAdam, RMSProp, auto] |
+| `verbose` | `False` | वर्बोज़ आउटपुट प्रिंट करें |
+| `seed` | `0` | नियंत्रित (प्रशिक्षणीय) बीज के लिए |
+| `deterministic` | `True` | नियंत्रित माध्यम को सक्षम करें |
+| `single_cls` | `False` | हिल विशेषज्ञता डेटा सिंगल-कक्षा के रूप में |
+| `rect` | `False` | न्यूनतम पैडिंग के लिए प्रति बैच रो टैब्री के साथ आयतात्मक प्रशिक्षण |
+| `cos_lr` | `False` | साइन के साइन शिक्षण दर नियोजक का उपयोग करें |
+| `close_mosaic` | `10` | अंतिम अवधि के लिए मॉज़ेक त断श्रावक में माध्यम वृक्षों की सक्षमता (0 को अक्षम करें) |
+| `resume` | `False` | आखिरी निर्वाचित चेकप्वाइंट से प्रशिक्षण बहाल करें |
+| `amp` | `True` | ऑटोमेटिक मिक्स्ड प्रेसिजन (AMP) प्रशिक्षण, चयन=[True, False] |
+| `fraction` | `1.0` | प्रशिक्षित करने के लिए डेटासेट आंशिक (डिफ़ॉल्ट 1.0, प्रशिक्षण सेट में सभी छवियां) |
+| `profile` | `False` | लॉगर्स के लिए प्रशिक्षण के दौरान ONNX और TensorRT की स्पीड प्रोफ़ाइल |
+| `freeze` | `None` | श्रोणि की पहले n परतें, या श्रोणि सूची लेयर सूची को प्रशिक्षण के दौरान लॉक करें |
+| `lr0` | `0.01` | प्रारंभिक सीखने दर (उदा. SGD=1E-2, Adam=1E-3) |
+| `lrf` | `0.01` | परिणामकारी सीखने दर (lr0 * lrf) |
+| `momentum` | `0.937` | SGD मोमेंटम/Adam बीटा1 |
+| `weight_decay` | `0.0005` | शव्य वजन दण्ड 5e-4 |
+| `warmup_epochs` | `3.0` | प्रारंभिक अवधि (अंशों में ठंडा) |
+| `warmup_momentum` | `0.8` | प्रारंभिक अवधि मे प्रारम्भिक अवधि |
+| `warmup_bias_lr` | `0.1` | प्रारंभिक जुकान एलआर |
+| `box` | `7.5` | बॉक्स हानि प्राप्ति |
+| `cls` | `0.5` | वर्ग हानि प्राप्ति (पिक्सेल के साथ स्थापना करें) |
+| `dfl` | `1.5` | खींची हानि प्राप्ति |
+| `pose` | `12.0` | माथाप्रविष्टि हानि प्राप्ति (केवल ठंडा) |
+| `kobj` | `2.0` | कीपॉइंट obj हानि प्राप्ति (केवल ठंडा) |
+| `label_smoothing` | `0.0` | लेबल स्मूदिंग (अंश) |
+| `nbs` | `64` | नामोज़यल बैच का आकार |
+| `overlap_mask` | `True` | प्रशिक्षण के दौरान मास्क ओवरलैप होने चाहिए (सेगमेंट ट्रेन केवल) |
+| `mask_ratio` | `4` | स्थानकटू औरता (सेगमेंट ट्रेन केवल) |
+| `dropout` | `0.0` | निर्द्यमता का उपयोग करें (वर्गीकरण केवल प्रशिक्षण) |
+| `val` | `True` | प्रशिक्षण के दौरान जाँच/परीक्षण |
+
+## लॉगिंग
+
+YOLO मॉडल के प्रशिक्षण में आपको समय-समय पर मॉडल के प्रदर्शन का पता रखना महत्वपूर्ण हो सकता है। यहां लॉगिंग की एक वैरांगणिकता, यानी कीमेट, क्लियरएमएल और टेंसरबोर्ड का समर्थन है।
+
+लॉगर का उपयोग करने के लिए, ऊपरी कोड स्निपेट के ठोकवाला मेनू से इसे चयन करें और इसे चलाएं। चयनित लॉगर स्थापित किया जाएगा और इनिशलाइज़ किया जाएगा।
+
+### कीमेट
+
+[कीमेट](../../integrations/comet.md) एक प्लेटफ़ॉर्म है जो डेटा वैज्ञानिकों और डेवलपरों को प्रयोग और मॉडलों की प्रशिक्षण में तुलनात्मक, व्याख्यान करने और अग्रिम निर्धारण करने में मदद करता है। इसकी सुविधाएं वास्तविक समय मापक, कोड अंतर और हाइपरपैरामीटर ट्रैकिंग जैसी विभिन्नताएं प्रदान करती हैं।
+
+कीमेट का उपयोग करने के लिए:
+
+!!! Example "उदाहरण"
+
+ === "Python"
+ ```python
+ # pip install comet_ml
+ import comet_ml
+
+ comet_ml.init()
+ ```
+
+कृपया कीमेट वेबसाइट पर अपने कीमेट खाते में साइन इन करें और अपनी एपीआई कुंजी प्राप्त करें। आपको अपने वातावरण प्रतिस्थापित करने या अपने स्क्रिप्ट में इसे जोड़ने की आवश्यकता होगी ताकि आप अपने प्रयोगों को लॉग कर सकें।
+
+### क्लियरएमएल
+
+[क्लियरएमएल](https://www.clear.ml/) एक ओपन-सोर्स प्लेटफ़ॉर्म है जो प्रयोगों के ट्रैकिंग को स्वतंत्र और प्रभावी संसाधित करने में मदद करता है। यह टीम को उनके एमएल का कार्य प्रबंधन, क्रियाकलापों को क्रियान्वयन करने और उनकी पुनःसृजन की संवेदनशीलता से सहायता करने के लिए डिज़ाइन दोबारा करने के लिए विकसित किया गया है।
+
+क्लियरएमएल का उपयोग करने के लिए:
+
+!!! Example "उदाहरण"
+
+ === "Python"
+ ```python
+ # pip install clearml
+ import clearml
+
+ clearml.browser_login()
+ ```
+
+इस स्क्रिप्ट को चलाने के बाद, कृपया क्लियरएमएल वेबसाइट पर अपने क्लियरएमएल खाते में साइन इन करें और अपने ब्राउज़र सत्र की प्रमाणिकता स्वीकार करें।
+
+### टेंसरबोर्ड
+
+[टेंसरबोर्ड](https://www.tensorflow.org/tensorboard) एक टेन्सरफ़्लो वीज़ुअलाइज़ेशन टूलकिट है। यह आपको अपने टेन्सरफ़्लो ग्राफ को दृष्टिगतिक टुकड़ों में वेटवेद्य करने, आपातकालीन अवकलनों के बारे में मितियों को प्लॉट करने और इसके मध्य से जाने की कल्पना से बदलने जैसे अतिरिक्त डेटा दिखाने की अनुमति देता है।
+
+[Google Colab में](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb) टेंसरबोर्ड का उपयोग करने के लिए:
+
+!!! Example "उदाहरण"
+
+ === "CLI"
+ ```bash
+ load_ext tensorboard
+ tensorboard --logdir ultralytics/runs # ध्यान दें कि 'धावक' निर्देशिका के साथ बदलें
+ ```
+
+स्थानीय टेंसरबोर्ड का उपयोग करने के लिए नीचे दिए गए कमांड को चलाएं और परिणामों को http://localhost:6006/ पर देखें।
+
+!!! Example "उदाहरण"
+
+ === "CLI"
+ ```bash
+ tensorboard --logdir ultralytics/runs # ध्यान दें कि 'धावक' निर्देशिका के साथ बदलें
+ ```
+
+इससे टेंसरबोर्ड लोड होगा और यह आपके प्रशिक्षण लॉगों की सहेजी हुई निर्देशिका की ओर दिशानिर्देश करेगा।
+
+लॉगर स्थापित करने के बाद, आप अपने चयनित प्लेटफ़ॉर्म में स्वचालित रूप से रूपांतरण मात्राओं को अद्यतन करने के लिए प्रशिक्षणीय कोड जारी रख सकते हैं, और आपको इन लॉगों का उपयोग करके अपने मॉडल के प्रदर्शन का मूल्यांकन कर सकते हैं चाहे यह मॉडलों के प्रदर्शन के समय, विभिन्न मॉडलों का तुलनात्मक मूल्यांकन, और सुधार करने का पहचान करने के लिए।
diff --git a/docs/hi/modes/val.md b/docs/hi/modes/val.md
new file mode 100644
index 0000000000..8880f820ae
--- /dev/null
+++ b/docs/hi/modes/val.md
@@ -0,0 +1,86 @@
+---
+comments: true
+description: YOLOv8 मॉडलों की मान्यता सत्यापन के लिए गाइड। यहाँ जानें कि कैसे पायथन और CLI उदाहरणों के साथ परीक्षण सेटिंग्स और मापों का उपयोग करके अपने YOLO मॉडलों के प्रदर्शन का मूल्यांकन करें।
+keywords: Ultralytics, YOLO दस्तावेज़, YOLOv8, मान्यता, मॉडल मूल्यांकन, हाइपरपैरामीटर, सटीकता, माप, पायथन, सीएलआई
+---
+
+# Ultralytics YOLO के साथ मॉडल मान्यता
+
+
+
+## परिचय
+
+मान्यता मशीन लर्निंग पाइपलाइन में एक महत्वपूर्ण चरण है, जो आपको अपने प्रशिक्षित मॉडलों की गुणवत्ता का मूल्यांकन करने की अनुमति देता है। Ultralytics YOLOv8 में Val मोड बहुत सारे टूल्स और मापों का प्रयोग करके आपके ऑब्जेक्ट डिटेक्शन मॉडलों के प्रदर्शन का मूल्यांकन करने के लिए है। यह गाइड योग्यता और विश्वसनीयता दोनों सुनिश्चित करने के लिए Val मोड का सविस्तर संसाधन के रूप में काम आता है।
+
+## Ultralytics YOLO के साथ मान्यता करने के फायदे
+
+यहाँ योलोवी8 के Val मोड का उपयोग करने के फायदे हैं:
+
+- **सटीकता:** अपने मॉडल को पूरी तरह से मूल्यांकित करने के लिए mAP50, mAP75, और mAP50-95 जैसे टिकाऊ मापों को प्राप्त करें।
+- **सुविधा:** मूल्यांकन प्रक्रिया को सरल बनाने के लिए ट्रेनिंग सेटिंग्स को याद करने वाली इनबिल्ट सुविधा का उपयोग करें।
+- **लचीलापन:** अपने मॉडल को एक ही या अलग डेटासेट और छवि आकार के साथ मान्यता दें।
+- **हाइपरपैरामीटर ट्यूनिंग:** मूल्यांकन मापों का उपयोग करके अपने मॉडल को बेहतर प्रदर्शन के लिए समायोजित करें।
+
+### Val मोड की मुख्य विशेषताएं
+
+ये हैं YOLOv8 के Val मोड द्वारा प्रदान की जाने वाली महत्वपूर्ण कार्यक्षमताएं:
+
+- **स्वत: सेटिंग्स:** मॉडल योग्यता के लिए अपने प्रशिक्षण समायोजनों को स्वतः याद रखते हैं।
+- **बहुमान्यता समर्थन:** विभिन्न सटीकता मापों के आधार पर अपने मॉडल की मूल्यांकन करें।
+- **CLI और पायथन एपीआई:** मान्यता के लिए CLI या पायथन एपीआई में से एक का चयन करें।
+- **डेटा सम्पर्कता:** कोकोविवक प्रशिक्षण चरण में उपयोग की जाने वाली डेटासेट के साथ सहजता से काम करता है।
+
+!!! Tip "टिप"
+
+ * YOLOv8 मॉडल अपने प्रशिक्षण सेटिंग्स को स्वतः याद रखते हैं, इसलिए आप केवल `yolo val model=yolov8n.pt` या `model('yolov8n.pt').val()` द्वारा सरलतापूर्वक एक मॉडल को समान छवि आकार के साथ और मूल डेटासेट पर मान्यता दे सकते हैं।
+
+## उपयोग के उदाहरण
+
+COCO128 डेटासेट पर प्रशिक्षित YOLOv8n मॉडल की सटीकता मान्यांकन करें। `model` को विद्यमान ट्रेनिंग `data` और तर्क बने रहते हैं, इसलिए कोई तर्क पास कराने की आवश्यकता नहीं है। पूरी सूची निर्यात तर्कों के लिए नीचे देखें।
+
+!!! Example "उदाहरण"
+
+ === "पायथन"
+
+ ```python
+ from ultralytics import YOLO
+
+ # मॉडल लोड करें
+ model = YOLO('yolov8n.pt') # एक आधिकारिक मॉडल लोड करें
+ model = YOLO('path/to/best.pt') # एक कस्टम मॉडल लोड करें
+
+ # मॉडल को मान्यांकन करें
+ metrics = model.val() # कोई तर्क आवश्यक नहीं होते हैं, डेटासेट और सेटिंग्स याद रखे जाते हैं
+ metrics.box.map # map50-95
+ metrics.box.map50 # map50
+ metrics.box.map75 # map75
+ metrics.box.maps # हर श्रेणी के map50-95 से बना एक सूची
+ ```
+ === "CLI"
+
+ ```bash
+ yolo detect val model=yolov8n.pt # आधिकारिक मॉडल को मान्यांकन करें
+ yolo detect val model=path/to/best.pt # कस्टम मॉडल को मान्यांकन करें
+ ```
+
+## तर्क
+
+YOLO मॉडल के लिए मान्यांकन सेटिंग्स निम्नलिखित होते हैं: हाइपरपैरामीटर और विन्यास जैसे, जो मॉडल की मान्यता को मूल्यांकित करने के लिए उपयोग होते हैं। ये सेटिंग्स मॉडल के प्रदर्शन, गति, और सटीकता पर प्रभाव डाल सकती हैं। कुछ आम YOLO मान्यांकन सेटिंग्स में दाल-दालत, ट्रेनिंग के दौरान मान्यांकन कब किया जाता है और मान्यांकन के लिए उपयोग किए जाने वाले माप शामिल हैं। मान्यांकन प्रक्रिया को प्रभावित कर सकने वाले अन्य कारकों में मान्यांकन डेटासेट का आकार और संरचना और मॉडल का विशेष कार्य शामिल हैं। ओवरफिटिंग का पता लगाने और रोकने के लिए इन सेटिंग्स को सावधानीपूर्वक समायोजित और प्रयोग करना महत्वपूर्ण है।
+
+| कुंजी | मान | विवरण |
+|---------------|---------|------------------------------------------------------------------------------------|
+| `data` | `None` | डेटा फ़ाइल का पथ, जैसे की coco128.yaml |
+| `imgsz` | `640` | प्रारूपिक छवि का आकार एक पूर्णांक के रूप में |
+| `batch` | `16` | प्रति बैच छवि की संख्या (-1 for AutoBatch) |
+| `save_json` | `False` | परिणाम JSON फ़ाइल में सहेजें |
+| `save_hybrid` | `False` | प्रकारों के हाइब्रिड संस्करण को सहेजें (लेबल + अतिरिक्त पूर्वानुमान) |
+| `conf` | `0.001` | डिटेक्शन के लिए वस्तु का विश्वसनीयता थ्रेशहोल्ड |
+| `iou` | `0.6` | संयोग/संधि (IoU) के लिए थ्रेशहोल्ड डाकघर |
+| `max_det` | `300` | प्रति छवि के लिए अधिकतम निकासी संख्या |
+| `half` | `True` | अर्धसरलता (FP16) का उपयोग करें |
+| `device` | `None` | चलाएं के लिए युक्ति, उदाहरण के लिए cuda device=0/1/2/3 या device=cpu |
+| `dnn` | `False` | ओएनएनएक्स संज्ञानात्मक के लिए ओपेंसीवी डीएनएन का उपयोग करें |
+| `plots` | `False` | प्रशिक्षण के दौरान चित्रितियाँ दिखाएं |
+| `rect` | `False` | न्यूनतम पैडिंग के लिए हर बैच को संकलित आयताकारक विमान करें |
+| `split` | `val` | मान्यांकन के लिए उपयोग की जाने वाली डेटासेट स्प्लिट, जैसे 'val', 'test' या 'train' |
+|
diff --git a/docs/hi/quickstart.md b/docs/hi/quickstart.md
new file mode 100644
index 0000000000..e1af65a071
--- /dev/null
+++ b/docs/hi/quickstart.md
@@ -0,0 +1,327 @@
+---
+comments: true
+description: Ultralytics को स्थापित करने के विभिन्न तरीकों के बारे में जानें। Ultralytics को pip, conda, git और Docker का उपयोग करके स्थापित करें। Ultralytics का उपयोग कमांड लाइन इंटरफेस या अपनी Python परियोजनाओं के भीतर करना सीखें।
+keywords: Ultralytics स्थापना, pip install Ultralytics, Docker install Ultralytics, Ultralytics कमांड लाइन इंटरफेस, Ultralytics Python इंटरफेस
+---
+
+## Ultralytics स्थापित करें
+
+Ultralytics ने pip, conda और Docker सहित कई स्थापना विधियाँ प्रदान की हैं। नवीनतम स्थिर संस्करण के लिए `ultralytics` pip पैकेज का उपयोग करके YOLOv8 स्थापित करें या सबसे अद्यतित संस्करण के लिए [Ultralytics GitHub repository](https://github.com/ultralytics/ultralytics) क्लोन करें। Docker का उपयोग करके, स्थानीय स्थापना से बच कर, एक छोटे जगह में पैकेज के नए संस्करण का निष्पादन किया जा सकता है।
+
+!!! Note
+
+ 🚧 हमारे बहुभाषीय दस्तावेज़ीकरण की वर्तमान में निर्माणाधीन है और हम उसे सुधारने के लिए कठिनताओं पर काम कर रहे हैं। आपके धैर्य के लिए धन्यवाद! 🙏
+
+!!! Example "स्थापित करें"
+
+ === "Pip स्थापित करें (अनुशंसित)"
+ यदि आपके पास पिछले संस्करण का स्थापना है, तो पिप का उपयोग करके `ultralytics` पैकेज को स्थापित करने के लिए `pip install -U ultralytics` कमांड चलाएं। `ultralytics` पैकेज के बारे में अधिक विवरण के लिए [Python Package Index (PyPI)](https://pypi.org/project/ultralytics/) पर जाएं।
+
+ [![PyPI version](https://badge.fury.io/py/ultralytics.svg)](https://badge.fury.io/py/ultralytics) [![Downloads](https://static.pepy.tech/badge/ultralytics)](https://pepy.tech/project/ultralytics)
+
+ ```bash
+ # PyPI से ultralytics पैकेज का स्थापना करें
+ pip install ultralytics
+ ```
+
+ आप इसे सीधे [GitHub repository](https://github.com/ultralytics/ultralytics) से भी स्थापित कर सकते हैं। यह अद्यतन संस्करण प्राप्त करना चाहते हैं तो यह सर्वोत्तम हो सकता है। इसके लिए अपने सिस्टम पर गिट कमांड-लाइन टूल स्थापित होना चाहिए। `@main` अपदेश की `main` शाखा को स्थापित करता है और इसे दूसरी शाखा, उदा. `@my-branch`, में संशोधित किया जा सकता है, या पूर्णतः हटा दिया जा सकता है, ताकि यह डिफ़ॉल्ट रूप से `main` शाखा को ले जाए।
+
+ ```bash
+ # GitHub से ultralytics पैकेज का स्थापना करें
+ pip install git+https://github.com/ultralytics/ultralytics.git@main
+ ```
+
+
+ === "Conda स्थापित करें"
+ स्थापना के लिए pip के बदले Conda एक वैकल्पिक पैकेज प्रबंधक है जिसे आप स्थापना के लिए उपयोग कर सकते हैं। किसी भी जानकारी के लिए [Anaconda की मुख्य साइट](https://anaconda.org/conda-forge/ultralytics) पर जाएं। कंडा पैकेज की अद्यतन और संसाधन रिपो के लिए [यहां](https://github.com/conda-forge/ultralytics-feedstock/) देखें।
+
+
+ [![Conda Recipe](https://img.shields.io/badge/recipe-ultralytics-green.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda Downloads](https://img.shields.io/conda/dn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda Version](https://img.shields.io/conda/vn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda Platforms](https://img.shields.io/conda/pn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics)
+
+ ```bash
+ # conda का उपयोग करके ultralytics पैकेज का स्थापना करें
+ conda install -c conda-forge ultralytics
+ ```
+
+ !!! Note
+
+ यदि आप CUDA परिवेश में स्थापित कर रहे हैं तो सर्वोत्तम अनुशंसा है कि आप कमांड-लाइन पर `pytorch` और `pytorch-cuda` स्थापित करने के लिए कमांड एक साथ इंस्टॉल करें ताकि कोण्डा पैकेज प्रबंधक को कोई भी टकराव सुलझाने के लिए अनुमति मिले, या फिर जरूरत पड़ने पर CPU-विशिष्ट `pytorch` पैकेज को CPU-विशिष्ट होने वाले `pytorch-cuda` पैकेज को अधिरोहित करने की अनुमति दें।
+ ```bash
+ # conda का उपयोग करके सभी पैकेजों को एक साथ स्थापित करें
+ conda install -c pytorch -c nvidia -c conda-forge pytorch torchvision pytorch-cuda=11.8 ultralytics
+ ```
+
+ ### Conda Docker इमेज
+
+ Ultralytics Conda Docker इमेज [DockerHub](https://hub.docker.com/r/ultralytics/ultralytics) से उपलब्ध हैं। ये इमेजेज [Miniconda3](https://docs.conda.io/projects/miniconda/en/latest/) पर आधारित हैं और `ultralytics` का उपयोग Conda पर्यावरण में करने के लिए एक सरल तरीका है।
+
+ ```bash
+ # रूपरेखा नाम को एक चर के रूप में सेट करें
+ t=ultralytics/ultralytics:latest-conda
+
+ # Docker Hub से नवीनतम ultralytics इमेज को पुल करें
+ sudo docker pull $t
+
+ # जीपीयू समर्थन वाले कंटेनर में ultralytics इमेज चलाएं
+ sudo docker run -it --ipc=host --gpus all $t # सभी जीपीयू
+ sudo docker run -it --ipc=host --gpus '"device=2,3"' $t # जीपीयू द्वारा निर्दिष्ट करें
+ ```
+
+ === "Git क्लोन"
+ यदि आप विकास में योगदान करने में रुचि रखते हैं या नवीनतम स्रोत कोड के साथ प्रयोग करने की इच्छा रखते हैं, तो `ultralytics` रिपॉजिटरी क्लोन करें। क्लोनिंग के बाद, उस निर्दिष्टित संदर्भ में नेविगेट करें और पैकेज को पहचानने के लिए pip का उपयोग करते हुए संगठनात्मक मोड `-e` के साथ पैकेज स्थापित करें।
+ ```bash
+ # ultralytics रिपॉजिटरी क्लोन करें
+ git clone https://github.com/ultralytics/ultralytics
+
+ # क्लोन की गई निर्देशिका में नेविगेट करें
+ cd ultralytics
+
+ # विकास के लिए संगठनात्मक मोड में पैकेज स्थापित करें
+ pip install -e .
+ ```
+
+ === "Docker"
+
+ Docker का उपयोग करके `ultralytics` पैकेज का आसानी से निष्पादन करें और इसे रखरखाव में बेहद सुगम बनाएं, इस पैकेज का उपयोग करें, विभिन्न पर्यावरणों पर सतत और सुगम प्रदर्शन सुनिश्चित करने के लिए। [Docker Hub](https://hub.docker.com/r/ultralytics/ultralytics) से सत्यापित कार्यकारी वातावरण तक पहुंच के लिए Ultralytics 5 मुख्य समर्थित Docker इमेज उपलब्ध हैं, जो विभिन्न प्लेटफ़ॉर्म और उपयोग मामलों के लिए उच्च संगतता और प्रदार्थशीलता प्रदान करने के लिए डिज़ाइन किए गए हैं:
+
+
+
+ - **Dockerfile:** प्रशिक्षण के लिए अद्यतन संस्करण के लिए अनुशंसित GPU चित्र।
+ - **Dockerfile-arm64:** ARM64 वाणिज्यिकरण के लिए अनुकूलित, Raspberry Pi और अन्य ARM64 आधारित प्लेटफ़ॉर्म पर यातायात की अनुमति देता है।
+ - **Dockerfile-cpu:** GPU रहित पतला मॉडल, उबंटू आधारित योग्यता तक पुनर्निर्माण के लिए उपयुक्त है।
+ - **Dockerfile-jetson:** NVIDIA Jetson उपकरणों के लिए आदर्शों के आधार पर गीयू समर्थन मिलान, इन प्लेटफ़ॉर्मों के लिए अनुकूल यूपीयू समर्थन समेकित करता है।
+ - **Dockerfile-python:** केवल Python और आवश्यकता प्रतिस्थापित करने वाले न्यूनतम छवि, हल्के ऐप्स और विकास के लिए आदर्श छवि।
+ - **Dockerfile-conda:** Miniconda3 पर आधारित, Ultralytics पैकेज के कोण्डा स्थापना के साथ।
+
+ निम्नलिखित कमांडों का उपयोग करके नवीनतम छवि लाएँ और उसे निष्पादित करें:
+
+ ```bash
+ # छवि नाम को एक चर के रूप में सेट करें
+ t=ultralytics/ultralytics:latest
+
+ # Docker Hub से नवीनतम ultralytics छवि पुल करें
+ sudo docker pull $t
+
+ # जीपीयू समर्थन वाले कंटेनर में ultralytics छवि चलाएं
+ sudo docker run -it --ipc=host --gpus all $t # सभी जीपीयू
+ sudo docker run -it --ipc=host --gpus '"device=2,3"' $t # जीपीयू द्वारा निर्दिष्ट करें
+ ```
+
+ उपरोक्त कमांड ने एक Docker कंटेनर को एक्सेस करने के लिए उत्थान किया है। `-it` झंझटी एक प्रतीक TTY को निर्धारित करती है और stdin खुली रखती है, जिससे आप कंटेनर के साथ इंटरैक्ट कर सकते हैं। `--ipc=host` झंझटी IPC (Inter-Process Communication) नेमस्पेस को होस्ट पर सेट करता है, जो प्रक्रियाओं के बीच मेमोरी साझा करने के लिए आवश्यक होता है। `--gpus all` निर्दिष्ट जीपीयू कंटेनर के बीतर सभी उपलब्ध जीपीयू के लिए पहुंच सक्षम करता है, जो जीपीयू हस्तक्षेप आवश्यकता वाले कार्यों के लिए महत्वपूर्ण है।
+
+ ध्यान दें: कंटेनर में स्थिति में अपनी स्थानीय मशीन पर फ़ाइलों के साथ काम करने के लिए Docker वॉल्यूम का उपयोग करें:
+
+ ```bash
+ # स्थानीय निर्देशिका को कंटेनर में निर्देशिका में माउंट करें
+ sudo docker run -it --ipc=host --gpus all -v /path/on/host:/path/in/container $t
+ ```
+
+ `/path/on/host` को अपनी स्थानीय मशीन पर निर्देशिका पथ के साथ बदलें और `/path/in/container` को कंटेनर में योग्यता तक पथ बदलें जिससे पहुंच मिल सके।
+
+ पूर्ण Docker उपयोग के लिए, आप [Ultralytics Docker मार्गदर्शिका](https://docs.ultralytics.com/guides/docker-quickstart/) के अन्वेषण कर सकते हैं।
+
+`ultralytics` के लिए सभी आवश्यकताओं की सूची के लिए `ultralytics` [requirements.txt](https://github.com/ultralytics/ultralytics/blob/main/requirements.txt) फ़ाइल देखें। ध्यान दें कि उपरोक्त सभी उदाहरणों में सभी आवश्यकताएं स्थापित होती हैं।
+
+
+
+!!! Tip "सुझाव"
+
+ ऑपरेटिंग सिस्टम और CUDA आवश्यकताओं के अनुसार PyTorch आवश्यकताएं अलग-अलग हो सकती हैं, इसलिए अनुशंसा की जाती है कि पहले PyTorch स्थापित करने के लिए इंस्ट्रक्शंस पर जाएं। [https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally) पर उपयोग के बारे में अधिक जानकारी के लिए।
+
+
+
+
+
+## CLI के साथ Ultralytics का उपयोग करें
+
+Ultralytics कमांड लाइन इंटरफ़ेस (CLI) आसान एकल-पंक्ति कमांड के लिए संक्षेप में होसला अद्यतित करता है, पायथन पर्यावरण की ज़रूरत के बिना। CLI कोई अनुकूलन या पायथन कोड की आवश्यकता नहीं होती है। आप केवल `yolo` कमांड के साथ टर्मिनल से सभी कार्यों को चला सकते हैं। CLI से YOLOv8 का उपयोग करने के बारे में और अधिक जानने के लिए [CLI Guide](../usage/cli.md) देखें।
+
+!!! Example
+
+ === "संयोजन"
+ Ultralytics `yolo` कमांड का उपयोग निम्नलिखित प्रारूप का उपयोग करता है:
+ ```bash
+ yolo टास्क मोड ARGS
+ ```
+
+ - `टास्क` (वैकल्पिक) इनमें से एक है ([खोजो](tasks/detect.md), [खंड](tasks/segment.md), [वर्गीकरण करो](tasks/classify.md), [स्थिति](tasks/pose.md))
+ - `मोड` (आवश्यक) इनमें से एक है ([प्रशिक्षण](modes/train.md), [मान्य](modes/val.md), [पूर्वानुमान](modes/predict.md), [निर्यात](modes/export.md), [ट्रैक](modes/track.md))
+ - `ARGS` (वैकल्पिक) `imgsz=640` जैसे `arg=मान` जो डिफ़ॉल्ट को ओवरराइड करते हैं।
+
+ सभी `ARGS` को पूर्ण [Configuration Guide](../usage/cfg.md) या `yolo cfg` CLI कमांड के साथ देखें।
+
+ === "प्रशिक्षण"
+ प्रारंभिक शिक्षण और language के साथ 10 एपोक्स के लिए एक डिटेक्शन मॉडल प्रशिक्षित करें, जहां
+ इंगिती शिक्षण दर 0.01 है
+ ```bash
+ yolo ट्रेन data=coco128.yaml model=yolov8n.pt epochs=10 lr0=0.01
+ ```
+
+ === "पूर्वानुमान"
+ पूर्व-प्रशिक्षित सेगमेंटेशन मॉडल का उपयोग करके YouTube वीडियो की भविष्यवाणी करें
+ छवि आकार 320:
+ ```bash
+ yolo पूर्वानुमान model=yolov8n-seg.pt स्रोत='https://youtu.be/LNwODJXcvt4' imgsz=320
+ ```
+
+ === "मान्य करो"
+ एक पूर्व-प्रशिक्षित डिटेक्शन मॉडल की मान्यता वाली प्रमाणित करें और इमेज का आकार 640 के बैच-आकार 1 के साथ देखें:
+ ```bash
+ yolo मान्य model=yolov8n.pt data=coco128.yaml batch=1 imgsz=640
+ ```
+
+ === "निर्यात करें"
+ एक YOLOv8n वर्गीकरण मॉडल को ONNX प्रारूप में निर्यात करें, 224x224 के आकार पर छवि (कोई टास्क आवश्यक नहीं है)
+ ```bash
+ yolo निर्यात model=yolov8n-cls.pt format=onnx imgsz=224,128
+ ```
+
+ === "विशेष"
+ संस्पेष्ट कमांडों को चलाएं ताकि संस्करण, सेटिंग देखें, चेक करें और अधिक देखें:
+ ```bash
+ yolo help
+ yolo checks
+ yolo version
+ yolo settings
+ yolo copy-cfg
+ yolo cfg
+ ```
+
+!!! Warning "चेतावनी"
+
+ ताकि दुविधा न हो, तज़्ज़ा सेटिंग को `arg=val` जोड़े के रूप में पार करना होगा, जिन्हें `=` रेखा द्वारा विभाजित किया जाता है और जोड़ों के बीच अंतरित होता है। `--` तर्क-पूर्वक अंटीरे शब्द या `,` अंतराल द्वारा तर्कों का उपयोग न करें।
+
+ - `yolo predict model=yolov8n.pt imgsz=640 conf=0.25` ✅
+ - `yolo predict model yolov8n.pt imgsz 640 conf 0.25` ❌ (अभाव `=`)
+ - `yolo predict model=yolov8n.pt, imgsz=640, conf=0.25` ❌ (`,` उपयोग न करें)
+ - `yolo predict --model yolov8n.pt --imgsz 640 --conf 0.25` ❌ (`--` उपयोग न करें)
+
+एकेन्द्रीय योग्यताएँ [Configuration Guide](../usage/cfg.md) या `yolo cfg` CLI कमांड के साथ देखें।
+
+## Python के साथ Ultralytics का उपयोग करें
+
+YOLOv8 का Python इंटरफ़ेस आपकी Python परियोजनाओं में अंकित मिलने के लिए एक आसान तकनीक प्रदान करता है, जिसे हमारे पास शामिल करना आसान हो जाता है। उपयोगकर्ताओं को उनके परियोजनाओं में आपातकालीन पहुंच, चलाने और मॉडल के आउटपुट की प्रसंस्करण करने की आसानी के साथ प्रश्नोत्तरी, खंड, और वर्गीकरण कार्यों के लिए सुविधाजनक मूल्य प्रदान करता है। इस तकनीक के साथ, उपयोगकर्ताओं के लिए यह अद्वितीय साधन है जो अपनी Python परियोजनाओं में इन गुणों को शामिल करने की इच्छा रखते हैं।
+
+उदाहरण के लिए, उपयोगकर्ता संख्या गिनती के लिए कुछ-कुछ तारणी की योजना में मॉडल को लोड करके उसे प्रशिक्षित कर सकते हैं, इसका मूल्यांकन समाप्त कर सकते हैं और यदि आवश्यक हो, उसे ONNX प्रारूप में निर्यात कर सकते हैं। अपनी Python परियोजनाओं में YOLOv8 का उपयोग करने के बारे में और अधिक जानने के लिए [Python Guide](../usage/python.md) देखें।
+
+!!! Example
+
+ ```python
+ from ultralytics import YOLO
+
+ # पूरी नई YOLO मॉडल बनाएँ
+ model = YOLO('yolov8n.yaml')
+
+ # प्रशिक्षित YOLO मॉडल लोड करें (प्रशिक्षण के लिए अनुशंसित है)
+ model = YOLO('yolov8n.pt')
+
+ # 3 एपोक्स के लिए "coco128.yaml" डेटासेट का उपयोग करके मॉडल को प्रशिक्षित करें
+ results = model.train(data='coco128.yaml', epochs=3)
+
+ # मॉडल के द्वारा मान्यता वाले सेट पर प्रदर्शन करें
+ results = model.val()
+
+ # मॉडल को उपयोग करके छवि पर डिटेक्शन करें
+ results = model('https://ultralytics.com/images/bus.jpg')
+
+ # मॉडल को ONNX प्रारूप में निर्यात करें
+ success = model.export(format='onnx')
+ ```
+
+[Python Guide](../usage/python.md){.md-button .md-button--primary}
+
+## Ultralytics सेटिंग्स
+
+Ultralytics लाइब्रेरी सेटिंग्स प्रबंधन प्रणाली प्रदान करती है ताकि आप अपने प्रयोगों पर फाइन-ग्रेन्ड नियंत्रण बनाए रख सकें। `ultralytics.utils` में स्थित `SettingsManager` का उपयोग करके उपयोगकर्ता अपनी सेटिंग्स तक पहुंच करके उन्हें पढ़ और बदल सकते हैं। इन्हें पायथन पर्यावरण के भीतर सीधे देखने और संशोधित करने के लिए, या CLI (कमांड लाइन इंटरफ़ेस) के माध्यम से किया जा सकता है।
+
+### सेटिंग्स का गणना
+
+अपनी सेटिंग्स के मौजूदा विन्यास की ओरदारी करने के लिए आप उन्हें सीधे देख सकते हैं:
+
+!!! Example "सेटिंग्स देखें"
+
+ === "पायथन"
+ आप PyTorch से `ultralytics` मॉड्यूल में `सेटिंग्स` ऑब्जेक्ट को आयात करके अपनी सेटिंग्स देख सकते हैं। `settings` ऑब्जेक्ट पर प्रिंट और रिटर्न सेटिंग्स के लिए निम्नलिखित कमांडों का उपयोग करें:
+ ```python
+ from ultralytics import settings
+
+ # सभी सेटिंग्स देखें
+ print(settings)
+
+ # एक विशेष सेटिंग प्राप्त करें
+ value = settings['runs_dir']
+ ```
+
+ === "CLI"
+ यदि आप प्राथमिकताएँ लेते हैं CLI का उपयोग करना पसंद करते हैं, तो निम्नलिखित कमांड के माध्यम से अपनी सेटिंग्स की जांच कर सकते हैं:
+ ```bash
+ yolo settings
+ ```
+
+### सेटिंग्स संशोधित करना
+
+Ultralytics के सेटिंग्स को संशोधित करना आसान है। बदलावों को निम्न तरीकों से किया जा सकता है:
+
+!!! Example "सेटिंग्स अपडेट करें"
+
+ === "पायथन"
+ पायथन पर्यावरण के भीतर, अपनी सेटिंग्स पर `अपडेट` विधि को बुलाकर अपनी सेटिंग्स को बदल सकते हैं:
+ ```python
+ from ultralytics import settings
+
+ # एक सेटिंग अपडेट करें
+ settings.update({'runs_dir': '/path/to/runs'})
+
+ # एकाधिक सेटिंग अपडेट करें
+ settings.update({'runs_dir': '/path/to/runs', 'tensorboard': False})
+
+ # डिफ़ॉल्ट मान में सेटिंग रीसेट करें
+ settings.reset()
+ ```
+
+ === "CLI"
+ यदि आप कमांड लाइन इंटरफ़ेस पर ध्यान देते हैं, तो निम्नलिखित कमांड के माध्यम से अपनी सेटिंग्स को संशोधित कर सकते हैं:
+ ```bash
+ # एक सेटिंग अपडेट करें
+ yolo settings runs_dir='/path/to/runs'
+
+ # एकाधिक सेटिंग अपडेट करें
+ yolo settings runs_dir='/path/to/runs' tensorboard=False
+
+ # डिफ़ॉल्ट मान में सेटिंग्स को बराबरी में रीसेट करें
+ yolo settings reset
+ ```
+
+### सेटिंग्स को समझना
+
+निम्नलिखित टेबल सेटिंग्स का अवलोकन प्रदान करता है, जबकि प्रति सेटिंग्स के लिए उदाहरण मान, डेटा प्रकार और संक्षेप में विवरण दिया गया है।
+
+| नाम | उदाहरण मान | डेटा प्रकार | विवरण |
+|--------------------|-----------------------|-------------|----------------------------------------------------------------------------------------------------------------------------|
+| `settings_version` | `'0.0.4'` | `str` | Ultralytics _settings_ संस्करण (Ultralytics [pip](https://pypi.org/project/ultralytics/) संस्करण से अलग होता है) |
+| `datasets_dir` | `'/path/to/datasets'` | `str` | डेटासेट को संग्रहीत करने वाली निर्देशिका | |
+| `weights_dir` | `'/path/to/weights'` | `str` | मॉडल वेट को संग्रहीत करने वाली निर्देशिका |
+| `runs_dir` | `'/path/to/runs'` | `str` | प्रयोग दौड़ को संग्रहीत करने वाली निर्देशिका |
+| `uuid` | `'a1b2c3d4'` | `str` | मौजूदा सेटिंग्स के लिए अद्वितीय पहचानकर्ता |
+| `sync` | `True` | `bool` | Ultralytics और दुविधा को HUB में समकालीन रखें |
+| `api_key` | `''` | `str` | Ultralytics HUB [API Key](https://hub.ultralytics.com/settings?tab=api+keys) |
+| `clearml` | `True` | `bool` | ClearML लॉगिंग का उपयोग करें |
+| `comet` | `True` | `bool` | यदि [Comet ML](https://bit.ly/yolov8-readme-comet) प्रयोग करें या नहीं experiment ट्रैकिंग और visualization |
+| `dvc` | `True` | `bool` | शोध और संस्करण नियंत्रण के लिए [DVC for experiment tracking](https://dvc.org/doc/dvclive/ml-frameworks/yolo) का उपयोग करें |
+| `hub` | `True` | `bool` | [Ultralytics HUB](https://hub.ultralytics.com) एकीकरण का उपयोग करें |
+| `mlflow` | `True` | `bool` | एक्सपेरिमेंट ट्रैकिंग के लिए MLFlow का उपयोग करें |
+| `neptune` | `True` | `bool` | एक्सपेरिमेंट ट्रैकिंग के लिए Neptune का उपयोग करें |
+| `raytune` | `True` | `bool` | hyperparameter tuning के लिए Ray Tune का उपयोग करें |
+| `tensorboard` | `True` | `bool` | विज़ुअलाइज़ेशन के लिए TensorBoard का उपयोग करें |
+| `wandb` | `True` | `bool` | Weights & Biases logging का उपयोग करें |
+
+जब आप अपने परियोजनाओं या अनुभागों के माध्यम से चलते होने के द्वारा यात्रा करते हैं, तो इन सेटिंग्स पर सुधार करने के लिए लौटें।
diff --git a/docs/hi/tasks/classify.md b/docs/hi/tasks/classify.md
new file mode 100644
index 0000000000..e6ed1455db
--- /dev/null
+++ b/docs/hi/tasks/classify.md
@@ -0,0 +1,172 @@
+---
+comments: true
+description: YOLOv8 Classify मॉडल्स के बारे में जानें इमेज क्लासिफिकेशन के लिए। प्रीट्रेन्ड माॅडेल्स की सूची और ट्रेन, वेलिडेट, प्रेडिक्ट और एक्सपोर्ट माॅडेल्स के बारे में विस्तृत जानकारी प्राप्त करें।
+keywords: Ultralytics, YOLOv8, इमेज क्लासिफिकेशन, प्रीट्रेन्ड माॅडेल्स, YOLOv8n-cls, ट्रेन, वेलिडेट, प्रेडिक्ट, माॅडेल एक्सपोर्ट
+---
+
+# इमेज क्लासिफिकेशन
+
+
+
+इमेज क्लासिफिकेशन तीन कार्यों में से सबसे सरल है और पूरी तस्वीर को एक पूर्वनिर्धारित कक्षा में वर्गीकृत करना शामिल होता है।
+
+इमेज क्लासिफायर का आउटपुट एक एकल क्लास लेबल और एक विश्वास प्रामाणिकता स्कोर होता है। इमेज क्लासिफिकेशन उपयोगी होता है जब आपको केवल इसे जानने की जरूरत होती है कि एक इमेज किस कक्षा में सम्मिलित है और आपको नहीं पता होना चाहिए कि उस कक्षा के वस्त्राणु किस स्थान पर स्थित हैं या उनकी सटीक आकृति क्या है।
+
+!!! Tip "टिप"
+
+ YOLOv8 Classify मॉडेल्स में `-cls` संकेतक प्रयोग किया जाता है, जैसे `yolov8n-cls.pt` और इन्हें पूर्व प्रशिक्षित किया जाता है [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) पर।
+
+## [मॉडेल](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8)
+
+यहां YOLOv8 पूर्व प्रशिक्षित Classify मॉडेल दिखाए गए हैं। Detect, Segment, और Pose मॉडेल्स [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) डेटासेट पर पूर्व प्रशिक्षित होते हैं, जबकि Classify मॉडेल [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) डेटासेट पर पूर्व प्रशिक्षित होते हैं।
+
+[मॉडेल](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) डाउनलोड पहली बार उपयोग पर ताजगी Ultralytics [प्रकाशन](https://github.com/ultralytics/assets/releases) से स्वतः होता है।
+
+| मॉडेल | आकार (पिक्सेल) | तालिका शीर्ष 1 | तालिका शीर्ष 5 | स्पीड सीपीयू ONNX (मि. सेकंड) | स्पीड A100 TensorRT (मि. सेकंड) | पैरामीटर (M) | FLOPs (B) at 640 |
+|----------------------------------------------------------------------------------------------|------------------------|------------------------|------------------------|------------------------------------------|--------------------------------------------|----------------------|--------------------------|
+| [YOLOv8n-cls](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8n-cls.pt) | 224 | 66.6 | 87.0 | 12.9 | 0.31 | 2.7 | 4.3 |
+| [YOLOv8s-cls](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8s-cls.pt) | 224 | 72.3 | 91.1 | 23.4 | 0.35 | 6.4 | 13.5 |
+| [YOLOv8m-cls](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8m-cls.pt) | 224 | 76.4 | 93.2 | 85.4 | 0.62 | 17.0 | 42.7 |
+| [YOLOv8l-cls](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8l-cls.pt) | 224 | 78.0 | 94.1 | 163.0 | 0.87 | 37.5 | 99.7 |
+| [YOLOv8x-cls](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8x-cls.pt) | 224 | 78.4 | 94.3 | 232.0 | 1.01 | 57.4 | 154.8 |
+
+- **तालिका** मॉडेलों की ImageNet डेटासेट मान्यीकरण सेट पर सटीकता है।
+ `yolo val classify data=path/to/ImageNet device=0` द्वारा पुनः उत्पन्न करें
+- **स्पीड** एक [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) इंस्टेंस का उपयोग करके ImageNet के वैल छवियों पर औसत जोड़ी गई है।
+ `yolo val classify data=path/to/ImageNet batch=1 device=0|cpu` द्वारा पुनः उत्पन्न करें
+
+## ट्रेन
+
+100 एपॉक्स के लिए MNIST160 डेटासेट पर YOLOv8n-cls को 64 इमेज आकार पर रिक्तियों के साथ ट्रेन करें। उपलब्ध विकल्पों की पूरी सूची के लिए [Configuration](../../usage/cfg.md) पेज देखें।
+
+!!! Example "उदाहरण"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # एक मॉडेल लोड करें
+ model = YOLO('yolov8n-cls.yaml') # YAML से एक नया मॉडेल बनाएं
+ model = YOLO('yolov8n-cls.pt') # पूर्व प्रशिक्षित मॉडेल लोड करें (ट्रेनिंग के लिए सिफारिश की जाती है)
+ model = YOLO('yolov8n-cls.yaml').load('yolov8n-cls.pt') # YAML से बनाएँ और भार ट्रांसफर करें
+
+ # मॉडेल ट्रेन करें
+ results = model.train(data='mnist160', epochs=100, imgsz=64)
+ ```
+
+ === "CLI"
+
+ ```bash
+ # YAML से नया मॉडेल बनाएं और अच्छे से प्रशिक्षण शुरू करें
+ yolo classify train data=mnist160 model=yolov8n-cls.yaml epochs=100 imgsz=64
+
+ # पूर्व प्रशिक्षित *.pt मॉडेल से प्रशिक्षण शुरू करें
+ yolo classify train data=mnist160 model=yolov8n-cls.pt epochs=100 imgsz=64
+
+ # YAML से नया मॉडेल बनाएँ, उसमें पूर्व प्रशिक्षित भार भी स्थानांतरित करें और प्रशिक्षण शुरू करें
+ yolo classify train data=mnist160 model=yolov8n-cls.yaml pretrained=yolov8n-cls.pt epochs=100 imgsz=64
+ ```
+
+### डेटासेट प्रारूप
+
+YOLO क्लासिफिकेशन डेटासेट प्रारूप [Dataset Guide](../../datasets/classify/index.md) में विस्तृत रूप में दिया गया है।
+
+## वेलिडेट
+
+MNIST160 डेटासेट पर प्रशिक्षित YOLOv8n-cls मॉडेल की सटीकता का मूल्यांकन करें। कोई आर्गुमेंट चक्रवात नहीं करना चाहिए क्योंकि `मॉडेल` अपने प्रशिक्षण यथार्थ डेटा और आर्गुमेंट्स को स्मरण रखता है।
+
+!!! Example "उदाहरण"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # एक मॉडेल लोड करें
+ model = YOLO('yolov8n-cls.pt') # एक आधिकारिक मॉडेल लोड करें
+ model = YOLO('path/to/best.pt') # एक स्वचालित मॉडेल लोड करें
+
+ # मॉडेल का मूल्यांकन करें
+ metrics = model.val() # कोई आर्गुमेंट आवश्यक नहीं हैं, डेटासेट और सेटिंग्स याद रखे जाते हैं
+ metrics.top1 # शीर्ष1 सटीकता
+ metrics.top5 # शीर्ष5 सटीकता
+ ```
+ === "CLI"
+
+ ```bash
+ yolo classify val model=yolov8n-cls.pt # आधिकारिक मॉडेल का मूल्यांकन करें
+ yolo classify val model=path/to/best.pt # कस्टम मॉडेल का मूल्यांकन करें
+ ```
+
+## प्रेडिक्ट
+
+प्रशिक्षित YOLOv8n-cls मॉडेल का उपयोग तस्वीरों पर पूर्वानुमान चलाने के लिए करें।
+
+!!! Example "उदाहरण"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # मॉडेल लोड करें
+ model = YOLO('yolov8n-cls.pt') # एक आधिकारिक मॉडेल लोड करें
+ model = YOLO('path/to/best.pt') # एक स्वचालित मॉडेल लोड करें
+
+ # मॉडेल के साथ पूर्वानुमान करें
+ results = model('https://ultralytics.com/images/bus.jpg') # एक इमेज पर पूर्वानुमान करें
+ ```
+ === "CLI"
+
+ ```bash
+ yolo classify predict model=yolov8n-cls.pt source='https://ultralytics.com/images/bus.jpg' # आधिकारिक मॉडेल के साथ पूर्वानुमान करें
+ yolo classify predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # कस्टम मॉडेल के साथ पूर्वानुमान करें
+ ```
+
+पूर्वानुमान पूरा होने के बाद निर्यात को सीधे पूर्वानुमानित मॉडेल पर लागू कर सकते हैं, जैसे `yolo predict model=yolov8n-cls.onnx`। एक्सपोर्ट पूर्ण होने के बाद, अपने मॉडेल के उपयोग के लिए आपको उपयोग उदाहरण दिखाए गए हैं।
+
+## एक्सपोर्ट
+
+YOLOv8n-cls मॉडल को ONNX, CoreML आदि जैसे विभिन्न प्रारूपों में निर्यात करें।
+
+!!! Example "उदाहरण"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # एक मॉडेल लोड करें
+ model = YOLO('yolov8n-cls.pt') # load an official model
+ model = YOLO('path/to/best.pt') # load a custom trained model
+
+ # मॉडेल को निर्यात करें
+ model.export(format='onnx')
+ ```
+ === "CLI"
+
+ ```bash
+ yolo export model=yolov8n-cls.pt format=onnx # export official model
+ yolo export model=path/to/best.pt format=onnx # export custom trained model
+ ```
+
+टेबल में उपलब्ध YOLOv8-cls निर्यात प्रारूप निम्नानुसार हैं। निर्यात पूरा होने के बाद आप सीधे निर्यात किए गए मॉडेल पर पूर्व-आश्रिताओं की तरह पूर्वानुमान या मूल्यांकन कर सकते हैं, जैसे `yolo predict model=yolov8n-cls.onnx`। उपयोग की उदाहरण आपके मॉडेल के लिए निर्यात पूरा होने के बाद दिखाए गए हैं।
+
+| प्रारूप | `format` आर्गुमेंट | मॉडेल | मेटाडेटा | आर्गुमेंट्स |
+|--------------------------------------------------------------------|--------------------|-------------------------------|----------|-----------------------------------------------------|
+| [PyTorch](https://pytorch.org/) | - | `yolov8n-cls.pt` | ✅ | - |
+| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-cls.torchscript` | ✅ | `imgsz`, `optimize` |
+| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-cls.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` |
+| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-cls_openvino_model/` | ✅ | `imgsz`, `half` |
+| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-cls.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` |
+| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-cls.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` |
+| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-cls_saved_model/` | ✅ | `imgsz`, `keras` |
+| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-cls.pb` | ❌ | `imgsz` |
+| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-cls.tflite` | ✅ | `imgsz`, `half`, `int8` |
+| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-cls_edgetpu.tflite` | ✅ | `imgsz` |
+| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-cls_web_model/` | ✅ | `imgsz` |
+| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-cls_paddle_model/` | ✅ | `imgsz` |
+| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-cls_ncnn_model/` | ✅ | `imgsz`, `half` |
+
+[Export](https://docs.ultralytics.com/modes/export/) पेज में `export` के पूरी विवरण देखें।
diff --git a/docs/hi/tasks/detect.md b/docs/hi/tasks/detect.md
new file mode 100644
index 0000000000..63d8f2bace
--- /dev/null
+++ b/docs/hi/tasks/detect.md
@@ -0,0 +1,186 @@
+---
+comments: true
+description: Ultralytics द्वारा YOLOv8 के आधिकारिक दस्तावेज़ीकरण। Various प्रारूपों में मॉडल को प्रशिक्षित, मान्य करें, निरुपित और निर्यात करने का कैसे करें सीखें। विस्तृत प्रदर्शन आँकड़े समेत।
+keywords: YOLOv8, Ultralytics, वस्तु पहचान, पूर्वप्रशिक्षित मॉडल, प्रशिक्षण, मान्यता, भविष्यवाणी, मॉडल निर्यात, COCO, ImageNet, PyTorch, ONNX, CoreML
+---
+
+# वस्तु पहचान
+
+
+
+वस्तु पहचान एक कार्य है जिसमें चित्र या वीडियो स्ट्रीम में वस्तुओं की स्थान और वर्ग की पहचान करने का समय शामिल होता है।
+
+वस्तु पहचान एक सेट होती है जिसमें वस्तुओं को घेरने वाले बाउंडिंग बॉक्स का पता लगाया जाता है, साथ ही प्रत्येक बॉक्स के लिए वर्ग लेबल और विश्वसनीयता स्कोर शामिल होते हैं। चित्र में हरी उड़ी रेस सामग्री डिटेक्ट करी, बांदर को डिटेक्ट करें. प्रतिस्थान से यह पता चलता है कि वस्तु कहाँ है या उसकी सटीक आकृति क्या है, परंतु कुछ तो हैं है।
+
+
+
+
+
+ देखें: पूर्व प्रशिक्षित Ultralytics YOLOv8 मॉडल के साथ वस्तु पहचान।
+
+
+
+!!! Tip "टिप"
+
+YOLOv8 Detect मॉडल डिफ़ॉल्ट YOLOv8 मॉडल हैं, यानी `yolov8n.pt` और [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) पर प्रशिक्षित हैं।
+
+## [मॉडल](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8)
+
+YOLOv8 पूर्व प्रशिक्षित Detect मॉडल यहाँ दिखाए गए हैं। Detect, Segment और Pose मॉडल [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) डेटासेट पर पूर्वप्रशिक्षित होते हैं, जबकि Classify मॉडल [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) डेटासेट पर पूर्वप्रशिक्षित होते हैं।
+
+[मॉडल](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) पहली बार इस्तेमाल पर Ultralytics के नवीनतम [प्रकाशन](https://github.com/ultralytics/assets/releases) से स्वचालित रूप से डाउनलोड होते हैं।
+
+| मॉडल | साइज़ (pixels) | mAPval 50-95 | स्पीडCPU ONNX (ms) | स्पीडA100 TensorRT (ms) | पैराम्स (M) | FLOPs (B) |
+|--------------------------------------------------------------------------------------|------------------------|----------------------|----------------------------|---------------------------------|---------------------|-------------------|
+| [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8n.pt) | 640 | 37.3 | 80.4 | 0.99 | 3.2 | 8.7 |
+| [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8s.pt) | 640 | 44.9 | 128.4 | 1.20 | 11.2 | 28.6 |
+| [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8m.pt) | 640 | 50.2 | 234.7 | 1.83 | 25.9 | 78.9 |
+| [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8l.pt) | 640 | 52.9 | 375.2 | 2.39 | 43.7 | 165.2 |
+| [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8x.pt) | 640 | 53.9 | 479.1 | 3.53 | 68.2 | 257.8 |
+
+- **mAPval** मान को [COCO val2017](http://cocodataset.org) डेटासेट पर सिंगल-मॉडेल सिंगल-स्केल के लिए है।
+ `yolo` द्वारा पुनः उत्पन्न करें `के द्वारा विन्यास करें yolo val data=coco.yaml device=0`
+- **Speed** [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/)
+ इंस्टेंस का उपयोग करके COCO val छवियों पर औसत लिया जाता है।
+ `yolo` के द्वारा पुनः उत्पन्न करें `के द्वारा विन्यास करें yolo val data=coco128.yaml batch=1 device=0|cpu`
+
+## प्रशिक्षण
+
+100 युगों में 640 आकृति वाले प्रशिक्षित योलोवी8 एन को COCO128 डेटासेट पर प्रशिक्षित करें। उपलब्ध तार्किक तर्कों की पूरी सूची के लिए [कॉन्फ़िगरेशन](../../usage/cfg.md) पृष्ठ देखें।
+
+!!! Example "उदाहरण"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # मॉडल लोड करें
+ model = YOLO('yolov8n.yaml') # YAML से नया मॉडल बनाएँ
+ model = YOLO('yolov8n.pt') # प्रशिक्षण के लिए सिफारिश किए गए पूर्वप्रशिक्षित मॉडल लोड करें
+ model = YOLO('yolov8n.yaml').load('yolov8n.pt') # YAML से बनाएं और भार ट्रांसफर करें और प्रशिक्षित करें
+
+ # मॉडल को प्रशिक्षित करें
+ results = model.train(data='coco128.yaml', epochs=100, imgsz=640)
+ ```
+ === "CLI"
+
+ ```bash
+ # YAML से एक नया मॉडल बनाकर खाली से शुरू करें
+ yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640
+
+ # पूर्व प्रशिक्षित *.pt मॉडल से प्रशिक्षण शुरू करें
+ yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640
+
+ # यैतायत्मिक रूप से भार ट्रांसफर करके नया मॉडल बनाएँ और प्रशिक्षण शुरू करें
+ yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640
+ ```
+
+### डेटासेट प्रारूप
+
+YOLO डिटेक्शन डेटासेट प्रारूप को [डेटासेट गाइड](../../datasets/detect/index.md) में विस्तार से देखा जा सकता है। कृपया अपने मौजूदा डेटासेट को अन्य प्रारूपों (जैसे COCO आदि) से YOLO प्रारूप में बदलने के लिए [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) उपकरण का उपयोग करें।
+
+## मान्यता
+
+COCO128 डेटासेट पर प्रशिक्षित YOLOv8n मॉडल की सटीकता को मान्यता दें। मॉडल प्रदर्शन से जुड़ी कोई विधि नहीं होनी चाहिए।
+
+!!! Example "उदाहरण"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # मॉडल लोड करें
+ model = YOLO('yolov8n.pt') # आधिकारिक मॉडल लोड करें
+ model = YOLO('path/to/best.pt') # कस्टम मॉडल लोड करें
+
+ # मॉडल की मान्यता जांचें
+ metrics = model.val() # तुलना करने के लिए कोई विधि की आवश्यकता नहीं है, डेटासेट और सेटिंग्स याद रखे जाते हैं
+ metrics.box.map # map50-95
+ metrics.box.map50 # map50
+ metrics.box.map75 # map75
+ metrics.box.maps # हर श्रेणी के map50-95 से संबंधित सूची
+ ```
+ === "CLI"
+
+ ```bash
+ yolo detect val model=yolov8n.pt # आधिकारिक मॉडल की मान्यता
+ yolo detect val model=path/to/best.pt # कस्टम मॉडल की मान्यता
+ ```
+
+## भविष्यवाणी
+
+प्रशिक्षित YOLOv8n मॉडल का उपयोग चित्रों पर भविष्यवाणी करने के लिए करें।
+
+!!! Example "उदाहरण"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # मॉडल लोड करें
+ model = YOLO('yolov8n.pt') # आधिकारिक मॉडल लोड करें
+ model = YOLO('path/to/best.pt') # कस्टम मॉडल लोड करें
+
+ # मॉडल के साथ भविष्यवाणी करें
+ results = model('https://ultralytics.com/images/bus.jpg') # एक छवि पर भविष्यवाणी करें
+ ```
+ === "CLI"
+
+ ```bash
+ yolo detect predict model=yolov8n.pt source='https://ultralytics.com/images/bus.jpg' # आधिकारिक मॉडल के साथ भविष्यवाणी
+ yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # कस्टम मॉडल के साथ भविष्यवाणी
+ ```
+
+पूर्ण `predict` मोड़ विवरण को [भविष्यवाणी](https://docs.ultralytics.com/modes/predict/) पृष्ठ में देखें।
+
+## निर्यात
+
+YOLOv8n मॉडल को अन्य प्रारूप (जैसे ONNX, CoreML आदि) में निर्यात करें।
+
+!!! Example "उदाहरण"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # मॉडल लोड करें
+ model = YOLO('yolov8n.pt') # आधिकारिक मॉडल लोड करें
+ model = YOLO('path/to/best.pt') # कस्टम प्रशिक्षित मॉडल लोड करें
+
+ # मॉडल को निर्यात करें
+ model.export(format='onnx')
+ ```
+ === "CLI"
+
+ ```bash
+ yolo export model=yolov8n.pt format=onnx # आधिकारिक मॉडल को निर्यात करें
+ yolo export model=path/to/best.pt format=onnx # कस्टम प्रशिक्षित मॉडल को निर्यात करें
+ ```
+
+उपलब्ध YOLOv8 निर्यात प्रारूप नीचे की सारणी में हैं। आप निर्यातित मॉडल पर सीधे भविष्यवाणी या मान्यता कर सकते हैं, जैसे 'yolo predict model=yolov8n.onnx' आदि। निर्यात पूर्ण होने के बाद आपके मॉडल के उपयोग के उदाहरण दिखाए जाते हैं।
+
+| प्रारूप | `format` तर्क | मॉडल | मेटाडाटा | तर्क |
+|--------------------------------------------------------------------|---------------|---------------------------|----------|-----------------------------------------------------|
+| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - |
+| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` |
+| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` |
+| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half`, `int8` |
+| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` |
+| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` |
+| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras`, `int8` |
+| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` |
+| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` |
+| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` |
+| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` |
+| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` |
+| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` |
+
+पूर्ण `export` विवरण को [निर्यात](https://docs.ultralytics.com/modes/export/) पृष्ठ में देखें।
diff --git a/docs/hi/tasks/index.md b/docs/hi/tasks/index.md
new file mode 100644
index 0000000000..1c7245d2b8
--- /dev/null
+++ b/docs/hi/tasks/index.md
@@ -0,0 +1,55 @@
+---
+comments: true
+description: जानें YOLOv8 जो कि विभिन्न कंप्यूटर विजन कार्यों जैसे डिटेक्शन, सेग्मेंटेशन, क्लासिफिकेशन और पोज़ एस्टिमेशन को कर सकता है| अपनें AI प्रोजेक्ट्स म इन टास्क का उपयोग के बारें म मर्यादित हो जाएं
+keywords: Ultralytics, YOLOv8, डिटेक्शन, सेग्मेंटेशन, क्लासिफिकेशन, पोज़ एस्टिमेशन, AI Framework, कंप्यूटर विजन कार्य
+---
+
+# Ultralytics YOLOv8 तास्क
+
+
+
+
+YOLOv8 एक AI फ्रेमवर्क है जो मल्टीपल कंप्यूटर विजन **तास्क्स** को सपोर्ट करता है। इस फ्रेमवर्क का उपयोग [डिटेक्शन](detect.md), [सेग्मेंटेशन](segment.md), [क्लासिफिकेशन](classify.md), और [पोज़](pose.md) एस्टिमेशन को करने के लिए किया जा सकता हैं। हर टास्क का एक अलग उद्देश्य और यूज केस होता हैं।
+
+!!! Note
+
+ 🚧 हमारा मल्टी-भाषा डॉक्युमेंटेशन वर्तमान में निर्माणाधीन हैं, और हम उसे सुधारने के लिए मेहनत कर रहें हैं। आपकी सहानुभूति के लिए धन्यवाद! 🙏
+
+
+
+
+
+ देखें: जांचें Ultralytics YOLO टास्क्स: वस्तु डिटेक्शन, सेग्मेंटेशन, ट्रैकिंग और पोज़ एस्टिमेशन।
+
+
+## [डिटेक्शन](detect.md)
+
+डिटेक्शन YOLOv8 द्वारा सपोर्ट किया जाने वाला प्राथमिक टास्क हैं। इसका मतलब होता हैं कि एक छवि या वीडियो फ्रेम में वस्तुओं को खोजें और उनके चारों ओर ग्रेडीयेशन बॉक्स बनाएँ। पायी गयी वस्तुओं को उनके फीचर्स के आधार पर विभिन्न श्रेणियों में वर्गीकृत किया जाता हैं। YOLOv8 एक ही छवि या वीडियो फ्रेम में कई वस्तुएं पहचान सकती हैं और उसे उच्च सटीकता और गति से कर सकती हैं।
+
+[डिटेक्शन उदाहरण](detect.md){ .md-button .md-button--primary}
+
+## [सेग्मेंटेशन](segment.md)
+
+सेग्मेंटेशन एक टास्क हैं जिसमे एक छवि को उसकी सामग्री के आधार पर विभिन्न क्षेत्रों में विभाजित किया जाता हैं। प्रत्येक क्षेत्र को उसकी सामग्री के आधार पर एक लेबल दिया जाता हैं। यह टास्क छवि सेग्मेंटेशन और मेडिकल इमेजिंग जैसे एप्लिकेशन्स में उपयोगी होती हैं। YOLOv8 सेग्मेंटेशन करने के लिए U-Net आर्किटेक्चर का इस्तेमाल करता हैं।
+
+[सेग्मेंटेशन उदाहरण](segment.md){ .md-button .md-button--primary}
+
+## [क्लासिफिकेशन](classify.md)
+
+क्लासिफिकेशन एक टास्क हैं जिसमे एक छवि को विभिन्न श्रेणियों में वर्गीकृत किया जाता हैं। YOLOv8 का उपयोग छवियों को उनकी सामग्री के आधार पर क्लासिफाई करने के लिए किया जा सकता हैं। यह क्लासिफिकेशन करने के लिए EfficientNet आर्किटेक्चर का उपयोग करता हैं।
+
+[क्लासिफिकेशन उदाहरण](classify.md){ .md-button .md-button--primary}
+
+## [पोज़](pose.md)
+
+पोज़/कीपॉइंट डिटेक्शन एक टास्क हैं जिसमे एक छवि या वीडियो फ्रेम में विशेष बिंदुओं को खोजें। इन बिंदुओं को कीपॉइंट कहा जाता हैं और इनका उपयोग गति या पोज़ एस्टिमेशन करने के लिए किया जाता हैं। YOLOv8 एक छवि या वीडियो फ्रेम में उच्च सटीकता और गति से कीपॉइंट डिटेक्ट कर सकता हैं।
+
+[पोज़ उदाहरण](pose.md){ .md-button .md-button--primary}
+
+## निष्कर्ष
+
+YOLOv8 डिटेक्शन, सेग्मेंटेशन, क्लासिफिकेशन और कीपॉइंट डिटेक्शन जैसे मल्टीपल टास्क्स को सपोर्ट करता हैं। हर एक टास्क का अलग उद्देश्य और यूज केस होता हैं। इन टास्क्स के बीच अंतर को समझकर, आप अपने कंप्यूटर विजन एप्लिकेशन के लिए उचित टास्क का चुनाव कर सकते हैं।
diff --git a/docs/hi/tasks/pose.md b/docs/hi/tasks/pose.md
new file mode 100644
index 0000000000..b643fe34b8
--- /dev/null
+++ b/docs/hi/tasks/pose.md
@@ -0,0 +1,183 @@
+---
+comments: true
+description: Ultralytics YOLOv8 का उपयोग पोज निर्धारण कार्यों के लिए कैसे किया जाता है इसकी जानें। प्री-शिक्षित मॉडल ढूंढें, प्रशिक्षण, मान्यता प्राप्त करें, पूर्वानुमान लगाएं, और अपना खुद का निर्यात करें।
+keywords: Ultralytics, YOLO, YOLOv8, pose estimation, keypoints detection, object detection, pre-trained models, machine learning, artificial intelligence
+---
+
+# पोज निर्धारण
+
+
+
+पोज निर्धारण एक कार्य है जिसमें एक छवि में विशेष बिंदुओं के स्थान की पहचान करना शामिल होता है, जिसे आमतौर पर कीपॉइंट्स के रूप में कहा जाता है। कीपॉइंट्स विभिन्न अंगों, भूमिकाओं या अन्य विशिष्ट सुविधाओं आदि के रूप में वस्तु के विभिन्न हिस्सों को प्रतिष्ठित कर सकते हैं। कीपॉइंट्स के स्थान आमतौर पर 2D `[x, y]` या 3D `[x, y, दिखाई देने वाला]` कोआर्डिनेट के सेट के रूप में प्रदर्शित होते हैं।
+
+पोज निर्धारण मॉडल की उत्पादन एक छवि में वस्तु के कीपॉइंट्स को प्रतिष्ठित करने वाले कुछ बिंदुओं का सेट होती है, आमतौर पर हर बिंदु के लिए विश्वसनीयता स्कोर के साथ। पोज निर्धारण उचित विकल्प है जब आपको स्टीन में एक वस्तु के विशेष हिस्सों की पहचान करनी होती है और विभिन्न हिस्सों के लिए उनके स्थान की पहचान करनी होती है।
+
+
+
+
+
+ देखें: Ultralytics YOLOv8 के साथ पोज निर्धारण।
+
+
+!!! Tip "युक्ति"
+
+ YOLOv8 _pose_ मॉडल में `-pose` सफिक्स का उपयोग किया जाता है, जैसे `yolov8n-pose.pt`। ये मॉडल [COCO कीपॉइंट](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) डेटासेट पर प्रशिक्षित होते हैं और विभिन्न पोज निर्धारण कार्यों के लिए उपयुक्त होते हैं।
+
+## [मॉडल्स](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8)
+
+YOLOv8 पूर्वानुमानित पोज मॉडलस यहाँ दिखाए जाते हैं। पहचानें, अंश और पोज मॉडल मुख्यतः [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) डेटासेट पर प्रशिक्षित हैं, जबकि क्लासिफाई मॉडल्स को [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) डेटासेट पर प्रशिक्षित किया जाता है।
+
+पूर्वानुमानित मॉडल `Models` को Ultralytics के नवीनतम [रिलीज़](https://github.com/ultralytics/assets/releases) से स्वचालित रूप से डाउनलोड करेंगे।
+
+| मॉडल | आकार (तत्व) | mAPपोज 50-95 | mAPपोज 50 | ह्वेग CPU ONNX (ms) | ह्वेग A100 TensorRT (ms) | पैराम्स (M) | FLOPs (B) |
+|------------------------------------------------------------------------------------------------------|---------------------|----------------------|-------------------|--------------------------------|-------------------------------------|---------------------|-------------------|
+| [YOLOv8n-pose](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8n-pose.pt) | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 |
+| [YOLOv8s-pose](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8s-pose.pt) | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 |
+| [YOLOv8m-pose](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8m-pose.pt) | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 |
+| [YOLOv8l-pose](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8l-pose.pt) | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 |
+| [YOLOv8x-pose](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8x-pose.pt) | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 |
+| [YOLOv8x-pose-p6](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8x-pose-p6.pt) | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 |
+
+- **mAPval** मान एकल मॉडल एकल स्केल पर [COCO कीपॉइंट val2017](http://cocodataset.org) डेटासेट पर है।
+ `yolo val pose data=coco-pose.yaml device=0` के द्वारा पुनरोत्पादित करें
+- **Speed** [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) इन्स्टेंस का उपयोग करते हुए COCO val छवियों पर औसतित गणना।
+ `yolo val pose data=coco8-pose.yaml batch=1 device=0|cpu` के द्वारा पुनरार्चन करें
+
+## ट्रेन
+
+COCO128-pose डेटासेट पर YOLOv8-pose मॉडल को प्रशिक्षित करें।
+
+!!! Example "उदाहरण"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # एक मॉडल लोड करें
+ model = YOLO('yolov8n-pose.yaml') # YAML से एक नया मॉडल बनाएँ
+ model = YOLO('yolov8n-pose.pt') # पूर्वानुमानित मॉडल लोड करें (प्रशिक्षण के लिए सिफारिश किया जाता है)
+ model = YOLO('yolov8n-pose.yaml').load('yolov8n-pose.pt') # YAML से बनाएँ और वजन स्थानांतरित करें
+
+ # मॉडल को प्रशिक्षित करें
+ results = model.train(data='coco8-pose.yaml', epochs=100, imgsz=640)
+ ```
+ === "CLI"
+
+ ```bash
+ # YAML से नया मॉडल बनाएँ और पूर्वानुमानित वजन स्थानांतरित करना शुरू करें
+ yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml epochs=100 imgsz=640
+
+ # पूर्वानुमानित *.pt मॉडल से प्रशिक्षण शुरू करें
+ yolo pose train data=coco8-pose.yaml model=yolov8n-pose.pt epochs=100 imgsz=640
+
+ # YAML से नया मॉडल बनाएँ, पूर्वानुमानित वजनों को स्थानांतरित करें और प्रशिक्षण शुरू करें
+ yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml pretrained=yolov8n-pose.pt epochs=100 imgsz=640
+ ```
+
+### डेटासेट प्रारूप
+
+YOLO पोज डेटासेट प्रारूप को विस्तार से [डेटासेट गाइड](../../datasets/pose/index.md) में दिया गया है। अपनी मौजूदा डेटासेट को अन्य प्रारूपों (जैसे कि COCO आदि) से YOLO प्रारूप में रूपांतरित करने के लिए कृपया [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) उपकरण का उपयोग करें।
+
+## मान्यता प्राप्त करें
+
+COCO128-pose डेटासेट पर प्रशिक्षित YOLOv8n-pose मॉडल की सटीकता को मान्यता प्राप्त करें। `model` के रूप में कोई आर्ग्युमेंट पारित करने की आवश्यकता नहीं है प्रशिक्षण `data` और सेटिंग्स को मॉडल खिताबों के रूप में रखता है।
+
+!!! Example "उदाहरण"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # एक मॉडल लोड करें
+ model = YOLO('yolov8n-pose.pt') # रिपोर्टेड मॉडल लोड करें
+ model = YOLO('path/to/best.pt') # एक कस्टम मॉडल लोड करें
+
+ # मॉडल की सटीकता मान्यता प्राप्त करें
+ metrics = model.val() # कोई आर्ग्युमेंट आवश्यक नहीं है, डेटासेट और सेटिंग्स याद रखा जाता है
+ metrics.box.map # map50-95
+ metrics.box.map50 # map50
+ metrics.box.map75 # map75
+ metrics.box.maps # प्रत्येक श्रेणी के map50-95 सूची में है
+ ```
+ === "CLI"
+
+ ```bash
+ yolo pose val model=yolov8n-pose.pt # आधिकारिक मॉडल मान्यांकन करें
+ yolo pose val model=path/to/best.pt # कस्टम मॉडल को मान्यता प्राप्त करें
+ ```
+
+## पूर्वानुमान लगाएं
+
+प्रशिक्षित YOLOv8n-pose मॉडल के साथ छवियों पर पूर्वानुमान चलाएं।
+
+!!! Example "उदाहरण"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # एक मॉडल लोड करें
+ model = YOLO('yolov8n-pose.pt') # रिपोर्टेड मॉडल लोड करें
+ model = YOLO('path/to/best.pt') # एक कस्टम मॉडल लोड करें
+
+ # मॉडल के साथ पूर्वानुमान करें
+ results = model('https://ultralytics.com/images/bus.jpg') # एक छवि पर पूर्वानुमान करें
+ ```
+ === "CLI"
+
+ ```bash
+ yolo pose predict model=yolov8n-pose.pt source='https://ultralytics.com/images/bus.jpg' # आधिकारिक मॉडल के साथ पूर्वानुमान लगाएं
+ yolo pose predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # कस्टम मॉडल के साथ पूर्वानुमान लगाएं
+ ```
+
+एक्सपोर्ट
+
+YOLOv8n पोज मॉडल को ONNX, CoreML जैसे अन्य प्रारूप में निर्यात करें।
+
+!!! Example "उदाहरण"
+
+ === "Python"
+
+ ```python
+ from ultralytics import YOLO
+
+ # एक मॉडल लोड करें
+ model = YOLO('yolov8n-pose.pt') # रिपोर्टेड मॉडल लोड करें
+ model = YOLO('path/to/best.pt') # एक कस्टम प्रशिक्षित मॉडल लोड करें
+
+ # मॉडल को निर्यात करें
+ model.export(format='onnx')
+ ```
+ === "CLI"
+
+ ```bash
+ yolo export model=yolov8n-pose.pt format=onnx # आधिकारिक मॉडल को निर्यात करें
+ yolo export model=path/to/best.pt format=onnx # कस्टम प्रशिक्षित मॉडल को निर्यात करें
+ ```
+
+निर्यात के लिए उपलब्ध YOLOv8-pose निर्यात प्रारूप नीचे करें दिए गए हैं। आप निर्यात किए गए मॉडल पर सीधा पूर्वानुमान या मान्यता कर सकते हैं, उदाहरण के लिए `yolo predict model=yolov8n-pose.onnx`। निर्यात पूरा होने के बाद अपने मॉडल के उपयोग के उदाहरण दिखाए गए हैं।
+
+| प्रारूप | `format` आर्ग्युमेंट | मॉडल | मेटाडेटा | आर्ग्युमेंट। |
+|--------------------------------------------------------------------|----------------------|--------------------------------|----------|-----------------------------------------------------|
+| [PyTorch](https://pytorch.org/) | - | `yolov8n-pose.pt` | ✅ | - |
+| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-pose.torchscript` | ✅ | `imgsz`, `optimize` |
+| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-pose.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` |
+| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-pose_openvino_model/` | ✅ | `imgsz`, `half` |
+| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-pose.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` |
+| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-pose.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` |
+| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-pose_saved_model/` | ✅ | `imgsz`, `keras` |
+| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-pose.pb` | ❌ | `imgsz` |
+| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-pose.tflite` | ✅ | `imgsz`, `half`, `int8` |
+| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-pose_edgetpu.tflite` | ✅ | `imgsz` |
+| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-pose_web_model/` | ✅ | `imgsz` |
+| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-pose_paddle_model/` | ✅ | `imgsz` |
+| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-pose_ncnn_model/` | ✅ | `imgsz`, `half` |
+
+निर्यात विवरण के लिए [निर्यात](https://docs.ultralytics.com/modes/export/) पृष्ठ देखें।
diff --git a/docs/hi/tasks/segment.md b/docs/hi/tasks/segment.md
new file mode 100644
index 0000000000..821d9cae5a
--- /dev/null
+++ b/docs/hi/tasks/segment.md
@@ -0,0 +1,187 @@
+---
+comments: true
+description: Ultralytics YOLO के साथ उदाहरण देखें कि कैसे instance segmentation मॉडल का उपयोग करें। प्रशिक्षण, मान्यता, छवि की भविष्यवाणी और मॉडल निर्यात पर निर्देश।
+keywords: yolov8, instance segmentation, Ultralytics, COCO dataset, image segmentation, object detection, model training, model validation, image prediction, model export
+---
+
+# Instance Segmentation
+
+इंस्टेंस सेगमेंटेशन ऑब्जेक्ट डिटेक्शन से एक कदम आगे जाता है और छवि में व्यक्ति ऑब्जेक्ट की पहचान करता है और उन्हें छवि के बाकी हिस्से से विभाजित करता है।
+
+इंस्टेंस सेगमेंटेशन मॉडल का आउटपुट एक सेट मास्क या कंटोर होता है जो छवि में प्रत्येक ऑब्जेक्ट का संकेत देता है, साथ ही प्रत्येक ऑब्जेक्ट के लिए वर्ग लेबल और आत्मविश्वास स्कोर होता है। इंस्टेंस सेगमेंटेशन उपयोगी होता है जब आपको न केवल पता चलेगा कि छवि में ऑब्जेक्ट कहाँ हैं, बल्कि वास्तव में उनका वास्तविक आकार क्या है।
+
+
+
+
+
+ देखें: पायथन में पूर्व-प्रशिक्षित Ultralytics YOLOv8 मॉडल के साथ Segmentation चलाएं।
+