From 02bf8003a8ede32f03667f62bc9c91644e5d5d75 Mon Sep 17 00:00:00 2001 From: Glenn Jocher Date: Sat, 18 Nov 2023 21:51:47 +0100 Subject: [PATCH] =?UTF-8?q?Add=20Hindi=20=E0=A4=B9=E0=A4=BF=E0=A4=A8?= =?UTF-8?q?=E0=A5=8D=E0=A4=A6=E0=A5=80=20and=20Arabic=20=D8=A7=D9=84=D8=B9?= =?UTF-8?q?=D8=B1=D8=A8=D9=8A=D8=A9=20Docs=20translations=20(#6428)?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit Signed-off-by: Glenn Jocher Co-authored-by: pre-commit-ci[bot] <66853113+pre-commit-ci[bot]@users.noreply.github.com> --- README.md | 2 +- README.zh-CN.md | 2 +- docs/ar/datasets/index.md | 127 ++++++ docs/ar/index.md | 82 ++++ docs/ar/models/index.md | 93 +++++ docs/ar/modes/benchmark.md | 94 +++++ docs/ar/modes/export.md | 108 ++++++ docs/ar/modes/index.md | 77 ++++ docs/ar/modes/predict.md | 217 +++++++++++ docs/ar/modes/track.md | 360 ++++++++++++++++++ docs/ar/modes/train.md | 286 ++++++++++++++ docs/ar/modes/val.md | 86 +++++ docs/ar/quickstart.md | 326 ++++++++++++++++ docs/ar/tasks/classify.md | 172 +++++++++ docs/ar/tasks/detect.md | 185 +++++++++ docs/ar/tasks/index.md | 55 +++ docs/ar/tasks/pose.md | 186 +++++++++ docs/ar/tasks/segment.md | 189 +++++++++ docs/build_reference.py | 2 +- docs/de/datasets/index.md | 4 +- docs/de/index.md | 2 +- docs/de/models/index.md | 4 +- docs/de/modes/benchmark.md | 4 +- docs/de/modes/export.md | 4 +- docs/de/modes/predict.md | 6 +- docs/de/modes/track.md | 8 +- docs/de/modes/train.md | 16 +- docs/de/modes/val.md | 4 +- docs/de/quickstart.md | 12 +- docs/de/tasks/classify.md | 10 +- docs/de/tasks/detect.md | 10 +- docs/de/tasks/index.md | 2 +- docs/de/tasks/pose.md | 10 +- docs/de/tasks/segment.md | 10 +- docs/en/datasets/classify/caltech101.md | 4 +- docs/en/datasets/classify/caltech256.md | 4 +- docs/en/datasets/classify/cifar10.md | 4 +- docs/en/datasets/classify/cifar100.md | 4 +- docs/en/datasets/classify/fashion-mnist.md | 2 +- docs/en/datasets/classify/imagenet.md | 4 +- docs/en/datasets/classify/imagenet10.md | 4 +- docs/en/datasets/classify/imagenette.md | 6 +- docs/en/datasets/classify/imagewoof.md | 2 +- docs/en/datasets/classify/index.md | 2 +- docs/en/datasets/classify/mnist.md | 4 +- docs/en/datasets/detect/argoverse.md | 8 +- docs/en/datasets/detect/coco.md | 6 +- docs/en/datasets/detect/coco8.md | 6 +- docs/en/datasets/detect/globalwheat2020.md | 6 +- docs/en/datasets/detect/index.md | 4 +- docs/en/datasets/detect/objects365.md | 6 +- docs/en/datasets/detect/open-images-v7.md | 8 +- docs/en/datasets/detect/sku-110k.md | 6 +- docs/en/datasets/detect/visdrone.md | 6 +- docs/en/datasets/detect/voc.md | 6 +- docs/en/datasets/detect/xview.md | 6 +- docs/en/datasets/index.md | 4 +- docs/en/datasets/obb/dota-v2.md | 8 +- docs/en/datasets/obb/index.md | 4 +- docs/en/datasets/pose/coco.md | 6 +- docs/en/datasets/pose/coco8-pose.md | 6 +- docs/en/datasets/pose/index.md | 4 +- docs/en/datasets/pose/tiger-pose.md | 6 +- docs/en/datasets/segment/coco.md | 6 +- docs/en/datasets/segment/coco8-seg.md | 6 +- docs/en/datasets/segment/index.md | 8 +- docs/en/datasets/track/index.md | 2 +- docs/en/guides/hyperparameter-tuning.md | 2 +- docs/en/guides/sahi-tiled-inference.md | 2 +- docs/en/help/privacy.md | 6 +- docs/en/hub/app/android.md | 2 +- docs/en/hub/datasets.md | 4 +- docs/en/hub/inference_api.md | 6 +- docs/en/hub/models.md | 4 +- docs/en/hub/projects.md | 6 +- docs/en/integrations/comet.md | 6 +- docs/en/integrations/mlflow.md | 2 +- docs/en/integrations/openvino.md | 6 +- docs/en/integrations/ray-tune.md | 6 +- docs/en/integrations/roboflow.md | 2 +- docs/en/models/fast-sam.md | 6 +- docs/en/models/index.md | 2 +- docs/en/models/mobile-sam.md | 6 +- docs/en/models/rtdetr.md | 4 +- docs/en/models/sam.md | 12 +- docs/en/models/yolo-nas.md | 4 +- docs/en/models/yolov3.md | 4 +- docs/en/models/yolov4.md | 2 +- docs/en/models/yolov5.md | 4 +- docs/en/models/yolov6.md | 4 +- docs/en/models/yolov7.md | 2 +- docs/en/models/yolov8.md | 4 +- docs/en/modes/benchmark.md | 4 +- docs/en/modes/export.md | 4 +- docs/en/modes/predict.md | 24 +- docs/en/modes/track.md | 12 +- docs/en/modes/train.md | 18 +- docs/en/modes/val.md | 4 +- docs/en/quickstart.md | 16 +- docs/en/reference/cfg/__init__.md | 2 +- docs/en/reference/data/annotator.md | 2 +- docs/en/reference/data/augment.md | 2 +- docs/en/reference/data/base.md | 2 +- docs/en/reference/data/build.md | 2 +- docs/en/reference/data/converter.md | 2 +- docs/en/reference/data/dataset.md | 2 +- docs/en/reference/data/loaders.md | 2 +- docs/en/reference/data/utils.md | 2 +- docs/en/reference/engine/exporter.md | 2 +- docs/en/reference/engine/model.md | 2 +- docs/en/reference/engine/predictor.md | 2 +- docs/en/reference/engine/results.md | 2 +- docs/en/reference/engine/trainer.md | 2 +- docs/en/reference/engine/tuner.md | 2 +- docs/en/reference/engine/validator.md | 2 +- docs/en/reference/hub/__init__.md | 2 +- docs/en/reference/hub/auth.md | 2 +- docs/en/reference/hub/session.md | 2 +- docs/en/reference/hub/utils.md | 2 +- docs/en/reference/models/fastsam/model.md | 2 +- docs/en/reference/models/fastsam/predict.md | 2 +- docs/en/reference/models/fastsam/prompt.md | 2 +- docs/en/reference/models/fastsam/utils.md | 2 +- docs/en/reference/models/fastsam/val.md | 2 +- docs/en/reference/models/nas/model.md | 2 +- docs/en/reference/models/nas/predict.md | 2 +- docs/en/reference/models/nas/val.md | 2 +- docs/en/reference/models/rtdetr/model.md | 2 +- docs/en/reference/models/rtdetr/predict.md | 2 +- docs/en/reference/models/rtdetr/train.md | 2 +- docs/en/reference/models/rtdetr/val.md | 2 +- docs/en/reference/models/sam/amg.md | 2 +- docs/en/reference/models/sam/build.md | 2 +- docs/en/reference/models/sam/model.md | 2 +- .../reference/models/sam/modules/decoders.md | 2 +- .../reference/models/sam/modules/encoders.md | 2 +- docs/en/reference/models/sam/modules/sam.md | 2 +- .../models/sam/modules/tiny_encoder.md | 2 +- .../models/sam/modules/transformer.md | 2 +- docs/en/reference/models/sam/predict.md | 2 +- docs/en/reference/models/utils/loss.md | 2 +- docs/en/reference/models/utils/ops.md | 2 +- .../reference/models/yolo/classify/predict.md | 2 +- .../reference/models/yolo/classify/train.md | 2 +- docs/en/reference/models/yolo/classify/val.md | 2 +- .../reference/models/yolo/detect/predict.md | 2 +- docs/en/reference/models/yolo/detect/train.md | 2 +- docs/en/reference/models/yolo/detect/val.md | 2 +- docs/en/reference/models/yolo/model.md | 2 +- docs/en/reference/models/yolo/pose/predict.md | 2 +- docs/en/reference/models/yolo/pose/train.md | 2 +- docs/en/reference/models/yolo/pose/val.md | 2 +- .../reference/models/yolo/segment/predict.md | 2 +- .../en/reference/models/yolo/segment/train.md | 2 +- docs/en/reference/models/yolo/segment/val.md | 2 +- docs/en/reference/nn/autobackend.md | 2 +- docs/en/reference/nn/modules/block.md | 2 +- docs/en/reference/nn/modules/conv.md | 2 +- docs/en/reference/nn/modules/head.md | 2 +- docs/en/reference/nn/modules/transformer.md | 2 +- docs/en/reference/nn/modules/utils.md | 2 +- docs/en/reference/nn/tasks.md | 2 +- docs/en/reference/trackers/basetrack.md | 2 +- docs/en/reference/trackers/bot_sort.md | 2 +- docs/en/reference/trackers/byte_tracker.md | 2 +- docs/en/reference/trackers/track.md | 2 +- docs/en/reference/trackers/utils/gmc.md | 2 +- .../reference/trackers/utils/kalman_filter.md | 2 +- docs/en/reference/trackers/utils/matching.md | 2 +- docs/en/reference/utils/__init__.md | 2 +- docs/en/reference/utils/autobatch.md | 2 +- docs/en/reference/utils/benchmarks.md | 2 +- docs/en/reference/utils/callbacks/base.md | 2 +- docs/en/reference/utils/callbacks/clearml.md | 2 +- docs/en/reference/utils/callbacks/comet.md | 2 +- docs/en/reference/utils/callbacks/dvc.md | 2 +- docs/en/reference/utils/callbacks/hub.md | 2 +- docs/en/reference/utils/callbacks/mlflow.md | 2 +- docs/en/reference/utils/callbacks/neptune.md | 2 +- docs/en/reference/utils/callbacks/raytune.md | 2 +- .../reference/utils/callbacks/tensorboard.md | 2 +- docs/en/reference/utils/callbacks/wb.md | 2 +- docs/en/reference/utils/checks.md | 2 +- docs/en/reference/utils/dist.md | 2 +- docs/en/reference/utils/downloads.md | 2 +- docs/en/reference/utils/errors.md | 2 +- docs/en/reference/utils/files.md | 2 +- docs/en/reference/utils/instance.md | 2 +- docs/en/reference/utils/loss.md | 2 +- docs/en/reference/utils/metrics.md | 2 +- docs/en/reference/utils/ops.md | 2 +- docs/en/reference/utils/patches.md | 2 +- docs/en/reference/utils/plotting.md | 2 +- docs/en/reference/utils/tal.md | 2 +- docs/en/reference/utils/torch_utils.md | 2 +- docs/en/reference/utils/triton.md | 2 +- docs/en/reference/utils/tuner.md | 2 +- docs/en/robots.txt | 2 + docs/en/tasks/classify.md | 10 +- docs/en/tasks/detect.md | 10 +- docs/en/tasks/pose.md | 10 +- docs/en/tasks/segment.md | 10 +- docs/en/usage/cfg.md | 2 +- docs/en/usage/cli.md | 16 +- docs/en/usage/python.md | 16 +- .../roboflow_datasets_integration.md | 2 +- docs/en/yolov5/tutorials/train_custom_data.md | 6 +- docs/es/datasets/index.md | 4 +- docs/es/index.md | 2 +- docs/es/models/index.md | 4 +- docs/es/modes/benchmark.md | 4 +- docs/es/modes/export.md | 4 +- docs/es/modes/predict.md | 6 +- docs/es/modes/track.md | 8 +- docs/es/modes/train.md | 16 +- docs/es/modes/val.md | 4 +- docs/es/quickstart.md | 12 +- docs/es/tasks/classify.md | 10 +- docs/es/tasks/detect.md | 10 +- docs/es/tasks/index.md | 2 +- docs/es/tasks/pose.md | 10 +- docs/es/tasks/segment.md | 10 +- docs/fr/datasets/index.md | 4 +- docs/fr/index.md | 2 +- docs/fr/models/index.md | 4 +- docs/fr/modes/benchmark.md | 2 +- docs/fr/modes/export.md | 2 +- docs/fr/modes/predict.md | 4 +- docs/fr/modes/track.md | 8 +- docs/fr/modes/train.md | 16 +- docs/fr/modes/val.md | 4 +- docs/fr/quickstart.md | 10 +- docs/fr/tasks/classify.md | 10 +- docs/fr/tasks/detect.md | 10 +- docs/fr/tasks/index.md | 2 +- docs/fr/tasks/pose.md | 8 +- docs/fr/tasks/segment.md | 8 +- docs/hi/datasets/index.md | 134 +++++++ docs/hi/index.md | 83 ++++ docs/hi/models/index.md | 94 +++++ docs/hi/modes/benchmark.md | 94 +++++ docs/hi/modes/export.md | 108 ++++++ docs/hi/modes/index.md | 78 ++++ docs/hi/modes/predict.md | 226 +++++++++++ docs/hi/modes/track.md | 358 +++++++++++++++++ docs/hi/modes/train.md | 293 ++++++++++++++ docs/hi/modes/val.md | 86 +++++ docs/hi/quickstart.md | 327 ++++++++++++++++ docs/hi/tasks/classify.md | 172 +++++++++ docs/hi/tasks/detect.md | 186 +++++++++ docs/hi/tasks/index.md | 55 +++ docs/hi/tasks/pose.md | 183 +++++++++ docs/hi/tasks/segment.md | 187 +++++++++ docs/ja/datasets/index.md | 4 +- docs/ja/index.md | 2 +- docs/ja/models/index.md | 4 +- docs/ja/modes/benchmark.md | 4 +- docs/ja/modes/export.md | 4 +- docs/ja/modes/predict.md | 6 +- docs/ja/modes/track.md | 8 +- docs/ja/modes/train.md | 16 +- docs/ja/modes/val.md | 4 +- docs/ja/quickstart.md | 12 +- docs/ja/tasks/classify.md | 10 +- docs/ja/tasks/detect.md | 10 +- docs/ja/tasks/index.md | 2 +- docs/ja/tasks/pose.md | 10 +- docs/ja/tasks/segment.md | 10 +- docs/ko/datasets/index.md | 4 +- docs/ko/index.md | 2 +- docs/ko/models/index.md | 4 +- docs/ko/modes/benchmark.md | 4 +- docs/ko/modes/export.md | 2 +- docs/ko/modes/predict.md | 2 +- docs/ko/modes/train.md | 8 +- docs/ko/modes/val.md | 4 +- docs/ko/quickstart.md | 10 +- docs/ko/tasks/classify.md | 10 +- docs/ko/tasks/detect.md | 10 +- docs/ko/tasks/index.md | 2 +- docs/ko/tasks/pose.md | 10 +- docs/ko/tasks/segment.md | 10 +- docs/mkdocs.yml | 8 + docs/mkdocs_ar.yml | 202 ++++++++++ docs/mkdocs_de.yml | 6 + docs/mkdocs_es.yml | 6 + docs/mkdocs_fr.yml | 6 + docs/mkdocs_hi.yml | 202 ++++++++++ docs/mkdocs_ja.yml | 6 + docs/mkdocs_ko.yml | 6 + docs/mkdocs_pt.yml | 6 + docs/mkdocs_ru.yml | 6 + docs/mkdocs_zh.yml | 6 + docs/pt/datasets/index.md | 4 +- docs/pt/index.md | 2 +- docs/pt/models/index.md | 4 +- docs/pt/modes/benchmark.md | 4 +- docs/pt/modes/export.md | 4 +- docs/pt/modes/predict.md | 6 +- docs/pt/modes/track.md | 8 +- docs/pt/modes/train.md | 16 +- docs/pt/modes/val.md | 4 +- docs/pt/quickstart.md | 12 +- docs/pt/tasks/classify.md | 10 +- docs/pt/tasks/detect.md | 10 +- docs/pt/tasks/index.md | 2 +- docs/pt/tasks/pose.md | 10 +- docs/pt/tasks/segment.md | 10 +- docs/ru/datasets/index.md | 4 +- docs/ru/index.md | 2 +- docs/ru/models/index.md | 4 +- docs/ru/modes/benchmark.md | 4 +- docs/ru/modes/export.md | 4 +- docs/ru/modes/predict.md | 6 +- docs/ru/modes/track.md | 8 +- docs/ru/modes/train.md | 16 +- docs/ru/modes/val.md | 4 +- docs/ru/quickstart.md | 12 +- docs/ru/tasks/classify.md | 10 +- docs/ru/tasks/detect.md | 10 +- docs/ru/tasks/index.md | 2 +- docs/ru/tasks/pose.md | 10 +- docs/ru/tasks/segment.md | 10 +- docs/update_translations.py | 87 +++-- docs/zh/datasets/index.md | 4 +- docs/zh/models/index.md | 4 +- docs/zh/modes/benchmark.md | 2 +- docs/zh/modes/export.md | 4 +- docs/zh/modes/predict.md | 51 +-- docs/zh/modes/track.md | 14 +- docs/zh/modes/train.md | 16 +- docs/zh/modes/val.md | 4 +- docs/zh/quickstart.md | 14 +- docs/zh/tasks/classify.md | 10 +- docs/zh/tasks/detect.md | 10 +- docs/zh/tasks/pose.md | 16 +- docs/zh/tasks/segment.md | 10 +- 337 files changed, 6585 insertions(+), 778 deletions(-) create mode 100644 docs/ar/datasets/index.md create mode 100644 docs/ar/index.md create mode 100644 docs/ar/models/index.md create mode 100644 docs/ar/modes/benchmark.md create mode 100644 docs/ar/modes/export.md create mode 100644 docs/ar/modes/index.md create mode 100644 docs/ar/modes/predict.md create mode 100644 docs/ar/modes/track.md create mode 100644 docs/ar/modes/train.md create mode 100644 docs/ar/modes/val.md create mode 100644 docs/ar/quickstart.md create mode 100644 docs/ar/tasks/classify.md create mode 100644 docs/ar/tasks/detect.md create mode 100644 docs/ar/tasks/index.md create mode 100644 docs/ar/tasks/pose.md create mode 100644 docs/ar/tasks/segment.md create mode 100644 docs/hi/datasets/index.md create mode 100644 docs/hi/index.md create mode 100644 docs/hi/models/index.md create mode 100644 docs/hi/modes/benchmark.md create mode 100644 docs/hi/modes/export.md create mode 100644 docs/hi/modes/index.md create mode 100644 docs/hi/modes/predict.md create mode 100644 docs/hi/modes/track.md create mode 100644 docs/hi/modes/train.md create mode 100644 docs/hi/modes/val.md create mode 100644 docs/hi/quickstart.md create mode 100644 docs/hi/tasks/classify.md create mode 100644 docs/hi/tasks/detect.md create mode 100644 docs/hi/tasks/index.md create mode 100644 docs/hi/tasks/pose.md create mode 100644 docs/hi/tasks/segment.md create mode 100644 docs/mkdocs_ar.yml create mode 100644 docs/mkdocs_hi.yml diff --git a/README.md b/README.md index 4a23622235..d7c2b9591e 100644 --- a/README.md +++ b/README.md @@ -4,7 +4,7 @@

-[中文](https://docs.ultralytics.com/zh/) | [한국어](https://docs.ultralytics.com/ko/) | [日本語](https://docs.ultralytics.com/ja/) | [Русский](https://docs.ultralytics.com/ru/) | [Deutsch](https://docs.ultralytics.com/de/) | [Français](https://docs.ultralytics.com/fr/) | [Español](https://docs.ultralytics.com/es/) | [Português](https://docs.ultralytics.com/pt/) +[中文](https://docs.ultralytics.com/zh/) | [한국어](https://docs.ultralytics.com/ko/) | [日本語](https://docs.ultralytics.com/ja/) | [Русский](https://docs.ultralytics.com/ru/) | [Deutsch](https://docs.ultralytics.com/de/) | [Français](https://docs.ultralytics.com/fr/) | [Español](https://docs.ultralytics.com/es/) | [Português](https://docs.ultralytics.com/pt/) | [हिन्दी](https://docs.ultralytics.com/hi/) | [العربية](https://docs.ultralytics.com/ar/)
diff --git a/README.zh-CN.md b/README.zh-CN.md index 9c0ab8051b..386d63c714 100644 --- a/README.zh-CN.md +++ b/README.zh-CN.md @@ -4,7 +4,7 @@

-[中文](https://docs.ultralytics.com/zh/) | [한국어](https://docs.ultralytics.com/ko/) | [日本語](https://docs.ultralytics.com/ja/) | [Русский](https://docs.ultralytics.com/ru/) | [Deutsch](https://docs.ultralytics.com/de/) | [Français](https://docs.ultralytics.com/fr/) | [Español](https://docs.ultralytics.com/es/) | [Português](https://docs.ultralytics.com/pt/) +[中文](https://docs.ultralytics.com/zh/) | [한국어](https://docs.ultralytics.com/ko/) | [日本語](https://docs.ultralytics.com/ja/) | [Русский](https://docs.ultralytics.com/ru/) | [Deutsch](https://docs.ultralytics.com/de/) | [Français](https://docs.ultralytics.com/fr/) | [Español](https://docs.ultralytics.com/es/) | [Português](https://docs.ultralytics.com/pt/) | [हिन्दी](https://docs.ultralytics.com/hi/) | [العربية](https://docs.ultralytics.com/ar/)
diff --git a/docs/ar/datasets/index.md b/docs/ar/datasets/index.md new file mode 100644 index 0000000000..1bfcf65da9 --- /dev/null +++ b/docs/ar/datasets/index.md @@ -0,0 +1,127 @@ +--- +comments: true +description: استكشف مجموعات بيانات الرؤية الحاسوبية المدعومة بواسطة Ultralytics لكشف الكائنات وتجزئة الصور وتقدير الركض وتصنيف الصور وتعقب الأجسام المتعددة. +keywords: الرؤية الحاسوبية ، مجموعات البيانات ، Ultralytics ، يوه ، كشف الكائنات ، تجزئة النموذج ، تقدير الركض ، تصنيف الصور ، تعقب الأجسام المتعددة +--- + +# نظرة عامة على مجموعات البيانات + +توفر Ultralytics الدعم لمجموعة متنوعة من مجموعات البيانات لتسهيل المهام الخاصة بالرؤية الحاسوبية مثل الكشف وتجزئة الكائنات وتقدير الركض وتصنيف الصور وتعقب الأجسام المتعددة. فيما يلي قائمة بالمجموعات الرئيسية التي يدعمها Ultralytics ، تليها ملخص لكل مهمة في الرؤية الحاسوبية ومجموعات البيانات المتعلقة بها. + +!!! Note + + 🚧 قسم الوثائق ذو اللغات المتعددة قيد الإنشاء حاليًا ، ونعمل بجد لتحسينه. نشكرك على صبرك! 🙏 + +## [مجموعات بيانات الكشف](../../datasets/detect/index.md) + +يعد كشف الكائنات بواسطة صندوق محيط هو تقنية في الرؤية الحاسوبية تتضمن كشف الكائنات وتمييزها في الصورة عن طريق رسم صندوق محيط حول كل كائن. + +- [Argoverse](../../datasets/detect/argoverse.md): مجموعة بيانات تحتوي على بيانات تتبع ثلاثية الأبعاد وتنبؤ الحركة من البيئات الحضرية مع توجيه البيانات بشكل جيد. +- [COCO](../../datasets/detect/coco.md): مجموعة بيانات كبيرة مصممة للكشف والتجزئة والتسمية تحتوي على أكثر من 200 ألف صورة معتمدة. +- [COCO8](../../datasets/detect/coco8.md): يحتوي على أول 4 صور من COCO التدريب و COCO val ، مناسب للاختبار السريع. +- [Global Wheat 2020](../../datasets/detect/globalwheat2020.md): مجموعة بيانات من صور رؤوس القمح جمعت من جميع أنحاء العالم لمهام الكشف والتحديد الموضعي. +- [Objects365](../../datasets/detect/objects365.md): مجموعة بيانات كبيرة وعالية الجودة لاكتشاف الكائنات بتصنيفات 365 وأكثر من 600 ألف صورة مرتبطة. +- [OpenImagesV7](../../datasets/detect/open-images-v7.md): مجموعة بيانات شاملة من جوجل تحتوي على 1.7 مليون صورة للتدريب و 42 ألف صورة للتحقق. +- [SKU-110K](../../datasets/detect/sku-110k.md): مجموعة بيانات تتضمن الكشف المكثف للكائنات في بيئات البيع بالتجزئة مع أكثر من 11 ألف صورة و 1.7 مليون صندوق بيانات محيط. +- [VisDrone](../../datasets/detect/visdrone.md): مجموعة بيانات تحتوي على كشف الكائنات ونماذج تعقب لأجسام متعددة من الصور الملتقطة بواسطة طائرات بدون طيار بأكثر من 10 ألف صورة وتسلسلات فيديو. +- [VOC](../../datasets/detect/voc.md): مجموعة بيانات Pascal Visual Object Classes (VOC) لكشف الكائنات والتجزئة بـ20 فئة من الكائنات وأكثر من 11 ألف صورة. +- [xView](../../datasets/detect/xview.md): مجموعة بيانات لكشف الكائنات في الصور الملتقطة من الأعلى بـ 60 فئة من الكائنات وأكثر من مليون كائن محدد ملحوظ. + +## [مجموعات بيانات التجزئة النمطية](../../datasets/segment/index.md) + +تعتبر التجزئة النمطية تقنية في الرؤية الحاسوبية تتطلب تحديد أجسام وتحديد مكانها في مستوى البكسل في الصورة. + +- [COCO](../../datasets/segment/coco.md): مجموعة بيانات كبيرة مصممة للكشف والتجزئة والتسمية تحتوي على أكثر من 200 ألف صورة معتمدة. +- [COCO8-seg](../../datasets/segment/coco8-seg.md): مجموعة بيانات أصغر لمهام التجزئة النمطية ، تحتوي على مجموعة فرعية من 8 صور COCO مع تسميات التجزئة. + +## [تقدير الركض](../../datasets/pose/index.md) + +تقدير الركض هو تقنية تُستخدم لتحديد وضع الكائن مقارنةً بالكاميرا أو نظام الإحداثيات العالمية. + +- [COCO](../../datasets/pose/coco.md): مجموعة بيانات كبيرة بتعليقات وضع الإنسان المصممة لمهام تقدير الركض. +- [COCO8-pose](../../datasets/pose/coco8-pose.md): مجموعة بيانات أصغر لمهام تقدير الركض ، تحتوي على مجموعة فرعية من 8 صور COCO مع تغييرات في وضع الإنسان. +- [تقدير الركض النمر](../../datasets/pose/tiger-pose.md): مجموعة بيانات مدمجة تتكون من 263 صورة مركزة على النمور ، مع 12 نقطة مرجعية لكل نمر لمهام تقدير الركض. + +## [التصنيف](../../datasets/classify/index.md) + +تصنيف الصورة هو مهمة في الرؤية الحاسوبية تتضمن تصنيف صورة في فئة أو أكثر محددة مسبقًا بناءً على محتواها البصري. + +- [كالتك 101](../../datasets/classify/caltech101.md): مجموعة بيانات تحتوي على صور لـ 101 فئة من الكائنات لمهام تصنيف الصور. +- [كالتك 256](../../datasets/classify/caltech256.md): نسخة موسعة من Caltech 101 بـ 256 فئة من الكائنات وصور أكثر تحديًا. +- [CIFAR-10](../../datasets/classify/cifar10.md): مجموعة بيانات تحتوي على 60 ألف صورة ملونة بحجم 32x32 بكسل في 10 فئات ، مع 6 آلاف صورة لكل فئة. +- [CIFAR-100](../../datasets/classify/cifar100.md): نسخة موسعة من CIFAR-10 بـ 100 فئة من الكائنات و 600 صورة لكل فئة. +- [Fashion-MNIST](../../datasets/classify/fashion-mnist.md): مجموعة بيانات تتكون من 70,000 صورة رمادية لـ 10 فئات من الملابس لمهام تصنيف الصور. +- [ImageNet](../../datasets/classify/imagenet.md): مجموعة بيانات بمقياس كبير لكشف الكائنات وتصنيف الصور بأكثر من 14 مليون صورة و 20,000 فئة. +- [ImageNet-10](../../datasets/classify/imagenet10.md): نسخة أصغر من ImageNet مع 10 فئات للاختبار والتجربة الأسرع. +- [Imagenette](../../datasets/classify/imagenette.md): مجموعة فرعية أصغر لـ ImageNet تحتوي على 10 فئات يمكن التمييز بينها بسهولة للتدريب والاختبار الأسرع. +- [Imagewoof](../../datasets/classify/imagewoof.md): نسخة أكثر تحديًا من ImageNet تحتوي على 10 فئات من فئات كلاب العنبر لمهام تصنيف الصور. +- [MNIST](../../datasets/classify/mnist.md): مجموعة بيانات تتكون من 70,000 صورة رمادية للأرقام المكتوبة يدويًا لمهام تصنيف الصور. + +## [صناديق الحدود الموجهة (OBB)](../../datasets/obb/index.md) + +صناديق الحدود الموجهة (OBB) هي طريقة في الرؤية الحاسوبية لاكتشاف الكائنات ذات زوايا في الصور باستخدام صناديق حدود مدورة تمت تدويرها ، وغالبًا ما يتم تطبيقها على صور الأقمار الصناعية والطائرات بدون طيار. + +- [DOTAv2](../../datasets/obb/dota-v2.md): مجموعة بيانات OBB الجوية الشهيرة بـ 1.7 مليون حالة و 11,268 صورة. + +## [تتبع الكائنات المتعددة](../../datasets/track/index.md) + +تعتبر تتبع الكائنات المتعددة تقنية في الرؤية الحاسوبية تتضمن كشف وتتبع عدة كائنات معًا عبر الزمن في سلسلة فيديو. + +- [Argoverse](../../datasets/detect/argoverse.md): مجموعة بيانات تحتوي على بيانات تتبع ثلاثية الأبعاد وتنبؤ الحركة من البيئات الحضرية مع توجيه البيانات بشكل جيد لمهام تتبع الكائنات المتعددة. +- [VisDrone](../../datasets/detect/visdrone.md): مجموعة بيانات تحتوي على كشف الكائنات ونماذج تتبع لأجسام متعددة من الصور الملتقطة بواسطة طائرات بدون طيار بأكثر من 10 ألف صورة وتسلسلات فيديو. + +## المساهمة في مجموعات بيانات جديدة + +تشمل المساهمة في مجموعة بيانات جديدة عدة خطوات لضمان توافقها مع البنية القائمة. فيما يلي الخطوات اللازمة: + +### الخطوات المطلوبة للمساهمة في مجموعة بيانات جديدة + +1. **جمع الصور**: اجمع الصور التي تنتمي إلى مجموعة البيانات. يمكن جمع هذه الصور من مصادر مختلفة مثل قواعد البيانات العامة أو مجموعتك الخاصة. + +2. **وضع تعليقات على الصور**: قم بإضافة تعليقات على هذه الصور مع صناديق الحدود أو الشرائح أو النقاط التي تعتمد على المهمة. + +3. **تصدير التعليقات**: قم بتحويل هذه التعليقات إلى تنسيق الملف *.txt *.txt المدعوم من Ultralytics. + +4. **تنظيم مجموعة البيانات**: قم بترتيب مجموعة البيانات الخاصة بك في البنية المجلدات الصحيحة. يجب أن تحتوي على مجلدات أعلى المستوى `train/` و `val/` ، وداخل كل منهما ، مجلدات فرعية للـ `images/` و `labels/`. + + ``` + dataset/ + ├── train/ + │ ├── images/ + │ └── labels/ + └── val/ + ├── images/ + └── labels/ + ``` + +5. **إنشاء ملف `data.yaml`**: في المجلد الجذري لمجموعة البيانات الخاصة بك ، قم بإنشاء ملف `data.yaml` يصف المجموعة البيانات والفئات وغيرها من المعلومات الضرورية. + +6. **تحسين الصور (اختياري)**: إذا كنت ترغب في تقليل حجم مجموعة البيانات لمزيد من الكفاءة في المعالجة ، فيمكنك تحسين الصور باستخدام الكود أدناه. لا يلزم ذلك ، ولكنه موصى به لأحجام مجموعات البيانات الأصغر وسرعات التنزيل الأسرعة. + +7. **ضغط مجموعة البيانات**: قم بضغط مجلد مجموعة البيانات بالكامل وضعه في ملف zip. + +8. **الوثائق وإرسال طلب السحب (PR)**: قم بإنشاء صفحة وثائق تصف مجموعة البيانات الخاصة بك وكيف تتوافق مع الإطار القائم. بعد ذلك ، قدم طلب سحب (PR). راجع [مبادئ المساهمة في Ultralytics](https://docs.ultralytics.com/help/contributing) لمزيد من التفاصيل حول كيفية تقديم طلب السحب (PR). + +### كود مثال لتحسين وضغط مجموعة البيانات + +!!! Example "تحسين وضغط مجموعة البيانات" + + === "Python" + + ```python + from pathlib import Path + from ultralytics.data.utils import compress_one_image + from ultralytics.utils.downloads import zip_directory + + # تعيين مسار مجلد مجموعة البيانات + path = Path('path/to/dataset') + + # تحسين الصور في مجموعة البيانات (اختياري) + for f in path.rglob('*.jpg'): + compress_one_image(f) + + # ضغط مجلد مجموعة البيانات في ملف زيب + zip_directory(path) + ``` + +باتباع هذه الخطوات ، يمكنك المساهمة في مجموعة بيانات جديدة تتكامل بشكل جيد مع البنية القائمة لـ Ultralytics. diff --git a/docs/ar/index.md b/docs/ar/index.md new file mode 100644 index 0000000000..a3caa594ff --- /dev/null +++ b/docs/ar/index.md @@ -0,0 +1,82 @@ +--- +comments: true +description: استكشف دليل كامل لـ Ultralytics YOLOv8 ، نموذج كشف الكائنات وتجزئة الصور ذو السرعة العالية والدقة العالية. تثبيت المحررة ، والتنبؤ ، والتدريب والمزيد. +keywords: Ultralytics، YOLOv8، كشف الكائنات، تجزئة الصور، التعلم الآلي، التعلم العميق، الرؤية الحاسوبية، YOLOv8 installation، YOLOv8 prediction، YOLOv8 training، تاريخ YOLO، تراخيص YOLO +--- + +
+

+ + Ultralytics YOLO banner +

+ Ultralytics GitHub + + Ultralytics LinkedIn + + Ultralytics Twitter + + Ultralytics YouTube + + Ultralytics TikTok + + Ultralytics Instagram + + Ultralytics Discord +
+
+ Ultralytics CI + Ultralytics Code Coverage + YOLOv8 Citation + Docker Pulls +
+ Run on Gradient + Open In Colab + Open In Kaggle +
+ +يتم تقديم [Ultralytics](https://ultralytics.com) [YOLOv8](https://github.com/ultralytics/ultralytics) ، أحدث إصدار من نموذج كشف الكائنات وتجزئة الصور المشهورة للوقت الفعلي. يعتمد YOLOv8 على التطورات المتقدمة في التعلم العميق والرؤية الحاسوبية ، ويقدم أداءً فائقًا من حيث السرعة والدقة. يجعل التصميم البسيط له مناسبًا لمختلف التطبيقات وقابلًا للتكيف بسهولة مع منصات الأجهزة المختلفة ، من الأجهزة الحافة إلى واجهات برمجة التطبيقات في السحابة. + +استكشف أدلة YOLOv8 ، وهي مورد شامل يهدف إلى مساعدتك في فهم واستخدام ميزاته وقدراته. سواء كنت ممارسًا في مجال التعلم الآلي من ذوي الخبرة أو جديدًا في هذا المجال ، فإن الهدف من هذا المركز هو تحقيق الحد الأقصى لإمكانات YOLOv8 في مشاريعك. + +!!! Note + + 🚧 تم تطوير وثائقنا متعددة اللغات حاليًا ، ونعمل بجد لتحسينها. شكراً لصبرك! 🙏 + +## من أين أبدأ + +- **تثبيت** `ultralytics` بواسطة pip والبدء في العمل في دقائق   [:material-clock-fast: ابدأ الآن](quickstart.md){ .md-button } +- **توقع** الصور ومقاطع الفيديو الجديدة بواسطة YOLOv8   [:octicons-image-16: توقع على الصور](modes/predict.md){ .md-button } +- **تدريب** نموذج YOLOv8 الجديد على مجموعة البيانات المخصصة الخاصة بك   [:fontawesome-solid-brain: قم بتدريب نموذج](modes/train.md){ .md-button } +- **استكشاف** مهام YOLOv8 مثل التجزئة والتصنيف والوضع والتتبع   [:material-magnify-expand: استكشاف المهام](tasks/index.md){ .md-button } + +

+
+ +
+ مشاهدة: كيفية تدريب نموذج YOLOv8 على مجموعة بيانات مخصصة في جوجل كولاب. +

+ +## YOLO: نبذة تاريخية + +تم تطوير [YOLO](https://arxiv.org/abs/1506.02640) (You Only Look Once) ، نموذج شهير لكشف الكائنات وتجزئة الصور ، من قبل جوزيف ريدمون وعلي فرهادي في جامعة واشنطن. في عام 2015 ، حققت YOLO شهرة سريعة بفضل سرعتها العالية ودقتها. + +- [YOLOv2](https://arxiv.org/abs/1612.08242) ، الذي تم إصداره في عام 2016 ، قام بتحسين النموذج الأصلي من خلال دمج التطبيع التشغيلي ، ومربعات الربط ، ومجموعات الأبعاد. +- [YOLOv3](https://pjreddie.com/media/files/papers/YOLOv3.pdf) ، الذي تم إطلاقه في عام 2018 ، قدم تحسينات إضافية لأداء النموذج باستخدام شبكة ظهر أكثر كفاءة ومرشحات متعددة وتجميع هرم المساحة. +- تم إصدار [YOLOv4](https://arxiv.org/abs/2004.10934) في عام 2020 ، وقدم ابتكارات مثل زيادة المساعدات في البيانات ، ورأس جديد للكشف غير المرتبط بالمرابط ، ووظيفة فقدان جديدة. +- [YOLOv5](https://github.com/ultralytics/yolov5) قام بتحسين أداء النموذج وأضاف ميزات جديدة مثل تحسين ثوابت النموذج ، وتعقب التجارب المتكامل والتصدير التلقائي إلى تنسيقات التصدير الشهيرة. +- [YOLOv6](https://github.com/meituan/YOLOv6) تم تَوْزيعه على [Meituan](https://about.meituan.com/) في عام 2022 وهو قيد الاستخدام في العديد من روبوتات التسليم الذاتي للشركة. +- [YOLOv7](https://github.com/WongKinYiu/yolov7) أضاف مهمات إضافية مثل تقدير الوضع على مجموعة بيانات نقاط COCO الرئيسية. +- [YOLOv8](https://github.com/ultralytics/ultralytics) هو أحدث إصدار من YOLO بواسطة Ultralytics. باعتباره نموذجًا حديثًا وفريدًا من نوعه ، فإن YOLOv8 يبني على نجاح الإصدارات السابقة ، ويقدم ميزات وتحسينات جديدة لتحسين الأداء والمرونة والكفاءة. يدعم YOLOv8 مجموعة كاملة من مهام الذكاء الصناعي للرؤية ، بما في ذلك [الكشف](tasks/detect.md) ، [التجزئة](tasks/segment.md) ، [تقدير الوضع](tasks/pose.md) ، [التتبع](modes/track.md) ، و [التصنيف](tasks/classify.md). تتيح هذه القابلية للتكيف للمستخدمين استغلال قدرات YOLOv8 في تطبيقات ومجالات متنوعة. + +## تراخيص YOLO: كيف يتم ترخيص Ultralytics YOLO؟ + +يوفر Ultralytics خيارين للترخيص لاستيعاب الحالات الاستخدام المتنوعة: + +- **ترخيص AGPL-3.0**: هذا الترخيص مفتوح المصدر والمعتمد من [OSI](https://opensource.org/licenses/) وهو مثالي للطلاب والهواة ، ويشجع على التعاون المفتوح ومشاركة المعرفة. راجع ملف [LICENSE](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) لمزيد من التفاصيل. +- **ترخيص المؤسسة**: صمم للاستخدام التجاري ، يسمح هذا الترخيص بدمج سلس للبرمجيات ونماذج AI الخاصة بشركة Ultralytics في السلع والخدمات التجارية ، وتفادي متطلبات المصدر المفتوح لـ AGPL-3.0. إذا تشمل سيناريو الخاص بك تضمين حلولنا في عرض تجاري ، فيرجى التواصل من خلال [Ultralytics Licensing](https://ultralytics.com/license). + +تم تصميم استراتيجية الترخيص الخاصة بنا لضمان أن أي تحسينات على مشاريعنا مفتوحة المصدر يتم إرجاعها إلى المجتمع. نحمل مبادئ المصدر المفتوح قريبة من قلوبنا ❤️ ، ومهمتنا هي ضمان أن يمكن استخدام وتوسيع مساهماتنا بطرق تعود بالنفع على الجميع. diff --git a/docs/ar/models/index.md b/docs/ar/models/index.md new file mode 100644 index 0000000000..f5a31db02a --- /dev/null +++ b/docs/ar/models/index.md @@ -0,0 +1,93 @@ +--- +comments: true +description: استكشف مجموعة متنوعة من عائلة YOLO، SAM، MobileSAM، FastSAM، YOLO-NAS ونماذج RT-DETR المدعومة بواسطة Ultralytics. ابدأ مع أمثلة للإستخدام باستخدام واجهة سطر الأوامر ولغة البايثون. +keywords: Ultralytics، مستندات، YOLO، SAM، MobileSAM، FastSAM، YOLO-NAS، RT-DETR، نماذج، هندسات، Python، CLI +--- + +# النماذج المدعومة بواسطة Ultralytics + +مرحبًا بك في مستندات نماذج Ultralytics! نحن نقدم دعمًا لمجموعة واسعة من النماذج، وكل نموذج مصمم لمهام محددة مثل [كشف الكائنات](../tasks/detect.md)، [تجزئة الحالات](../tasks/segment.md)، [تصنيف الصور](../tasks/classify.md)، [تقدير الوضع](../tasks/pose.md)، و[تتبع العديد من الكائنات](../modes/track.md). إذا كنت مهتمًا بالمساهمة في بنية نموذجك في Ultralytics ، تحقق من [دليل المساهمة](../../help/contributing.md). + +!!! Note + + 🚧 مستنداتنا متعددة اللغات قيد الإنشاء حاليًا ونحن نعمل بجد لتحسينها. شكرا لك على صبرك! 🙏 + +## النماذج المميزة + +فيما يلي بعض النماذج الرئيسية المدعمة: + +1. **[YOLOv3](../../models/yolov3.md)**: الإصدار الثالث من عائلة نموذج YOLO، والذي أنشأه جوزيف ريدمون، والمعروف بقدرته على الكشف في الوقت الحقيقي بكفاءة. +2. **[YOLOv4](../../models/yolov4.md)**: تحديث لنموذج YOLOv3 الأصلي من قبل اليكسي بوتشكوفسكي في عام 2020. +3. **[YOLOv5](../../models/yolov5.md)**: إصدار محسن لبنية YOLO بواسطة Ultralytics ، يقدم أداءً أفضل وتفاوتات سرعة مقارنة بالإصدارات السابقة. +4. **[YOLOv6](../../models/yolov6.md)**: تم إصداره بواسطة [ميتوان](https://about.meituan.com/) في عام 2022 ، ويستخدم في العديد من روبوتات التسليم الذاتي للشركة. +5. **[YOLOv7](../../models/yolov7.md)**: نماذج YOLO المحدثة التي تم إطلاقها في عام 2022 من قبل أصحاب YOLOv4. +6. **[YOLOv8](../../models/yolov8.md)**: أحدث إصدار من عائلة YOLO ، ويتميز بقدرات محسنة مثل تجزئة الحالات، وتقدير النقاط الرئيسة، والتصنيف. +7. **[Segment Anything Model (SAM)](../../models/sam.md)**: نموذج Segment Anything Model (SAM) من Meta. +8. **[Mobile Segment Anything Model (MobileSAM)](../../models/mobile-sam.md)**: MobileSAM لتطبيقات الهواتف المحمولة ، من جامعة Kyung Hee. +9. **[Fast Segment Anything Model (FastSAM)](../../models/fast-sam.md)**: FastSAM من مجموعة تحليل الصور والفيديو، معهد الأتمتة، الأكاديمية الصينية للعلوم. +10. **[YOLO-NAS](../../models/yolo-nas.md)**: نماذج YOLO للبحث في تصميم العمارة العصبية. +11. **[Realtime Detection Transformers (RT-DETR)](../../models/rtdetr.md)**: نماذج PaddlePaddle Realtime Detection Transformer (RT-DETR) من Baidu. + +

+
+ +
+ شاهد: قم بتشغيل نماذج Ultralytics YOLO في بضعة أسطر من الكود. +

+ +## البدء: أمثلة للإستخدام + +!!! Example "مثال" + + === "Python" + + يمكن تمرير نماذج PyTorch مدربة سابقًا بتنسيق `*.pt` بالإضافة إلى ملفات التكوين بتنسيق `*.yaml` إلى فئات `YOLO()`، `SAM()`، `NAS()` و `RTDETR()` لإنشاء نموذج في Python: + + ```python + from ultralytics import YOLO + + # قم بتحميل نموذج YOLOv8n المدرب بـ COCO المسبق + model = YOLO('yolov8n.pt') + + # عرض معلومات النموذج (اختياري) + model.info() + + # قم بتدريب النموذج على مجموعة بيانات COCO8 لمدة 100 حقبة + results = model.train(data='coco8.yaml', epochs=100, imgsz=640) + + # قم بتشغيل الاستدلال مع نموذج YOLOv8n على صورة 'bus.jpg' + results = model('path/to/bus.jpg') + ``` + === "CLI" + + هناك أوامر CLI متاحة لتشغيل النماذج مباشرةً: + + ```bash + # قم بتحميل نموذج YOLOv8n المدرب بـ COCO المسبق و تدريبه على مجموعة بيانات COCO8 لمدة 100 حقبة + yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640 + + # قم بتحميل نموذج YOLOv8n المدرب بـ COCO المسبق و قم بتشغيل الاستدلال على صورة 'bus.jpg' + yolo predict model=yolov8n.pt source=path/to/bus.jpg + ``` + +## المساهمة في نماذج جديدة + +هل ترغب في المساهمة بنموذجك في Ultralytics؟ رائع! نحن مفتوحون دائمًا لتوسيع مجموعة النماذج الخاصة بنا. + +1. **انسخ المستودع**: ابدأ بإنشاء فرع جديد في مستودع [Ultralytics GitHub repository ](https://github.com/ultralytics/ultralytics). + +2. **نسخ Fork الخاص بك**: نسخ Fork الخاص بك إلى جهاز الكمبيوتر المحلي الخاص بك وأنشئ فرعًا جديدًا للعمل عليه. + +3. **اتبع نموذجك**: قم بإضافة نموذجك وفقًا لمعايير البرمجة والتوجيهات المقدمة في [دليل المساهمة](../../help/contributing.md). + +4. **اختبر بدقة**: تأكد من اختبار نموذجك بدقة ، سواء بشكل منفصل أم كجزء من السلسلة. + +5. **أنشئ طلبًا للدمج**: بمجرد أن تكون راضيًا عن نموذجك، قم بإنشاء طلب للدمج إلى البرنامج الرئيسي للمراجعة. + +6. **استعراض ودمج الكود**: بعد المراجعة، إذا كان نموذجك يلبي معاييرنا، فسيتم دمجه في البرنامج الرئيسي. + +للخطوات المفصلة ، استشر [دليل المساهمة](../../help/contributing.md). diff --git a/docs/ar/modes/benchmark.md b/docs/ar/modes/benchmark.md new file mode 100644 index 0000000000..506240afac --- /dev/null +++ b/docs/ar/modes/benchmark.md @@ -0,0 +1,94 @@ +--- +comments: true +description: تعرف على كيفية قياس سرعة ودقة YOLOv8 عبر تنسيقات التصدير المختلفة. احصل على رؤى حول مقاييس mAP50-95 وaccuracy_top5 والمزيد. +keywords: Ultralytics، YOLOv8، اختبار الأداء، قياس السرعة، قياس الدقة، مقاييس mAP50-95 وaccuracy_top5، ONNX، OpenVINO، TensorRT، تنسيقات تصدير YOLO +--- + +# اختبار النموذج باستخدام Ultralytics YOLO + +Ultralytics YOLO ecosystem and integrations + +## المقدمة + +بمجرد أن يتم تدريب نموذجك وتحقق صحته ، فإن الخطوة التالية بشكل منطقي هي تقييم أدائه في سيناريوهات العالم الحقيقي المختلفة. يوفر وضع الاختبار في Ultralytics YOLOv8 هذا الهدف من خلال توفير إطار قوي لتقييم سرعة ودقة النموذج عبر مجموعة من صيغ التصدير. + +## لماذا هو اختبار الأداء مهم؟ + +- **قرارات مستنيرة:** اكتساب رؤى حول التنازلات بين السرعة والدقة. +- **تخصيص الموارد:** فهم كيفية أداء تنسيقات التصدير المختلفة على أجهزة مختلفة. +- **تحسين:** تعلم أي تنسيق تصدير يقدم أفضل أداء لحالتك الاستخدامية المحددة. +- **كفاءة التكلفة:** استخدام الموارد الأجهزة بشكل أكثر كفاءة بناءً على نتائج الاختبار. + +### المقاييس الرئيسية في وضع الاختبار + +- **mAP50-95:** لكشف الكائنات وتقسيمها وتحديد الوضع. +- **accuracy_top5:** لتصنيف الصور. +- **وقت التتبع:** الوقت المستغرق لكل صورة بالميلي ثانية. + +### تنسيقات التصدير المدعومة + +- **ONNX:** لأفضل أداء على وحدة المعالجة المركزية. +- **TensorRT:** لأقصى استفادة من وحدة المعالجة الرسومية. +- **OpenVINO:** لتحسين الأجهزة من إنتل. +- **CoreML و TensorFlow SavedModel وما إلى ذلك:** لتلبية احتياجات النشر المتنوعة. + +!!! Tip "نصيحة" + + * قم بتصدير إلى نموذج ONNX أو OpenVINO لزيادة سرعة وحدة المعالجة المركزية بمقدار 3 مرات. + * قم بتصدير إلى نموذج TensorRT لزيادة سرعة وحدة المعالجة الرسومية بمقدار 5 مرات. + +## أمثلة على الاستخدام + +قم بتشغيل اختبارات YOLOv8n على جميع تنسيقات التصدير المدعومة بما في ذلك ONNX و TensorRT وما إلى ذلك. انظر القسم الموجود أدناه للحصول على قائمة كاملة من وسيطات التصدير. + +!!! Example "مثال" + + === "Python" + + ```python + from ultralytics.utils.benchmarks import benchmark + + # اختبار على وحدة المعالجة الرسومية + benchmark(model='yolov8n.pt', data='coco8.yaml', imgsz=640, half=False, device=0) + ``` + === "CLI" + + ```bash + yolo benchmark model=yolov8n.pt data='coco8.yaml' imgsz=640 half=False device=0 + ``` + +## وسيطات + +توفر الوسائط مثل `model` و `data` و `imgsz` و `half` و `device` و `verbose` مرونة للمستخدمين لضبط الاختبارات حسب احتياجاتهم المحددة ومقارنة أداء تنسيقات التصدير المختلفة بسهولة. + +| المفتاح | القيمة | الوصف | +|-----------|---------|---------------------------------------------------------------------------------------------------| +| `model` | `None` | مسار إلى ملف النموذج ، على سبيل المثال yolov8n.pt ، yolov8n.yaml | +| `data` | `None` | مسار إلى YAML يشير إلى مجموعة بيانات اختبار الأداء (بتحتوى على بيانات `val`) | +| `imgsz` | `640` | حجم الصورة كرقم ، أو قائمة (h ، w) ، على سبيل المثال (640، 480) | +| `half` | `False` | تقليل دقة العدد العشرى للأبعاد (FP16 quantization) | +| `int8` | `False` | تقليل دقة العدد الصحيح 8 بت (INT8 quantization) | +| `device` | `None` | الجهاز الذى ستعمل عليه العملية ، على سبيل المثال cuda device=0 أو device=0,1,2,3 أو device=cpu | +| `verbose` | `False` | عدم المتابعة عند حدوث خطأ (مقدار منطقى)، أو مستوى الكشف عند تجاوز حد القيمة المطلوبة (قيمة عائمة) | + +## صيغ التصدير + +سيحاول التطبيق تشغيل الاختبارات تلقائيًا على جميع صيغ التصدير الممكنة الموجودة أدناه. + +| Format | `format` Argument | Model | Metadata | Arguments | +|--------------------------------------------------------------------|-------------------|---------------------------|----------|-----------------------------------------------------| +| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | +| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | +| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | +| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half`, `int8` | +| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | +| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | +| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras`, `int8` | +| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | +| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | +| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | +| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | +| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | +| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | + +انظر تفاصيل التصدير الكاملة في الصفحة [Export](https://docs.ultralytics.com/modes/export/) diff --git a/docs/ar/modes/export.md b/docs/ar/modes/export.md new file mode 100644 index 0000000000..f555ec0599 --- /dev/null +++ b/docs/ar/modes/export.md @@ -0,0 +1,108 @@ +--- +comments: true +description: دليل خطوة بخطوة حول تصدير نماذج YOLOv8 الخاصة بك إلى تنسيقات مختلفة مثل ONNX و TensorRT و CoreML وغيرها للنشر. استكشف الآن!. +keywords: YOLO، YOLOv8، Ultralytics، تصدير النموذج، ONNX، TensorRT، CoreML، TensorFlow SavedModel، OpenVINO، PyTorch، تصدير النموذج +--- + +# تصدير النموذج باستخدام يولو من Ultralytics + +إكوسيستم يولو من Ultralytics والتكاملات + +## مقدمة + +الهدف النهائي لتدريب نموذج هو نشره لتطبيقات العالم الحقيقي. يوفر وضع التصدير في يولو من Ultralytics مجموعة متنوعة من الخيارات لتصدير النموذج المدرب إلى تنسيقات مختلفة، مما يجعله يمكن استخدامه في مختلف الأنظمة والأجهزة. يهدف هذا الدليل الشامل إلى مساعدتك في فهم تفاصيل تصدير النموذج، ويعرض كيفية تحقيق أقصى توافق وأداء. + +

+
+ +
+ شاهد: كيفية تصدير نموذج Ultralytics YOLOv8 التدريب المخصص وتشغيل الاستدلال المباشر على كاميرا الويب. +

+ +## لماذا اختيار وضع تصدير YOLOv8؟ + +- **التنوع:** تصدير إلى تنسيقات متعددة بما في ذلك ONNX و TensorRT و CoreML ، وغيرها. +- **الأداء:** الحصول على سرعة تسريع تصل إلى 5 أضعاف باستخدام TensorRT وسرعة تسريع معالج الكمبيوتر المركزي بنسبة 3 أضعاف باستخدام ONNX أو OpenVINO. +- **التوافقية:** جعل النموذج قابلاً للنشر على الأجهزة والبرامج المختلفة. +- **سهولة الاستخدام:** واجهة سطر الأوامر البسيطة وواجهة برمجة Python لتصدير النموذج بسرعة وسهولة. + +### الميزات الرئيسية لوضع التصدير + +إليك بعض من الميزات المميزة: + +- **تصدير بنقرة واحدة:** أوامر بسيطة لتصدير إلى تنسيقات مختلفة. +- **تصدير الدُفعات:** تصدير نماذج قادرة على العمل مع الدُفعات. +- **تنفيذ محسَّن:** يتم تحسين النماذج المصدرة لتوفير وقت تنفيذ أسرع. +- **فيديوهات تعليمية:** مرشدين وفيديوهات تعليمية لتجربة تصدير سلسة. + +!!! Tip "نصيحة" + + * صدّر إلى ONNX أو OpenVINO للحصول على تسريع معالج الكمبيوتر المركزي بنسبة 3 أضعاف. + * صدّر إلى TensorRT للحصول على تسريع وحدة المعالجة الرسومية بنسبة 5 أضعاف. + +## أمثلة للاستخدام + +قم بتصدير نموذج YOLOv8n إلى تنسيق مختلف مثل ONNX أو TensorRT. انظر الجدول أدناه للحصول على قائمة كاملة من وسائط التصدير. + +!!! Example "مثال" + + === "بايثون" + + ```python + from ultralytics import YOLO + + # قم بتحميل نموذج + model = YOLO('yolov8n.pt') # تحميل نموذج رسمي + model = YOLO('path/to/best.pt') # تحميل نموذج مدرب مخصص + + # قم بتصدير النموذج + model.export(format='onnx') + ``` + === "واجهة سطر الأوامر" + + ```bash + yolo export model=yolov8n.pt format=onnx # تصدير نموذج رسمي + yolo export model=path/to/best.pt format=onnx # تصدير نموذج مدرب مخصص + ``` + +## الوسائط + +تشير إعدادات تصدير YOLO إلى التكوينات والخيارات المختلفة المستخدمة لحفظ أو تصدير النموذج للاستخدام في بيئات أو منصات أخرى. يمكن أن تؤثر هذه الإعدادات على أداء النموذج وحجمه وتوافقه مع الأنظمة المختلفة. تشمل بعض إعدادات تصدير YOLO الشائعة تنسيق ملف النموذج المصدر (مثل ONNX وتنسيق TensorFlow SavedModel) والجهاز الذي سيتم تشغيل النموذج عليه (مثل المعالج المركزي أو وحدة المعالجة الرسومية) ووجود ميزات إضافية مثل الأقنعة أو التسميات المتعددة لكل مربع. قد تؤثر عوامل أخرى قد تؤثر عملية التصدير تشمل المهمة النموذجة المحددة التي يتم استخدام النموذج لها ومتطلبات أو قيود البيئة أو المنصة المستهدفة. من المهم أن ننظر بعناية ونقوم بتكوين هذه الإعدادات لضمان أن النموذج المصدر هو محسَّن للحالة الاستخدام المقصودة ويمكن استخدامه بشكل فعال في البيئة المستهدفة. + +| المفتاح | القيمة | الوصف | +|-------------|-----------------|-----------------------------------------------------------------------| +| `format` | `'torchscript'` | التنسيق المراد تصديره | +| `imgsz` | `640` | حجم الصورة كمقدار علمي أو قائمة (h ، w) ، على سبيل المثال (640 ، 480) | +| `keras` | `False` | استخدام Keras لتصدير TF SavedModel | +| `optimize` | `False` | TorchScript: الأمثل للجوال | +| `half` | `False` | تكميم FP16 | +| `int8` | `False` | تكميم INT8 | +| `dynamic` | `False` | ONNX/TensorRT: المحاور الديناميكية | +| `simplify` | `False` | ONNX/TensorRT: تبسيط النموذج | +| `opset` | `None` | ONNX: إصدار opset (اختياري ، الافتراضي هو الأحدث) | +| `workspace` | `4` | TensorRT: حجم مساحة العمل (GB) | +| `nms` | `False` | CoreML: إضافة NMS | + +## تنسيقات التصدير + +صيغ تصدير YOLOv8 المتاحة في الجدول أدناه. يمكنك التصدير إلى أي تنسيق باستخدام الوسيطة `format` ، مثل `format='onnx'` أو `format='engine'`. + +| التنسيق | وسيطة format | النموذج | البيانات الوصفية | الوسائط | +|--------------------------------------------------------------------|---------------|---------------------------|------------------|-----------------------------------------------------| +| [بايثورش](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | +| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `تورتشسيريبت` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | +| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | +| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half`, `int8` | +| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | +| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | +| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras`, `int8` | +| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | +| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | +| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | +| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | +| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | +| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | diff --git a/docs/ar/modes/index.md b/docs/ar/modes/index.md new file mode 100644 index 0000000000..5bd4521bd4 --- /dev/null +++ b/docs/ar/modes/index.md @@ -0,0 +1,77 @@ +--- +comments: true +description: من التدريب إلى التتبع، استفد من YOLOv8 مع Ultralytics. احصل على نصائح وأمثلة لكل وضع مدعوم بما في ذلك التحقق والتصدير واختبار الأداء. +keywords: Ultralytics, YOLOv8, التعلم الآلي، كشف الكائنات، التدريب، التحقق، التنبؤ، التصدير، التتبع، اختبار الأداء +--- + +# أوضاع Ultralytics YOLOv8 + +بيئة عمل Ultralytics YOLO والتكاملات + +## المقدمة + +YOLOv8 من Ultralytics ليست مجرد نموذج لكشف الكائنات آخر؛ إنها إطار متعدد الاستخدامات مصمم لتغطية دورة حياة نماذج التعلم الآلي بأكملها - من امتصاص البيانات وتدريب النموذج إلى التحقق والنشر وتتبع الواقع الحقيقي. يخدم كل وضع غرضًا محددًا وهو مصمم لتوفير المرونة والكفاءة المطلوبة للمهام والحالات الاستخدام المختلفة. + +!!! Note + + 🚧 توثيقنا متعدد اللغات قيد الإنشاء حاليًا، ونحن نعمل بجهد لتحسينه. شكرًا لك على صبرك! 🙏 + +

+
+ +
+ شاهد: برنامج التعليم Ultralytics: تدريب، التحقق، التنبؤ، التصدير، واختبار الأداء. +

+ +### أوضاع مختصرة + +فهم ال**أوضاع** المختلفة المدعومة بواسطة Ultralytics YOLOv8 مهم جدًا للاستفادة القصوى من النماذج الخاصة بك: + +- وضع **التدريب**: قم بضبط نموذجك على مجموعة بيانات مخصصة أو محملة مسبقًا. +- وضع **التحقق**: نقطة فحص بعد التدريب لتقييم أداء النموذج. +- وضع **التنبؤ**: اطلق قوة التنبؤ الخاصة بنموذجك على البيانات الحقيقية. +- وضع **التصدير**: قم بتجهيز نموذجك للاستخدام في صيغ مختلفة. +- وضع **التتبع**: قم بتوسيع نموذج الكشف عن الكائنات الخاص بك إلى تطبيقات التتبع في الوقت الحقيقي. +- وضع **اختبار الأداء**: قم بتحليل سرعة ودقة نموذجك في بيئات نشر متنوعة. + +يهدف هذا الدليل الشامل إلى تقديم لمحة عامة ونصائح عملية حول كل وضع، لمساعدتك في استغلال كامل إمكانات YOLOv8. + +## [وضع التدريب](train.md) + +يتم استخدام وضع التدريب لتدريب نموذج YOLOv8 على مجموعة بيانات مخصصة. في هذا الوضع، يتم تدريب النموذج باستخدام مجموعة البيانات والمعلمات الهايبر للحصول على دقة في توقع الفئات ومواقع الكائنات في الصورة. + +[أمثلة التدريب](train.md){ .md-button .md-button--primary} + +## [وضع التحقق](val.md) + +يتم استخدام وضع التحقق للتحقق من نموذج YOLOv8 بعد تدريبه. في هذا الوضع، يتم تقييم النموذج على مجموعة التحقق لقياس دقته وأداء التعميم. يمكن استخدام هذا الوضع لتعديل المعلمات الهايبر للنموذج لتحسين أدائه. + +[أمثلة التحقق](val.md){ .md-button .md-button--primary} + +## [وضع التنبؤ](predict.md) + +يتم استخدام وضع التنبؤ لإجراء تنبؤات باستخدام نموذج YOLOv8 المدرب على صور أو فيديوهات جديدة. في هذا الوضع، يتم تحميل النموذج من ملف الفحص، ويمكن للمستخدم توفير الصور أو مقاطع الفيديو لإجراء استدلال. يقوم النموذج بتوقع الفئات ومواقع الكائنات في الصور أو مقاطع الفيديو المدخلة. + +[أمثلة التنبؤ](predict.md){ .md-button .md-button--primary} + +## [وضع التصدير](export.md) + +يتم استخدام وضع التصدير لتصدير نموذج YOLOv8 إلى صيغة يمكن استخدامها للنشر. في هذا الوضع، يتم تحويل النموذج إلى صيغة يمكن استخدامها من قبل تطبيقات البرامج الأخرى أو الأجهزة الأجهزة. يكون هذا الوضع مفيدًا عند نشر النموذج في بيئات الإنتاج. + +[أمثلة التصدير](export.md){ .md-button .md-button--primary} + +## [وضع التتبع](track.md) + +يتم استخدام وضع التتبع لتتبع الكائنات في الوقت الحقيقي باستخدام نموذج YOLOv8. في هذا الوضع، يتم تحميل النموذج من ملف الفحص، ويمكن للمستخدم توفير تيار فيديو مباشر لأداء تتبع الكائنات في الوقت الفعلي. يكون هذا الوضع مفيدًا لتطبيقات مثل أنظمة المراقبة أو السيارات ذاتية القيادة. + +[أمثلة التتبع](track.md){ .md-button .md-button--primary} + +## [وضع اختبار الأداء](benchmark.md) + +يتم استخدام وضع اختبار الأداء لتقييم سرعة ودقة صيغ التصدير المختلفة لـ YOLOv8. تقدم الاختبارات معلومات حول حجم الصيغة المصدر، معيار الأداء `mAP50-95` (لكشف الكائنات والتقسيم والتصوير) أو المعيار `accuracy_top5` (للتصنيف)، ووقت الاستدلال بالملي ثانية لكل صورة في صيغ التصدير المختلفة مثل ONNX و OpenVINO و TensorRT وغيرها. يمكن لهذه المعلومات مساعدة المستخدمين على اختيار صيغة التصدير الأمثل لحالتهم الاستخدامية المحددة بناءً على متطلبات السرعة والدقة. + +[أمثلة اختبار الأداء](benchmark.md){ .md-button .md-button--primary} diff --git a/docs/ar/modes/predict.md b/docs/ar/modes/predict.md new file mode 100644 index 0000000000..69a9cb8b4a --- /dev/null +++ b/docs/ar/modes/predict.md @@ -0,0 +1,217 @@ +--- +comments: true +description: اكتشف كيفية استخدام وضع التنبؤ YOLOv8 لمهام مختلفة. تعرّف على مصادر التنبؤ المختلفة مثل الصور ومقاطع الفيديو وتنسيقات البيانات المختلفة. +keywords: Ultralytics، YOLOv8، وضع التنبؤ، مصادر التنبؤ، مهام التنبؤ، وضع التدفق، معالجة الصور، معالجة الفيديو، التعلم الآلي، الذكاء الاصطناعي +--- + +# التنبؤ بالنموذج باستخدام Ultralytics YOLO + +البيئة والتكامل الخاصة بنظام Ultralytics YOLO + +## المقدمة + +في عالم التعلم الآلي ورؤية الحاسوب، يُطلق على عملية استخلاص المعنى من البيانات البصرية اسم "الاستدلال" أو "التنبؤ". يوفر YOLOv8 من Ultralytics ميزة قوية تُعرف بـ**وضع التنبؤ** والتي تم تصميمها خصيصًا للاستدلال في الوقت الحقيقي وبأداء عال على مجموعة واسعة من مصادر البيانات. + +

+
+ +
+ شاهد: كيفية استخراج النتائج من نموذج Ultralytics YOLOv8 لمشاريع مخصصة. +

+ +## التطبيقات في العالم الحقيقي + +| التصنيع | الرياضة | السلامة | +|:-------------------------------------------------:|:----------------------------------------------------:|:-------------------------------------------:| +| ![Vehicle Spare Parts Detection][car spare parts] | ![Football Player Detection][football player detect] | ![People Fall Detection][human fall detect] | +| كشف قطع غيار المركبات | كشف لاعبي كرة القدم | كشف سقوط الأشخاص | + +## لماذا يجب استخدام Ultralytics YOLO لعمليات التنبؤ؟ + +فيما يلي الأسباب التي يجب أخذها في الاعتبار عند الاستفادة من وضع التنبؤ YOLOv8 لاحتياجات التنبؤ المختلفة: + +- **التنوع:** قادر على التنبؤ على الصور ومقاطع الفيديو، وحتى التدفقات الحية. +- **الأداء:** مصمم للتطبيقات في الوقت الحقيقي والمعالجة عالية السرعة دون التضحية بالدقة. +- **سهولة الاستخدام:** واجهات Python والواجهة السطرية لتسريع النشر والاختبار. +- **قابلية التخصيص العالية:** إعدادات ومعلمات مختلفة لضبط سلوك التنبؤ النموذج وفقًا لمتطلباتك المحددة. + +### الميزات الرئيسية لوضع التنبؤ + +تم تصميم وضع التنبؤ الخاص بـ YOLOv8 ليكون قويًا ومتعدد الاستخدامات، ويتميز بما يلي: + +- **توافق متعدد مصادر البيانات:** سواء كانت بياناتك عبارة عن صور فردية أو مجموعة من الصور أو ملفات فيديو أو تدفقات فيديو في الوقت الحقيقي، سيتمكن وضع التنبؤ من التعامل معها جميعًا. +- **وضع التدفق الحي:** استخدم ميزة التدفق لإنشاء مولد فعّال لكائنات "النتائج" باستخدام الذاكرة. قم بتمكين هذا بتعيين `stream=True` في طريقة استدعاء المتنبئ. +- **معالجة دُفعات:** القدرة على معالجة العديد من الصور أو إطارات الفيديو في دُفعة واحدة، مما يزيد أكثر من سرعة التنبؤ. +- **سهل التكامل:** يسهل الدمج مع خطوط الأنابيب البيانية الحالية ومكونات البرامج الأخرى بفضل واجهة برمجة التطبيقات المرنة. + +تُرجع نماذج Ultralytics YOLO إما قائمة Python من كائنات "النتائج" أو مُنشئ برمجياً فعّال لكائنات الـ "النتائج" في حال تم تمرير `stream=True` إلى النموذج أثناء عملية التنبؤ: + +!!! Example "التنبؤ" + + === "العودة بقائمة واحدة باستخدام `stream=False`" + ```python + from ultralytics import YOLO + + # تحميل نموذج + model = YOLO('yolov8n.pt') # نموذج YOLOv8n المُدرَّب مسبقًا + + # تشغيل التنبؤ بدُفعة على قائمة من الصور + results = model(['im1.jpg', 'im2.jpg']) # العودة بقائمة من كائنات 'النتائج' + + # معالجة قائمة النتائج + for result in results: + boxes = result.boxes # كائن Boxes لمخرجات bbox + masks = result.masks # كائن Masks لمخرجات قنوات الفصل العنقودي + keypoints = result.keypoints # كائن Keypoints لمخرجات الاتجاهات + probs = result.probs # كائن Probs لمخرجات التصنيف + ``` + + === "العودة بمُنشئ فعال مع `stream=True`" + ```python + from ultralytics import YOLO + + # تحميل نموذج + model = YOLO('yolov8n.pt') # نموذج YOLOv8n المُدرَّب مسبقًا + + # تشغيل التنبؤ بدُفعة على قائمة من الصور + results = model(['im1.jpg', 'im2.jpg'], stream=True) # العودة بمُنشئ فعال لكائنات 'النتائج' + + # معالجة المُنشئ الفعال + for result in results: + boxes = result.boxes # كائن Boxes لمخرجات bbox + masks = result.masks # كائن Masks لمخرجات قنوات الفصل العنقودي + keypoints = result.keypoints # كائن Keypoints لمخرجات الاتجاهات + probs = result.probs # كائن Probs لمخرجات التصنيف + ``` + +## مصادر التنبؤ + +يمكن لـ YOLOv8 معالجة أنواع مختلفة من مصادر الإدخال لعملية الاستدلال، على النحو الموضح في الجدول أدناه. تشمل المصادر الصور الثابتة وتيارات الفيديو وتنسيقات مختلفة للبيانات. يشير الجدول أيضًا إلى ما إذا كان يمكن استخدام كل مصدر في وضع التدفق باستخدام الوسيط `stream=True` ✅. يعتبر وضع التدفق مفيدًا لمعالجة مقاطع الفيديو أو التدفقات الحية حيث يقوم بإنشاء مُنشئ للنتائج بدلاً من تحميل جميع الإطارات في الذاكرة. + +!!! Tip "طراز" + + استخدم `stream=True` لمعالجة مقاطع الفيديو الطويلة أو مجموعات البيانات الكبيرة لإدارة الذاكرة بكفاءة. عندما تكون القيمة مساوية لـ `stream=False`، يتم تخزين النتائج لجميع الإطارات أو نقاط البيانات في الذاكرة، والتي يمكن أن تتراكم بسرعة وتُسبِّب أخطاء الذاكرة غير الكافية للمدخلات الكبيرة. على النقيض من ذلك، يستخدم التدفق `stream=True` مولدًا يُبقي نتائج الإطار الحالي أو نقطة البيانات الحالية في الذاكرة فقط، مما يقلل بشكل كبير من استهلاك الذاكرة ويمنع مشكلات عدم كفاية الذاكرة. + +| مصدر | الوسيط | النوع | الملاحظات | +|------------------|--------------------------------------------|-----------------|----------------------------------------------------------------------------------------------| +| صورة | `'صورة.jpg'` | `str` or `Path` | ملف صورة واحدة. | +| رابط URL | `'https://ultralytics.com/images/bus.jpg'` | `str` | رابط URL لصورة ما. | +| لقطة شاشة برمجية | `'الشاشة'` | `str` | قم بالتقاط لقطة شاشة برمجية. | +| PIL | `Image.open('im.jpg')` | `PIL.Image` | الصيغة HWC مع قنوات RGB. | +| OpenCV | `cv2.imread('im.jpg')` | `np.ndarray` | الصيغة HWC مع قنوات BGR `uint8 (0-255)`. | +| numpy | `np.zeros((640,1280,3))` | `np.ndarray` | الصيغة HWC مع قنوات BGR `uint8 (0-255)`. | +| torch | `torch.zeros(16,3,320,640)` | `torch.Tensor` | الصيغة BCHW مع قنوات RGB `float32 (0.0-1.0)`. | +| CSV | `'المصادر.csv'` | `str` or `Path` | ملف CSV يحتوي على مسارات الصور أو مقاطع الفيديو أو المجلدات. | +| فيديو ✅ | `'الفيديو.mp4'` | `str` or `Path` | ملف فيديو بتنسيقات مثل MP4 و AVI وما إلى ذلك. | +| الدليل ✅ | `'المسار/'` | `str` or `Path` | مسار إلى مجلد يحتوي على صور أو مقاطع فيديو. | +| glob ✅ | `'المسار/*.jpg'` | `str` | نمط glob لمطابقة عدة ملفات. استخدم حرف `*` كحرطوم. | +| يوتيوب ✅ | `'https://youtu.be/LNwODJXcvt4'` | `str` | رابط URL إلى فيديو يوتيوب. | +| تدفق ✅ | `'rtsp://example.com/media.mp4'` | `str` | عنوان URL لبروتوكولات التدفق مثل RTSP و RTMP و TCP أو عنوان IP. | +| تدفق متعدد ✅ | `'list.streams'` | `str` or `Path` | ملف نصي `*.streams` مع عنوان تدفق URL في كل صف، على سبيل المثال 8 تدفقات ستعمل بحجم دُفعة 8. | + +فيما يلي أمثلة تعليمات برمجية لاستخدام كل نوع من مصدر: + +!!! Example "مصادر التنبؤ" + + === "الصورة" + قم بأجراء عملية التنبؤ على ملف صورة. + ```python + from ultralytics import YOLO + + # تحميل نموذج YOLOv8n المدرب مسبقًا + model = YOLO('yolov8n.pt') + + # تنشيط عملية التنبؤ لملف الصورة + source = 'المسار/إلى/الصورة.jpg' + + # الجمع بين التنبؤ على المصدر + results = model(source) # قائمة كائنات النتائج + ``` + + === "لقطة شاشة برمجية" + قم بأجراء عملية التنبؤ على محتوى الشاشة الحالي كلقطة شاشة. + ```python + from ultralytics import YOLO + + # تحميل نموذج YOLOv8n المدرب مسبقًا + model = YOLO('yolov8n.pt') + + # تعريف اللقطة الحالية كمصدر + source = 'الشاشة' + + # الجمع بين التنبؤ على المصدر + results = model(source) # قائمة كائنات النتائج + ``` + + === "رابط URL" + قم بأجراء عملية التنبؤ على صورة موجودة على الإنترنت أو فيديو. + ```python + from ultralytics import YOLO + + # تحميل نموذج YOLOv8n المدرب مسبقًا + model = YOLO('yolov8n.pt') + + # تعريف رابط الصورة أو الفيديو على الإنترنت + source = 'https://ultralytics.com/images/bus.jpg' + + # الجمع بين التنبؤ على المصدر + results = model(source) # قائمة كائنات النتائج + ``` + + === "PIL" + قم بأجراء عملية التنبؤ على صورة مفتوحة بواسطة مكتبة Python Imaging Library (PIL). + ```python + from PIL import Image + from ultralytics import YOLO + + # تحميل نموذج YOLOv8n المدرب مسبقًا + model = YOLO('yolov8n.pt') + + # فتح صورة باستخدام PIL + source = Image.open('المسار/إلى/الصورة.jpg') + + # الجمع بين التنبؤ على المصدر + results = model(source) # قائمة كائنات النتائج + ``` + + === "OpenCV" + قم بأجراء عملية التنبؤ على صورة مُقروءة بواسطة OpenCV. + ```python + import cv2 + from ultralytics import YOLO + + # تحميل نموذج YOLOv8n المدرب مسبقًا + model = YOLO('yolov8n.pt') + + # قراءة صورة باستخدام OpenCV + source = cv2.imread('المسار/إلى/الصورة.jpg') + + # الجمع بين التنبؤ على المصدر + results = model(source) # قائمة كائنات النتائج + ``` + + === "numpy" + قم بأجراء عملية التنبؤ على صورة مُمثلة كمصفوفة numpy. + ```python + import numpy as np + from ultralytics import YOLO + + # تحميل نموذج YOLOv8n المدرب مسبقًا + model = YOLO('yolov8n.pt') + + # إنشاء مصفوفة numpy عشوائية في صيغة HWC (640, 640, 3) بقيم بين [0, 255] ونوع uint8 + source = np.random.randint(low=0, high=255, size=(640, 640, 3), dtype='uint8') + + # الجمع بين التنبؤ على المصدر + results = model(source) # قائمة كائنات النتائج + ``` + +[car spare parts]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/a0f802a8-0776-44cf-8f17-93974a4a28a1 + +[football player detect]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/7d320e1f-fc57-4d7f-a691-78ee579c3442 + +[human fall detect]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/86437c4a-3227-4eee-90ef-9efb697bdb43 diff --git a/docs/ar/modes/track.md b/docs/ar/modes/track.md new file mode 100644 index 0000000000..5300ecfb80 --- /dev/null +++ b/docs/ar/modes/track.md @@ -0,0 +1,360 @@ +--- +comments: true +description: تعرف على كيفية استخدام Ultralytics YOLO لتتبع الكائنات في تدفقات الفيديو. أدلة لاستخدام مختلف المتتبعين وتخصيص إعدادات المتتبع. +keywords: Ultralytics، YOLO، تتبع الكائنات، تدفقات الفيديو، BoT-SORT، ByteTrack، دليل Python، دليل خط الأوامر (CLI) +--- + +# تتبع عدة كائنات باستخدام Ultralytics YOLO + +Multi-object tracking examples + +يعد تتبع الكائنات في مجال تحليل الفيديو مهمة حرجة ليس فقط في تحديد موقع وفئة الكائنات داخل الإطار، ولكن أيضًا في الحفاظ على هوية فريدة لكل كائن يتم اكتشافه مع تقدم الفيديو. تكاد التطبيقات لا تعد ولا تحصى - تتراوح من المراقبة والأمان إلى تحليل الرياضة الفورية. + +## لماذا يجب اختيار Ultralytics YOLO لتتبع الكائنات؟ + +إن مخرجات المتتبعين في Ultralytics متسقة مع كشف الكائنات القياسي ولها قيمة مضافة من هويات الكائنات. هذا يجعل من السهل تتبع الكائنات في تدفقات الفيديو وأداء التحليلات التالية. إليك لماذا يجب أن تفكر في استخدام Ultralytics YOLO لتلبية احتياجات تتبع الكائنات الخاصة بك: + +- **الكفاءة:** معالجة تدفقات الفيديو في الوقت الحقيقي دون المساومة على الدقة. +- **المرونة:** يدعم العديد من خوارزميات التتبع والتكوينات. +- **سهولة الاستخدام:** واجهة برمجة تطبيقات بسيطة للغاية وخيارات سطر الأوامر للاستدماج السريع والنشر. +- **إمكانية التخصيص:** سهل الاستخدام مع نماذج YOLO مدربة مخصصة، مما يسمح بالاكتمال في التطبيقات ذات النطاق الخاص. + +

+
+ +
+ شاهد: كشف الكائنات وتتبعها باستخدام Ultralytics YOLOv8. +

+ +## تطبيقات في العالم الحقيقي + +| النقل | البيع بالتجزئة | الاستزراع المائي | +|:----------------------------------:|:--------------------------------:|:----------------------------:| +| ![Vehicle Tracking][vehicle track] | ![People Tracking][people track] | ![Fish Tracking][fish track] | +| تتبع المركبات | تتبع الأشخاص | تتبع الأسماك | + +## ملامح بلمحة + +يوفر Ultralytics YOLO ميزات كشف الكائنات لتوفير تتبع فعال ومتعدد الاستخدامات للكائنات: + +- **تتبع فوري:** تتبع الكائنات بسلاسة في مقاطع الفيديو ذات معدل الإطارات العالي. +- **دعم عدة متتبعين:** اختيار بين مجموعة متنوعة من خوارزميات التتبع المعتمدة. +- **تخصيص تكوينات المتتبع المتاحة:** ضبط خوارزمية التتبع لتلبية المتطلبات المحددة عن طريق ضبط مختلف المعلمات. + +## متتبعون متاحون + +يدعم Ultralytics YOLO الخوارزميات التالية للتتبع. يمكن تمكينها عن طريق تمرير ملف تكوين YAML ذي الصلة مثل "tracker=tracker_type.yaml": + +* [BoT-SORT](https://github.com/NirAharon/BoT-SORT) - استخدم `botsort.yaml` لتمكين هذا المتتبع. +* [ByteTrack](https://github.com/ifzhang/ByteTrack) - استخدم `bytetrack.yaml` لتمكين هذا المتتبع. + +المتتبع الافتراضي هو BoT-SORT. + +## تتبع + +لتشغيل المتتبع على تدفقات الفيديو، استخدم نموذج تحديد (Detect) أو قطع (Segment) أو وضع (Pose) مدرب مثل YOLOv8n و YOLOv8n-seg و YOLOv8n-pose. + +!!! Example "مثال" + + === "Python" + + ```python + from ultralytics import YOLO + + # قم بتحميل نموذج رسمي أو مخصص + model = YOLO('yolov8n.pt') # قم بتحميل نموذج رسمي Detect + model = YOLO('yolov8n-seg.pt') # قم بتحميل نموذج رسمي Segment + model = YOLO('yolov8n-pose.pt') # قم بتحميل نموذج رسمي Pose + model = YOLO('path/to/best.pt') # قم بتحميل نموذج مخصص مدرب + + # قم بتنفيذ التتبع باستخدام النموذج + results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True) # التتبع باستخدام المتتبع الافتراضي + results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True, tracker="bytetrack.yaml") # التتبع باستخدام متتبع ByteTrack + ``` + + === "CLI" + + ```bash + # قم بتنفيذ التتبع باستخدام مختلف النماذج باستخدام واجهة سطر الأوامر + yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" # نموذج Detect رسمي + yolo track model=yolov8n-seg.pt source="https://youtu.be/LNwODJXcvt4" # نموذج Segment رسمي + yolo track model=yolov8n-pose.pt source="https://youtu.be/LNwODJXcvt4" # نموذج Pose رسمي + yolo track model=path/to/best.pt source="https://youtu.be/LNwODJXcvt4" # تم تدريب نموذج مخصص + + # تتبع عن طريق ByteTrack متتبع + yolo track model=path/to/best.pt tracker="bytetrack.yaml" + ``` + +كما يظهر في الاستخدام أعلاه، يتوفر التتبع لجميع نماذج Detect و Segment و Pose التي تعمل على مقاطع الفيديو أو مصادر البث. + +## الاعدادات + +### معاملات التتبع + +تتشارك إعدادات التتبع الخصائص مع وضع التوقعات (Predict)، مثل `conf` و `iou` و `show`. للحصول على مزيد من التكوينات، راجع صفحة النموذج [Predict](../modes/predict.md#inference-arguments). + +!!! Example "مثال" + + === "Python" + + ```python + from ultralytics import YOLO + + # قم بتكوين معلمات التتبع وقم بتشغيل التتبع + model = YOLO('yolov8n.pt') + results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True) + ``` + + === "CLI" + + ```bash + # قم بتكوين معلمات التتبع وقم بتشغيل التتبع باستخدام واجهة سطر الأوامر + yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3, iou=0.5 show + ``` + +### اختيار المتتبع + +يتيح لك Ultralytics أيضًا استخدام ملف تكوين متتبع معدل. للقيام بذلك، أنقل نسخة من ملف تكوين المتتبع (مثل `custom_tracker.yaml`) من [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) وقم بتعديل أي تكوينات (باستثناء `tracker_type`) حسب احتياجاتك. + +!!! Example "مثال" + + === "Python" + + ```python + from ultralytics import YOLO + + # قم بتحميل النموذج وتشغيل التتبع باستخدام ملف تكوين مخصص + model = YOLO('yolov8n.pt') + results = model.track(source="https://youtu.be/LNwODJXcvt4", tracker='custom_tracker.yaml') + ``` + + === "CLI" + + ```bash + # قم بتحميل النموذج وتشغيل التتبع باستخدام ملف تكوين مخصص باستخدام واجهة سطر الأوامر + yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" tracker='custom_tracker.yaml' + ``` + +للحصول على قائمة شاملة من وسائط تتبع، راجع الصفحة [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers). + +## أمثلة Python + +### الحفاظ على المسارات التكرارية + +فيما يلي سكريبت Python باستخدام OpenCV (cv2) و YOLOv8 لتشغيل تتبع الكائنات على إطارات الفيديو. يفترض هذا السكريبت أنك قد قمت بالفعل بتثبيت الحزم اللازمة (opencv-python و ultralytics). المعامل `persist=True` يخبر المتتبع أن الصورة الحالية أو الإطار التالي في التسلسل ومن المتوقع أن يتوفر مسارات من الصورة السابقة في الصورة الحالية. + +!!! Example "For-loop للتدفق مع التتبع" + + ```python + import cv2 + from ultralytics import YOLO + + # حمّل نموذج YOLOv8 + model = YOLO('yolov8n.pt') + + # افتح ملف الفيديو + video_path = "path/to/video.mp4" + cap = cv2.VideoCapture(video_path) + + # تحلق عبر إطارات الفيديو + while cap.isOpened(): + # قراءة الإطار من الفيديو + success, frame = cap.read() + + if success: + # تشغيل تتبع YOLOv8 على الإطار ، وحفظ المسارات بين الإطارات + results = model.track(frame, persist=True) + + # تصور النتائج على الإطار + annotated_frame = results[0].plot() + + # عرض الإطار المعلق + cv2.imshow("YOLOv8 Tracking", annotated_frame) + + # كسر اللوب في حالة الضغط على 'q' + if cv2.waitKey(1) & 0xFF == ord("q"): + break + else: + # كسر اللوب في نهاية الفيديو + break + + # إطلاق كائن التقاط الفيديو وإغلاق نافذة العرض + cap.release() + cv2.destroyAllWindows() + ``` + +يرجى ملاحظة التغيير من `model(frame)` إلى `model.track(frame)` ، مما يمكن التتبع بدلاً من الكشف البسيط. سيتم تشغيل البرنامج المعدل على كل إطار فيديو وتصور النتائج وعرضها في نافذة. يمكن الخروج من الحلقة عن طريق الضغط على 'q'. + +### رسم المسارات عبر الوقت + +يمكن أن يوفر رسم المسارات الكائنية عبر الإطارات المتتالية إشارات قيمة حول أنماط الحركة والسلوك للكائنات المكتشفة في الفيديو. باستخدام Ultralytics YOLOv8 ، يعد تصوير هذه المسارات عملية سلسة وفعالة. + +في المثال التالي ، نوضح كيفية استخدام قدرات يوكو 8 YOLO لتتبع الكائنات لرسم حركة الكائنات المكتشفة عبر إطارات الفيديو المتعددة. يتضمن هذا البرنامج فتح ملف فيديو وقراءته إطارًا بإطار ، واستخدام نموذج YOLO لتحديد وتتبع العديد من الكائنات. عن طريق الاحتفاظ بنقاط الوسط لمربعات الحدود المكتشفة وتوصيلها ، يمكننا رسم خطوط تمثل المسارات التي تم اتباعها بواسطة الكائنات التي تمت متابعتها. + +!!! Example "رسم المسارات عبر إطارات الفيديو المتعددة" + + ```python + from collections import defaultdict + + import cv2 + import numpy as np + + from ultralytics import YOLO + + # حمّل نموذج YOLOv8 + model = YOLO('yolov8n.pt') + + # افتح ملف الفيديو + video_path = "path/to/video.mp4" + cap = cv2.VideoCapture(video_path) + + # احفظ تاريخ المسارات + track_history = defaultdict(lambda: []) + + # تحلق عبر إطارات الفيديو + while cap.isOpened(): + # قراءة الإطار من الفيديو + success, frame = cap.read() + + if success: + # تشغيل تتبع YOLOv8 على الإطار ، وحفظ المسارات بين الإطارات + results = model.track(frame, persist=True) + + # الحصول على المربعات ومعرفات المسار + boxes = results[0].boxes.xywh.cpu() + track_ids = results[0].boxes.id.int().cpu().tolist() + + # تصور النتائج على الإطار + annotated_frame = results[0].plot() + + # رسم المسارات + for box, track_id in zip(boxes, track_ids): + x, y, w, h = box + track = track_history[track_id] + track.append((float(x), float(y))) # x, y نقطة الوسط + if len(track) > 30: # احتفظ بـ 90 مسارًا لـ 90 إطارًا + track.pop(0) + + # رسم خطوط التتبع + points = np.hstack(track).astype(np.int32).reshape((-1, 1, 2)) + cv2.polylines(annotated_frame, [points], isClosed=False, color=(230, 230, 230), thickness=10) + + # عرض الإطار المعلق + cv2.imshow("YOLOv8 Tracking", annotated_frame) + + # كسر اللوب في حالة الضغط على 'q' + if cv2.waitKey(1) & 0xFF == ord("q"): + break + else: + # كسر اللوب في نهاية الفيديو + break + + # إطلاق كائن التقاط الفيديو وإغلاق نافذة العرض + cap.release() + cv2.destroyAllWindows() + ``` + +### التتبع متعدد الخيوط + +يوفر التتبع متعدد الخيوط القدرة على تشغيل تتبع الكائنات على عدة تدفقات فيديو في وقت واحد. هذا مفيد بشكل خاص عند التعامل مع مدخلات فيديو متعددة ، مثل من كاميرات المراقبة المتعددة ، حيث يمكن أن يعزز المعالجة المتزامنة الكفاءة والأداء بشكل كبير. + +في السكريبت البايثون المقدم ، نستخدم وحدة `threading` في Python لتشغيل عدة نسخ متزامنة من المتتبع. يكون لكل موضوع مسؤولية تشغيل المتتبع على ملف فيديو واحد ، وتعمل جميع الخيوط في الخلفية في نفس الوقت. + +للتأكد من أن كل خيط يتلقى المعلمات الصحيحة (ملف الفيديو والنموذج المستخدم وفهرس الملف) ، نحدد وظيفة `run_tracker_in_thread` التي تقبل هذه المعلمات وتحتوي على حلقة المتابعة الرئيسية. هذه الوظيفة تقرأ إطار الفيديو الخاصة بالفيديو مباشرة من مصدر الملف الواحد ، وتشغيل المتتبع ، وعرض النتائج. + +تستخدم في هذا المثال نموذجين مختلفين: 'yolov8n.pt' و 'yolov8n-seg.pt' ، يقوم كل منهما بتتبع الكائنات في ملف فيديو مختلف. تم تحديد ملفات الفيديو في `video_file1` و `video_file2`. + +تعديل معلمات `daemon=True` في `threading.Thread` يعني أن هذه الخيوط ستتم إغلاقها بمجرد انتهاء البرنامج الرئيسي. ثم نبدأ الخيوط باستخدام `start ()` واستخدم `join ()` لجعل الخيط الرئيسي ينتظر حتى ينتهي خيطي المتتبع. + +أخيرًا ، بعد اكتمال جميع الخيوط لمهمتها ، يتم إغلاق النوافذ التي تعرض النتائج باستخدام `cv2.destroyAllWindows()`. + +!!! Example "Streaming for-loop with tracking" + + ```python + import threading + import cv2 + from ultralytics import YOLO + + + def run_tracker_in_thread(filename, model, file_index): + """ + يشغل ملف فيديو أو مصدر تيار الكاميرا بالتزامن مع YOLOv8 النموذج باستخدام تعدد الخيوط. + + هذه الوظيفة تلتقط إطارات الفيديو من ملف أو مصدر الكاميرا المعروف ، وتستخدم نموذج YOLOv8 لتتبع الكائنات. + يعمل البرنامج في خيطه الخاص للمعالجة المتزامنة. + + Args: + filename (str): مسار ملف الفيديو أو معرف مصدر كاميرا الويب / خارجية. + model (obj): كائن نموذج YOLOv8. + file_index (int): مؤشر لتحديد الملف بشكل فريد ، يُستخدم لأغراض العرض. + + ملاحظة: + اضغط على 'q' لإنهاء نافذة عرض الفيديو. + """ + video = cv2.VideoCapture(filename) # قراءة ملف الفيديو + + while True: + ret, frame = video.read() # قراءة إطارات الفيديو + + # إنهاء الدورة إذا لم يتبقى إطارات على الفيديوين + if not ret: + break + + # تتبع كائنات في الإطارات إذا توفرت + results = model.track(frame, persist=True) + res_plotted = results[0].plot() + cv2.imshow(f"Tracking_Stream_{file_index}", res_plotted) + + key = cv2.waitKey(1) + if key == ord('q'): + break + + # إطلاق مصدري الفيديو + video.release() + + + # حمّل النماذج + model1 = YOLO('yolov8n.pt') + model2 = YOLO('yolov8n-seg.pt') + + # حدد ملفات الفيديو للمتابعين + video_file1 = "path/to/video1.mp4" # مسار ملف الفيديو ، 0 لكاميرا الويب + video_file2 = 0 # مسار ملف الفيديو ، 0 لكاميرا الويب ، 1 لكاميرا خارجية + + # إنشاء خيوط المتابع + tracker_thread1 = threading.Thread(target=run_tracker_in_thread, args=(video_file1, model1 ,1), daemon=True) + tracker_thread2 = threading.Thread(target=run_tracker_in_thread, args=(video_file2, model2, 2), daemon=True) + + # بدء خيوط المتابع + tracker_thread1.start() + tracker_thread2.start() + + # انتظر حتى ينتهي خيط المتابع + tracker_thread1.join() + tracker_thread2.join() + + # Clean up and close windows + cv2.destroyAllWindows() + ``` + +يمكن بسهولة توسيع هذا المثال للتعامل مع ملفات فيديو ونماذج أخرى من خلال إنشاء مزيد من الخيوط وتطبيق نفس المنهجية. + +## المساهمة في المتتبعون الجديدون + +هل أنت ماهر في التتبع متعدد الكائنات وقد نفذت أو صيغت بنجاح خوارزمية تتبع باستخدام Ultralytics YOLO؟ ندعوك للمشاركة في قسم المتتبعين لدينا في [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers)! قد تكون التطبيقات في العالم الحقيقي والحلول التي تقدمها لا تقدر بثمن للمستخدمين العاملين على مهام التتبع. + +من خلال المساهمة في هذا القسم ، تساعد في توسيع نطاق حلول التتبع المتاحة في إطار Ultralytics YOLO ، مضيفًا طبقة أخرى من الوظائف والفعالية للمجتمع. + +لبدء المساهمة ، يرجى الرجوع إلى [دليل المساهمة الخاص بنا](https://docs.ultralytics.com/help/contributing) للحصول على تعليمات شاملة حول تقديم طلب سحب (PR) 🛠️. نتطلع بشكل كبير إلى ما ستجلبه للطاولة! + +لنعزز معًا قدرات عملية التتبع لأجهزة Ultralytics YOLO 🙏! + +[vehicle track]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/ee6e6038-383b-4f21-ac29-b2a1c7d386ab + +[people track]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/93bb4ee2-77a0-4e4e-8eb6-eb8f527f0527 + +[fish track]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/a5146d0f-bfa8-4e0a-b7df-3c1446cd8142 diff --git a/docs/ar/modes/train.md b/docs/ar/modes/train.md new file mode 100644 index 0000000000..fc1e5932da --- /dev/null +++ b/docs/ar/modes/train.md @@ -0,0 +1,286 @@ +--- +comments: true +description: دليل خطوة بخطوة لتدريب نماذج YOLOv8 باستخدام Ultralytics YOLO بما في ذلك أمثلة على التدريب باستخدام بطاقة رسومات منفصلة ومتعددة البطاقات الرسومية +keywords: Ultralytics، YOLOv8، YOLO، كشف الكائنات، وضع تدريب، مجموعة بيانات مخصصة، تدريب بطاقة رسومات، متعددة البطاقات الرسومية، معلمات تكبير، أمثلة سطر الأوامر، أمثلة بايثون +--- + +# تدريب النموذج باستخدام Ultralytics YOLO + +بيئة ومدمجات Ultralytics YOLO + +## المقدمة + +يتضمن تدريب نموذج التعلم العميق تزويده بالبيانات وضبط معلماته بحيث يتمكن من إجراء توقعات دقيقة. يتم تصميم وضع التدريب في Ultralytics YOLOv8 لتدريب فعال وفعال لنماذج كشف الكائنات، مستغلاً تمامًا إمكانات الأجهزة الحديثة. يهدف هذا الدليل إلى شرح جميع التفاصيل التي تحتاج إلى البدء في تدريب النماذج الخاصة بك باستخدام مجموعة متينة من ميزات YOLOv8. + +

+
+ +
+ شاهد: كيفية تدريب نموذج YOLOv8 على مجموعة البيانات المخصصة الخاصة بك في Google Colab. +

+ +## لماذا اختيار Ultralytics YOLO للتدريب؟ + +إليك بعض الأسباب المقنعة لاختيار وضع التدريب في YOLOv8: + +- **الكفاءة:** استفد إلى أقصى حد من الأجهزة الخاصة بك، سواء كنت تستخدم بطاقة رسومات واحدة أو توسيعها عبر عدة بطاقات رسومات. +- **تعدد الاستخدامات:** قم بالتدريب على مجموعات البيانات المخصصة بالإضافة إلى المجموعات المتاحة بسهولة مثل COCO و VOC و ImageNet. +- **سهل الاستخدام:** واجهة سطر الأوامر CLI وواجهة Python البسيطة والقوية لتجربة تدريب مباشرة. +- **مرونة المعلمات:** مجموعة واسعة من المعلمات القابلة للتخصيص لضبط أداء النموذج. + +### الميزات الرئيسية لوضع التدريب + +تتمثل الميزات البارزة لوضع التدريب في YOLOv8 في ما يلي: + +- **تنزيل مجموعة البيانات تلقائيًا:** تقوم مجموعات البيانات القياسية مثل COCO و VOC و ImageNet بالتنزيل تلقائيًا عند أول استخدام. +- **دعم متعدد البطاقات الرسومية:** قم بتوزيع العمليات التدريبية بسلاسة عبر عدة بطاقات رسومات لتسريع العملية. +- **ضبط المعلمات:** الخيار لتعديل المعلمات التكبير من خلال ملفات تكوين YAML أو وسائط سطر الأوامر. +- **مراقبة وتتبع:** تتبع في الوقت الفعلي لمقاييس التدريب وتصور عملية التعلم لتحقيق رؤى أفضل. + +!!! Example "نصيحة" + + * يتم تنزيل مجموعات YOLOv8 القياسية مثل COCO و VOC و ImageNet وغيرها تلقائيًا عند الاستخدام الأول، على سبيل المثال: `yolo train data=coco.yaml` + +## أمثلة استخدام + +تدريب YOLOv8n على مجموعة بيانات COCO128 لمدة 100 حقبة بحجم صورة 640. يمكن تحديد جهاز التدريب باستخدام الوسيطة `device`. إذا لم يتم تمرير وسيطة، سيتم استخدام الجهاز بطاقة الرسومات "device=0" إذا كانت متاحة، وإلا سيتم استخدام `device=cpu`. استعرض الجدول الزمني أدناه للحصول على قائمة كاملة بوسائط التدريب. + +!!! Example "أمثلة سطر الأوامر للتدريب باستخدام بطاقة رسومات مستقلة ومعالج مركزي" + + يتم تحديد الجهاز تلقائيًا. إذا كانت بطاقة رسومات متاحة، سيتم استخدامها، وإلا ستبدأ التدريب على المعالج المركزي. + + === "بايثون" + ```python + from ultralytics import YOLO + + # تحميل النموذج + model = YOLO('yolov8n.yaml') # إنشاء نموذج جديد من ملف YAML + model = YOLO('yolov8n.pt') # تحميل نموذج مدرب مسبقًا (الأكثر توصية للتدريب) + model = YOLO('yolov8n.yaml').load('yolov8n.pt') # إنشاء من ملف YAML ونقل الأوزان + + # تدريب النموذج + results = model.train(data='coco128.yaml', epochs=100, imgsz=640) + ``` + + === "سطر الأوامر" + ```bash + # إنشاء نموذج جديد من ملف YAML وبدء التدريب من البداية + yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640 + + # بدء التدريب من نموذج *.pt مدرب مسبقًا + yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 + + # إنشاء نموذج جديد من ملف YAML ونقل الأوزان المدربة مسبقًا وبدء التدريب + yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640 + ``` + +### التدريب متعدد البطاقات الرسومية + +يتيح التدريب متعدد البطاقات الرسومية استخدام الموارد الأجهزة المتاحة بكفاءة أكبر من خلال توزيع أعباء التدريب عبر عدة بطاقات رسومية. هذه الميزة متاحة من خلال واجهة برمجة التطبيقات باستخدام Python وسطر الأوامر. لتمكين التدريب متعدد البطاقات الرسومية، حدد معرفات أجهزة GPU التي ترغب في استخدامها. + +!!! Example "أمثلة على التدريب متعدد البطاقات الرسومية" + + للتدريب باستخدام أجهزتي GPU، جهاز CUDA 0 و 1، استخدم الأوامر التالية. قم بتوسيعها لاستخدام المزيد من البطاقات. + + === "بايثون" + ```python + from ultralytics import YOLO + + # تحميل النموذج + model = YOLO('yolov8n.pt') # تحميل نموذج مدرب مسبقًا (الأكثر توصية للتدريب) + + # تدريب النموذج بأجهزة GPU 2 + results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device=[0, 1]) + ``` + + === "سطر الأوامر" + ```bash + # بدء التدريب من نموذج *.pt مدرب مسبقًا باستخدام بطاقات GPU 0 و 1 + yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=0,1 + ``` + +### التدريب باستخدام Apple M1 و M2 MPS + +مع دعم شرائح Apple M1 و M2 المدمج في نماذج Ultralytics YOLO، يمكنك الآن تدريب نماذجك على الأجهزة التي تستخدم نظام Metal Performance Shaders (MPS) القوي. يوفر MPS طريقة عالية الأداء لتنفيذ المهام الحسابية ومعالجة الصور على شرائح السيليكون المخصصة لعبة Apple. + +لتمكين التدريب على شرائح Apple M1 و M2، يجب عليك تحديد "mps" كجهازك عند بدء عملية التدريب. فيما يلي مثال لكيفية القيام بذلك في بايثون وعبر سطر الأوامر: + +!!! Example "مثال على التدريب بواسطة MPS" + + === "بايثون" + ```python + from ultralytics import YOLO + + # تحميل النموذج + model = YOLO('yolov8n.pt') # تحميل نموذج مدرب مسبقًا (الأكثر توصية للتدريب) + + # تدريب النموذج باستخدام 2 بطاقات GPU + results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device='mps') + ``` + + === "سطر الأوامر" + ```bash + # بدء التدريب من نموذج *.pt مدرب مسبقًا باستخدام بطاقات GPU 0 و 1 + yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=mps + ``` + +عند الاستفادة من قدرة المعالجة الحاسوبية لشرائح M1/M2، يتيح لك هذا الحمل أداءً أكثر كفاءة لمهام التدريب. للحصول على إرشادات أكثر تفصيلاً وخيارات تكوين متقدمة، يرجى الرجوع إلى [وثائق PyTorch MPS](https://pytorch.org/docs/stable/notes/mps.html). + +### استئناف التدريب المقطوع + +يعتبر استئناف التدريب من الحالات التخزين السابقة ميزة حاسمة عند العمل مع نماذج التعلم العميق. يمكن أن يكون هذا مفيدًا في العديد من السيناريوهات، مثل عند تعطل عملية التدريب بشكل غير متوقع، أو عند الرغبة في متابعة تدريب نموذج بيانات جديدة أو لفترة زمنية أطول. + +عند استئناف التدريب، يقوم Ultralytics YOLO بتحميل الأوزان من آخر نموذج محفوظ وأيضًا استعادة حالة المحسن، وجدولة معدل التعلم، وعدد الحقبة. هذا يتيح لك متابعة عملية التدريب بشكل سلس من حيث توقفت. + +يمكنك بسهولة استئناف التدريب في Ultralytics YOLO عن طريق تعيين الوسيطة `resume` إلى `True` عند استدعاء طريقة `train`، وتحديد المسار إلى ملف `.pt` الذي يحتوي على أوزان النموذج المدرب جزئيًا. + +فيما يلي مثال لكيفية استئناف تدريب مقطوع باستخدام بايثون وعبر سطر الأوامر: + +!!! Example "مثال على استئناف التدريب" + + === "بايثون" + ```python + from ultralytics import YOLO + + # تحميل النموذج + model = YOLO('path/to/last.pt') # تحميل نموذج مدرب جزئيًا + + # استئناف التدريب + results = model.train(resume=True) + ``` + + === "سطر الأوامر" + ```bash + # استئناف تدريب متقطع + yolo train resume model=path/to/last.pt + ``` + +من خلال تعيين `resume=True`، ستواصل وظيفة 'train' التدريب من حيث توقفت، باستخدام الحالة المخزنة في ملف 'path/to/last.pt'. إذا تم حذف الوسيطة `resume` أو تعيينها على `False`، ستبدأ وظيفة 'train' جلسة تدريب جديدة. + +تذكر أنه يتم حفظ نقاط التفتيش في نهاية كل حقبة افتراضياً، أو في فترة ثابتة باستخدام وسيطة 'save_period'، لذا يجب عليك إتمام حقبة واحدة على الأقل لاستئناف تشغيل تدريب. + +## الوسائط + +تتعلق إعدادات التدريب لنماذج YOLO بالمعلمات والتكوينات المختلفة المستخدمة لتدريب النموذج على مجموعة بيانات ما. يمكن أن تؤثر هذه الإعدادات على أداء النموذج وسرعته ودقته. تتضمن بعض إعدادات YOLO التدريب الشائعة حجم الدُفعات، معدل التعلم، الزخم، والتقليل القيمي للأوزان. العوامل الأخرى التي قد تؤثر في عملية التدريب تشمل اختيار المحسن، اختيار دالة الخسارة، وحجم وتركيب مجموعة البيانات التدريب. من المهم ضبط وتجربة هذه الإعدادات بعناية لتحقيق أفضل أداء ممكن لمهمة معينة. + +| المفتاح | القيمة | الوصف | +|-------------------|----------|---------------------------------------------------------------------------------------------------------------------------| +| `model` | `None` | مسار إلى ملف النموذج، على سبيل المثال yolov8n.pt، yolov8n.yaml | +| `data` | `None` | مسار إلى ملف البيانات، على سبيل المثال coco128.yaml | +| `epochs` | `100` | عدد الحقب للتدريب ل | +| `patience` | `50` | حقب للانتظار بدون تحسن ظاهر لإيقاف التدريب مبكرا | +| `batch` | `16` | عدد الصور في كل دُفعة (-1 for AutoBatch) | +| `imgsz` | `640` | حجم الصور الدخل بصورة مثالية | +| `save` | `True` | حال إنقاذ النقاط المفتوحة للتدريب ونتائج الكشف | +| `save_period` | `-1` | حفظ النقطة الفاصلة كل x حقبة (تكون معطلة إذا كانت < 1) | +| `cache` | `False` | صحيح / ذاكرة عشوائية أو قرص / غير صحيح. استخدم ذاكرة التخزين المؤقت في تحميل البيانات | +| `device` | `None` | الجهاز لتشغيل التدريب عليه، على سبيل المثال جهاز الرسومات cuda=0 أو جهاز الرسومات cuda=0,1,2,3 أو جهاز المعالج المركزيcpu | +| `workers` | `8` | عدد خيوط العاملة لتحميل البيانات (لكل RANK إذا كان DDP) | +| `project` | `None` | اسم المشروع | +| `name` | `None` | اسم التجربة | +| `exist_ok` | `False` | ما إذا كان سيتم الكتابة فوق تجربة موجودة | +| `pretrained` | `True` | (bool أو str) ما إذا كان سيتم استخدام نموذج متدرب مسبقًا (bool) أو نموذج لتحميل الأوزان منه (str) | +| `optimizer` | `'auto'` | المحسن لاستخدامه، الخيارات=[SGD، Adam، Adamax، AdamW، NAdam، RAdam، RMSProp، Auto] | +| `verbose` | `False` | ما إذا كان سيتم طباعة مخرجات مفصلة | +| `seed` | `0` | البذرة العشوائية لإعادة الإنتاجية | +| `deterministic` | `True` | ما إذا كان يتم تمكين الوضع المحدد | +| `single_cls` | `False` | يجب تدريب بيانات متعددة الفئات كفئة واحدة | +| `rect` | `False` | تدريب مستطيل باستخدام تجميع الدُفعات للحد الأدنى من الحشو | +| `cos_lr` | `False` | استخدم جدولة معدل التعلم بتوقيت الكوسا | +| `close_mosaic` | `10` | (int) تعطيل التكبير التجانبي للحجم للحقب النهائية (0 للتعطيل) | +| `resume` | `False` | استأنف التدريب من النقطة الأخيرة | +| `amp` | `True` | تدريب دقة مختلطة تلقائية (AMP)، الخيارات=[True، False] | +| `fraction` | `1.0` | نسبة مجموعة البيانات المراد تدريبها (الافتراضي هو 1.0، جميع الصور في مجموعة التدريب) | +| `profile` | `False` | قم بتشغيل بروفايل السرعة لمشغلات ONNX و TensorRT أثناء التدريب للمسجلات | +| `freeze` | `None` | (int أو list، اختياري) تجميد أول n طبقة، أو قائمة طبقات الفهرس خلال التدريب | +| `lr0` | `0.01` | معدل التعلم الأولي (على سبيل المثال SGD=1E-2، Adam=1E-3) | +| `lrf` | `0.01` | معدل التعلم النهائي (lr0 * lrf) | +| `momentum` | `0.937` | الزخم SGD / Adam beta1 | +| `weight_decay` | `0.0005` | تقليل الأوزان للمحسن (5e-4) | +| `warmup_epochs` | `3.0` | حقب الاحماء (الأجزاء المئوية مقبولة) | +| `warmup_momentum` | `0.8` | الزخم الأولي للتدفق الأعلى | +| `warmup_bias_lr` | `0.1` | نسبة تعلم الانحياز الأولي للتدفق العلوي | +| `box` | `7.5` | وزن فاقد الصندوق | +| `cls` | `0.5` | وزن فاقد التصنيف (تناسب مع البكسل) | +| `dfl` | `1.5` | وزن الخسارة الأمامية للتصنيف والصندوق | +| `pose` | `12.0` | وزن فاقد الوضع (الوضع فقط) | +| `kobj` | `2.0` | وزن فاقد نقطة المفتاح (الوضع فقط) | +| `label_smoothing` | `0.0` | التسوية الغموض (كسر) | +| `nbs` | `64` | حجم الدُفعة الاسمي | +| `overlap_mask` | `True` | التحجيم يجب أن يتداخل أقنعة التدريب (التدريب الفصلي فقط) | +| `mask_ratio` | `4` | معدل تحجيم أقنعة (التدريب الفصلي فقط) | +| `dropout` | `0.0` | استخدام تنظيم الإسقاط (التدريب التطبيقي فقط) | +| `val` | `True` | التحقق/الاختبار خلال التدريب | + +## تسجيل + +عند تدريب نموذج YOLOv8، قد تجد أنه من المفيد تتبع أداء النموذج مع مرور الوقت. هنا يأتي دور تسجيل. يوفر Ultralytics' YOLO دعمًا لثلاثة أنواع من أجهزة السجل - Comet و ClearML و TensorBoard. + +لاستخدام سجل، حدده من قائمة السحب أسفل الكود وقم بتشغيله. سيتم تثبيت السجل المختار وتهيئته. + +### Comet + +[Comet](../../integrations/comet.md) هو منصة تسمح لعلماء البيانات والمطورين بمتابعة ومقارنة وشرح وتحسين التجارب والنماذج. يوفر وظائف مثل المقاييس الزمنية في الوقت الحقيقي وفروقات الشفرة وتتبع المعلمات. + +لاستخدام Comet: + +!!! Example "أمثلة بايثون" + + === "بايثون" + ```python + # pip install comet_ml + import comet_ml + + comet_ml.init() + ``` + +تذكر تسجيل الدخول إلى حسابك في Comet على موقعهم على الويب والحصول على مفتاح API الخاص بك. ستحتاج إلى إضافته إلى الإعدادات المتغيرة في البيئة الخاصة بك أو برنامج النص الخاص بك لتسجيل التجارب الخاصة بك. + +### ClearML + +[ClearML](https://www.clear.ml/) هي منصة مفتوحة المصدر تعمل على تتبع التجارب وتسهيل مشاركة الموارد بكفاءة. تم تصميمه لمساعدة الفرق في إدارة وتنفيذ وإعادة إنتاج عملهم في مجال تعلم الآلة بكفاءة أكبر. + +لاستخدام ClearML: + +!!! Example "أمثلة بايثون" + + === "بايثون" + ```python + # pip install clearml + import clearml + + clearml.browser_login() + ``` + +بعد تشغيل هذا السكريبت، ستحتاج إلى تسجيل الدخول إلى حساب ClearML الخاص بك على المستعرض ومصادقة جلستك. + +## TensorBoard + +[TensorBoard](https://www.tensorflow.org/tensorboard) هي مجموعة أدوات لتصور TensorFlow ، تسمح لك بتصور نموذج TensorFlow الخاص بك ، ورسم المقاييس الكمية حول تنفيذ النموذج الخاص بك ، وعرض بيانات إضافية مثل الصور التي تمر عبرها. + +للاستفادة من TensorBoard في [Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb): + +!!! Example "أمثلة سطر الأوامر" + + === "سطر الأوامر" + ```bash + load_ext tensorboard + tensorboard --logdir ultralytics/runs # استبدل بالدليل 'runs' + ``` + +لاستخدام TensorBoard محليًا، قم بتشغيل الأمر أدناه واعرض النتائج على الرابط http://localhost:6006/. + +!!! Example "أمثلة سطر الأوامر" + + === "سطر الأوامر" + ```bash + tensorboard --logdir ultralytics/runs # استبدل بالدليل 'runs' + ``` + +سيتم تحميل TensorBoard وتوجيهه إلى الدليل الذي يتم حفظ سجلات التدريب فيه. + +بعد إعداد السجل الخاص بك، يمكنك الاستمرار في تدريب النموذج. سيتم سجل جميع مقاييس التدريب تلقائيًا في المنصة التي اخترتها، ويمكنك الوصول إلى هذه السجلات لمراقبة أداء النموذج الخاص بك مع مرور الوقت ومقارنة نماذج مختلفة وتحديد المجالات التي يمكن تحسينها. diff --git a/docs/ar/modes/val.md b/docs/ar/modes/val.md new file mode 100644 index 0000000000..ed954326fd --- /dev/null +++ b/docs/ar/modes/val.md @@ -0,0 +1,86 @@ +--- +comments: true +description: دليل لاختبار نماذج YOLOv8 الصحيحة. تعرف على كيفية تقييم أداء نماذج YOLO الخاصة بك باستخدام إعدادات ومقاييس التحقق من الصحة مع أمثلة برمجية باللغة البايثون وواجهة سطر الأوامر. +keywords: Ultralytics, YOLO Docs, YOLOv8, التحقق من الصحة, تقييم النموذج, المعلمات الفرعية, الدقة, المقاييس, البايثون, واجهة سطر الأوامر +--- + +# التحقق من النماذج باستخدام Ultralytics YOLO + +بيئة النظام البيئي والتكاملات لـ Ultralytics YOLO + +## مقدمة + +يعتبر التحقق من النموذج خطوة حاسمة في خط أنابيب التعلم الآلي، حيث يتيح لك تقييم جودة النماذج المدربة. يوفر وضع الـ Val في Ultralytics YOLOv8 مجموعة أدوات ومقاييس قوية لتقييم أداء نماذج الكشف عن الكائنات الخاصة بك. يعمل هذا الدليل كمصدر كامل لفهم كيفية استخدام وضع الـ Val بشكل فعال لضمان أن نماذجك دقيقة وموثوقة. + +## لماذا يوفر Ultralytics YOLO التحقق من الصحة + +هنا هي الأسباب التي تجعل استخدام وضع الـ Val في YOLOv8 مفيدًا: + +- **الدقة:** الحصول على مقاييس دقيقة مثل mAP50 و mAP75 و mAP50-95 لتقييم نموذجك بشكل شامل. +- **الراحة:** استخدم الميزات المدمجة التي تتذكر إعدادات التدريب، مما يبسط عملية التحقق من الصحة. +- **مرونة:** قم بالتحقق من النموذج باستخدام نفس المجموعات البيانات وأحجام الصور أو مجموعات بيانات وأحجام صور مختلفة. +- **ضبط المعلمات الفرعية:** استخدم المقاييس التحقق لضبط نموذجك لتحسين الأداء. + +### الميزات الرئيسية لوضع الـ Val + +هذه هي الوظائف المميزة التي يوفرها وضع الـ Val في YOLOv8: + +- **الإعدادات التلقائية:** يتذكر النماذج إعدادات التدريب الخاصة بها للتحقق من الصحة بسهولة. +- **دعم متعدد المقاييس:** قيم نموذجك بناءً على مجموعة من مقاييس الدقة. +- **واجهة سطر الأوامر وواجهة برمجة Python:** اختر بين واجهة سطر الأوامر أو واجهة برمجة Python حسب تفضيلك للتحقق من الصحة. +- **توافق البيانات:** يعمل بسلاسة مع مجموعات البيانات المستخدمة خلال مرحلة التدريب بالإضافة إلى مجموعات البيانات المخصصة. + +!!! Tip "نصيحة" + + * تتذكر نماذج YOLOv8 إعدادات التدريب تلقائيًا، لذا يمكنك التحقق من النموذج بنفس حجم الصورة وعلى مجموعة البيانات الأصلية بسهولة باستخدام "yolo val model=yolov8n.pt" أو "model('yolov8n.pt').val()" + +## أمثلة الاستخدام + +تحقق من دقة النموذج المدرب YOLOv8n على مجموعة بيانات COCO128. لا يلزم تمرير أي وسيطة كوسيطة يتذكر الـ model التدريب والوسيطات كسمات النموذج. انظر الجدول أدناه للحصول على قائمة كاملة من وسيطات التصدير. + +!!! Example "مثال" + + === "البايثون" + + ```python + from ultralytics import YOLO + + # تحميل النموذج + model = YOLO('yolov8n.pt') # تحميل النموذج الرسمي + model = YOLO('path/to/best.pt') # تحميل نموذج مخصص + + # التحقق من النموذج + metrics = model.val() # لا يلزم أي وسيطات، يتذكر التكوين والوسيطات + metrics.box.map # map50-95 + metrics.box.map50 # map50 + metrics.box.map75 # map75 + metrics.box.maps # قائمة تحتوي على map50-95 لكل فئة + ``` + === "واجهة سطر الأوامر" + + ```bash + yolo detect val model=yolov8n.pt # تجريب نموذج رسمي + yolo detect val model=path/to/best.pt # تجٌَرب نموذج مخصص + ``` + +## الوسيطات + +تشير إعدادات التحقق بالنسبة لنماذج YOLO إلى المعلمات الفرعية والتكوينات المختلفة المستخدمة لتقييم أداء النموذج على مجموعة بيانات التحقق. هذه الإعدادات يمكن أن تؤثر على أداء النموذج وسرعته ودقته. تشمل بعض إعدادات التحقق الشائعة في YOLO حجم الدفعة وتكرارات تنفيذ التحقق أثناء التدريب والمقاييس المستخدمة لتقييم أداء النموذج. العوامل الأخرى التي قد تؤثر على العملية الخاصة بالتحقق تشمل حجم وتركيب مجموعة البيانات التحقق والمهمة المحددة التي يتم استخدام النموذج فيها. من المهم ضبط هذه الإعدادات وتجربتها بعناية لضمان أداء جيد للنموذج على مجموعة بيانات التحقق وكشف ومنع الحالة التي يتم فيها ضبط الطراز بشكل جيد. + +| مفتاح | القيمة | الوصف | +|---------------|---------|------------------------------------------------------------------------------------| +| `data` | `None` | مسار إلى ملف البيانات، على سبيل المثال coco128.yaml | +| `imgsz` | `640` | حجم الصور الداخلية باعتبارها عدد صحيح | +| `batch` | `16` | عدد الصور لكل دفعة (-1 للدفع الآلي) | +| `save_json` | `False` | حفظ النتائج في ملف JSON | +| `save_hybrid` | `False` | حفظ النسخة المختلطة للتسميات (التسميات + التنبؤات الإضافية) | +| `conf` | `0.001` | حد الثقة في كشف الكائن | +| `iou` | `0.6` | حد تداخل على المتحدة (IoU) لعملية الجمع والطرح | +| `max_det` | `300` | العدد الأقصى من الكشفات لكل صورة | +| `half` | `True` | استخدم التنصت نصف الدقة (FP16) | +| `device` | `None` | الجهاز الذي يتم تشغيله عليه، على سبيل المثال جهاز Cuda=0/1/2/3 أو جهاز=معالج (CPU) | +| `dnn` | `False` | استخدم OpenCV DNN لعملية التنصت الأمثل | +| `plots` | `False` | إظهار الرسوم البيانية أثناء التدريب | +| `rect` | `False` | تحقق صيغة *rectangular* مع تجميع كل دفعة للحصول على الحد الأدنى من التعبئة | +| `split` | `val` | اختر تقسيم البيانات للتحقق من الصحة، على سبيل المثال "val"، "test" أو "train" | +| diff --git a/docs/ar/quickstart.md b/docs/ar/quickstart.md new file mode 100644 index 0000000000..4ebe76f667 --- /dev/null +++ b/docs/ar/quickstart.md @@ -0,0 +1,326 @@ +--- +comments: true +description: استكشف أساليب مختلفة لتثبيت Ultralytics باستخدام pip و conda و git و Docker. تعرّف على كيفية استخدام Ultralytics مع واجهة سطر الأوامر أو ضمن مشاريع Python الخاصة بك. +keywords: تثبيت Ultralytics, pip install Ultralytics, Docker install Ultralytics, Ultralytics command line interface, Ultralytics Python interface +--- + +## تثبيت Ultralytics + +يوفر Ultralytics طرق تثبيت مختلفة بما في ذلك pip و conda و Docker. يمكنك تثبيت YOLOv8 عن طريق حزمة `ultralytics` من خلال pip للإصدار الأحدث والمستقر أو من خلال استنساخ [مستودع Ultralytics على GitHub](https://github.com/ultralytics/ultralytics) للحصول على الإصدار الأحدث. يمكن استخدام Docker لتنفيذ الحزمة في حاوية معزولة، وتجنب التثبيت المحلي. + +!!! Note + + 🚧 تم بناء وثائقنا متعددة اللغات حاليًا، ونعمل بجد لتحسينها. شكرًا لك على صبرك! 🙏 + +!!! Example "تثبيت" + + === "تثبيت باستخدام pip (الموصَى به)" + قم بتثبيت حزمة `ultralytics` باستخدام pip، أو قم بتحديث التثبيت الحالي عن طريق تشغيل `pip install -U ultralytics`. قم بزيارة مؤشر Python Package Index (PyPI) للحصول على مزيد من التفاصيل حول حزمة `ultralytics`: [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/). + + [![نسخة PyPI](https://badge.fury.io/py/ultralytics.svg)](https://badge.fury.io/py/ultralytics) [![التنزيلات](https://static.pepy.tech/badge/ultralytics)](https://pepy.tech/project/ultralytics) + + ```bash + # قم بتثبيت حزمة ultralytics من PyPI + pip install ultralytics + ``` + + يمكنك أيضًا تثبيت حزمة `ultralytics` مباشرة من مستودع GitHub [repository](https://github.com/ultralytics/ultralytics). قد يكون ذلك مفيدًا إذا كنت ترغب في الحصول على الإصدار التجريبي الأحدث. تأكد من تثبيت أداة الأوامر Git على نظامك. يُثبّت الأمر `@main` الفرع `main` ويمكن تعديله إلى فرع آخر، على سبيل المثال `@my-branch`، أو يمكن إزالته تمامًا للانتقال إلى الفرع الرئيسي `main`. + + ```bash + # قم بتثبيت حزمة ultralytics من GitHub + pip install git+https://github.com/ultralytics/ultralytics.git@main + ``` + + + === "تثبيت باستخدام conda" + Conda هو مدير حزم بديل لـ pip ويمكن استخدامه أيضًا للتثبيت. قم بزيارة Anaconda للحصول على مزيد من التفاصيل على [https://anaconda.org/conda-forge/ultralytics](https://anaconda.org/conda-forge/ultralytics). يمكن العثور على مستودع Ultralytics feedstock لتحديث حزمة conda على [https://github.com/conda-forge/ultralytics-feedstock/](https://github.com/conda-forge/ultralytics-feedstock/). + + + [![وصفة conda](https://img.shields.io/badge/recipe-ultralytics-green.svg)](https://anaconda.org/conda-forge/ultralytics) [![تنزيلات conda](https://img.shields.io/conda/dn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![إصدار conda](https://img.shields.io/conda/vn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![منصات conda](https://img.shields.io/conda/pn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) + + ```bash + # قم بتثبيت حزمة ultralytics باستخدام conda + conda install -c conda-forge ultralytics + ``` + + !!! Note + + إذا كنت تقوم بالتثبيت في بيئة CUDA، فإن الممارسة الجيدة هي تثبيت `ultralytics`, `pytorch` و `pytorch-cuda` في نفس الأمر للسماح لمدير حزم conda بحل أي تعارضات، أو وإلا فقوم بتثبيت `pytorch-cuda` في نهاية الأمر للسماح له بتجاوز حزمة `pytorch` المحددة لوحدة المعالجة المركزية إذا لزم الأمر. + ```bash + # قم بتثبيت كافة الحزم معًا باستخدام conda + conda install -c pytorch -c nvidia -c conda-forge pytorch torchvision pytorch-cuda=11.8 ultralytics + ``` + + ### صورة Docker في Conda + + تتوفر أيضًا صور Docker لـ Conda لـ Ultralytics من [DockerHub](https://hub.docker.com/r/ultralytics/ultralytics). تستند هذه الصور إلى [Miniconda3](https://docs.conda.io/projects/miniconda/en/latest/) وهي وسيلة بسيطة لبدء استخدام `ultralytics` في بيئة Conda. + + ```bash + # قم بتعيين اسم الصورة بوصفه متغير + t=ultralytics/ultralytics:latest-conda + + # اسحب أحدث صورة ultralytics من Docker Hub + sudo docker pull $t + + # قم بتشغيل صورة ultralytics في حاوية مع دعم GPU + sudo docker run -it --ipc=host --gpus all $t # all GPUs + sudo docker run -it --ipc=host --gpus '"device=2,3"' $t # قد يتم تحديد GPUs + ``` + + === "استنساخ Git" + قم بنسخ مستودع `ultralytics` إذا كنت مهتمًا بالمساهمة في التطوير أو ترغب في تجربة الشفرة المصدرية الأحدث. بعد الاستنساخ، انتقل إلى الدليل وقم بتثبيت الحزمة في وضع التحرير `-e` باستخدام pip. + ```bash + # قم بنسخ مستودع ultralytics + git clone https://github.com/ultralytics/ultralytics + + # انتقل إلى الدليل المنسوخ + cd ultralytics + + # قم بتثبيت الحزمة في وضع التحرير + pip install -e . + ``` + + === "Docker" + + تمكنك من استخدام Docker بسهولة لتنفيذ حزمة `ultralytics` في حاوية معزولة، مما يضمن أداءً سلسًا ومتسقًا في مختلف البيئات. عن طريق اختيار إحدى صور Docker الأصلية لـ `ultralytics` من [Docker Hub](https://hub.docker.com/r/ultralytics/ultralytics)، لن تتجنب فقط تعقيد التثبيت المحلي ولكنك ستستفيد أيضًا من وصول إلى بيئة عمل متحققة وفعالة. يقدم Ultralytics 5 صور Docker مدعومة رئيسية، يتم تصميم كل منها لتوفير توافق عالي وكفاءة لمنصات وحالات استخدام مختلفة: + + Docker Pulls + + - **Dockerfile:** صورة GPU الموصى بها للتدريب. + - **Dockerfile-arm64:** محسّن لبنية ARM64، مما يتيح النشر على أجهزة مثل Raspberry Pi ومنصات أخرى تعتمد على ARM64. + - **Dockerfile-cpu:** إصدار مناسب للتحكم بوحدة المعالجة المركزية فقط بدون دعم لل GPU. + - **Dockerfile-jetson:** مصمم خصيصًا لأجهزة NVIDIA Jetson، ويدمج دعمًا لل GPU المحسن لهذه المنصات. + - **Dockerfile-python:** صورة صغيرة بها فقط Python والتبعيات الضرورية، مثالية للتطبيقات والتطوير الخفيف. + - **Dockerfile-conda:** قائمة على Miniconda3 مع تثبيت conda لحزمة ultralytics. + + فيما يلي الأوامر للحصول على أحدث صورة وتشغيلها: + + ```bash + # قم بتعيين اسم الصورة بوصفه متغير + t=ultralytics/ultralytics:latest + + # اسحب أحدث صورة ultralytics من Docker Hub + sudo docker pull $t + + # قم بتشغيل صورة ultralytics في حاوية مع دعم GPU + sudo docker run -it --ipc=host --gpus all $t # all GPUs + sudo docker run -it --ipc=host --gpus '"device=2,3"' $t # قد يتم تحديد GPUs + ``` + + يقوم الأمر أعلاه بتهيئة حاوية Docker بأحدث صورة `ultralytics`. يُسند العلامة `-it` جهازًا افتراضيًا TTY ويحافظ على فتح stdin لتمكينك من التفاعل مع الحاوية. تعيين العلامة `--ipc=host` مساحة اسم IPC (Inter-Process Communication) إلى المضيف، وهو أمر ضروري لمشاركة الذاكرة بين العمليات. تُمكّن العلامة `--gpus all` الوصول إلى كل وحدات المعالجة المركزية الرسومية المتاحة داخل الحاوية، مما هو أمر حاسم للمهام التي تتطلب حسابات GPU. + + ملاحظة: للعمل مع الملفات على جهازك المحلي داخل الحاوية، استخدم مجلدات Docker لتوصيل دليل محلي بالحاوية: + + ```bash + # مجلد الدليل المحلي بالحاوية + sudo docker run -it --ipc=host --gpus all -v /path/on/host:/path/in/container $t + ``` + + قم بتغيير `/path/on/host` بمسار الدليل على جهازك المحلي، و `/path/in/container` باالمسار المطلوب داخل حاوية Docker للوصول إليه. + + للاستفادة القصوى من استخدام Docker المتقدم، لا تتردد في استكشاف [دليل Ultralytics Docker](https://docs.ultralytics.com/guides/docker-quickstart/). + +راجع ملف `requirements.txt` الخاص بـ `ultralytics` [هنا](https://github.com/ultralytics/ultralytics/blob/main/requirements.txt) للحصول على قائمة المتطلبات. يُرجى ملاحظة أن جميع الأمثلة أعلاه يتم تثبيت جميع المتطلبات المطلوبة. + +

+
+ +
+ شاهد: دليل فتع Ultralytics YOLO السريع +

+ +!!! Tip "نصيحة" + + يختلف متطلبات PyTorch حسب نظام التشغيل ومتطلبات CUDA، لذا يُوصَى بتثبيت PyTorch أولاً باستخدام التعليمات الموجودة في [https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally). + + + PyTorch تعليمات التثبيت + + +## استخدم Ultralytics مع واجهة سطر الأوامر (CLI) + +تتيح واجهة سطر الأوامر (CLI) في Ultralytics تشغيل أوامر بسيطة بدون الحاجة إلى بيئة Python. لا تحتاج CLI إلى أي تخصيص أو كود Python. يمكنك ببساطة تشغيل جميع المهام من الطرفية باستخدام الأمر `yolo`. تحقق من [دليل CLI](../../usage/cli.md) لمعرفة المزيد حول استخدام YOLOv8 من سطر الأوامر. + +!!! Example + + === "الصيغة" + تستخدم أوامر Ultralytics `yolo` الصيغة التالية: + ```bash + yolo TASK MODE ARGS + ``` + + - `TASK` (اختياري) أحد التالي ([detect](tasks/detect.md), [segment](tasks/segment.md), [classify](tasks/classify.md), [pose](tasks/pose.md)) + - `MODE` (مطلوب) واحد من ([train](modes/train.md), [val](modes/val.md), [predict](modes/predict.md), [export](modes/export.md), [track](modes/track.md)) + - `ARGS` (اختياري) أزواج "arg=value" مثل `imgsz=640` التي تستبدل القيم الافتراضية. + + راجع جميع `ARGS` [هنا](../usage/cfg.md) أو باستخدام الأمر `yolo cfg` في سطر الأوامر. + + === "التدريب" + قم بتدريب نموذج اكتشاف لمدة 10 حلقات مع سعر تعلم بدءي 0.01 + ```bash + yolo train data=coco128.yaml model=yolov8n.pt epochs=10 lr0=0.01 + ``` + + === "التنبؤ" + تنبؤ بفيديو YouTube باستخدام نموذج تجزئة معتمد مسبقًا عند حجم الصورة 320: + ```bash + yolo predict model=yolov8n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320 + ``` + + === "التحقق" + التحقق من نموذج اكتشاف معتمد مسبقًا على دُفعَة واحدة وحجم صورة قدره 640: + ```bash + yolo val model=yolov8n.pt data=coco128.yaml batch=1 imgsz=640 + ``` + + === "التصدير" + قم بتصدير نموذج فئة YOLOv8n إلى تنسيق ONNX على حجم صورة 224 بواسطة 128 (لا يلزم TASK) + ```bash + yolo export model=yolov8n-cls.pt format=onnx imgsz=224,128 + ``` + + === "خاص" + قم بتشغيل أوامر خاصة لعرض الإصدارة وعرض الإعدادات وتشغيل عمليات التحقق والمزيد: + ```bash + yolo help + yolo checks + yolo version + yolo settings + yolo copy-cfg + yolo cfg + ``` + +!!! Warning "تحذير" +يجب تمرير الوسوم كأزواج "arg=val"، وأن تُفصل بعلامة تساوي `=` وأن تُفصل بمسافات بين الأزواج. لا تستخدم بادئات الوسوم `--` أو فواصل `,` بين الوسوم. + + - `yolo predict model=yolov8n.pt imgsz=640 conf=0.25` ✅ + - `yolo predict model yolov8n.pt imgsz 640 conf 0.25` ❌ (مفقود العلامة المساواة) + - `yolo predict model=yolov8n.pt, imgsz=640, conf=0.25` ❌ (لا تستخدم `,`) + - `yolo predict --model yolov8n.pt --imgsz 640 --conf 0.25` ❌ (لا تستخدم `--`) + +[دليل CLI](../usage/cli.md){ .md-button .md-button--primary} + +## استخدم Ultralytics مع Python + +تسمح واجهة Python في YOLOv8 بالتكامل السلس في مشاريع Python الخاصة بك، مما يجعل من السهل تحميل النموذج وتشغيله ومعالجة نتائجه. المصممة ببساطة وسهولة الاستخدام في الاعتبار، تمكن واجهة Python المستخدمين من تنفيذ الكشف على الكائنات والتجزئة والتصنيف في مشاريعهم. يجعل هذا واجهة YOLOv8 Python أداة قيمة لأي شخص يرغب في دمج هذه الوظائف في مشاريعهم باسياتو. + +على سبيل المثال، يمكن للمستخدمين تحميل نموذج، تدريبه، تقييم أدائه على مجموعة التحقق، وحتى تصديره إلى تنسيق ONNX ببضعة أسطر فقط من الشفرة. تحقق من [دليل Python](../usage/python.md) لمعرفة المزيد حول استخدام YOLOv8 داخل مشاريعك الخاصة. + +!!! Example + + ```python + from ultralytics import YOLO + + # أنشئ نموذج YOLO جديد من البداية + model = YOLO('yolov8n.yaml') + + # قم بتحميل نموذج YOLO معتمد مسبقًا (موصَى به للتدريب) + model = YOLO('yolov8n.pt') + + # قم بتدريب النموذج باستخدام مجموعة البيانات 'coco128.yaml' لمدة 3 حلقات + results = model.train(data='coco128.yaml', epochs=3) + + # قم بتقييم أداء النموذج على مجموعة التحقق + results = model.val() + + # قم بإجراء الكشف على صورة باستخدام النموذج + results = model('https://ultralytics.com/images/bus.jpg') + + # قم بتصدير النموذج إلى تنسيق ONNX + success = model.export(format='onnx') + ``` + +[دليل Python](../usage/python.md){.md-button .md-button--primary} + +## إعدادات Ultralytics + +يوفر مكتبة Ultralytics نظامًا قويًا لإدارة الإعدادات لتمكين التحكم بمحاكاة تفصيلية لتجاربك. من خلال استخدام `SettingsManager` في الوحدة `ultralytics.utils`، يمكن للمستخدمين الوصول بسهولة إلى إعداداتهم وتعديلها. يتم تخزينها في ملف YAML ويمكن عرضها أو تعديلها إما مباشرة في بيئة Python أو من خلال واجهة سطر الأوامر (CLI). + +### فحص الإعدادات + +للحصول على فهم للتكوين الحالي لإعداداتك، يمكنك عرضها مباشرةً: + +!!! Example "عرض الإعدادات" + + === "Python" + يُمكنك استخدام Python لعرض الإعدادات الخاصة بك. ابدأ بـاستيراد الكائن `settings` من وحدة `ultralytics`. استخدم الأوامر التالية لطباعة الإعدادات والعودة منها: + ```python + from ultralytics import settings + + # عرض كل الإعدادات + print(settings) + + # إرجاع إعداد محدد + value = settings['runs_dir'] + ``` + + === "CLI" + بدلاً من ذلك، واجهة سطر الأوامر تسمح لك بالتحقق من الإعدادات الخاصة بك باستخدام أمر بسيط: + ```bash + yolo settings + ``` + +### تعديل الإعدادات + +يسمح لك Ultralytics بتعديل الإعدادات بسهولة. يمكن تنفيذ التغييرات بالطرق التالية: + +!!! Example "تحديث الإعدادات" + + === "Python" + داخل بيئة Python، اطلب الطريقة `update` على الكائن `settings` لتغيير إعداداتك: + + ```python + from ultralytics import settings + + # تحديث إعداد واحد + settings.update({'runs_dir': '/path/to/runs'}) + + # تحديث إعدادات متعددة + settings.update({'runs_dir': '/path/to/runs', 'tensorboard': False}) + + # إعادة الإعدادات إلى القيم الافتراضية + settings.reset() + ``` + + === "CLI" + إذا كنت تفضل استخدام واجهة سطر الأوامر، يمكنك استخدام الأوامر التالية لتعديل إعداداتك: + + ```bash + # تحديث إعداد واحد + yolo settings runs_dir='/path/to/runs' + + # تحديث إعدادات متعددة + yolo settings runs_dir='/path/to/runs' tensorboard=False + + # إعادة الإعدادات إلى القيم الافتراضية + yolo settings reset + ``` + +### فهم الإعدادات + +يوفر الجدول أدناه نظرة عامة على الإعدادات المتاحة للضبط في Ultralytics. يتم توضيح كل إعداد بالإضافة إلى قيمة مثالية ونوع البيانات ووصف موجز. + +| الاسم | القيمة المثالية | نوع البيانات | الوصف | +|--------------------|-----------------------|--------------|-------------------------------------------------------------------------------------------------------------| +| `settings_version` | `'0.0.4'` | `str` | إصدار إعدادات Ultralytics (مختلف عن إصدار Ultralytics [pip](https://pypi.org/project/ultralytics/)) | +| `datasets_dir` | `'/path/to/datasets'` | `str` | المسار الذي يتم تخزينه فيه مجموعات البيانات | +| `weights_dir` | `'/path/to/weights'` | `str` | المسار الذي يتم تخزينه فيه أوزان النموذج | +| `runs_dir` | `'/path/to/runs'` | `str` | المسار الذي يتم تخزينه فيه تشغيل التجارب | +| `uuid` | `'a1b2c3d4'` | `str` | مُعرِّف فريد لإعدادات الحالية | +| `sync` | `True` | `bool` | ما إذا كان يتم مزامنة التحليلات وحوادث الأعطال إلى HUB | +| `api_key` | `''` | `str` | HUB الخاص بـ Ultralytics [API Key](https://hub.ultralytics.com/settings?tab=api+keys) | +| `clearml` | `True` | `bool` | ما إذا كان يتم استخدام ClearML لتسجيل التجارب | +| `comet` | `True` | `bool` | ما إذا كان يتم استخدام [Comet ML](https://bit.ly/yolov8-readme-comet) لتتبع وتصور التجارب | +| `dvc` | `True` | `bool` | ما إذا كان يتم استخدام [DVC لتتبع التجارب](https://dvc.org/doc/dvclive/ml-frameworks/yolo) والتحكم في النسخ | +| `hub` | `True` | `bool` | ما إذا كان يتم استخدام [Ultralytics HUB](https://hub.ultralytics.com) للتكامل | +| `mlflow` | `True` | `bool` | ما إذا كان يتم استخدام MLFlow لتتبع التجارب | +| `neptune` | `True` | `bool` | ما إذا كان يتم استخدام Neptune لتتبع التجارب | +| `raytune` | `True` | `bool` | ما إذا كان يتم استخدام Ray Tune لضبط الحساسية | +| `tensorboard` | `True` | `bool` | ما إذا كان يتم استخدام TensorBoard للتصور | +| `wandb` | `True` | `bool` | ما إذا كان يتم استخدام Weights & Biases لتسجيل البيانات | + +أثناء تنقلك في مشاريعك أو تجاربك، تأكد من مراجعة هذه الإعدادات لضمان تكوينها بشكل مثالي وفقًا لاحتياجاتك. diff --git a/docs/ar/tasks/classify.md b/docs/ar/tasks/classify.md new file mode 100644 index 0000000000..482645619f --- /dev/null +++ b/docs/ar/tasks/classify.md @@ -0,0 +1,172 @@ +--- +comments: true +description: تعرّف على نماذج YOLOv8 Classify لتصنيف الصور. احصل على معلومات مفصلة حول قائمة النماذج المدرّبة مسبقًا وكيفية التدريب والتحقق والتنبؤ وتصدير النماذج. +keywords: Ultralytics، YOLOv8، تصنيف الصور، النماذج المدربة مسبقًا، YOLOv8n-cls، التدريب، التحقق، التنبؤ، تصدير النماذج +--- + +# تصنيف الصور + +أمثلة على تصنيف الصور + +تعتبر عملية تصنيف الصور أبسط المهام الثلاثة وتنطوي على تصنيف صورة كاملة في إحدى الفئات المحددة سابقًا. + +ناتج نموذج تصنيف الصور هو تسمية فئة واحدة ودرجة ثقة. يكون تصنيف الصور مفيدًا عندما تحتاج فقط إلى معرفة فئة الصورة ولا تحتاج إلى معرفة موقع الكائنات التابعة لتلك الفئة أو شكلها الدقيق. + +!!! Tip "نصيحة" + + تستخدم نماذج YOLOv8 Classify اللاحقة "-cls"، مثالًا "yolov8n-cls.pt" وتم تدريبها على [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). + +## [النماذج](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) + +تظهر هنا النماذج المدرّبة مسبقًا لـ YOLOv8 للتصنيف. تم تدريب نماذج الكشف والشعبة والموضع على مجموعة البيانات [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)، بينما تم تدريب نماذج التصنيف مسبقًا على مجموعة البيانات [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). + +يتم تنزيل [النماذج](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) تلقائيًا من أحدث إصدار لـ Ultralytics [releases](https://github.com/ultralytics/assets/releases) عند الاستخدام الأول. + +| النموذج | الحجم
(بكسل) | دقة (أعلى 1)
acc | دقة (أعلى 5)
acc | سرعة التنفيذ
ONNX للوحدة المركزية
(مللي ثانية) | سرعة التنفيذ
A100 TensorRT
(مللي ثانية) | المعلمات
(مليون) | FLOPs
(مليار) لحجم 640 | +|----------------------------------------------------------------------------------------------|----------------------|--------------------------|--------------------------|-----------------------------------------------------------|----------------------------------------------------|--------------------------|--------------------------------| +| [YOLOv8n-cls](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8n-cls.pt) | 224 | 66.6 | 87.0 | 12.9 | 0.31 | 2.7 | 4.3 | +| [YOLOv8s-cls](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8s-cls.pt) | 224 | 72.3 | 91.1 | 23.4 | 0.35 | 6.4 | 13.5 | +| [YOLOv8m-cls](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8m-cls.pt) | 224 | 76.4 | 93.2 | 85.4 | 0.62 | 17.0 | 42.7 | +| [YOLOv8l-cls](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8l-cls.pt) | 224 | 78.0 | 94.1 | 163.0 | 0.87 | 37.5 | 99.7 | +| [YOLOv8x-cls](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8x-cls.pt) | 224 | 78.4 | 94.3 | 232.0 | 1.01 | 57.4 | 154.8 | + +- قيمة **acc** هي دقة النماذج على مجموعة بيانات التحقق [ImageNet](https://www.image-net.org/). +
لإعادة إنتاج ذلك، استخدم `yolo val classify data=path/to/ImageNet device=0` +- يتم حساب سرعة **Speed** بناءً على متوسط صور التحقق من ImageNet باستخدام [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/). +
لإعادة إنتاج ذلك، استخدم `yolo val classify data=path/to/ImageNet batch=1 device=0|cpu` + +## التدريب + +قم بتدريب YOLOv8n-cls على مجموعة بيانات MNIST160 لمدة 100 دورة عند حجم الصورة 64 بكسل. للحصول على قائمة كاملة بالوسائط المتاحة، اطلع على صفحة [تكوين](../../usage/cfg.md). + +!!! Example "مثال" + + === "Python" + + ```python + from ultralytics import YOLO + + # تحميل نموذج + model = YOLO('yolov8n-cls.yaml') # إنشاء نموذج جديد من نموذج YAML + model = YOLO('yolov8n-cls.pt') # تحميل نموذج مدرّب مسبقًا (موصى به للتدريب) + model = YOLO('yolov8n-cls.yaml').load('yolov8n-cls.pt') # إنشاء من YAML ونقل الأوزان + + # تدريب النموذج + results = model.train(data='mnist160', epochs=100, imgsz=64) + ``` + + === "CLI" + + ```bash + # إنشاء نموذج جديد من YAML وبدء التدريب من البداية + yolo classify train data=mnist160 model=yolov8n-cls.yaml epochs=100 imgsz=64 + + # بدء التدريب من نموذج مدرّب بصيغة pt + yolo classify train data=mnist160 model=yolov8n-cls.pt epochs=100 imgsz=64 + + # إنشاء نموذج جديد من YAML ونقل الأوزان المدرّبة مسبقًا وبدء التدريب + yolo classify train data=mnist160 model=yolov8n-cls.yaml pretrained=yolov8n-cls.pt epochs=100 imgsz=64 + ``` + +### تنسيق مجموعة البيانات + +يمكن العثور على تنسيق مجموعة بيانات تصنيف YOLO بالتفصيل في [مرشد المجموعة](../../datasets/classify/index.md). + +## التحقق + +قم بتحديد دقة النموذج YOLOv8n-cls المدرّب على مجموعة بيانات MNIST160. لا يلزم تمرير أي وسيطة حيث يحتفظ `model` ببيانات التدريب والوسائط كسمات النموذج. + +!!! Example "مثال" + + === "Python" + + ```python + from ultralytics import YOLO + + # تحميل نموذج + model = YOLO('yolov8n-cls.pt') # تحميل نموذج رسمي + model = YOLO('path/to/best.pt') # تحميل نموذج مخصص + + # التحقق من النموذج + metrics = model.val() # لا تحتاج إلى وسائط، يتم تذكر مجموعة البيانات والإعدادات النموذج + metrics.top1 # دقة أعلى 1 + metrics.top5 # دقة أعلى 5 + ``` + === "CLI" + + ```bash + yolo classify val model=yolov8n-cls.pt # تحقق من النموذج الرسمي + yolo classify val model=path/to/best.pt # تحقق من النموذج المخصص + ``` + +## التنبؤ + +استخدم نموذج YOLOv8n-cls المدرّب لتنفيذ تنبؤات على الصور. + +!!! Example "مثال" + + === "Python" + + ```python + from ultralytics import YOLO + + # تحميل نموذج + model = YOLO('yolov8n-cls.pt') # تحميل نموذج رسمي + model = YOLO('path/to/best.pt') # تحميل نموذج مخصص + + # تنبؤ باستخدام النموذج + results = model('https://ultralytics.com/images/bus.jpg') # تنبؤ على صورة + ``` + === "CLI" + + ```bash + yolo classify predict model=yolov8n-cls.pt source='https://ultralytics.com/images/bus.jpg' # تنبؤ باستخدام النموذج الرسمي + yolo classify predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # تنبؤ باستخدام النموذج المخصص + ``` + +راجع تفاصيل كاملة حول وضع `predict` في الصفحة [Predict](https://docs.ultralytics.com/modes/predict/). + +## تصدير + +قم بتصدير نموذج YOLOv8n-cls إلى تنسيق مختلف مثل ONNX، CoreML، وما إلى ذلك. + +!!! Example "مثال" + + === "Python" + + ```python + from ultralytics import YOLO + + # تحميل نموذج + model = YOLO('yolov8n-cls.pt') # تحميل نموذج رسمي + model = YOLO('path/to/best.pt') # تحميل نموذج مدرّب مخصص + + # تصدير النموذج + model.export(format='onnx') + ``` + === "CLI" + + ```bash + yolo export model=yolov8n-cls.pt format=onnx # تصدير النموذج الرسمي + yolo export model=path/to/best.pt format=onnx # تصدير نموذج مدرّب مخصص + ``` + +تتوفر صيغ تصدير YOLOv8-cls في الجدول أدناه. يمكنك تنبؤ أو التحقق من الصحة مباشرةً على النماذج المصدر، أي "yolo predict model=yolov8n-cls.onnx". يتم عرض أمثلة لاستخدام النموذج الخاص بك بعد الانتهاء من التصدير. + +| الصيغة | وسيطة الصيغة | النموذج | البيانات الوصفية | الوسيطات | +|--------------------------------------------------------------------|---------------|-------------------------------|------------------|-----------------------------------------------------| +| [PyTorch](https://pytorch.org/) | - | `yolov8n-cls.pt` | ✅ | - | +| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-cls.torchscript` | ✅ | `imgsz`, `optimize` | +| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-cls.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | +| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-cls_openvino_model/` | ✅ | `imgsz`, `half` | +| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-cls.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | +| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-cls.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | +| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-cls_saved_model/` | ✅ | `imgsz`, `keras` | +| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-cls.pb` | ❌ | `imgsz` | +| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-cls.tflite` | ✅ | `imgsz`, `half`, `int8` | +| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-cls_edgetpu.tflite` | ✅ | `imgsz` | +| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-cls_web_model/` | ✅ | `imgsz` | +| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-cls_paddle_model/` | ✅ | `imgsz` | +| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-cls_ncnn_model/` | ✅ | `imgsz`, `half` | + +راجع التفاصيل الكاملة حول `export` في الصفحة [Export](https://docs.ultralytics.com/modes/export/). diff --git a/docs/ar/tasks/detect.md b/docs/ar/tasks/detect.md new file mode 100644 index 0000000000..3b3e799efe --- /dev/null +++ b/docs/ar/tasks/detect.md @@ -0,0 +1,185 @@ +--- +comments: true +description: وثائق رسمية لـ YOLOv8 بواسطة Ultralytics. تعلم كيفية تدريب و التحقق من صحة و التنبؤ و تصدير النماذج بتنسيقات مختلفة. تتضمن إحصائيات الأداء التفصيلية. +keywords: YOLOv8, Ultralytics, التعرف على الكائنات, النماذج المدربة من قبل, التدريب, التحقق من الصحة, التنبؤ, تصدير النماذج, COCO, ImageNet, PyTorch, ONNX, CoreML +--- + +# التعرف على الكائنات + +Beispiele für die Erkennung von Objekten + +Task التعرف على الكائنات هو عبارة عن تعرف على موقع و فئة الكائنات في صورة أو فيديو. + +مخرجات جهاز الاستشعار هي مجموعة من مربعات تحيط بالكائنات في الصورة، مع تصنيف الفئة ودرجات وثقة لكل مربع. التعرف على الكائنات هو اختيار جيد عندما تحتاج إلى تحديد كائنات مهمة في مشهد، ولكنك لا تحتاج إلى معرفة بالضبط أين يكمن الكائن أو شكله الدقيق. + +

+
+ +
+ شاهد: التعرف على الكائنات باستخدام نموذج Ultralytics YOLOv8 مع تدريب مسبق. +

+ +!!! Tip "تلميح" + + نماذج YOLOv8 Detect هي النماذج الافتراضية YOLOv8، أي `yolov8n.pt` و هي مدربة مسبقًا على [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml). + +## [النماذج](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) + +تُعرض هنا النماذج المدربة مسبقًا لـ YOLOv8 Detect. النماذج Detect و Segment و Pose معتمدة على مجموعة البيانات [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)، بينما النماذج Classify معتمدة على مجموعة البيانات [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). + +تُقوم النماذج بالتنزيل تلقائيًا من أحدث [إصدار Ultralytics](https://github.com/ultralytics/assets/releases) عند الاستخدام لأول مرة. + +| النموذج | الحجم
(بكسل) | mAPval
50-95 | السرعة
CPU ONNX
(مللي ثانية) | السرعة
A100 TensorRT
(مللي ثانية) | الوزن
(ميغا) | FLOPs
(مليار) | +|--------------------------------------------------------------------------------------|----------------------|----------------------|-----------------------------------------|----------------------------------------------|----------------------|-----------------------| +| [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8n.pt) | 640 | 37.3 | 80.4 | 0.99 | 3.2 | 8.7 | +| [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8s.pt) | 640 | 44.9 | 128.4 | 1.20 | 11.2 | 28.6 | +| [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8m.pt) | 640 | 50.2 | 234.7 | 1.83 | 25.9 | 78.9 | +| [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8l.pt) | 640 | 52.9 | 375.2 | 2.39 | 43.7 | 165.2 | +| [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8x.pt) | 640 | 53.9 | 479.1 | 3.53 | 68.2 | 257.8 | + +- قيم mAPval تنطبق على مقياس نموذج واحد-مقياس واحد على مجموعة بيانات [COCO val2017](http://cocodataset.org). +
اعيد حسابها بواسطة `yolo val detect data=coco.yaml device=0` +- السرعةتمت متوسطة على صور COCO val باستخدام [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) + instance. +
اعيد حسابها بواسطة `yolo val detect data=coco128.yaml batch=1 device=0|cpu` + +## تدريب + +قم بتدريب YOLOv8n على مجموعة البيانات COCO128 لمدة 100 دورة على حجم صورة 640. للحصول على قائمة كاملة بالوسائط المتاحة انظر الصفحة [التكوين](../../usage/cfg.md). + +!!! Example "مثال" + + === "Python" + + ```python + from ultralytics import YOLO + + # قم بتحميل نموذج + model = YOLO('yolov8n.yaml') # بناء نموذج جديد من YAML + model = YOLO('yolov8n.pt') # قم بتحميل نموذج مدرب مسبقًا (موصى به للتدريب) + model = YOLO('yolov8n.yaml').load('yolov8n.pt') # بناء من YAML و نقل الأوزان + + # قم بتدريب النموذج + results = model.train(data='coco128.yaml', epochs=100, imgsz=640) + ``` + === "CLI" + + ```bash + # قم ببناء نموذج جديد من YAML وابدأ التدريب من الصفر + yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640 + + # ابدأ التدريب من نموذج *.pt مدرب مسبقًا + yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 + + # بناء نموذج جديد من YAML، ونقل الأوزان المدربة مسبقاً إلى النموذج وابدأ التدريب + yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640 + ``` + +### تنسيق مجموعة بيانات + +يمكن العثور على تنسيق مجموعة بيانات التعرف على الكائنات بالتفصيل في [دليل مجموعة البيانات](../../datasets/detect/index.md). لتحويل مجموعة البيانات الحالية من تنسيقات أخرى (مثل COCO الخ) إلى تنسيق YOLO، يرجى استخدام أداة [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) المقدمة من Ultralytics. + +## التحقق من الصحة + +قم بتحقق من دقة النموذج المدرب مسبقًا YOLOv8n على مجموعة البيانات COCO128. ليس هناك حاجة إلى تمرير أي وسيطات حيث يحتفظ النموذج ببياناته التدريبية والوسيطات كسمات النموذج. + +!!! Example "مثال" + + === "Python" + + ```python + from ultralytics import YOLO + + # قم بتحميل نموذج + model = YOLO('yolov8n.pt') # تحميل نموذج رسمي + model = YOLO('path/to/best.pt') # تحميل نموذج مخصص + + # قم بالتحقق من النموذج + metrics = model.val() # لا حاجة لأي بيانات، يتذكر النموذج بيانات التدريب و الوسيطات + metrics.box.map # map50-95 + metrics.box.map50 # map50 + metrics.box.map75 # map75 + metrics.box.maps # قائمة تحتوي map50-95 لكل فئة + ``` + === "CLI" + + ```bash + yolo detect val model=yolov8n.pt # التحقق من النموذج الرسمي + yolo detect val model=path/to/best.pt # التحقق من النموذج المخصص + ``` + +## التنبؤ + +استخدم نموذج YOLOv8n المدرب مسبقًا لتشغيل التنبؤات على الصور. + +!!! Example "مثال" + + === "Python" + + ```python + from ultralytics import YOLO + + # قم بتحميل نموذج + model = YOLO('yolov8n.pt') # قم بتحميل نموذج رسمي + model = YOLO('path/to/best.pt') # قم بتحميل نموذج مخصص + + # أجرِ التنبؤ باستخدام النموذج + results = model('https://ultralytics.com/images/bus.jpg') # التنبؤ على صورة + ``` + === "CLI" + + ```bash + yolo detect predict model=yolov8n.pt source='https://ultralytics.com/images/bus.jpg' # التنبؤ باستخدام النموذج الرسمي + yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # التنبؤ بالنموذج المخصص + ``` + +انظر تفاصيل وضع الـ `predict` الكامل في صفحة [Predict](https://docs.ultralytics.com/modes/predict/). + +## تصدير + +قم بتصدير نموذج YOLOv8n إلى تنسيق مختلف مثل ONNX، CoreML وغيرها. + +!!! Example "مثال" + + === "Python" + + ```python + from ultralytics import YOLO + + # قم بتحميل نموذج + model = YOLO('yolov8n.pt') # تحميل نموذج رسمي + model = YOLO('path/to/best.pt') # تحميل نموذج مدرب مخصص + + # قم بتصدير النموذج + model.export(format='onnx') + ``` + === "CLI" + + ```bash + yolo export model=yolov8n.pt format=onnx # تصدير النموذج الرسمي + yolo export model=path/to/best.pt format=onnx # تصدير النموذج المدرب مخصص + ``` + +التنسيقات المدعومة لتصدير YOLOv8 مدرجة في الجدول أدناه. يمكنك التنبؤ أو التحقق من صحة النماذج المصدرة مباشرة، على سبيل المثال `yolo predict model=yolov8n.onnx`. سيتم عرض أمثلة استخدام لنموذجك بعد اكتمال التصدير. + +| الشكل | مسافة `format` | النموذج | بيانات الوصف | وسيطات | +|--------------------------------------------------------------------|----------------|---------------------------|--------------|-----------------------------------------------------| +| [PyTorch](https://pytorch.org/) | - أو | `yolov8n.pt` | ✅ | - | +| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | +| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | +| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half`, `int8` | +| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | +| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | +| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras`, `int8` | +| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | +| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | +| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | +| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | +| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | +| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | + +انظر تفاصيل كاملة للـ `export` في صفحة [Export](https://docs.ultralytics.com/modes/export/). diff --git a/docs/ar/tasks/index.md b/docs/ar/tasks/index.md new file mode 100644 index 0000000000..39db305645 --- /dev/null +++ b/docs/ar/tasks/index.md @@ -0,0 +1,55 @@ +--- +comments: true +description: تعرّف على المهام الأساسية لتقنية YOLOv8 للرؤية الحاسوبية والتي تشمل الكشف، التجزئة، التصنيف وتقدير الوضعية. تعرف على استخداماتها في مشاريع الذكاء الاصطناعي الخاصة بك. +keywords: Ultralytics، YOLOv8، الكشف، التجزئة، التصنيف، تقدير الوضعية، الإطار الذكي للذكاء الاصطناعي، المهام الرؤية الحاسوبية +--- + +# مهام Ultralytics YOLOv8 + +
+مهام Ultralytics YOLOv8 المدعومة + +YOLOv8 هو إطار ذكاء اصطناعي يدعم عدة **مهام** للرؤية الحاسوبية. يمكن استخدام الإطار لأداء [الكشف](detect.md)، [التجزئة](segment.md)، [التصنيف](classify.md)، و[تقدير الوضعية](pose.md). كل من هذه المهام لها هدف مختلف واستخدام محدد. + +!!! Note + + 🚧 يجري بناء وثائقنا متعددة اللغات حاليًا، ونعمل جاهدين على تحسينها. شكرًا لصبرك! 🙏 + +

+
+ +
+ شاهد: استكشف مهام Ultralytics YOLO: كشف الكائنات، التجزئة، التتبع وتقدير الوضعية. +

+ +## [الكشف](detect.md) + +الكشف هو المهمة الأساسية المدعومة بواسطة YOLOv8. يتضمن الكشف اكتشاف الكائنات في صورة أو إطار فيديو ورسم مربعات محيطة حولها. يتم تصنيف الكائنات المكتشفة إلى فئات مختلفة استنادًا إلى ميزاتها. يمكن لـ YOLOv8 اكتشاف أكثر من كائن واحد في صورة أو إطار فيديو واحد بدقة وسرعة عالية. + +[أمثلة للكشف](detect.md){ .md-button .md-button--primary} + +## [التجزئة](segment.md) + +التجزئة هي مهمة تتضمن تقسيم صورة إلى مناطق مختلفة استنادًا إلى محتوى الصورة. يتم تعيين علامة لكل منطقة استنادًا إلى محتواها. تعتبر هذه المهمة مفيدة في تطبيقات مثل تجزئة الصور وتصوير الطبية. يستخدم YOLOv8 نسخة معدلة من هندسة U-Net لأداء التجزئة. + +[أمثلة للتجزئة](segment.md){ .md-button .md-button--primary} + +## [التصنيف](classify.md) + +التصنيف هو مهمة تتضمن تصنيف صورة إلى فئات مختلفة. يمكن استخدام YOLOv8 لتصنيف الصور استنادًا إلى محتواها. يستخدم نسخة معدلة من هندسة EfficientNet لأداء التصنيف. + +[أمثلة للتصنيف](classify.md){ .md-button .md-button--primary} + +## [تقدير الوضعية](pose.md) + +تقدير الوضعية/النقاط الرئيسية هو مهمة تتضمن اكتشاف نقاط محددة في صورة أو إطار فيديو. يُشار إلى هذه النقاط بمصطلح النقاط الرئيسية وتُستخدم لتتبع الحركة أو تقدير الوضعية. يمكن لـ YOLOv8 اكتشاف النقاط الرئيسية في صورة أو إطار فيديو بدقة وسرعة عالية. + +[أمثلة لتقدير الوضعية](pose.md){ .md-button .md-button--primary} + +## الاستنتاج + +يدعم YOLOv8 مهام متعددة، بما في ذلك الكشف، التجزئة، التصنيف، وكشف النقاط الرئيسية. لكل من هذه المهام أهداف واستخدامات مختلفة. عن طريق فهم الاختلافات بين هذه المهام، يمكنك اختيار المهمة المناسبة لتطبيق الرؤية الحاسوبية الخاص بك. diff --git a/docs/ar/tasks/pose.md b/docs/ar/tasks/pose.md new file mode 100644 index 0000000000..f5c7919f6b --- /dev/null +++ b/docs/ar/tasks/pose.md @@ -0,0 +1,186 @@ +--- +comments: true +description: تعرّف على كيفية استخدام Ultralytics YOLOv8 لمهام تقدير الوضعية. اعثر على نماذج مدرّبة مسبقًا، وتعلم كيفية التدريب والتحقق والتنبؤ وتصدير نموذجك الخاص. +keywords: Ultralytics، YOLO، YOLOv8، تقدير الوضعية ، كشف نقاط المفاتيح ، كشف الكائنات ، نماذج مدرّبة مسبقًا ، تعلم الآلة ، الذكاء الاصطناعي +--- + +# تقدير الوضعية + +تقدير الوضعية هو مهمة تنطوي على تحديد موقع نقاط محددة في الصورة ، وعادةً ما يشار إليها بنقاط الوضوح. يمكن أن تمثل نقاط الوضوح أجزاءً مختلفةً من الكائن مثل المفاصل أو العلامات المميزة أو الميزات البارزة الأخرى. عادةً ما يتم تمثيل مواقع نقاط الوضوح كمجموعة من الإحداثيات 2D `[x ، y]` أو 3D `[x ، y ، visible]`. + +يكون ناتج نموذج تقدير الوضعية مجموعة من النقاط التي تمثل نقاط الوضوح على كائن في الصورة ، عادةً مع نقاط الثقة لكل نقطة. تقدير الوضعية هو خيار جيد عندما تحتاج إلى تحديد أجزاء محددة من كائن في مشهد، وموقعها بالنسبة لبعضها البعض. + +

+
+ +
+ شاهد: تقدير الوضعية مع Ultralytics YOLOv8. +

+ +!!! Tip "نصيحة" + + النماذج التي تحتوي على البادئة "-pose" تستخدم لنماذج YOLOv8 pose ، على سبيل المثال `yolov8n-pose.pt`. هذه النماذج مدربة على [مجموعة بيانات نقاط الوضوح COCO]("https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml") وهي مناسبة لمجموعة متنوعة من مهام تقدير الوضعية. + +## [النماذج]("https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8") + +تعرض نماذج مدرّبة مسبقًا لـ YOLOv8 التي تستخدم لتقدير الوضعية هنا. النماذج للكشف والشريحة والوضعية يتم تدريبها على [مجموعة بيانات COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)، بينما تتم تدريب نماذج التصنيف على مجموعة بيانات ImageNet. + +يتم تنزيل النماذج من [آخر إصدار Ultralytics]("https://github.com/ultralytics/assets/releases") تلقائيًا عند استخدامها لأول مرة. + +| النموذج | الحجم (بالبكسل) | mAPالوضعية 50-95 | mAPالوضعية 50 | سرعةالوحدة المركزية ONNX(ms) | سرعةA100 TensorRT(ms) | المعلمات (مليون) | FLOPs (بالمليار) | +|------------------------------------------------------------------------------------------------------|-----------------|-----------------------|--------------------|----------------------------------------|---------------------------------|------------------|------------------| +| [YOLOv8n-pose](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8n-pose.pt) | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 | +| [YOLOv8s-pose](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8s-pose.pt) | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 | +| [YOLOv8m-pose](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8m-pose.pt) | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 | +| [YOLOv8l-pose](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8l-pose.pt) | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 | +| [YOLOv8x-pose](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8x-pose.pt) | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 | +| [YOLOv8x-pose-p6](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8x-pose-p6.pt) | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 | + +- تعتبر القيم **mAPval** لنموذج واحد ومقياس واحد فقط على [COCO Keypoints val2017](http://cocodataset.org) + مجموعة البيانات. +
يمكن إعادة إنتاجه بواسطة `يولو val pose data=coco-pose.yaml device=0` +- يتم حساب **السرعة** من خلال متوسط صور COCO val باستخدام [المروحة الحرارية Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) + مثيل. +
يمكن إعادة إنتاجه بواسطة `يولو val pose data=coco8-pose.yaml batch=1 device=0|cpu` + +## التدريب + +يتم تدريب نموذج YOLOv8-pose على مجموعة بيانات COCO128-pose. + +!!! Example "مثال" + + === "Python" + + ```python + from ultralytics import YOLO + + # تحميل النموذج + model = YOLO('yolov8n-pose.yaml') # بناء نموذج جديد من ملف YAML + model = YOLO('yolov8n-pose.pt') # تحميل نموذج مدرّب مسبقًا (موصى به للتدريب) + model = YOLO('yolov8n-pose.yaml').load('yolov8n-pose.pt') # بناء نموذج من YAML ونقل الوزن + + # تدريب النموذج + results = model.train(data='coco8-pose.yaml', epochs=100, imgsz=640) + ``` + === "CLI" + + ```bash + # بناء نموذج جديد من YAML وبدء التدريب من البداية. + yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml epochs=100 imgsz=640 + + # البدء في التدريب من نموذج مدرب مسبقًا *.pt + yolo pose train data=coco8-pose.yaml model=yolov8n-pose.pt epochs=100 imgsz=640 + + # بناء نموذج جديد من YAML ، ونقل الأوزان المدرّبة مسبقًا إليه ، والبدء في التدريب. + yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml pretrained=yolov8n-pose.pt epochs=100 imgsz=640 + ``` + +### تنسيق مجموعة البيانات + +يمكن العثور على تنسيق مجموعات بيانات نقاط الوضوح YOLO في [دليل المجموعة البيانات](../../datasets/pose/index.md). لتحويل مجموعة البيانات الحالية التي لديك من تنسيقات أخرى (مثل COCO إلخ) إلى تنسيق YOLO ، يرجى استخدام أداة [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) من Ultralytics. + +## التحقق من الصحة + +تحقق من دقة نموذج YOLOv8n-pose المدرّب على مجموعة بيانات COCO128-pose. لا يلزم تمرير سبب ما كوسيط إلى `model` +عند استدعاء. + +!!! Example "مثال" + + === "Python" + + ```python + from ultralytics import YOLO + + # تحميل النموذج + model = YOLO('yolov8n-pose.pt') # تحميل نموذج رسمي + model = YOLO('path/to/best.pt') # تحميل نموذج مخصص + + # التحقق من النموذج + metrics = model.val() # لا يوجد حاجة لأي سبب، يتذكر النموذج البيانات والوسائط كمجالات للنموذج + metrics.box.map # map50-95 + metrics.box.map50 # map50 + metrics.box.map75 # map75 + metrics.box.maps # قائمة تحتوي على map50-95 لكل فئة + ``` + === "CLI" + + ```bash + yolo pose val model=yolov8n-pose.pt # التحقق من النموذج الرسمي + yolo pose val model=path/to/best.pt # التحقق من النموذج المخصص + ``` + +## التنبؤ + +استخدم نموذج YOLOv8n-pose المدرّب لتشغيل توقعات على الصور. + +!!! Example "مثال" + + === "Python" + + ```python + from ultralytics import YOLO + + # تحميل النموذج + model = YOLO('yolov8n-pose.pt') # تحميل نموذج رسمي + model = YOLO('path/to/best.pt') # تحميل نموذج مخصص + + # التنبؤ باستخدام النموذج + results = model('https://ultralytics.com/images/bus.jpg') # التنبؤ بصورة + ``` + === "CLI" + + ```bash + yolo pose predict model=yolov8n-pose.pt source='https://ultralytics.com/images/bus.jpg' # التنبؤ باستخدام النموذج الرسمي + yolo pose predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # التنبؤ باستخدام النموذج المخصص + ``` + +انظر تفاصيل `predict` كاملة في [صفحة التنبؤ](https://docs.ultralytics.com/modes/predict/). + +## التصدير + +قم بتصدير نموذج YOLOv8n-pose إلى تنسيق مختلف مثل ONNX، CoreML، الخ. + +!!! Example "مثال" + + === "Python" + + ```python + from ultralytics import YOLO + + # تحميل النموذج + model = YOLO('yolov8n-pose.pt') # تحميل نموذج رسمي + model = YOLO('path/to/best.pt') # تحميل نموذج مدرب مخصص + + # تصدير النموذج + model.export(format='onnx') + ``` + === "CLI" + + ```bash + yolo export model=yolov8n-pose.pt format=onnx # تصدير نموذج رسمي + yolo export model=path/to/best.pt format=onnx # تصدير نموذج مخصص + ``` + +تتوفر تنسيقات تصدير YOLOv8-pose في الجدول أدناه. يمكنك التنبؤ أو التحقق مباشرةً على النماذج المصدرة ، على سبيل المثال `yolo predict model=yolov8n-pose.onnx`. توجد أمثلة استخدام متاحة لنموذجك بعد اكتمال عملية التصدير. + +| تنسيق | إجراء `format` | النموذج | البيانات الوصفية | الوسائط | +|--------------------------------------------------------------------|----------------|--------------------------------|------------------|-----------------------------------------------------| +| [PyTorch](https://pytorch.org/) | - | `yolov8n-pose.pt` | ✅ | - | +| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-pose.torchscript` | ✅ | `imgsz`, `optimize` | +| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-pose.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | +| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-pose_openvino_model/` | ✅ | `imgsz`, `half` | +| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-pose.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | +| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-pose.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | +| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-pose_saved_model/` | ✅ | `imgsz`, `keras` | +| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-pose.pb` | ❌ | `imgsz` | +| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-pose.tflite` | ✅ | `imgsz`, `half`, `int8` | +| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-pose_edgetpu.tflite` | ✅ | `imgsz` | +| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-pose_web_model/` | ✅ | `imgsz` | +| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-pose_paddle_model/` | ✅ | `imgsz` | +| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-pose_ncnn_model/` | ✅ | `imgsz`, `half` | + +انظر تفاصيل `export` كاملة في [صفحة التصدير](https://docs.ultralytics.com/modes/export/). diff --git a/docs/ar/tasks/segment.md b/docs/ar/tasks/segment.md new file mode 100644 index 0000000000..e2a6efee1a --- /dev/null +++ b/docs/ar/tasks/segment.md @@ -0,0 +1,189 @@ +--- +comments: true +description: تعلم كيفية استخدام نماذج فصل الأشكال الفردية مع Ultralytics YOLO. تعليمات حول التدريب والتحقق من الصحة وتوقع الصورة وتصدير النموذج. +keywords: yolov8 ، فصل الأشكال الفردية ، Ultralytics ، مجموعة بيانات COCO ، تجزئة الصورة ، كشف الكائنات ، تدريب النموذج ، التحقق من صحة النموذج ، توقع الصورة ، تصدير النموذج +--- + +# فصل الأشكال الفردية + +أمثلة على فصل الأشكال الفردية + +يذهب فصل الأشكال الفردية خطوة أبعد من كشف الكائنات وينطوي على تحديد الكائنات الفردية في صورة وتجزيئها عن بقية الصورة. + +ناتج نموذج فصل الأشكال الفردية هو مجموعة من الأقنعة أو الحدود التي تحدد كل كائن في الصورة ، جنبًا إلى جنب مع تصنيف الصنف ونقاط الثقة لكل كائن. يكون فصل الأشكال الفردية مفيدًا عندما تحتاج إلى معرفة ليس فقط أين توجد الكائنات في الصورة ، ولكن أيضًا ما هو شكلها الدقيق. + +

+
+ +
+ المشاهدة: تشغيل فصل الأشكال مع نموذج Ultralytics YOLOv8 مدرب مسبقًا باستخدام Python. +

+ +!!! Tip "نصيحة" + + تستخدم نماذج YOLOv8 Seg اللاحقة `-seg`، أي `yolov8n-seg.pt` وتكون مدربة مسبقًا على [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml). + +## [النماذج](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) + +تُعرض هنا النماذج الجاهزة المدربة مسبقًا لـ YOLOv8 Segment. يتم تدريب نماذج الكشف والتجزيء والمواقف على مجموعة البيانات [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) ، بينما تدرب نماذج التصنيف على مجموعة البيانات [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). + +تتم تنزيل [النماذج](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) تلقائيًا من [الإصدار](https://github.com/ultralytics/assets/releases) الأخير لـ Ultralytics عند أول استخدام. + +| النموذج | الحجم
بكسل | mAPbox
50-95 | mAPmask
50-95 | السرعة
CPU ONNX
(مللي ثانية) | السرعة
A100 TensorRT
(مللي ثانية) | المعلمات
(مليون) | FLOPs
(مليار) | +|----------------------------------------------------------------------------------------------|--------------------|----------------------|-----------------------|-----------------------------------------|----------------------------------------------|--------------------------|-----------------------| +| [YOLOv8n-seg](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8n-seg.pt) | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 | +| [YOLOv8s-seg](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8s-seg.pt) | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 | +| [YOLOv8m-seg](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8m-seg.pt) | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 | +| [YOLOv8l-seg](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8l-seg.pt) | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 | +| [YOLOv8x-seg](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8x-seg.pt) | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 | + +- تُستخدم قيم **mAPval** لنموذج واحد وحجم واحد على مجموعة بيانات [COCO val2017](http://cocodataset.org). +
يمكن إعادة إنتاجها باستخدام `yolo val segment data=coco.yaml device=0` +- **تُحسب السرعة** كمتوسط على صور COCO val باستخدام [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) + instance. +
يمكن إعادة إنتاجها باستخدام `yolo val segment data=coco128-seg.yaml batch=1 device=0|cpu` + +## التدريب + +قم بتدريب YOLOv8n-seg على مجموعة بيانات COCO128-seg لمدة 100 دورة عند حجم صورة 640. للحصول على قائمة كاملة بالوسائط المتاحة ، راجع صفحة [التكوين](../../usage/cfg.md). + +!!! Example "مثال" + + === "Python" + + ```python + from ultralytics import YOLO + + # قم بتحميل النموذج + model = YOLO('yolov8n-seg.yaml') # قم ببناء نموذج جديد من ملف YAML + model = YOLO('yolov8n-seg.pt') # قم بتحميل نموذج مدرب مسبقًا (موصى به للتدريب) + model = YOLO('yolov8n-seg.yaml').load('yolov8n.pt') # قم ببنائه من YAML ونقل الوزن + + # قم بتدريب النموذج + results = model.train(data='coco128-seg.yaml', epochs=100, imgsz=640) + ``` + === "CLI" + + ```bash + # قم ببناء نموذج جديد من ملف YAML وبدء التدريب من البداية + yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml epochs=100 imgsz=640 + + # قم ببدء التدريب من نموذج *.pt مدرب مسبقًا + yolo segment train data=coco128-seg.yaml model=yolov8n-seg.pt epochs=100 imgsz=640 + + # قم ببناء نموذج جديد من YAML ونقل الأوزان المدربة مسبَقًا إليه وابدأ التدريب + yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml pretrained=yolov8n-seg.pt epochs=100 imgsz=640 + ``` + +### تنسيق مجموعة البيانات + +يمكن العثور على تنسيق مجموعة بيانات تجزيء YOLO بالتفصيل في [دليل مجموعة البيانات](../../datasets/segment/index.md). لتحويل مجموعة البيانات الحالية التي تتبع تنسيقات أخرى (مثل COCO إلخ) إلى تنسيق YOLO ، يُرجى استخدام أداة [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) من Ultralytics. + +## التحقق من الصحة + +قم بالتحقق من دقة نموذج YOLOv8n-seg المدرب على مجموعة بيانات COCO128-seg. لا حاجة لتمرير أي وسيطة كما يحتفظ النموذج ببيانات "تدريبه" والوسيطات كسمات النموذج. + +!!! Example "مثال" + + === "Python" + + ```python + from ultralytics import YOLO + + # قم بتحميل النموذج + model = YOLO('yolov8n-seg.pt') # قم بتحميل نموذج رسمي + model = YOLO('path/to/best.pt') # قم بتحميل نموذج مخصص + + # قم بالتحقق من النموذج + metrics = model.val() # لا حاجة إلى أي وسيطة ، يتذكر النموذج بيانات التدريب والوسيطات كسمات النموذج + metrics.box.map # map50-95(B) + metrics.box.map50 # map50(B) + metrics.box.map75 # map75(B) + metrics.box.maps # قائمة تحتوي على map50-95(B) لكل فئة + metrics.seg.map # map50-95(M) + metrics.seg.map50 # map50(M) + metrics.seg.map75 # map75(M) + metrics.seg.maps # قائمة تحتوي على map50-95(M) لكل فئة + ``` + === "CLI" + + ```bash + yolo segment val model=yolov8n-seg.pt # التحقق من النموذج الرسمي + yolo segment val model=path/to/best.pt # التحقق من النموذج المخصص + ``` + +## التنبؤ + +استخدم نموذج YOLOv8n-seg المدرب للقيام بالتنبؤات على الصور. + +!!! Example "مثال" + + === "Python" + + ```python + from ultralytics import YOLO + + # قم بتحميل النموذج + model = YOLO('yolov8n-seg.pt') # قم بتحميل نموذج رسمي + model = YOLO('path/to/best.pt') # قم بتحميل نموذج مخصص + + # التنبؤ باستخدام النموذج + results = model('https://ultralytics.com/images/bus.jpg') # التنبؤ على صورة + ``` + === "CLI" + + ```bash + yolo segment predict model=yolov8n-seg.pt source='https://ultralytics.com/images/bus.jpg' # التنبؤ باستخدام النموذج الرسمي + yolo segment predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # التنبؤ باستخدام النموذج المخصص + ``` + +انظر تفاصيل "التنبؤ" الكاملة في [الصفحة](https://docs.ultralytics.com/modes/predict/). + +## التصدير + +قم بتصدير نموذج YOLOv8n-seg إلى تنسيق مختلف مثل ONNX و CoreML وما إلى ذلك. + +!!! Example "مثال" + + === "Python" + + ```python + from ultralytics import YOLO + + # قم بتحميل النموذج + model = YOLO('yolov8n-seg.pt') # قم بتحميل نموذج رسمي + model = YOLO('path/to/best.pt') # قم بتحميل نموذج مدرب مخصص + + # قم بتصدير النموذج + model.export(format='onnx') + ``` + === "CLI" + + ```bash + yolo export model=yolov8n-seg.pt format=onnx # تصدير نموذج رسمي + yolo export model=path/to/best.pt format=onnx # تصدير نموذج مدرب مخصص + ``` + +صيغ تصدير YOLOv8-seg المتاحة في الجدول أدناه. يمكنك التنبؤ أو التحقق من صحة الموديل المصدر بشكل مباشر ، أي `yolo predict model=yolov8n-seg.onnx`. يتم عرض أمثلة عن الاستخدام لنموذجك بعد اكتمال التصدير. + +| الصيغة | `format` Argument | النموذج | التعليمات | الخيارات | +|--------------------------------------------------------------------|-------------------|-------------------------------|-----------|-------------------------------------------------| +| [PyTorch](https://pytorch.org/) | - | `yolov8n-seg.pt` | ✅ | - | +| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-seg.torchscript` | ✅ | `الحجم ، الأمان` | +| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-seg.onnx` | ✅ | `الحجم ، half ، dynamic ، simplify ، opset` | +| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-seg_openvino_model/` | ✅ | `الحجم ، half` | +| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-seg.engine` | ✅ | `الحجم ، half ، dynamic ، simplify ، workspace` | +| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-seg.mlpackage` | ✅ | `الحجم ، half ، int8 ، nms` | +| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-seg_saved_model/` | ✅ | `الحجم ، keras` | +| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-seg.pb` | ❌ | `الحجم` | +| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-seg.tflite` | ✅ | `الحجم ، half ، int8` | +| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-seg_edgetpu.tflite` | ✅ | `الحجم` | +| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-seg_web_model/` | ✅ | `الحجم` | +| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-seg_paddle_model/` | ✅ | `الحجم` | +| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-seg_ncnn_model/` | ✅ | `الحجم ، half` | + +انظر تفاصيل "التصدير" الكاملة في [الصفحة](https://docs.ultralytics.com/modes/export/). diff --git a/docs/build_reference.py b/docs/build_reference.py index 64f07875c4..4560b32f06 100644 --- a/docs/build_reference.py +++ b/docs/build_reference.py @@ -48,7 +48,7 @@ def create_markdown(py_filepath: Path, module_path: str, classes: list, function edit = f'https://github.com/ultralytics/ultralytics/edit/main/{module_path}.py' title_content = ( f'# Reference for `{module_path}.py`\n\n' - f'!!! note\n\n' + f'!!! Note\n\n' f' This file is available at [{url}]({url}). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request]({edit}) 🛠️. Thank you 🙏!\n\n' ) md_content = [f'---\n## ::: {module_name}.{class_name}\n

\n' for class_name in classes] diff --git a/docs/de/datasets/index.md b/docs/de/datasets/index.md index ff115c3d15..408880cdfa 100644 --- a/docs/de/datasets/index.md +++ b/docs/de/datasets/index.md @@ -8,7 +8,7 @@ keywords: Computer Vision, Datensätze, Ultralytics, YOLO, Objekterkennung, Inst Ultralytics bietet Unterstützung für verschiedene Datensätze an, um Computervisionsaufgaben wie Erkennung, Instanzsegmentierung, Posenschätzung, Klassifizierung und Verfolgung mehrerer Objekte zu erleichtern. Unten finden Sie eine Liste der wichtigsten Ultralytics-Datensätze, gefolgt von einer Zusammenfassung jeder Computervisionsaufgabe und den jeweiligen Datensätzen. -!!! note +!!! Note 🚧 Unsere mehrsprachige Dokumentation befindet sich derzeit im Aufbau und wir arbeiten intensiv an deren Verbesserung. Vielen Dank für Ihre Geduld! 🙏 @@ -104,7 +104,7 @@ Das Bereitstellen eines neuen Datensatzes umfasst mehrere Schritte, um sicherzus ### Beispielcode zum Optimieren und Zippen eines Datensatzes -!!! example "Optimieren und Zippen eines Datensatzes" +!!! Example "Optimieren und Zippen eines Datensatzes" === "Python" diff --git a/docs/de/index.md b/docs/de/index.md index cf298d2678..1560f84742 100644 --- a/docs/de/index.md +++ b/docs/de/index.md @@ -38,7 +38,7 @@ Wir stellen [Ultralytics](https://ultralytics.com) [YOLOv8](https://github.com/u Erkunden Sie die YOLOv8-Dokumentation, eine umfassende Ressource, die Ihnen helfen soll, seine Funktionen und Fähigkeiten zu verstehen und zu nutzen. Ob Sie ein erfahrener Machine-Learning-Praktiker sind oder neu in diesem Bereich, dieses Hub zielt darauf ab, das Potenzial von YOLOv8 in Ihren Projekten zu maximieren -!!! note +!!! Note 🚧 Unsere mehrsprachige Dokumentation wird derzeit entwickelt und wir arbeiten intensiv an ihrer Verbesserung. Wir danken für Ihre Geduld! 🙏 diff --git a/docs/de/models/index.md b/docs/de/models/index.md index 4fd44ef3ef..1baaaad684 100644 --- a/docs/de/models/index.md +++ b/docs/de/models/index.md @@ -8,7 +8,7 @@ keywords: Ultralytics, Dokumentation, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, R Willkommen in der Modell-Dokumentation von Ultralytics! Wir bieten Unterstützung für eine breite Palette von Modellen, die für spezifische Aufgaben wie [Objekterkennung](../tasks/detect.md), [Instanzsegmentierung](../tasks/segment.md), [Bildklassifizierung](../tasks/classify.md), [Poseerkennung](../tasks/pose.md) und [Multi-Objekt-Tracking](../modes/track.md) zugeschnitten sind. Wenn Sie daran interessiert sind, Ihre Modellarchitektur an Ultralytics beizutragen, werfen Sie einen Blick auf unseren [Beitragenden-Leitfaden](../../help/contributing.md). -!!! Hinweis +!!! Note 🚧 Unsere mehrsprachige Dokumentation befindet sich derzeit im Aufbau, und wir arbeiten hart daran, sie zu verbessern. Vielen Dank für Ihre Geduld! 🙏 @@ -41,7 +41,7 @@ Hier sind einige der wesentlichen unterstützten Modelle: ## Erste Schritte: Anwendungsbeispiele -!!! Beispiel "" +!!! Example "Beispiel" === "Python" diff --git a/docs/de/modes/benchmark.md b/docs/de/modes/benchmark.md index 00e4a38110..93908a1456 100644 --- a/docs/de/modes/benchmark.md +++ b/docs/de/modes/benchmark.md @@ -32,7 +32,7 @@ Nachdem Ihr Modell trainiert und validiert wurde, ist der nächste logische Schr - **OpenVINO:** Für die Optimierung von Intel-Hardware - **CoreML, TensorFlow SavedModel, und mehr:** Für vielfältige Deployment-Anforderungen. -!!! tip "Tipp" +!!! Tip "Tipp" * Exportieren Sie in ONNX oder OpenVINO für bis zu 3x CPU-Beschleunigung. * Exportieren Sie in TensorRT für bis zu 5x GPU-Beschleunigung. @@ -41,7 +41,7 @@ Nachdem Ihr Modell trainiert und validiert wurde, ist der nächste logische Schr Führen Sie YOLOv8n-Benchmarks auf allen unterstützten Exportformaten einschließlich ONNX, TensorRT usw. durch. Siehe den Abschnitt Argumente unten für eine vollständige Liste der Exportargumente. -!!! example "" +!!! Example "Beispiel" === "Python" diff --git a/docs/de/modes/export.md b/docs/de/modes/export.md index ea9753da7c..c62a1d6863 100644 --- a/docs/de/modes/export.md +++ b/docs/de/modes/export.md @@ -39,7 +39,7 @@ Hier sind einige der herausragenden Funktionen: - **Optimiertes Inferenzverhalten:** Exportierte Modelle sind für schnellere Inferenzzeiten optimiert. - **Tutorial-Videos:** Ausführliche Anleitungen und Tutorials für ein reibungsloses Exporterlebnis. -!!! tip "Tipp" +!!! Tip "Tipp" * Exportieren Sie nach ONNX oder OpenVINO für bis zu 3-fache CPU-Beschleunigung. * Exportieren Sie nach TensorRT für bis zu 5-fache GPU-Beschleunigung. @@ -48,7 +48,7 @@ Hier sind einige der herausragenden Funktionen: Exportieren Sie ein YOLOv8n-Modell in ein anderes Format wie ONNX oder TensorRT. Weitere Informationen zu den Exportargumenten finden Sie im Abschnitt „Argumente“ unten. -!!! example "" +!!! Example "Beispiel" === "Python" diff --git a/docs/de/modes/predict.md b/docs/de/modes/predict.md index 177c8df384..feb64f020e 100644 --- a/docs/de/modes/predict.md +++ b/docs/de/modes/predict.md @@ -50,7 +50,7 @@ Der Prognosemodus von YOLOv8 ist robust und vielseitig konzipiert und verfügt Ultralytics YOLO-Modelle geben entweder eine Python-Liste von `Results`-Objekten zurück, oder einen speichereffizienten Python-Generator von `Results`-Objekten, wenn `stream=True` beim Inferenzvorgang an das Modell übergeben wird: -!!! Beispiel "Predict" +!!! Example "Predict" === "Gibt eine Liste mit `stream=False` zurück" ```python @@ -92,7 +92,7 @@ Ultralytics YOLO-Modelle geben entweder eine Python-Liste von `Results`-Objekten YOLOv8 kann verschiedene Arten von Eingabequellen für die Inferenz verarbeiten, wie in der folgenden Tabelle gezeigt. Die Quellen umfassen statische Bilder, Videostreams und verschiedene Datenformate. Die Tabelle gibt ebenfalls an, ob jede Quelle im Streaming-Modus mit dem Argument `stream=True` ✅ verwendet werden kann. Der Streaming-Modus ist vorteilhaft für die Verarbeitung von Videos oder Live-Streams, da er einen Generator von Ergebnissen statt das Laden aller Frames in den Speicher erzeugt. -!!! Tipp "Tipp" +!!! Tip "Tipp" Verwenden Sie `stream=True` für die Verarbeitung langer Videos oder großer Datensätze, um den Speicher effizient zu verwalten. Bei `stream=False` werden die Ergebnisse für alle Frames oder Datenpunkte im Speicher gehalten, was bei großen Eingaben schnell zu Speicherüberläufen führen kann. Im Gegensatz dazu verwendet `stream=True` einen Generator, der nur die Ergebnisse des aktuellen Frames oder Datenpunkts im Speicher behält, was den Speicherverbrauch erheblich reduziert und Speicherüberlaufprobleme verhindert. @@ -115,7 +115,7 @@ YOLOv8 kann verschiedene Arten von Eingabequellen für die Inferenz verarbeiten, Untenstehend finden Sie Codebeispiele für die Verwendung jedes Quelltyps: -!!! Beispiel "Vorhersagequellen" +!!! Example "Vorhersagequellen" === "Bild" Führen Sie die Inferenz auf einer Bilddatei aus. diff --git a/docs/de/modes/track.md b/docs/de/modes/track.md index 35040b04d6..f29dae9c31 100644 --- a/docs/de/modes/track.md +++ b/docs/de/modes/track.md @@ -58,7 +58,7 @@ Der Standardtracker ist BoT-SORT. Um den Tracker auf Videostreams auszuführen, verwenden Sie ein trainiertes Erkennungs-, Segmentierungs- oder Posierungsmodell wie YOLOv8n, YOLOv8n-seg und YOLOv8n-pose. -!!! beispiel "" +!!! Example "Beispiel" === "Python" @@ -97,7 +97,7 @@ Wie in der obigen Nutzung zu sehen ist, ist die Verfolgung für alle Detect-, Se Die Tracking-Konfiguration teilt Eigenschaften mit dem Predict-Modus, wie `conf`, `iou` und `show`. Für weitere Konfigurationen siehe die Seite des [Predict](https://docs.ultralytics.com/modes/predict/)-Modells. -!!! beispiel "" +!!! Example "Beispiel" === "Python" @@ -120,7 +120,7 @@ Die Tracking-Konfiguration teilt Eigenschaften mit dem Predict-Modus, wie `conf` Ultralytics ermöglicht es Ihnen auch, eine modifizierte Tracker-Konfigurationsdatei zu verwenden. Hierfür kopieren Sie einfach eine Tracker-Konfigurationsdatei (zum Beispiel `custom_tracker.yaml`) von [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) und ändern jede Konfiguration (außer dem `tracker_type`), wie es Ihren Bedürfnissen entspricht. -!!! beispiel "" +!!! Example "Beispiel" === "Python" @@ -147,7 +147,7 @@ Für eine umfassende Liste der Tracking-Argumente siehe die Seite [ultralytics/c Hier ist ein Python-Skript, das OpenCV (`cv2`) und YOLOv8 verwendet, um Objektverfolgung in Videoframes durchzuführen. Dieses Skript setzt voraus, dass Sie die notwendigen Pakete (`opencv-python` und `ultralytics`) bereits installiert haben. Das Argument `persist=True` teilt dem Tracker mit, dass das aktuelle Bild oder Frame das nächste in einer Sequenz ist und Tracks aus dem vorherigen Bild im aktuellen Bild erwartet werden. -!!! beispiel "Streaming-For-Schleife mit Tracking" +!!! Example "Streaming-For-Schleife mit Tracking" ```python import cv2 diff --git a/docs/de/modes/train.md b/docs/de/modes/train.md index 420080f687..b7ee65e50b 100644 --- a/docs/de/modes/train.md +++ b/docs/de/modes/train.md @@ -41,7 +41,7 @@ Die folgenden sind einige bemerkenswerte Funktionen von YOLOv8s Trainingsmodus: - **Konfiguration der Hyperparameter:** Die Möglichkeit zur Modifikation der Hyperparameter über YAML-Konfigurationsdateien oder CLI-Argumente. - **Visualisierung und Überwachung:** Echtzeit-Tracking von Trainingsmetriken und Visualisierung des Lernprozesses für bessere Einsichten. -!!! Tipp "Tipp" +!!! Tip "Tipp" * YOLOv8-Datensätze wie COCO, VOC, ImageNet und viele andere werden automatisch bei der ersten Verwendung heruntergeladen, d.h. `yolo train data=coco.yaml` @@ -49,7 +49,7 @@ Die folgenden sind einige bemerkenswerte Funktionen von YOLOv8s Trainingsmodus: Trainieren Sie YOLOv8n auf dem COCO128-Datensatz für 100 Epochen bei einer Bildgröße von 640. Das Trainingsgerät kann mit dem Argument `device` spezifiziert werden. Wenn kein Argument übergeben wird, wird GPU `device=0` verwendet, wenn verfügbar, sonst wird `device=cpu` verwendet. Siehe den Abschnitt Argumente unten für eine vollständige Liste der Trainingsargumente. -!!! Beispiel "Beispiel für Single-GPU- und CPU-Training" +!!! Example "Beispiel für Single-GPU- und CPU-Training" Das Gerät wird automatisch ermittelt. Wenn eine GPU verfügbar ist, dann wird diese verwendet, sonst beginnt das Training auf der CPU. @@ -84,7 +84,7 @@ Trainieren Sie YOLOv8n auf dem COCO128-Datensatz für 100 Epochen bei einer Bild Multi-GPU-Training ermöglicht eine effizientere Nutzung von verfügbaren Hardware-Ressourcen, indem die Trainingslast über mehrere GPUs verteilt wird. Diese Funktion ist über sowohl die Python-API als auch die Befehlszeilenschnittstelle verfügbar. Um das Multi-GPU-Training zu aktivieren, geben Sie die GPU-Geräte-IDs an, die Sie verwenden möchten. -!!! Beispiel "Beispiel für Multi-GPU-Training" +!!! Example "Beispiel für Multi-GPU-Training" Um mit 2 GPUs zu trainieren, verwenden Sie die folgenden Befehle für CUDA-Geräte 0 und 1. Erweitern Sie dies bei Bedarf auf zusätzliche GPUs. @@ -113,7 +113,7 @@ Mit der Unterstützung für Apple M1- und M2-Chips, die in den Ultralytics YOLO- Um das Training auf Apple M1- und M2-Chips zu ermöglichen, sollten Sie 'mps' als Ihr Gerät angeben, wenn Sie den Trainingsprozess starten. Unten ist ein Beispiel, wie Sie dies in Python und über die Befehlszeile tun könnten: -!!! Beispiel "MPS-Training Beispiel" +!!! Example "MPS-Training Beispiel" === "Python" @@ -148,7 +148,7 @@ Um einen Logger zu verwenden, wählen Sie ihn aus dem Dropdown-Menü im obigen C Um Comet zu verwenden: -!!! Beispiel "" +!!! Example "Beispiel" === "Python" ```python @@ -166,7 +166,7 @@ Vergessen Sie nicht, sich auf der Comet-Website anzumelden und Ihren API-Schlüs Um ClearML zu verwenden: -!!! Beispiel "" +!!! Example "Beispiel" === "Python" ```python @@ -184,7 +184,7 @@ Nach dem Ausführen dieses Skripts müssen Sie sich auf dem Browser bei Ihrem Cl Um TensorBoard in [Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb) zu verwenden: -!!! Beispiel "" +!!! Example "Beispiel" === "CLI" ```bash @@ -194,7 +194,7 @@ Um TensorBoard in [Google Colab](https://colab.research.google.com/github/ultral Um TensorBoard lokal auszuführen, führen Sie den folgenden Befehl aus und betrachten Sie die Ergebnisse unter http://localhost:6006/. -!!! Beispiel "" +!!! Example "Beispiel" === "CLI" ```bash diff --git a/docs/de/modes/val.md b/docs/de/modes/val.md index 9cd235d4c2..3f0c1880b0 100644 --- a/docs/de/modes/val.md +++ b/docs/de/modes/val.md @@ -30,7 +30,7 @@ Dies sind die bemerkenswerten Funktionen, die der Val-Modus von YOLOv8 bietet: - **CLI- und Python-API:** Wählen Sie zwischen Befehlszeilenschnittstelle oder Python-API basierend auf Ihrer Präferenz für die Validierung. - **Datenkompatibilität:** Funktioniert nahtlos mit Datensätzen, die während der Trainingsphase sowie mit benutzerdefinierten Datensätzen verwendet wurden. -!!! tip "Tipp" +!!! Tip "Tipp" * YOLOv8-Modelle speichern automatisch ihre Trainingseinstellungen, sodass Sie ein Modell mit der gleichen Bildgröße und dem ursprünglichen Datensatz leicht validieren können, indem Sie einfach `yolo val model=yolov8n.pt` oder `model('yolov8n.pt').val()` ausführen @@ -38,7 +38,7 @@ Dies sind die bemerkenswerten Funktionen, die der Val-Modus von YOLOv8 bietet: Validieren Sie die Genauigkeit des trainierten YOLOv8n-Modells auf dem COCO128-Datensatz. Es muss kein Argument übergeben werden, da das `model` seine Trainings-`data` und Argumente als Modellattribute speichert. Siehe Abschnitt „Argumente“ unten für eine vollständige Liste der Exportargumente. -!!! example "" +!!! Example "Beispiel" === "Python" diff --git a/docs/de/quickstart.md b/docs/de/quickstart.md index 3cd9886ca0..0abe15f9bf 100644 --- a/docs/de/quickstart.md +++ b/docs/de/quickstart.md @@ -8,7 +8,7 @@ keywords: Ultralytics-Installation, pip installieren Ultralytics, Docker install Ultralytics bietet verschiedene Installationsmethoden, darunter Pip, Conda und Docker. Installiere YOLOv8 über das `ultralytics` Pip-Paket für die neueste stabile Veröffentlichung oder indem du das [Ultralytics GitHub-Repository](https://github.com/ultralytics/ultralytics) klonst für die aktuellste Version. Docker kann verwendet werden, um das Paket in einem isolierten Container auszuführen, ohne eine lokale Installation vornehmen zu müssen. -!!! Beispiel "Installieren" +!!! Example "Installieren" === "Pip-Installation (empfohlen)" Installieren Sie das `ultralytics` Paket mit Pip oder aktualisieren Sie eine bestehende Installation, indem Sie `pip install -U ultralytics` ausführen. Besuchen Sie den Python Package Index (PyPI) für weitere Details zum `ultralytics` Paket: [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/). @@ -39,7 +39,7 @@ Ultralytics bietet verschiedene Installationsmethoden, darunter Pip, Conda und D conda install -c conda-forge ultralytics ``` - !!! Hinweis + !!! Note Wenn Sie in einer CUDA-Umgebung installieren, ist es am besten, `ultralytics`, `pytorch` und `pytorch-cuda` im selben Befehl zu installieren, um dem Conda-Paketmanager zu ermöglichen, Konflikte zu lösen, oder `pytorch-cuda` als letztes zu installieren, damit es das CPU-spezifische `pytorch` Paket bei Bedarf überschreiben kann. ```bash @@ -89,7 +89,7 @@ Siehe die `ultralytics` [requirements.txt](https://github.com/ultralytics/ultral Watch: Ultralytics YOLO Quick Start Guide

-!!! Tipp "Tipp" +!!! Tip "Tipp" PyTorch-Anforderungen variieren je nach Betriebssystem und CUDA-Anforderungen, daher wird empfohlen, PyTorch zuerst gemäß den Anweisungen unter [https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally) zu installieren. @@ -101,7 +101,7 @@ Siehe die `ultralytics` [requirements.txt](https://github.com/ultralytics/ultral Die Befehlszeilenschnittstelle (CLI) von Ultralytics ermöglicht einfache Einzeilige Befehle ohne die Notwendigkeit einer Python-Umgebung. CLI erfordert keine Anpassung oder Python-Code. Sie können alle Aufgaben einfach vom Terminal aus mit dem `yolo` Befehl ausführen. Schauen Sie sich den [CLI-Leitfaden](/../usage/cli.md) an, um mehr über die Verwendung von YOLOv8 über die Befehlszeile zu erfahren. -!!! Beispiel +!!! Example === "Syntax" @@ -155,7 +155,7 @@ Die Befehlszeilenschnittstelle (CLI) von Ultralytics ermöglicht einfache Einzei yolo cfg ``` -!!! Warnung "Warnung" +!!! Warning "Warnung" Argumente müssen als `arg=val` Paare übergeben werden, getrennt durch ein Gleichheitszeichen `=` und durch Leerzeichen ` ` zwischen den Paaren. Verwenden Sie keine `--` Argumentpräfixe oder Kommata `,` zwischen den Argumenten. @@ -171,7 +171,7 @@ Die Python-Schnittstelle von YOLOv8 ermöglicht eine nahtlose Integration in Ihr Benutzer können beispielsweise ein Modell laden, es trainieren, seine Leistung an einem Validierungsset auswerten und sogar in das ONNX-Format exportieren, und das alles mit nur wenigen Codezeilen. Schauen Sie sich den [Python-Leitfaden](/../usage/python.md) an, um mehr über die Verwendung von YOLOv8 in Ihren_python_pro_jek_ten zu erfahren. -!!! Beispiel +!!! Example ```python from ultralytics import YOLO diff --git a/docs/de/tasks/classify.md b/docs/de/tasks/classify.md index eb49323970..09622a06f3 100644 --- a/docs/de/tasks/classify.md +++ b/docs/de/tasks/classify.md @@ -12,7 +12,7 @@ Bildklassifizierung ist die einfachste der drei Aufgaben und besteht darin, ein Die Ausgabe eines Bildklassifizierers ist ein einzelnes Klassenlabel und eine Vertrauenspunktzahl. Bildklassifizierung ist nützlich, wenn Sie nur wissen müssen, zu welcher Klasse ein Bild gehört, und nicht wissen müssen, wo sich Objekte dieser Klasse befinden oder wie ihre genaue Form ist. -!!! tip "Tipp" +!!! Tip "Tipp" YOLOv8 Classify-Modelle verwenden den Suffix `-cls`, z.B. `yolov8n-cls.pt` und sind auf [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) vortrainiert. @@ -39,7 +39,7 @@ Hier werden vortrainierte YOLOv8 Classify-Modelle gezeigt. Detect-, Segment- und Trainieren Sie das YOLOv8n-cls-Modell auf dem MNIST160-Datensatz für 100 Epochen bei Bildgröße 64. Eine vollständige Liste der verfügbaren Argumente finden Sie auf der Seite [Konfiguration](/../usage/cfg.md). -!!! example "" +!!! Example "Beispiel" === "Python" @@ -76,7 +76,7 @@ Das Datenformat für YOLO-Klassifizierungsdatensätze finden Sie im Detail im [D Validieren Sie die Genauigkeit des trainierten YOLOv8n-cls-Modells auf dem MNIST160-Datensatz. Kein Argument muss übergeben werden, da das `modell` seine Trainings`daten` und Argumente als Modellattribute behält. -!!! example "" +!!! Example "Beispiel" === "Python" @@ -103,7 +103,7 @@ Validieren Sie die Genauigkeit des trainierten YOLOv8n-cls-Modells auf dem MNIST Verwenden Sie ein trainiertes YOLOv8n-cls-Modell, um Vorhersagen auf Bildern durchzuführen. -!!! example "" +!!! Example "Beispiel" === "Python" @@ -130,7 +130,7 @@ Vollständige Details zum `predict`-Modus finden Sie auf der Seite [Vorhersage]( Exportieren Sie ein YOLOv8n-cls-Modell in ein anderes Format wie ONNX, CoreML usw. -!!! example "" +!!! Example "Beispiel" === "Python" diff --git a/docs/de/tasks/detect.md b/docs/de/tasks/detect.md index 47fae34c68..ab2848cc99 100644 --- a/docs/de/tasks/detect.md +++ b/docs/de/tasks/detect.md @@ -23,7 +23,7 @@ Die Ausgabe eines Objekterkenners ist eine Menge von Begrenzungsrahmen, die die Sehen Sie: Objekterkennung mit vortrainiertem Ultralytics YOLOv8 Modell.

-!!! tip "Tipp" +!!! Tip "Tipp" YOLOv8 Detect Modelle sind die Standard YOLOv8 Modelle, zum Beispiel `yolov8n.pt`, und sind vortrainiert auf dem [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)-Datensatz. @@ -50,7 +50,7 @@ Hier werden die vortrainierten YOLOv8 Detect Modelle gezeigt. Detect, Segment un YOLOv8n auf dem COCO128-Datensatz für 100 Epochen bei Bildgröße 640 trainieren. Für eine vollständige Liste verfügbarer Argumente siehe die [Konfigurationsseite](/../usage/cfg.md). -!!! example "" +!!! Example "Beispiel" === "Python" @@ -86,7 +86,7 @@ Das Datenformat für YOLO-Erkennungsdatensätze finden Sie detailliert im [Datas Genauigkeit des trainierten YOLOv8n-Modells auf dem COCO128-Datensatz validieren. Es müssen keine Argumente übergeben werden, da das `modell` seine Trainingsdaten und Argumente als Modellattribute beibehält. -!!! example "" +!!! Example "Beispiel" === "Python" @@ -115,7 +115,7 @@ Genauigkeit des trainierten YOLOv8n-Modells auf dem COCO128-Datensatz validieren Ein trainiertes YOLOv8n-Modell verwenden, um Vorhersagen auf Bildern durchzuführen. -!!! example "" +!!! Example "Beispiel" === "Python" @@ -142,7 +142,7 @@ Volle Details über den `predict`-Modus finden Sie auf der [Predict-Seite](https Ein YOLOv8n-Modell in ein anderes Format wie ONNX, CoreML usw. exportieren. -!!! example "" +!!! Example "Beispiel" === "Python" diff --git a/docs/de/tasks/index.md b/docs/de/tasks/index.md index 6da5787eaa..bb08c292fb 100644 --- a/docs/de/tasks/index.md +++ b/docs/de/tasks/index.md @@ -11,7 +11,7 @@ keywords: Ultralytics, YOLOv8, Erkennung, Segmentierung, Klassifizierung, Pose-S YOLOv8 ist ein KI-Framework, das mehrere Aufgaben im Bereich der Computer Vision **unterstützt**. Das Framework kann für die [Erkennung](detect.md), [Segmentierung](segment.md), [Klassifizierung](classify.md) und die [Pose](pose.md)-Schätzung verwendet werden. Jede dieser Aufgaben hat ein unterschiedliches Ziel und Anwendungsgebiete. -!!! Hinweis +!!! Note 🚧 Unsere mehrsprachigen Dokumentation befindet sich derzeit im Aufbau und wir arbeiten hart daran, sie zu verbessern. Danke für Ihre Geduld! 🙏 diff --git a/docs/de/tasks/pose.md b/docs/de/tasks/pose.md index 16e9cdefe9..4e2ad3c5c4 100644 --- a/docs/de/tasks/pose.md +++ b/docs/de/tasks/pose.md @@ -23,7 +23,7 @@ Das Ergebnis eines Pose-Schätzungsmodells ist eine Gruppe von Punkten, die die Ansehen: Pose-Schätzung mit Ultralytics YOLOv8.

-!!! Tipp "Tipp" +!!! Tip "Tipp" YOLOv8 _pose_-Modelle verwenden den Suffix `-pose`, z. B. `yolov8n-pose.pt`. Diese Modelle sind auf dem [COCO-Schlüsselpunkte](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml)-Datensatz trainiert und für eine Vielzahl von Pose-Schätzungsaufgaben geeignet. @@ -51,7 +51,7 @@ Hier werden vortrainierte YOLOv8 Pose-Modelle gezeigt. Erkennungs-, Segmentierun Trainieren Sie ein YOLOv8-Pose-Modell auf dem COCO128-Pose-Datensatz. -!!! Beispiel "" +!!! Example "Beispiel" === "Python" @@ -87,7 +87,7 @@ Das YOLO-Pose-Datensatzformat finden Sie detailliert im [Datensatz-Leitfaden](.. Die Genauigkeit des trainierten YOLOv8n-Pose-Modells auf dem COCO128-Pose-Datensatz validieren. Es müssen keine Argumente übergeben werden, da das `Modell` seine Trainings`daten` und Argumente als Modellattribute beibehält. -!!! Beispiel "" +!!! Example "Beispiel" === "Python" @@ -116,7 +116,7 @@ Die Genauigkeit des trainierten YOLOv8n-Pose-Modells auf dem COCO128-Pose-Datens Ein trainiertes YOLOv8n-Pose-Modell verwenden, um Vorhersagen auf Bildern zu machen. -!!! Beispiel "" +!!! Example "Beispiel" === "Python" @@ -143,7 +143,7 @@ Vollständige `predict`-Modusdetails finden Sie auf der [Vorhersage](https://doc Ein YOLOv8n-Pose-Modell in ein anderes Format wie ONNX, CoreML usw. exportieren. -!!! Beispiel "" +!!! Example "Beispiel" === "Python" diff --git a/docs/de/tasks/segment.md b/docs/de/tasks/segment.md index 52f7fb2d50..a70909f898 100644 --- a/docs/de/tasks/segment.md +++ b/docs/de/tasks/segment.md @@ -23,7 +23,7 @@ Das Ergebnis eines Instanzsegmentierungsmodells ist eine Reihe von Masken oder K Schauen Sie: Führen Sie Segmentierung mit dem vortrainierten Ultralytics YOLOv8 Modell in Python aus.

-!!! Tipp "Tipp" +!!! Tip "Tipp" YOLOv8 Segment-Modelle verwenden das Suffix `-seg`, d.h. `yolov8n-seg.pt` und sind auf dem [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)-Datensatz vortrainiert. @@ -50,7 +50,7 @@ Hier werden vortrainierte YOLOv8 Segment-Modelle gezeigt. Detect-, Segment- und Trainieren Sie YOLOv8n-seg auf dem COCO128-seg-Datensatz für 100 Epochen mit einer Bildgröße von 640. Eine vollständige Liste der verfügbaren Argumente finden Sie auf der Seite [Konfiguration](/../usage/cfg.md). -!!! Beispiel "" +!!! Example "Beispiel" === "Python" @@ -86,7 +86,7 @@ Das YOLO Segmentierungsdatenformat finden Sie detailliert im [Dataset Guide](../ Validieren Sie die Genauigkeit des trainierten YOLOv8n-seg-Modells auf dem COCO128-seg-Datensatz. Es müssen keine Argumente übergeben werden, da das `Modell` seine Trainingsdaten und -argumente als Modellattribute behält. -!!! Beispiel "" +!!! Example "Beispiel" === "Python" @@ -119,7 +119,7 @@ Validieren Sie die Genauigkeit des trainierten YOLOv8n-seg-Modells auf dem COCO1 Verwenden Sie ein trainiertes YOLOv8n-seg-Modell für Vorhersagen auf Bildern. -!!! Beispiel "" +!!! Example "Beispiel" === "Python" @@ -146,7 +146,7 @@ Die vollständigen Details zum `predict`-Modus finden Sie auf der Seite [Predict Exportieren Sie ein YOLOv8n-seg-Modell in ein anderes Format wie ONNX, CoreML usw. -!!! Beispiel "" +!!! Example "Beispiel" === "Python" diff --git a/docs/en/datasets/classify/caltech101.md b/docs/en/datasets/classify/caltech101.md index bc7e91169e..767dbe0fde 100644 --- a/docs/en/datasets/classify/caltech101.md +++ b/docs/en/datasets/classify/caltech101.md @@ -28,7 +28,7 @@ The Caltech-101 dataset is extensively used for training and evaluating deep lea To train a YOLO model on the Caltech-101 dataset for 100 epochs, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page. -!!! example "Train Example" +!!! Example "Train Example" === "Python" @@ -61,7 +61,7 @@ The example showcases the variety and complexity of the objects in the Caltech-1 If you use the Caltech-101 dataset in your research or development work, please cite the following paper: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/datasets/classify/caltech256.md b/docs/en/datasets/classify/caltech256.md index 664167dd8b..9c65d71fe8 100644 --- a/docs/en/datasets/classify/caltech256.md +++ b/docs/en/datasets/classify/caltech256.md @@ -28,7 +28,7 @@ The Caltech-256 dataset is extensively used for training and evaluating deep lea To train a YOLO model on the Caltech-256 dataset for 100 epochs, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page. -!!! example "Train Example" +!!! Example "Train Example" === "Python" @@ -61,7 +61,7 @@ The example showcases the diversity and complexity of the objects in the Caltech If you use the Caltech-256 dataset in your research or development work, please cite the following paper: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/datasets/classify/cifar10.md b/docs/en/datasets/classify/cifar10.md index 100c2386de..7a700ad13a 100644 --- a/docs/en/datasets/classify/cifar10.md +++ b/docs/en/datasets/classify/cifar10.md @@ -31,7 +31,7 @@ The CIFAR-10 dataset is widely used for training and evaluating deep learning mo To train a YOLO model on the CIFAR-10 dataset for 100 epochs with an image size of 32x32, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page. -!!! example "Train Example" +!!! Example "Train Example" === "Python" @@ -64,7 +64,7 @@ The example showcases the variety and complexity of the objects in the CIFAR-10 If you use the CIFAR-10 dataset in your research or development work, please cite the following paper: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/datasets/classify/cifar100.md b/docs/en/datasets/classify/cifar100.md index 9f7f407879..e27292e8fe 100644 --- a/docs/en/datasets/classify/cifar100.md +++ b/docs/en/datasets/classify/cifar100.md @@ -31,7 +31,7 @@ The CIFAR-100 dataset is extensively used for training and evaluating deep learn To train a YOLO model on the CIFAR-100 dataset for 100 epochs with an image size of 32x32, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page. -!!! example "Train Example" +!!! Example "Train Example" === "Python" @@ -64,7 +64,7 @@ The example showcases the variety and complexity of the objects in the CIFAR-100 If you use the CIFAR-100 dataset in your research or development work, please cite the following paper: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/datasets/classify/fashion-mnist.md b/docs/en/datasets/classify/fashion-mnist.md index 319b2210d9..cbdec5429a 100644 --- a/docs/en/datasets/classify/fashion-mnist.md +++ b/docs/en/datasets/classify/fashion-mnist.md @@ -45,7 +45,7 @@ The Fashion-MNIST dataset is widely used for training and evaluating deep learni To train a CNN model on the Fashion-MNIST dataset for 100 epochs with an image size of 28x28, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page. -!!! example "Train Example" +!!! Example "Train Example" === "Python" diff --git a/docs/en/datasets/classify/imagenet.md b/docs/en/datasets/classify/imagenet.md index 008a3ff196..3241ed519f 100644 --- a/docs/en/datasets/classify/imagenet.md +++ b/docs/en/datasets/classify/imagenet.md @@ -31,7 +31,7 @@ The ImageNet dataset is widely used for training and evaluating deep learning mo To train a deep learning model on the ImageNet dataset for 100 epochs with an image size of 224x224, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page. -!!! example "Train Example" +!!! Example "Train Example" === "Python" @@ -64,7 +64,7 @@ The example showcases the variety and complexity of the images in the ImageNet d If you use the ImageNet dataset in your research or development work, please cite the following paper: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/datasets/classify/imagenet10.md b/docs/en/datasets/classify/imagenet10.md index 886d5afe9c..69fbd670c3 100644 --- a/docs/en/datasets/classify/imagenet10.md +++ b/docs/en/datasets/classify/imagenet10.md @@ -27,7 +27,7 @@ The ImageNet10 dataset is useful for quickly testing and debugging computer visi To test a deep learning model on the ImageNet10 dataset with an image size of 224x224, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page. -!!! example "Test Example" +!!! Example "Test Example" === "Python" @@ -59,7 +59,7 @@ The example showcases the variety and complexity of the images in the ImageNet10 If you use the ImageNet10 dataset in your research or development work, please cite the original ImageNet paper: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/datasets/classify/imagenette.md b/docs/en/datasets/classify/imagenette.md index cc5cb27042..a43778f475 100644 --- a/docs/en/datasets/classify/imagenette.md +++ b/docs/en/datasets/classify/imagenette.md @@ -29,7 +29,7 @@ The ImageNette dataset is widely used for training and evaluating deep learning To train a model on the ImageNette dataset for 100 epochs with a standard image size of 224x224, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page. -!!! example "Train Example" +!!! Example "Train Example" === "Python" @@ -64,7 +64,7 @@ For faster prototyping and training, the ImageNette dataset is also available in To use these datasets, simply replace 'imagenette' with 'imagenette160' or 'imagenette320' in the training command. The following code snippets illustrate this: -!!! example "Train Example with ImageNette160" +!!! Example "Train Example with ImageNette160" === "Python" @@ -85,7 +85,7 @@ To use these datasets, simply replace 'imagenette' with 'imagenette160' or 'imag yolo detect train data=imagenette160 model=yolov8n-cls.pt epochs=100 imgsz=160 ``` -!!! example "Train Example with ImageNette320" +!!! Example "Train Example with ImageNette320" === "Python" diff --git a/docs/en/datasets/classify/imagewoof.md b/docs/en/datasets/classify/imagewoof.md index 2c1271f444..d2f78c4f0d 100644 --- a/docs/en/datasets/classify/imagewoof.md +++ b/docs/en/datasets/classify/imagewoof.md @@ -26,7 +26,7 @@ The ImageWoof dataset is widely used for training and evaluating deep learning m To train a CNN model on the ImageWoof dataset for 100 epochs with an image size of 224x224, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page. -!!! example "Train Example" +!!! Example "Train Example" === "Python" diff --git a/docs/en/datasets/classify/index.md b/docs/en/datasets/classify/index.md index 748701e6ee..b058d50d36 100644 --- a/docs/en/datasets/classify/index.md +++ b/docs/en/datasets/classify/index.md @@ -80,7 +80,7 @@ In this example, the `train` directory contains subdirectories for each class in ## Usage -!!! example "" +!!! Example "" === "Python" diff --git a/docs/en/datasets/classify/mnist.md b/docs/en/datasets/classify/mnist.md index 40f6a779ae..f36b179844 100644 --- a/docs/en/datasets/classify/mnist.md +++ b/docs/en/datasets/classify/mnist.md @@ -34,7 +34,7 @@ The MNIST dataset is widely used for training and evaluating deep learning model To train a CNN model on the MNIST dataset for 100 epochs with an image size of 32x32, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page. -!!! example "Train Example" +!!! Example "Train Example" === "Python" @@ -69,7 +69,7 @@ If you use the MNIST dataset in your research or development work, please cite the following paper: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/datasets/detect/argoverse.md b/docs/en/datasets/detect/argoverse.md index cbc2fd2411..54f282f374 100644 --- a/docs/en/datasets/detect/argoverse.md +++ b/docs/en/datasets/detect/argoverse.md @@ -8,7 +8,7 @@ keywords: Argoverse dataset, autonomous driving, YOLO, 3D tracking, motion forec The [Argoverse](https://www.argoverse.org/) dataset is a collection of data designed to support research in autonomous driving tasks, such as 3D tracking, motion forecasting, and stereo depth estimation. Developed by Argo AI, the dataset provides a wide range of high-quality sensor data, including high-resolution images, LiDAR point clouds, and map data. -!!! note +!!! Note The Argoverse dataset *.zip file required for training was removed from Amazon S3 after the shutdown of Argo AI by Ford, but we have made it available for manual download on [Google Drive](https://drive.google.com/file/d/1st9qW3BeIwQsnR0t8mRpvbsSWIo16ACi/view?usp=drive_link). @@ -35,7 +35,7 @@ The Argoverse dataset is widely used for training and evaluating deep learning m A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. For the case of the Argoverse dataset, the `Argoverse.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/Argoverse.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/Argoverse.yaml). -!!! example "ultralytics/cfg/datasets/Argoverse.yaml" +!!! Example "ultralytics/cfg/datasets/Argoverse.yaml" ```yaml --8<-- "ultralytics/cfg/datasets/Argoverse.yaml" @@ -45,7 +45,7 @@ A YAML (Yet Another Markup Language) file is used to define the dataset configur To train a YOLOv8n model on the Argoverse dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page. -!!! example "Train Example" +!!! Example "Train Example" === "Python" @@ -80,7 +80,7 @@ The example showcases the variety and complexity of the data in the Argoverse da If you use the Argoverse dataset in your research or development work, please cite the following paper: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/datasets/detect/coco.md b/docs/en/datasets/detect/coco.md index 903037040b..5f2ee085d3 100644 --- a/docs/en/datasets/detect/coco.md +++ b/docs/en/datasets/detect/coco.md @@ -31,7 +31,7 @@ The COCO dataset is widely used for training and evaluating deep learning models A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. In the case of the COCO dataset, the `coco.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml). -!!! example "ultralytics/cfg/datasets/coco.yaml" +!!! Example "ultralytics/cfg/datasets/coco.yaml" ```yaml --8<-- "ultralytics/cfg/datasets/coco.yaml" @@ -41,7 +41,7 @@ A YAML (Yet Another Markup Language) file is used to define the dataset configur To train a YOLOv8n model on the COCO dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page. -!!! example "Train Example" +!!! Example "Train Example" === "Python" @@ -76,7 +76,7 @@ The example showcases the variety and complexity of the images in the COCO datas If you use the COCO dataset in your research or development work, please cite the following paper: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/datasets/detect/coco8.md b/docs/en/datasets/detect/coco8.md index e5472da654..bea5127915 100644 --- a/docs/en/datasets/detect/coco8.md +++ b/docs/en/datasets/detect/coco8.md @@ -17,7 +17,7 @@ and [YOLOv8](https://github.com/ultralytics/ultralytics). A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. In the case of the COCO8 dataset, the `coco8.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco8.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco8.yaml). -!!! example "ultralytics/cfg/datasets/coco8.yaml" +!!! Example "ultralytics/cfg/datasets/coco8.yaml" ```yaml --8<-- "ultralytics/cfg/datasets/coco8.yaml" @@ -27,7 +27,7 @@ A YAML (Yet Another Markup Language) file is used to define the dataset configur To train a YOLOv8n model on the COCO8 dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page. -!!! example "Train Example" +!!! Example "Train Example" === "Python" @@ -62,7 +62,7 @@ The example showcases the variety and complexity of the images in the COCO8 data If you use the COCO dataset in your research or development work, please cite the following paper: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/datasets/detect/globalwheat2020.md b/docs/en/datasets/detect/globalwheat2020.md index 0f0d7c0a80..dba6dec0ce 100644 --- a/docs/en/datasets/detect/globalwheat2020.md +++ b/docs/en/datasets/detect/globalwheat2020.md @@ -30,7 +30,7 @@ The Global Wheat Head Dataset is widely used for training and evaluating deep le A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. For the case of the Global Wheat Head Dataset, the `GlobalWheat2020.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/GlobalWheat2020.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/GlobalWheat2020.yaml). -!!! example "ultralytics/cfg/datasets/GlobalWheat2020.yaml" +!!! Example "ultralytics/cfg/datasets/GlobalWheat2020.yaml" ```yaml --8<-- "ultralytics/cfg/datasets/GlobalWheat2020.yaml" @@ -40,7 +40,7 @@ A YAML (Yet Another Markup Language) file is used to define the dataset configur To train a YOLOv8n model on the Global Wheat Head Dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page. -!!! example "Train Example" +!!! Example "Train Example" === "Python" @@ -75,7 +75,7 @@ The example showcases the variety and complexity of the data in the Global Wheat If you use the Global Wheat Head Dataset in your research or development work, please cite the following paper: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/datasets/detect/index.md b/docs/en/datasets/detect/index.md index a99846e464..4b8eefadc3 100644 --- a/docs/en/datasets/detect/index.md +++ b/docs/en/datasets/detect/index.md @@ -48,7 +48,7 @@ When using the Ultralytics YOLO format, organize your training and validation im Here's how you can use these formats to train your model: -!!! example "" +!!! Example "" === "Python" @@ -93,7 +93,7 @@ If you have your own dataset and would like to use it for training detection mod You can easily convert labels from the popular COCO dataset format to the YOLO format using the following code snippet: -!!! example "" +!!! Example "" === "Python" diff --git a/docs/en/datasets/detect/objects365.md b/docs/en/datasets/detect/objects365.md index 06301b1941..5ecfb2cc9e 100644 --- a/docs/en/datasets/detect/objects365.md +++ b/docs/en/datasets/detect/objects365.md @@ -30,7 +30,7 @@ The Objects365 dataset is widely used for training and evaluating deep learning A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. For the case of the Objects365 Dataset, the `Objects365.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/Objects365.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/Objects365.yaml). -!!! example "ultralytics/cfg/datasets/Objects365.yaml" +!!! Example "ultralytics/cfg/datasets/Objects365.yaml" ```yaml --8<-- "ultralytics/cfg/datasets/Objects365.yaml" @@ -40,7 +40,7 @@ A YAML (Yet Another Markup Language) file is used to define the dataset configur To train a YOLOv8n model on the Objects365 dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page. -!!! example "Train Example" +!!! Example "Train Example" === "Python" @@ -75,7 +75,7 @@ The example showcases the variety and complexity of the data in the Objects365 d If you use the Objects365 dataset in your research or development work, please cite the following paper: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/datasets/detect/open-images-v7.md b/docs/en/datasets/detect/open-images-v7.md index 3e656f6ff0..1e46550f62 100644 --- a/docs/en/datasets/detect/open-images-v7.md +++ b/docs/en/datasets/detect/open-images-v7.md @@ -40,7 +40,7 @@ Open Images V7 is a cornerstone for training and evaluating state-of-the-art mod Typically, datasets come with a YAML (Yet Another Markup Language) file that delineates the dataset's configuration. For the case of Open Images V7, a hypothetical `OpenImagesV7.yaml` might exist. For accurate paths and configurations, one should refer to the dataset's official repository or documentation. -!!! example "OpenImagesV7.yaml" +!!! Example "OpenImagesV7.yaml" ```yaml --8<-- "ultralytics/cfg/datasets/open-images-v7.yaml" @@ -50,7 +50,7 @@ Typically, datasets come with a YAML (Yet Another Markup Language) file that del To train a YOLOv8n model on the Open Images V7 dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page. -!!! warning +!!! Warning The complete Open Images V7 dataset comprises 1,743,042 training images and 41,620 validation images, requiring approximately **561 GB of storage space** upon download. @@ -59,7 +59,7 @@ To train a YOLOv8n model on the Open Images V7 dataset for 100 epochs with an im - Verify that your device has enough storage capacity. - Ensure a robust and speedy internet connection. -!!! example "Train Example" +!!! Example "Train Example" === "Python" @@ -94,7 +94,7 @@ Researchers can gain invaluable insights into the array of computer vision chall For those employing Open Images V7 in their work, it's prudent to cite the relevant papers and acknowledge the creators: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/datasets/detect/sku-110k.md b/docs/en/datasets/detect/sku-110k.md index 8e6aac13bf..4d4fcbc534 100644 --- a/docs/en/datasets/detect/sku-110k.md +++ b/docs/en/datasets/detect/sku-110k.md @@ -32,7 +32,7 @@ The SKU-110k dataset is widely used for training and evaluating deep learning mo A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. For the case of the SKU-110K dataset, the `SKU-110K.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/SKU-110K.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/SKU-110K.yaml). -!!! example "ultralytics/cfg/datasets/SKU-110K.yaml" +!!! Example "ultralytics/cfg/datasets/SKU-110K.yaml" ```yaml --8<-- "ultralytics/cfg/datasets/SKU-110K.yaml" @@ -42,7 +42,7 @@ A YAML (Yet Another Markup Language) file is used to define the dataset configur To train a YOLOv8n model on the SKU-110K dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page. -!!! example "Train Example" +!!! Example "Train Example" === "Python" @@ -77,7 +77,7 @@ The example showcases the variety and complexity of the data in the SKU-110k dat If you use the SKU-110k dataset in your research or development work, please cite the following paper: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/datasets/detect/visdrone.md b/docs/en/datasets/detect/visdrone.md index be0c956e1d..f0bcfd5bae 100644 --- a/docs/en/datasets/detect/visdrone.md +++ b/docs/en/datasets/detect/visdrone.md @@ -28,7 +28,7 @@ The VisDrone dataset is widely used for training and evaluating deep learning mo A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. In the case of the Visdrone dataset, the `VisDrone.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/VisDrone.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/VisDrone.yaml). -!!! example "ultralytics/cfg/datasets/VisDrone.yaml" +!!! Example "ultralytics/cfg/datasets/VisDrone.yaml" ```yaml --8<-- "ultralytics/cfg/datasets/VisDrone.yaml" @@ -38,7 +38,7 @@ A YAML (Yet Another Markup Language) file is used to define the dataset configur To train a YOLOv8n model on the VisDrone dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page. -!!! example "Train Example" +!!! Example "Train Example" === "Python" @@ -73,7 +73,7 @@ The example showcases the variety and complexity of the data in the VisDrone dat If you use the VisDrone dataset in your research or development work, please cite the following paper: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/datasets/detect/voc.md b/docs/en/datasets/detect/voc.md index ec18af7ff3..0908352a49 100644 --- a/docs/en/datasets/detect/voc.md +++ b/docs/en/datasets/detect/voc.md @@ -31,7 +31,7 @@ The VOC dataset is widely used for training and evaluating deep learning models A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. In the case of the VOC dataset, the `VOC.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/VOC.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/VOC.yaml). -!!! example "ultralytics/cfg/datasets/VOC.yaml" +!!! Example "ultralytics/cfg/datasets/VOC.yaml" ```yaml --8<-- "ultralytics/cfg/datasets/VOC.yaml" @@ -41,7 +41,7 @@ A YAML (Yet Another Markup Language) file is used to define the dataset configur To train a YOLOv8n model on the VOC dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page. -!!! example "Train Example" +!!! Example "Train Example" === "Python" @@ -77,7 +77,7 @@ The example showcases the variety and complexity of the images in the VOC datase If you use the VOC dataset in your research or development work, please cite the following paper: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/datasets/detect/xview.md b/docs/en/datasets/detect/xview.md index 51e886452a..9d9aa74d24 100644 --- a/docs/en/datasets/detect/xview.md +++ b/docs/en/datasets/detect/xview.md @@ -34,7 +34,7 @@ The xView dataset is widely used for training and evaluating deep learning model A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. In the case of the xView dataset, the `xView.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/xView.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/xView.yaml). -!!! example "ultralytics/cfg/datasets/xView.yaml" +!!! Example "ultralytics/cfg/datasets/xView.yaml" ```yaml --8<-- "ultralytics/cfg/datasets/xView.yaml" @@ -44,7 +44,7 @@ A YAML (Yet Another Markup Language) file is used to define the dataset configur To train a model on the xView dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page. -!!! example "Train Example" +!!! Example "Train Example" === "Python" @@ -79,7 +79,7 @@ The example showcases the variety and complexity of the data in the xView datase If you use the xView dataset in your research or development work, please cite the following paper: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/datasets/index.md b/docs/en/datasets/index.md index 427a7bd9f6..697bc67c21 100644 --- a/docs/en/datasets/index.md +++ b/docs/en/datasets/index.md @@ -78,7 +78,7 @@ Contributing a new dataset involves several steps to ensure that it aligns well 3. **Export Annotations**: Convert these annotations into the YOLO *.txt file format which Ultralytics supports. -4. **Organize Dataset**: Arrange your dataset into the correct folder structure. You should have `train/` and `val/` top-level directories, and within each, an `images/` and `labels/` sub-directory. +4. **Organize Dataset**: Arrange your dataset into the correct folder structure. You should have `train/` and `val/` top-level directories, and within each, an `images/` and `labels/` subdirectory. ``` dataset/ @@ -100,7 +100,7 @@ Contributing a new dataset involves several steps to ensure that it aligns well ### Example Code to Optimize and Zip a Dataset -!!! example "Optimize and Zip a Dataset" +!!! Example "Optimize and Zip a Dataset" === "Python" diff --git a/docs/en/datasets/obb/dota-v2.md b/docs/en/datasets/obb/dota-v2.md index 8aa27d9a23..0a6b0f458c 100644 --- a/docs/en/datasets/obb/dota-v2.md +++ b/docs/en/datasets/obb/dota-v2.md @@ -60,7 +60,7 @@ DOTA v2 serves as a benchmark for training and evaluating models specifically ta Typically, datasets incorporate a YAML (Yet Another Markup Language) file detailing the dataset's configuration. For DOTA v2, a hypothetical `DOTAv2.yaml` could be used. For accurate paths and configurations, it's vital to consult the dataset's official repository or documentation. -!!! example "DOTAv2.yaml" +!!! Example "DOTAv2.yaml" ```yaml --8<-- "ultralytics/cfg/datasets/DOTAv2.yaml" @@ -70,11 +70,11 @@ Typically, datasets incorporate a YAML (Yet Another Markup Language) file detail To train a model on the DOTA v2 dataset, you can utilize the following code snippets. Always refer to your model's documentation for a thorough list of available arguments. -!!! warning +!!! Warning Please note that all images and associated annotations in the DOTAv2 dataset can be used for academic purposes, but commercial use is prohibited. Your understanding and respect for the dataset creators' wishes are greatly appreciated! -!!! example "Train Example" +!!! Example "Train Example" === "Python" @@ -109,7 +109,7 @@ The dataset's richness offers invaluable insights into object detection challeng For those leveraging DOTA v2 in their endeavors, it's pertinent to cite the relevant research papers: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/datasets/obb/index.md b/docs/en/datasets/obb/index.md index c2d326a727..5e5a17fb33 100644 --- a/docs/en/datasets/obb/index.md +++ b/docs/en/datasets/obb/index.md @@ -32,7 +32,7 @@ An example of a `*.txt` label file for the above image, which contains an object To train a model using these OBB formats: -!!! example "" +!!! Example "" === "Python" @@ -69,7 +69,7 @@ For those looking to introduce their own datasets with oriented bounding boxes, Transitioning labels from the DOTA dataset format to the YOLO OBB format can be achieved with this script: -!!! example "" +!!! Example "" === "Python" diff --git a/docs/en/datasets/pose/coco.md b/docs/en/datasets/pose/coco.md index b9221d2208..e0d3fec6e7 100644 --- a/docs/en/datasets/pose/coco.md +++ b/docs/en/datasets/pose/coco.md @@ -32,7 +32,7 @@ The COCO-Pose dataset is specifically used for training and evaluating deep lear A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. In the case of the COCO-Pose dataset, the `coco-pose.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml). -!!! example "ultralytics/cfg/datasets/coco-pose.yaml" +!!! Example "ultralytics/cfg/datasets/coco-pose.yaml" ```yaml --8<-- "ultralytics/cfg/datasets/coco-pose.yaml" @@ -42,7 +42,7 @@ A YAML (Yet Another Markup Language) file is used to define the dataset configur To train a YOLOv8n-pose model on the COCO-Pose dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page. -!!! example "Train Example" +!!! Example "Train Example" === "Python" @@ -77,7 +77,7 @@ The example showcases the variety and complexity of the images in the COCO-Pose If you use the COCO-Pose dataset in your research or development work, please cite the following paper: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/datasets/pose/coco8-pose.md b/docs/en/datasets/pose/coco8-pose.md index 311f66e6dd..519ea92a0a 100644 --- a/docs/en/datasets/pose/coco8-pose.md +++ b/docs/en/datasets/pose/coco8-pose.md @@ -17,7 +17,7 @@ and [YOLOv8](https://github.com/ultralytics/ultralytics). A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. In the case of the COCO8-Pose dataset, the `coco8-pose.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco8-pose.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco8-pose.yaml). -!!! example "ultralytics/cfg/datasets/coco8-pose.yaml" +!!! Example "ultralytics/cfg/datasets/coco8-pose.yaml" ```yaml --8<-- "ultralytics/cfg/datasets/coco8-pose.yaml" @@ -27,7 +27,7 @@ A YAML (Yet Another Markup Language) file is used to define the dataset configur To train a YOLOv8n-pose model on the COCO8-Pose dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page. -!!! example "Train Example" +!!! Example "Train Example" === "Python" @@ -62,7 +62,7 @@ The example showcases the variety and complexity of the images in the COCO8-Pose If you use the COCO dataset in your research or development work, please cite the following paper: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/datasets/pose/index.md b/docs/en/datasets/pose/index.md index a71acad117..464aa8378b 100644 --- a/docs/en/datasets/pose/index.md +++ b/docs/en/datasets/pose/index.md @@ -64,7 +64,7 @@ The `train` and `val` fields specify the paths to the directories containing the ## Usage -!!! example "" +!!! Example "" === "Python" @@ -125,7 +125,7 @@ If you have your own dataset and would like to use it for training pose estimati Ultralytics provides a convenient conversion tool to convert labels from the popular COCO dataset format to YOLO format: -!!! example "" +!!! Example "" === "Python" diff --git a/docs/en/datasets/pose/tiger-pose.md b/docs/en/datasets/pose/tiger-pose.md index 66ffd1784e..c00fafb6fc 100644 --- a/docs/en/datasets/pose/tiger-pose.md +++ b/docs/en/datasets/pose/tiger-pose.md @@ -19,7 +19,7 @@ and [YOLOv8](https://github.com/ultralytics/ultralytics). A YAML (Yet Another Markup Language) file serves as the means to specify the configuration details of a dataset. It encompasses crucial data such as file paths, class definitions, and other pertinent information. Specifically, for the `tiger-pose.yaml` file, you can check [Ultralytics Tiger-Pose Dataset Configuration File](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/tiger-pose.yaml). -!!! example "ultralytics/cfg/datasets/tiger-pose.yaml" +!!! Example "ultralytics/cfg/datasets/tiger-pose.yaml" ```yaml --8<-- "ultralytics/cfg/datasets/tiger-pose.yaml" @@ -29,7 +29,7 @@ A YAML (Yet Another Markup Language) file serves as the means to specify the con To train a YOLOv8n-pose model on the Tiger-Pose dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page. -!!! example "Train Example" +!!! Example "Train Example" === "Python" @@ -62,7 +62,7 @@ The example showcases the variety and complexity of the images in the Tiger-Pose ## Inference Example -!!! example "Inference Example" +!!! Example "Inference Example" === "Python" diff --git a/docs/en/datasets/segment/coco.md b/docs/en/datasets/segment/coco.md index c1810fd026..b77289a6b6 100644 --- a/docs/en/datasets/segment/coco.md +++ b/docs/en/datasets/segment/coco.md @@ -31,7 +31,7 @@ COCO-Seg is widely used for training and evaluating deep learning models in inst A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. In the case of the COCO-Seg dataset, the `coco.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml). -!!! example "ultralytics/cfg/datasets/coco.yaml" +!!! Example "ultralytics/cfg/datasets/coco.yaml" ```yaml --8<-- "ultralytics/cfg/datasets/coco.yaml" @@ -41,7 +41,7 @@ A YAML (Yet Another Markup Language) file is used to define the dataset configur To train a YOLOv8n-seg model on the COCO-Seg dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page. -!!! example "Train Example" +!!! Example "Train Example" === "Python" @@ -76,7 +76,7 @@ The example showcases the variety and complexity of the images in the COCO-Seg d If you use the COCO-Seg dataset in your research or development work, please cite the original COCO paper and acknowledge the extension to COCO-Seg: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/datasets/segment/coco8-seg.md b/docs/en/datasets/segment/coco8-seg.md index 46f2a4c99d..0e55ec5a8c 100644 --- a/docs/en/datasets/segment/coco8-seg.md +++ b/docs/en/datasets/segment/coco8-seg.md @@ -17,7 +17,7 @@ and [YOLOv8](https://github.com/ultralytics/ultralytics). A YAML (Yet Another Markup Language) file is used to define the dataset configuration. It contains information about the dataset's paths, classes, and other relevant information. In the case of the COCO8-Seg dataset, the `coco8-seg.yaml` file is maintained at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco8-seg.yaml](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco8-seg.yaml). -!!! example "ultralytics/cfg/datasets/coco8-seg.yaml" +!!! Example "ultralytics/cfg/datasets/coco8-seg.yaml" ```yaml --8<-- "ultralytics/cfg/datasets/coco8-seg.yaml" @@ -27,7 +27,7 @@ A YAML (Yet Another Markup Language) file is used to define the dataset configur To train a YOLOv8n-seg model on the COCO8-Seg dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model [Training](../../modes/train.md) page. -!!! example "Train Example" +!!! Example "Train Example" === "Python" @@ -62,7 +62,7 @@ The example showcases the variety and complexity of the images in the COCO8-Seg If you use the COCO dataset in your research or development work, please cite the following paper: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/datasets/segment/index.md b/docs/en/datasets/segment/index.md index 3a3f3b41f1..4cd8126718 100644 --- a/docs/en/datasets/segment/index.md +++ b/docs/en/datasets/segment/index.md @@ -33,7 +33,7 @@ Here is an example of the YOLO dataset format for a single image with two object 1 0.504 0.000 0.501 0.004 0.498 0.004 0.493 0.010 0.492 0.0104 ``` -!!! tip "Tip" +!!! Tip "Tip" - The length of each row does **not** have to be equal. - Each segmentation label must have a **minimum of 3 xy points**: ` ` @@ -66,7 +66,7 @@ The `train` and `val` fields specify the paths to the directories containing the ## Usage -!!! example "" +!!! Example "" === "Python" @@ -101,7 +101,7 @@ If you have your own dataset and would like to use it for training segmentation You can easily convert labels from the popular COCO dataset format to the YOLO format using the following code snippet: -!!! example "" +!!! Example "" === "Python" @@ -123,7 +123,7 @@ Auto-annotation is an essential feature that allows you to generate a segmentati To auto-annotate your dataset using the Ultralytics framework, you can use the `auto_annotate` function as shown below: -!!! example "" +!!! Example "" === "Python" diff --git a/docs/en/datasets/track/index.md b/docs/en/datasets/track/index.md index 71e74e18d3..89abbff9ff 100644 --- a/docs/en/datasets/track/index.md +++ b/docs/en/datasets/track/index.md @@ -12,7 +12,7 @@ Multi-Object Detector doesn't need standalone training and directly supports pre ## Usage -!!! example "" +!!! Example "" === "Python" diff --git a/docs/en/guides/hyperparameter-tuning.md b/docs/en/guides/hyperparameter-tuning.md index 0e13806292..0a7c0fc8d9 100644 --- a/docs/en/guides/hyperparameter-tuning.md +++ b/docs/en/guides/hyperparameter-tuning.md @@ -69,7 +69,7 @@ The process is repeated until either the set number of iterations is reached or Here's how to use the `model.tune()` method to utilize the `Tuner` class for hyperparameter tuning of YOLOv8n on COCO8 for 30 epochs with an AdamW optimizer and skipping plotting, checkpointing and validation other than on final epoch for faster Tuning. -!!! example "" +!!! Example "" === "Python" diff --git a/docs/en/guides/sahi-tiled-inference.md b/docs/en/guides/sahi-tiled-inference.md index fe9c599afc..fd45384b4b 100644 --- a/docs/en/guides/sahi-tiled-inference.md +++ b/docs/en/guides/sahi-tiled-inference.md @@ -167,7 +167,7 @@ That's it! Now you're equipped to use YOLOv8 with SAHI for both standard and sli If you use SAHI in your research or development work, please cite the original SAHI paper and acknowledge the authors: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/help/privacy.md b/docs/en/help/privacy.md index dfd8137ef5..c9bc3a52a5 100644 --- a/docs/en/help/privacy.md +++ b/docs/en/help/privacy.md @@ -39,7 +39,7 @@ We take several measures to ensure the privacy and security of the data you entr [Sentry](https://sentry.io/) is a developer-centric error tracking software that aids in identifying, diagnosing, and resolving issues in real-time, ensuring the robustness and reliability of applications. Within our package, it plays a crucial role by providing insights through crash reporting, significantly contributing to the stability and ongoing refinement of our software. -!!! note +!!! Note Crash reporting via Sentry is activated only if the `sentry-sdk` Python package is pre-installed on your system. This package isn't included in the `ultralytics` prerequisites and won't be installed automatically by Ultralytics. @@ -74,7 +74,7 @@ To opt out of sending analytics and crash reports, you can simply set `sync=Fals To gain insight into the current configuration of your settings, you can view them directly: -!!! example "View settings" +!!! Example "View settings" === "Python" You can use Python to view your settings. Start by importing the `settings` object from the `ultralytics` module. Print and return settings using the following commands: @@ -98,7 +98,7 @@ To gain insight into the current configuration of your settings, you can view th Ultralytics allows users to easily modify their settings. Changes can be performed in the following ways: -!!! example "Update settings" +!!! Example "Update settings" === "Python" Within the Python environment, call the `update` method on the `settings` object to change your settings: diff --git a/docs/en/hub/app/android.md b/docs/en/hub/app/android.md index e6acfaf5be..fa7cd85540 100644 --- a/docs/en/hub/app/android.md +++ b/docs/en/hub/app/android.md @@ -43,7 +43,7 @@ FP16 (or half-precision) quantization converts the model's 32-bit floating-point INT8 (or 8-bit integer) quantization further reduces the model's size and computation requirements by converting its 32-bit floating-point numbers to 8-bit integers. This quantization method can result in a significant speedup, but it may lead to a slight reduction in mean average precision (mAP) due to the lower numerical precision. -!!! tip "mAP Reduction in INT8 Models" +!!! Tip "mAP Reduction in INT8 Models" The reduced numerical precision in INT8 models can lead to some loss of information during the quantization process, which may result in a slight decrease in mAP. However, this trade-off is often acceptable considering the substantial performance gains offered by INT8 quantization. diff --git a/docs/en/hub/datasets.md b/docs/en/hub/datasets.md index b248bd18b3..dfc3338d5b 100644 --- a/docs/en/hub/datasets.md +++ b/docs/en/hub/datasets.md @@ -30,7 +30,7 @@ You can download our [COCO8](https://github.com/ultralytics/hub/blob/main/exampl The dataset YAML is the same standard YOLOv5 and YOLOv8 YAML format. -!!! example "coco8.yaml" +!!! Example "coco8.yaml" ```yaml --8<-- "ultralytics/cfg/datasets/coco8.yaml" @@ -92,7 +92,7 @@ Next, [train a model](https://docs.ultralytics.com/hub/models/#train-model) on y ## Share Dataset -!!! info "Info" +!!! Info "Info" Ultralytics HUB's sharing functionality provides a convenient way to share datasets with others. This feature is designed to accommodate both existing Ultralytics HUB users and those who have yet to create an account. diff --git a/docs/en/hub/inference_api.md b/docs/en/hub/inference_api.md index 4cc62bfbb7..7ca6822523 100644 --- a/docs/en/hub/inference_api.md +++ b/docs/en/hub/inference_api.md @@ -106,7 +106,7 @@ The JSON list contains information about the detected objects, their coordinates YOLO detection models, such as `yolov8n.pt`, can return JSON responses from local inference, CLI API inference, and Python API inference. All of these methods produce the same JSON response format. -!!! example "Detect Model JSON Response" +!!! Example "Detect Model JSON Response" === "Local" ```python @@ -200,7 +200,7 @@ YOLO detection models, such as `yolov8n.pt`, can return JSON responses from loca YOLO segmentation models, such as `yolov8n-seg.pt`, can return JSON responses from local inference, CLI API inference, and Python API inference. All of these methods produce the same JSON response format. -!!! example "Segment Model JSON Response" +!!! Example "Segment Model JSON Response" === "Local" ```python @@ -337,7 +337,7 @@ YOLO segmentation models, such as `yolov8n-seg.pt`, can return JSON responses fr YOLO pose models, such as `yolov8n-pose.pt`, can return JSON responses from local inference, CLI API inference, and Python API inference. All of these methods produce the same JSON response format. -!!! example "Pose Model JSON Response" +!!! Example "Pose Model JSON Response" === "Local" ```python diff --git a/docs/en/hub/models.md b/docs/en/hub/models.md index 65b7880c4d..9762f34568 100644 --- a/docs/en/hub/models.md +++ b/docs/en/hub/models.md @@ -58,7 +58,7 @@ In this step, you have to choose the project in which you want to create your mo ![Ultralytics HUB screenshot of the Train Model dialog with an arrow pointing to the project name](https://raw.githubusercontent.com/ultralytics/assets/main/docs/hub/models/hub_train_model_7.jpg) -!!! info "Info" +!!! Info "Info" You can read more about the available [YOLOv8](https://docs.ultralytics.com/models/yolov8) (and [YOLOv5](https://docs.ultralytics.com/models/yolov5)) architectures in our documentation. @@ -146,7 +146,7 @@ You can export your model to 13 different formats, including ONNX, OpenVINO, Cor ## Share Model -!!! info "Info" +!!! Info "Info" Ultralytics HUB's sharing functionality provides a convenient way to share models with others. This feature is designed to accommodate both existing Ultralytics HUB users and those who have yet to create an account. diff --git a/docs/en/hub/projects.md b/docs/en/hub/projects.md index b11aee62b1..f712942337 100644 --- a/docs/en/hub/projects.md +++ b/docs/en/hub/projects.md @@ -44,7 +44,7 @@ Next, [train a model](https://docs.ultralytics.com/hub/models/#train-model) insi ## Share Project -!!! info "Info" +!!! Info "Info" Ultralytics HUB's sharing functionality provides a convenient way to share projects with others. This feature is designed to accommodate both existing Ultralytics HUB users and those who have yet to create an account. @@ -68,7 +68,7 @@ Set the general access to "Unlisted" and click **Save**. ![Ultralytics HUB screenshot of the Share Project dialog with an arrow pointing to the dropdown and one to the Save button](https://raw.githubusercontent.com/ultralytics/assets/main/docs/hub/projects/hub_share_project_3.jpg) -!!! warning "Warning" +!!! Warning "Warning" When changing the general access of a project, the general access of the models inside the project will be changed as well. @@ -108,7 +108,7 @@ Navigate to the Project page of the project you want to delete, open the project ![Ultralytics HUB screenshot of the Projects page with an arrow pointing to the Delete option of one of the projects](https://raw.githubusercontent.com/ultralytics/assets/main/docs/hub/projects/hub_delete_project_2.jpg) -!!! warning "Warning" +!!! Warning "Warning" When deleting a project, the models inside the project will be deleted as well. diff --git a/docs/en/integrations/comet.md b/docs/en/integrations/comet.md index f2a1e48029..ac9819c876 100644 --- a/docs/en/integrations/comet.md +++ b/docs/en/integrations/comet.md @@ -26,7 +26,7 @@ By combining Ultralytics YOLOv8 with Comet ML, you unlock a range of benefits. T To install the required packages, run: -!!! tip "Installation" +!!! Tip "Installation" === "CLI" @@ -39,7 +39,7 @@ To install the required packages, run: After installing the required packages, you’ll need to sign up, get a [Comet API Key](https://www.comet.com/signup), and configure it. -!!! tip "Configuring Comet ML" +!!! Tip "Configuring Comet ML" === "CLI" @@ -61,7 +61,7 @@ comet_ml.init(project_name="comet-example-yolov8-coco128") Before diving into the usage instructions, be sure to check out the range of [YOLOv8 models offered by Ultralytics](../models/index.md). This will help you choose the most appropriate model for your project requirements. -!!! example "Usage" +!!! Example "Usage" === "Python" diff --git a/docs/en/integrations/mlflow.md b/docs/en/integrations/mlflow.md index 4da3ce1d4c..58052df2c3 100644 --- a/docs/en/integrations/mlflow.md +++ b/docs/en/integrations/mlflow.md @@ -34,7 +34,7 @@ pip install mlflow Make sure that MLflow logging is enabled in Ultralytics settings. Usually, this is controlled by the settings `mflow` key. See the [settings](https://docs.ultralytics.com/quickstart/#ultralytics-settings) page for more info. -!!! example "Update Ultralytics MLflow Settings" +!!! Example "Update Ultralytics MLflow Settings" === "Python" Within the Python environment, call the `update` method on the `settings` object to change your settings: diff --git a/docs/en/integrations/openvino.md b/docs/en/integrations/openvino.md index 75fd507974..255a505b6a 100644 --- a/docs/en/integrations/openvino.md +++ b/docs/en/integrations/openvino.md @@ -27,7 +27,7 @@ OpenVINO, short for Open Visual Inference & Neural Network Optimization toolkit, Export a YOLOv8n model to OpenVINO format and run inference with the exported model. -!!! example "" +!!! Example "" === "Python" @@ -101,7 +101,7 @@ For more detailed steps and code snippets, refer to the [OpenVINO documentation] YOLOv8 benchmarks below were run by the Ultralytics team on 4 different model formats measuring speed and accuracy: PyTorch, TorchScript, ONNX and OpenVINO. Benchmarks were run on Intel Flex and Arc GPUs, and on Intel Xeon CPUs at FP32 precision (with the `half=False` argument). -!!! note +!!! Note The benchmarking results below are for reference and might vary based on the exact hardware and software configuration of a system, as well as the current workload of the system at the time the benchmarks are run. @@ -251,7 +251,7 @@ Benchmarks below run on 13th Gen Intel® Core® i7-13700H CPU at FP32 precision. To reproduce the Ultralytics benchmarks above on all export [formats](../modes/export.md) run this code: -!!! example "" +!!! Example "" === "Python" diff --git a/docs/en/integrations/ray-tune.md b/docs/en/integrations/ray-tune.md index 46eb5ffba0..3825cf7fda 100644 --- a/docs/en/integrations/ray-tune.md +++ b/docs/en/integrations/ray-tune.md @@ -28,7 +28,7 @@ YOLOv8 also allows optional integration with [Weights & Biases](https://wandb.ai To install the required packages, run: -!!! tip "Installation" +!!! Tip "Installation" === "CLI" @@ -42,7 +42,7 @@ To install the required packages, run: ## Usage -!!! example "Usage" +!!! Example "Usage" === "Python" @@ -103,7 +103,7 @@ The following table lists the default search space parameters for hyperparameter In this example, we demonstrate how to use a custom search space for hyperparameter tuning with Ray Tune and YOLOv8. By providing a custom search space, you can focus the tuning process on specific hyperparameters of interest. -!!! example "Usage" +!!! Example "Usage" ```python from ultralytics import YOLO diff --git a/docs/en/integrations/roboflow.md b/docs/en/integrations/roboflow.md index ed6b8cd3b6..2f0159009c 100644 --- a/docs/en/integrations/roboflow.md +++ b/docs/en/integrations/roboflow.md @@ -8,7 +8,7 @@ keywords: Ultralytics, YOLOv8, Roboflow, vector analysis, confusion matrix, data [Roboflow](https://roboflow.com/?ref=ultralytics) has everything you need to build and deploy computer vision models. Connect Roboflow at any step in your pipeline with APIs and SDKs, or use the end-to-end interface to automate the entire process from image to inference. Whether you’re in need of [data labeling](https://roboflow.com/annotate?ref=ultralytics), [model training](https://roboflow.com/train?ref=ultralytics), or [model deployment](https://roboflow.com/deploy?ref=ultralytics), Roboflow gives you building blocks to bring custom computer vision solutions to your project. -!!! warning +!!! Warning Roboflow users can use Ultralytics under the [AGPL license](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) or procure an [Enterprise license](https://ultralytics.com/license) directly from Ultralytics. Be aware that Roboflow does **not** provide Ultralytics licenses, and it is the responsibility of the user to ensure appropriate licensing. diff --git a/docs/en/models/fast-sam.md b/docs/en/models/fast-sam.md index 2e839a5a73..9b4928d91c 100644 --- a/docs/en/models/fast-sam.md +++ b/docs/en/models/fast-sam.md @@ -40,7 +40,7 @@ The FastSAM models are easy to integrate into your Python applications. Ultralyt To perform object detection on an image, use the `predict` method as shown below: -!!! example "" +!!! Example "" === "Python" ```python @@ -87,7 +87,7 @@ This snippet demonstrates the simplicity of loading a pre-trained model and runn Validation of the model on a dataset can be done as follows: -!!! example "" +!!! Example "" === "Python" ```python @@ -168,7 +168,7 @@ Additionally, you can try FastSAM through a [Colab demo](https://colab.research. We would like to acknowledge the FastSAM authors for their significant contributions in the field of real-time instance segmentation: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/models/index.md b/docs/en/models/index.md index 83110d1c8d..410131ea3e 100644 --- a/docs/en/models/index.md +++ b/docs/en/models/index.md @@ -37,7 +37,7 @@ Here are some of the key models supported: ## Getting Started: Usage Examples -!!! example "" +!!! Example "" === "Python" diff --git a/docs/en/models/mobile-sam.md b/docs/en/models/mobile-sam.md index d9e315a49e..54f1360f0e 100644 --- a/docs/en/models/mobile-sam.md +++ b/docs/en/models/mobile-sam.md @@ -61,7 +61,7 @@ You can download the model [here](https://github.com/ChaoningZhang/MobileSAM/blo ### Point Prompt -!!! example "" +!!! Example "" === "Python" ```python @@ -76,7 +76,7 @@ You can download the model [here](https://github.com/ChaoningZhang/MobileSAM/blo ### Box Prompt -!!! example "" +!!! Example "" === "Python" ```python @@ -95,7 +95,7 @@ We have implemented `MobileSAM` and `SAM` using the same API. For more usage inf If you find MobileSAM useful in your research or development work, please consider citing our paper: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/models/rtdetr.md b/docs/en/models/rtdetr.md index 779da94bc2..6af5b3290f 100644 --- a/docs/en/models/rtdetr.md +++ b/docs/en/models/rtdetr.md @@ -30,7 +30,7 @@ The Ultralytics Python API provides pre-trained PaddlePaddle RT-DETR models with You can use RT-DETR for object detection tasks using the `ultralytics` pip package. The following is a sample code snippet showing how to use RT-DETR models for training and inference: -!!! example "" +!!! Example "" This example provides simple inference code for RT-DETR. For more options including handling inference results see [Predict](../modes/predict.md) mode. For using RT-DETR with additional modes see [Train](../modes/train.md), [Val](../modes/val.md) and [Export](../modes/export.md). @@ -81,7 +81,7 @@ You can use RT-DETR for object detection tasks using the `ultralytics` pip packa If you use Baidu's RT-DETR in your research or development work, please cite the [original paper](https://arxiv.org/abs/2304.08069): -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/models/sam.md b/docs/en/models/sam.md index ee5fc93554..f40a0f28db 100644 --- a/docs/en/models/sam.md +++ b/docs/en/models/sam.md @@ -32,7 +32,7 @@ The Segment Anything Model can be employed for a multitude of downstream tasks t ### SAM prediction example -!!! example "Segment with prompts" +!!! Example "Segment with prompts" Segment image with given prompts. @@ -54,7 +54,7 @@ The Segment Anything Model can be employed for a multitude of downstream tasks t model('ultralytics/assets/zidane.jpg', points=[900, 370], labels=[1]) ``` -!!! example "Segment everything" +!!! Example "Segment everything" Segment the whole image. @@ -82,7 +82,7 @@ The Segment Anything Model can be employed for a multitude of downstream tasks t - The logic here is to segment the whole image if you don't pass any prompts(bboxes/points/masks). -!!! example "SAMPredictor example" +!!! Example "SAMPredictor example" This way you can set image once and run prompts inference multiple times without running image encoder multiple times. @@ -152,7 +152,7 @@ This comparison shows the order-of-magnitude differences in the model sizes and Tests run on a 2023 Apple M2 Macbook with 16GB of RAM. To reproduce this test: -!!! example "" +!!! Example "" === "Python" ```python @@ -187,7 +187,7 @@ Auto-annotation is a key feature of SAM, allowing users to generate a [segmentat To auto-annotate your dataset with the Ultralytics framework, use the `auto_annotate` function as shown below: -!!! example "" +!!! Example "" === "Python" ```python @@ -212,7 +212,7 @@ Auto-annotation with pre-trained models can dramatically cut down the time and e If you find SAM useful in your research or development work, please consider citing our paper: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/models/yolo-nas.md b/docs/en/models/yolo-nas.md index 4b7b16138e..1e5f7cd92e 100644 --- a/docs/en/models/yolo-nas.md +++ b/docs/en/models/yolo-nas.md @@ -44,7 +44,7 @@ The following examples show how to use YOLO-NAS models with the `ultralytics` pa In this example we validate YOLO-NAS-s on the COCO8 dataset. -!!! example "" +!!! Example "" This example provides simple inference and validation code for YOLO-NAS. For handling inference results see [Predict](../modes/predict.md) mode. For using YOLO-NAS with additional modes see [Val](../modes/val.md) and [Export](../modes/export.md). YOLO-NAS on the `ultralytics` package does not support training. @@ -106,7 +106,7 @@ Harness the power of the YOLO-NAS models to drive your object detection tasks to If you employ YOLO-NAS in your research or development work, please cite SuperGradients: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/models/yolov3.md b/docs/en/models/yolov3.md index a7f3148d3f..3052535e10 100644 --- a/docs/en/models/yolov3.md +++ b/docs/en/models/yolov3.md @@ -51,7 +51,7 @@ TODO You can use YOLOv3 for object detection tasks using the Ultralytics repository. The following is a sample code snippet showing how to use YOLOv3 model for inference: -!!! example "" +!!! Example "" This example provides simple inference code for YOLOv3. For more options including handling inference results see [Predict](../modes/predict.md) mode. For using YOLOv3 with additional modes see [Train](../modes/train.md), [Val](../modes/val.md) and [Export](../modes/export.md). @@ -91,7 +91,7 @@ You can use YOLOv3 for object detection tasks using the Ultralytics repository. If you use YOLOv3 in your research, please cite the original YOLO papers and the Ultralytics YOLOv3 repository: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/models/yolov4.md b/docs/en/models/yolov4.md index c2f4cabd49..e03efd537b 100644 --- a/docs/en/models/yolov4.md +++ b/docs/en/models/yolov4.md @@ -53,7 +53,7 @@ YOLOv4 is a powerful and efficient object detection model that strikes a balance We would like to acknowledge the YOLOv4 authors for their significant contributions in the field of real-time object detection: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/models/yolov5.md b/docs/en/models/yolov5.md index f4062e4e5b..4fbb9923a3 100644 --- a/docs/en/models/yolov5.md +++ b/docs/en/models/yolov5.md @@ -56,7 +56,7 @@ YOLOv5u represents an advancement in object detection methodologies. Originating You can use YOLOv5u for object detection tasks using the Ultralytics repository. The following is a sample code snippet showing how to use YOLOv5u model for inference: -!!! example "" +!!! Example "" This example provides simple inference code for YOLOv5. For more options including handling inference results see [Predict](../modes/predict.md) mode. For using YOLOv5 with additional modes see [Train](../modes/train.md), [Val](../modes/val.md) and [Export](../modes/export.md). @@ -96,7 +96,7 @@ You can use YOLOv5u for object detection tasks using the Ultralytics repository. If you use YOLOv5 or YOLOv5u in your research, please cite the Ultralytics YOLOv5 repository as follows: -!!! note "" +!!! Note "" === "BibTeX" ```bibtex diff --git a/docs/en/models/yolov6.md b/docs/en/models/yolov6.md index 2eb1196d63..0f4b1b1d86 100644 --- a/docs/en/models/yolov6.md +++ b/docs/en/models/yolov6.md @@ -37,7 +37,7 @@ YOLOv6 also provides quantized models for different precisions and models optimi You can use YOLOv6 for object detection tasks using the Ultralytics pip package. The following is a sample code snippet showing how to use YOLOv6 models for training: -!!! example "" +!!! Example "" This example provides simple training code for YOLOv6. For more options including training settings see [Train](../modes/train.md) mode. For using YOLOv6 with additional modes see [Predict](../modes/predict.md), [Val](../modes/val.md) and [Export](../modes/export.md). @@ -95,7 +95,7 @@ You can use YOLOv6 for object detection tasks using the Ultralytics pip package. We would like to acknowledge the authors for their significant contributions in the field of real-time object detection: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/models/yolov7.md b/docs/en/models/yolov7.md index 4f4a035cd4..90cbcad1b7 100644 --- a/docs/en/models/yolov7.md +++ b/docs/en/models/yolov7.md @@ -49,7 +49,7 @@ We regret any inconvenience this may cause and will strive to update this docume We would like to acknowledge the YOLOv7 authors for their significant contributions in the field of real-time object detection: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/models/yolov8.md b/docs/en/models/yolov8.md index 7f9d0c98d2..af6d69f47d 100644 --- a/docs/en/models/yolov8.md +++ b/docs/en/models/yolov8.md @@ -95,7 +95,7 @@ YOLOv8 is the latest iteration in the YOLO series of real-time object detectors, You can use YOLOv8 for object detection tasks using the Ultralytics pip package. The following is a sample code snippet showing how to use YOLOv8 models for inference: -!!! example "" +!!! Example "" This example provides simple inference code for YOLOv8. For more options including handling inference results see [Predict](../modes/predict.md) mode. For using YOLOv8 with additional modes see [Train](../modes/train.md), [Val](../modes/val.md) and [Export](../modes/export.md). @@ -135,7 +135,7 @@ You can use YOLOv8 for object detection tasks using the Ultralytics pip package. If you use the YOLOv8 model or any other software from this repository in your work, please cite it using the following format: -!!! note "" +!!! Note "" === "BibTeX" diff --git a/docs/en/modes/benchmark.md b/docs/en/modes/benchmark.md index 83cbc7eeed..58806ee969 100644 --- a/docs/en/modes/benchmark.md +++ b/docs/en/modes/benchmark.md @@ -32,7 +32,7 @@ Once your model is trained and validated, the next logical step is to evaluate i - **OpenVINO:** For Intel hardware optimization - **CoreML, TensorFlow SavedModel, and More:** For diverse deployment needs. -!!! tip "Tip" +!!! Tip "Tip" * Export to ONNX or OpenVINO for up to 3x CPU speedup. * Export to TensorRT for up to 5x GPU speedup. @@ -41,7 +41,7 @@ Once your model is trained and validated, the next logical step is to evaluate i Run YOLOv8n benchmarks on all supported export formats including ONNX, TensorRT etc. See Arguments section below for a full list of export arguments. -!!! example "" +!!! Example "" === "Python" diff --git a/docs/en/modes/export.md b/docs/en/modes/export.md index 5e19b27bb4..bb6d00791f 100644 --- a/docs/en/modes/export.md +++ b/docs/en/modes/export.md @@ -39,7 +39,7 @@ Here are some of the standout functionalities: - **Optimized Inference:** Exported models are optimized for quicker inference times. - **Tutorial Videos:** In-depth guides and tutorials for a smooth exporting experience. -!!! tip "Tip" +!!! Tip "Tip" * Export to ONNX or OpenVINO for up to 3x CPU speedup. * Export to TensorRT for up to 5x GPU speedup. @@ -48,7 +48,7 @@ Here are some of the standout functionalities: Export a YOLOv8n model to a different format like ONNX or TensorRT. See Arguments section below for a full list of export arguments. -!!! example "" +!!! Example "" === "Python" diff --git a/docs/en/modes/predict.md b/docs/en/modes/predict.md index 16f82d0e91..6e5077e484 100644 --- a/docs/en/modes/predict.md +++ b/docs/en/modes/predict.md @@ -50,7 +50,7 @@ YOLOv8's predict mode is designed to be robust and versatile, featuring: Ultralytics YOLO models return either a Python list of `Results` objects, or a memory-efficient Python generator of `Results` objects when `stream=True` is passed to the model during inference: -!!! example "Predict" +!!! Example "Predict" === "Return a list with `stream=False`" ```python @@ -92,7 +92,7 @@ Ultralytics YOLO models return either a Python list of `Results` objects, or a m YOLOv8 can process different types of input sources for inference, as shown in the table below. The sources include static images, video streams, and various data formats. The table also indicates whether each source can be used in streaming mode with the argument `stream=True` ✅. Streaming mode is beneficial for processing videos or live streams as it creates a generator of results instead of loading all frames into memory. -!!! tip "Tip" +!!! Tip "Tip" Use `stream=True` for processing long videos or large datasets to efficiently manage memory. When `stream=False`, the results for all frames or data points are stored in memory, which can quickly add up and cause out-of-memory errors for large inputs. In contrast, `stream=True` utilizes a generator, which only keeps the results of the current frame or data point in memory, significantly reducing memory consumption and preventing out-of-memory issues. @@ -115,7 +115,7 @@ YOLOv8 can process different types of input sources for inference, as shown in t Below are code examples for using each source type: -!!! example "Prediction sources" +!!! Example "Prediction sources" === "image" Run inference on an image file. @@ -327,7 +327,7 @@ Below are code examples for using each source type: `model.predict()` accepts multiple arguments that can be passed at inference time to override defaults: -!!! example +!!! Example ```python from ultralytics import YOLO @@ -411,7 +411,7 @@ The below table contains valid Ultralytics video formats. All Ultralytics `predict()` calls will return a list of `Results` objects: -!!! example "Results" +!!! Example "Results" ```python from ultralytics import YOLO @@ -463,7 +463,7 @@ For more details see the `Results` class [documentation](../reference/engine/res `Boxes` object can be used to index, manipulate, and convert bounding boxes to different formats. -!!! example "Boxes" +!!! Example "Boxes" ```python from ultralytics import YOLO @@ -501,7 +501,7 @@ For more details see the `Boxes` class [documentation](../reference/engine/resul `Masks` object can be used index, manipulate and convert masks to segments. -!!! example "Masks" +!!! Example "Masks" ```python from ultralytics import YOLO @@ -534,7 +534,7 @@ For more details see the `Masks` class [documentation](../reference/engine/resul `Keypoints` object can be used index, manipulate and normalize coordinates. -!!! example "Keypoints" +!!! Example "Keypoints" ```python from ultralytics import YOLO @@ -568,7 +568,7 @@ For more details see the `Keypoints` class [documentation](../reference/engine/r `Probs` object can be used index, get `top1` and `top5` indices and scores of classification. -!!! example "Probs" +!!! Example "Probs" ```python from ultralytics import YOLO @@ -603,7 +603,7 @@ For more details see the `Probs` class [documentation](../reference/engine/resul You can use the `plot()` method of a `Result` objects to visualize predictions. It plots all prediction types (boxes, masks, keypoints, probabilities, etc.) contained in the `Results` object onto a numpy array that can then be shown or saved. -!!! example "Plotting" +!!! Example "Plotting" ```python from PIL import Image @@ -647,7 +647,7 @@ Ensuring thread safety during inference is crucial when you are running multiple When using YOLO models in a multi-threaded application, it's important to instantiate separate model objects for each thread or employ thread-local storage to prevent conflicts: -!!! example "Thread-Safe Inference" +!!! Example "Thread-Safe Inference" Instantiate a single model inside each thread for thread-safe inference: ```python @@ -672,7 +672,7 @@ For an in-depth look at thread-safe inference with YOLO models and step-by-step Here's a Python script using OpenCV (`cv2`) and YOLOv8 to run inference on video frames. This script assumes you have already installed the necessary packages (`opencv-python` and `ultralytics`). -!!! example "Streaming for-loop" +!!! Example "Streaming for-loop" ```python import cv2 diff --git a/docs/en/modes/track.md b/docs/en/modes/track.md index f1ae7edc7c..c6e10a9b55 100644 --- a/docs/en/modes/track.md +++ b/docs/en/modes/track.md @@ -58,7 +58,7 @@ The default tracker is BoT-SORT. To run the tracker on video streams, use a trained Detect, Segment or Pose model such as YOLOv8n, YOLOv8n-seg and YOLOv8n-pose. -!!! example "" +!!! Example "" === "Python" @@ -97,7 +97,7 @@ As can be seen in the above usage, tracking is available for all Detect, Segment Tracking configuration shares properties with Predict mode, such as `conf`, `iou`, and `show`. For further configurations, refer to the [Predict](../modes/predict.md#inference-arguments) model page. -!!! example "" +!!! Example "" === "Python" @@ -120,7 +120,7 @@ Tracking configuration shares properties with Predict mode, such as `conf`, `iou Ultralytics also allows you to use a modified tracker configuration file. To do this, simply make a copy of a tracker config file (for example, `custom_tracker.yaml`) from [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) and modify any configurations (except the `tracker_type`) as per your needs. -!!! example "" +!!! Example "" === "Python" @@ -147,7 +147,7 @@ For a comprehensive list of tracking arguments, refer to the [ultralytics/cfg/tr Here is a Python script using OpenCV (`cv2`) and YOLOv8 to run object tracking on video frames. This script still assumes you have already installed the necessary packages (`opencv-python` and `ultralytics`). The `persist=True` argument tells the tracker that the current image or frame is the next in a sequence and to expect tracks from the previous image in the current image. -!!! example "Streaming for-loop with tracking" +!!! Example "Streaming for-loop with tracking" ```python import cv2 @@ -195,7 +195,7 @@ Visualizing object tracks over consecutive frames can provide valuable insights In the following example, we demonstrate how to utilize YOLOv8's tracking capabilities to plot the movement of detected objects across multiple video frames. This script involves opening a video file, reading it frame by frame, and utilizing the YOLO model to identify and track various objects. By retaining the center points of the detected bounding boxes and connecting them, we can draw lines that represent the paths followed by the tracked objects. -!!! example "Plotting tracks over multiple video frames" +!!! Example "Plotting tracks over multiple video frames" ```python from collections import defaultdict @@ -272,7 +272,7 @@ The `daemon=True` parameter in `threading.Thread` means that these threads will Finally, after all threads have completed their task, the windows displaying the results are closed using `cv2.destroyAllWindows()`. -!!! example "Streaming for-loop with tracking" +!!! Example "Streaming for-loop with tracking" ```python import threading diff --git a/docs/en/modes/train.md b/docs/en/modes/train.md index d2ad90adba..137ea2972e 100644 --- a/docs/en/modes/train.md +++ b/docs/en/modes/train.md @@ -41,7 +41,7 @@ The following are some notable features of YOLOv8's Train mode: - **Hyperparameter Configuration:** The option to modify hyperparameters through YAML configuration files or CLI arguments. - **Visualization and Monitoring:** Real-time tracking of training metrics and visualization of the learning process for better insights. -!!! tip "Tip" +!!! Tip "Tip" * YOLOv8 datasets like COCO, VOC, ImageNet and many others automatically download on first use, i.e. `yolo train data=coco.yaml` @@ -49,7 +49,7 @@ The following are some notable features of YOLOv8's Train mode: Train YOLOv8n on the COCO128 dataset for 100 epochs at image size 640. The training device can be specified using the `device` argument. If no argument is passed GPU `device=0` will be used if available, otherwise `device=cpu` will be used. See Arguments section below for a full list of training arguments. -!!! example "Single-GPU and CPU Training Example" +!!! Example "Single-GPU and CPU Training Example" Device is determined automatically. If a GPU is available then it will be used, otherwise training will start on CPU. @@ -84,7 +84,7 @@ Train YOLOv8n on the COCO128 dataset for 100 epochs at image size 640. The train Multi-GPU training allows for more efficient utilization of available hardware resources by distributing the training load across multiple GPUs. This feature is available through both the Python API and the command-line interface. To enable multi-GPU training, specify the GPU device IDs you wish to use. -!!! example "Multi-GPU Training Example" +!!! Example "Multi-GPU Training Example" To train with 2 GPUs, CUDA devices 0 and 1 use the following commands. Expand to additional GPUs as required. @@ -113,7 +113,7 @@ With the support for Apple M1 and M2 chips integrated in the Ultralytics YOLO mo To enable training on Apple M1 and M2 chips, you should specify 'mps' as your device when initiating the training process. Below is an example of how you could do this in Python and via the command line: -!!! example "MPS Training Example" +!!! Example "MPS Training Example" === "Python" @@ -146,7 +146,7 @@ You can easily resume training in Ultralytics YOLO by setting the `resume` argum Below is an example of how to resume an interrupted training using Python and via the command line: -!!! example "Resume Training Example" +!!! Example "Resume Training Example" === "Python" @@ -236,7 +236,7 @@ To use a logger, select it from the dropdown menu in the code snippet above and To use Comet: -!!! example "" +!!! Example "" === "Python" ```python @@ -254,7 +254,7 @@ Remember to sign in to your Comet account on their website and get your API key. To use ClearML: -!!! example "" +!!! Example "" === "Python" ```python @@ -272,7 +272,7 @@ After running this script, you will need to sign in to your ClearML account on t To use TensorBoard in [Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb): -!!! example "" +!!! Example "" === "CLI" ```bash @@ -282,7 +282,7 @@ To use TensorBoard in [Google Colab](https://colab.research.google.com/github/ul To use TensorBoard locally run the below command and view results at http://localhost:6006/. -!!! example "" +!!! Example "" === "CLI" ```bash diff --git a/docs/en/modes/val.md b/docs/en/modes/val.md index b964ee7b4b..79e844ff69 100644 --- a/docs/en/modes/val.md +++ b/docs/en/modes/val.md @@ -30,7 +30,7 @@ These are the notable functionalities offered by YOLOv8's Val mode: - **CLI and Python API:** Choose from command-line interface or Python API based on your preference for validation. - **Data Compatibility:** Works seamlessly with datasets used during the training phase as well as custom datasets. -!!! tip "Tip" +!!! Tip "Tip" * YOLOv8 models automatically remember their training settings, so you can validate a model at the same image size and on the original dataset easily with just `yolo val model=yolov8n.pt` or `model('yolov8n.pt').val()` @@ -38,7 +38,7 @@ These are the notable functionalities offered by YOLOv8's Val mode: Validate trained YOLOv8n model accuracy on the COCO128 dataset. No argument need to passed as the `model` retains it's training `data` and arguments as model attributes. See Arguments section below for a full list of export arguments. -!!! example "" +!!! Example "" === "Python" diff --git a/docs/en/quickstart.md b/docs/en/quickstart.md index 2363a6367b..6c19d320e2 100644 --- a/docs/en/quickstart.md +++ b/docs/en/quickstart.md @@ -8,7 +8,7 @@ keywords: Ultralytics installation, pip install Ultralytics, Docker install Ultr Ultralytics provides various installation methods including pip, conda, and Docker. Install YOLOv8 via the `ultralytics` pip package for the latest stable release or by cloning the [Ultralytics GitHub repository](https://github.com/ultralytics/ultralytics) for the most up-to-date version. Docker can be used to execute the package in an isolated container, avoiding local installation. -!!! example "Install" +!!! Example "Install" === "Pip install (recommended)" Install the `ultralytics` package using pip, or update an existing installation by running `pip install -U ultralytics`. Visit the Python Package Index (PyPI) for more details on the `ultralytics` package: [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/). @@ -39,7 +39,7 @@ Ultralytics provides various installation methods including pip, conda, and Dock conda install -c conda-forge ultralytics ``` - !!! note + !!! Note If you are installing in a CUDA environment best practice is to install `ultralytics`, `pytorch` and `pytorch-cuda` in the same command to allow the conda package manager to resolve any conflicts, or else to install `pytorch-cuda` last to allow it override the CPU-specific `pytorch` package if necessary. ```bash @@ -129,7 +129,7 @@ See the `ultralytics` [requirements.txt](https://github.com/ultralytics/ultralyt Watch: Ultralytics YOLO Quick Start Guide

-!!! tip "Tip" +!!! Tip "Tip" PyTorch requirements vary by operating system and CUDA requirements, so it's recommended to install PyTorch first following instructions at [https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally). @@ -141,7 +141,7 @@ See the `ultralytics` [requirements.txt](https://github.com/ultralytics/ultralyt The Ultralytics command line interface (CLI) allows for simple single-line commands without the need for a Python environment. CLI requires no customization or Python code. You can simply run all tasks from the terminal with the `yolo` command. Check out the [CLI Guide](usage/cli.md) to learn more about using YOLOv8 from the command line. -!!! example +!!! Example === "Syntax" @@ -196,7 +196,7 @@ The Ultralytics command line interface (CLI) allows for simple single-line comma yolo cfg ``` -!!! warning "Warning" +!!! Warning "Warning" Arguments must be passed as `arg=val` pairs, split by an equals `=` sign and delimited by spaces between pairs. Do not use `--` argument prefixes or commas `,` between arguments. @@ -213,7 +213,7 @@ YOLOv8's Python interface allows for seamless integration into your Python proje For example, users can load a model, train it, evaluate its performance on a validation set, and even export it to ONNX format with just a few lines of code. Check out the [Python Guide](usage/python.md) to learn more about using YOLOv8 within your Python projects. -!!! example +!!! Example ```python from ultralytics import YOLO @@ -247,7 +247,7 @@ The Ultralytics library provides a powerful settings management system to enable To gain insight into the current configuration of your settings, you can view them directly: -!!! example "View settings" +!!! Example "View settings" === "Python" You can use Python to view your settings. Start by importing the `settings` object from the `ultralytics` module. Print and return settings using the following commands: @@ -271,7 +271,7 @@ To gain insight into the current configuration of your settings, you can view th Ultralytics allows users to easily modify their settings. Changes can be performed in the following ways: -!!! example "Update settings" +!!! Example "Update settings" === "Python" Within the Python environment, call the `update` method on the `settings` object to change your settings: diff --git a/docs/en/reference/cfg/__init__.md b/docs/en/reference/cfg/__init__.md index 3248059d74..429f4cccd3 100644 --- a/docs/en/reference/cfg/__init__.md +++ b/docs/en/reference/cfg/__init__.md @@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, Configuration, cfg2dict, handle_deprecation, merge_ # Reference for `ultralytics/cfg/__init__.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/__init__.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/__init__.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/cfg/__init__.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/data/annotator.md b/docs/en/reference/data/annotator.md index a01663ff71..b2f0e99724 100644 --- a/docs/en/reference/data/annotator.md +++ b/docs/en/reference/data/annotator.md @@ -5,7 +5,7 @@ keywords: Ultralytics, Auto-Annotate, Machine Learning, AI, Annotation, Data Pro # Reference for `ultralytics/data/annotator.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/annotator.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/annotator.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/data/annotator.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/data/augment.md b/docs/en/reference/data/augment.md index 408e3603ba..b11aae57b5 100644 --- a/docs/en/reference/data/augment.md +++ b/docs/en/reference/data/augment.md @@ -5,7 +5,7 @@ keywords: Ultralytics, Data Augmentation, BaseTransform, MixUp, RandomHSV, Lette # Reference for `ultralytics/data/augment.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/augment.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/augment.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/data/augment.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/data/base.md b/docs/en/reference/data/base.md index 2fdc9d08e9..3e3b9a1686 100644 --- a/docs/en/reference/data/base.md +++ b/docs/en/reference/data/base.md @@ -5,7 +5,7 @@ keywords: Ultralytics, docs, BaseDataset, data manipulation, dataset creation # Reference for `ultralytics/data/base.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/base.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/base.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/data/base.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/data/build.md b/docs/en/reference/data/build.md index 12092cf0f4..878ad52597 100644 --- a/docs/en/reference/data/build.md +++ b/docs/en/reference/data/build.md @@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO v3, Data build, DataLoader, InfiniteDataLoader, seed # Reference for `ultralytics/data/build.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/build.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/build.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/data/build.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/data/converter.md b/docs/en/reference/data/converter.md index ce869a4909..d23e32196f 100644 --- a/docs/en/reference/data/converter.md +++ b/docs/en/reference/data/converter.md @@ -5,7 +5,7 @@ keywords: Ultralytics, Data Converter, coco91_to_coco80_class, merge_multi_segme # Reference for `ultralytics/data/converter.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/converter.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/converter.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/data/converter.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/data/dataset.md b/docs/en/reference/data/dataset.md index 2bfa8c308e..dff4a3f5ca 100644 --- a/docs/en/reference/data/dataset.md +++ b/docs/en/reference/data/dataset.md @@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, YOLODataset, SemanticDataset, data handling, data m # Reference for `ultralytics/data/dataset.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/dataset.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/dataset.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/data/dataset.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/data/loaders.md b/docs/en/reference/data/loaders.md index ff9ffede81..d047e1f965 100644 --- a/docs/en/reference/data/loaders.md +++ b/docs/en/reference/data/loaders.md @@ -5,7 +5,7 @@ keywords: Ultralytics, data loaders, LoadStreams, LoadImages, LoadTensor, YOLO, # Reference for `ultralytics/data/loaders.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/loaders.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/loaders.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/data/loaders.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/data/utils.md b/docs/en/reference/data/utils.md index 6b73c75ec7..87d459eba7 100644 --- a/docs/en/reference/data/utils.md +++ b/docs/en/reference/data/utils.md @@ -5,7 +5,7 @@ keywords: Ultralytics, data utils, YOLO, img2label_paths, exif_size, polygon2mas # Reference for `ultralytics/data/utils.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/utils.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/data/utils.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/data/utils.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/engine/exporter.md b/docs/en/reference/engine/exporter.md index 070d4b5dca..5e723509e5 100644 --- a/docs/en/reference/engine/exporter.md +++ b/docs/en/reference/engine/exporter.md @@ -5,7 +5,7 @@ keywords: Ultralytics, Exporter, IOSDetectModel, Export Formats, Try export # Reference for `ultralytics/engine/exporter.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/exporter.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/exporter.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/engine/exporter.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/engine/model.md b/docs/en/reference/engine/model.md index 03e735b807..efe5530162 100644 --- a/docs/en/reference/engine/model.md +++ b/docs/en/reference/engine/model.md @@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, engine model, documentation, guide, implementation, # Reference for `ultralytics/engine/model.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/model.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/model.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/engine/model.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/engine/predictor.md b/docs/en/reference/engine/predictor.md index a53ae304dc..c34c851d24 100644 --- a/docs/en/reference/engine/predictor.md +++ b/docs/en/reference/engine/predictor.md @@ -5,7 +5,7 @@ keywords: Ultralytics, BasePredictor, YOLO, prediction, engine # Reference for `ultralytics/engine/predictor.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/predictor.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/predictor.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/engine/predictor.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/engine/results.md b/docs/en/reference/engine/results.md index 36d0529528..58a7841a2f 100644 --- a/docs/en/reference/engine/results.md +++ b/docs/en/reference/engine/results.md @@ -5,7 +5,7 @@ keywords: Ultralytics, engine, results, base tensor, boxes, keypoints # Reference for `ultralytics/engine/results.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/results.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/results.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/engine/results.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/engine/trainer.md b/docs/en/reference/engine/trainer.md index cdf88960b9..2ce555b492 100644 --- a/docs/en/reference/engine/trainer.md +++ b/docs/en/reference/engine/trainer.md @@ -5,7 +5,7 @@ keywords: Ultralytics, BaseTrainer, Machine Learning, Training Control, Python l # Reference for `ultralytics/engine/trainer.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/trainer.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/trainer.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/engine/trainer.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/engine/tuner.md b/docs/en/reference/engine/tuner.md index bbcc5d0c4d..0dcb73b99b 100644 --- a/docs/en/reference/engine/tuner.md +++ b/docs/en/reference/engine/tuner.md @@ -5,7 +5,7 @@ keywords: Ultralytics, Tuner, YOLO, hyperparameter tuning, optimization, object # Reference for `ultralytics/engine/tuner.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/tuner.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/tuner.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/engine/tuner.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/engine/validator.md b/docs/en/reference/engine/validator.md index 84a6bc407e..dbfcb051ab 100644 --- a/docs/en/reference/engine/validator.md +++ b/docs/en/reference/engine/validator.md @@ -5,7 +5,7 @@ keywords: Ultralytics, BaseValidator, Ultralytics engine, module, components # Reference for `ultralytics/engine/validator.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/validator.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/engine/validator.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/engine/validator.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/hub/__init__.md b/docs/en/reference/hub/__init__.md index a0aa8f8545..39862b32f5 100644 --- a/docs/en/reference/hub/__init__.md +++ b/docs/en/reference/hub/__init__.md @@ -5,7 +5,7 @@ keywords: Ultralytics, hub functions, model export, dataset check, reset model, # Reference for `ultralytics/hub/__init__.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/hub/__init__.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/hub/__init__.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/hub/__init__.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/hub/auth.md b/docs/en/reference/hub/auth.md index 56ac59c5fb..7a891ccde5 100644 --- a/docs/en/reference/hub/auth.md +++ b/docs/en/reference/hub/auth.md @@ -5,7 +5,7 @@ keywords: Ultralytics, Auth, API documentation, User Authentication, AI, Machine # Reference for `ultralytics/hub/auth.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/hub/auth.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/hub/auth.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/hub/auth.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/hub/session.md b/docs/en/reference/hub/session.md index 8c2e643ced..1d0bc86f11 100644 --- a/docs/en/reference/hub/session.md +++ b/docs/en/reference/hub/session.md @@ -5,7 +5,7 @@ keywords: Ultralytics, HUBTrainingSession, Documentation, Model Training, AI, Ma # Reference for `ultralytics/hub/session.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/hub/session.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/hub/session.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/hub/session.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/hub/utils.md b/docs/en/reference/hub/utils.md index 52f390fdf8..6bb81b82e8 100644 --- a/docs/en/reference/hub/utils.md +++ b/docs/en/reference/hub/utils.md @@ -5,7 +5,7 @@ keywords: Ultralytics, Events, request_with_credentials, smart_request, Ultralyt # Reference for `ultralytics/hub/utils.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/hub/utils.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/hub/utils.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/hub/utils.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/fastsam/model.md b/docs/en/reference/models/fastsam/model.md index f95c49d976..109ccae044 100644 --- a/docs/en/reference/models/fastsam/model.md +++ b/docs/en/reference/models/fastsam/model.md @@ -5,7 +5,7 @@ keywords: Ultralytics, FastSAM model, Model documentation, Efficient model train # Reference for `ultralytics/models/fastsam/model.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/fastsam/model.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/fastsam/model.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/fastsam/model.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/fastsam/predict.md b/docs/en/reference/models/fastsam/predict.md index e03df5533a..e6d1ef911e 100644 --- a/docs/en/reference/models/fastsam/predict.md +++ b/docs/en/reference/models/fastsam/predict.md @@ -5,7 +5,7 @@ keywords: Ultralytics, FastSAMPredictor, predictive modeling, AI optimization, m # Reference for `ultralytics/models/fastsam/predict.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/fastsam/predict.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/fastsam/predict.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/fastsam/predict.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/fastsam/prompt.md b/docs/en/reference/models/fastsam/prompt.md index 2c44bd7050..98cf2d841d 100644 --- a/docs/en/reference/models/fastsam/prompt.md +++ b/docs/en/reference/models/fastsam/prompt.md @@ -5,7 +5,7 @@ keywords: Ultralytics, FastSAMPrompt, machine learning, model, guide, documentat # Reference for `ultralytics/models/fastsam/prompt.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/fastsam/prompt.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/fastsam/prompt.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/fastsam/prompt.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/fastsam/utils.md b/docs/en/reference/models/fastsam/utils.md index c7e9abd74b..00aa21deaf 100644 --- a/docs/en/reference/models/fastsam/utils.md +++ b/docs/en/reference/models/fastsam/utils.md @@ -5,7 +5,7 @@ keywords: Ultralytics, bounding boxes, Bboxes, image borders, object detection, # Reference for `ultralytics/models/fastsam/utils.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/fastsam/utils.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/fastsam/utils.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/fastsam/utils.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/fastsam/val.md b/docs/en/reference/models/fastsam/val.md index a5914fe4ee..0bfc05994b 100644 --- a/docs/en/reference/models/fastsam/val.md +++ b/docs/en/reference/models/fastsam/val.md @@ -5,7 +5,7 @@ keywords: Ultralytics, FastSAMValidator, model, synthetic, AI, machine learning, # Reference for `ultralytics/models/fastsam/val.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/fastsam/val.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/fastsam/val.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/fastsam/val.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/nas/model.md b/docs/en/reference/models/nas/model.md index ac617ccdf7..0a32dafb69 100644 --- a/docs/en/reference/models/nas/model.md +++ b/docs/en/reference/models/nas/model.md @@ -5,7 +5,7 @@ keywords: Ultralytics, NAS model, NAS guide, machine learning, model documentati # Reference for `ultralytics/models/nas/model.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/nas/model.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/nas/model.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/nas/model.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/nas/predict.md b/docs/en/reference/models/nas/predict.md index 7dcb38433b..3334717095 100644 --- a/docs/en/reference/models/nas/predict.md +++ b/docs/en/reference/models/nas/predict.md @@ -5,7 +5,7 @@ keywords: NASPredictor, Ultralytics, Ultralytics model, model architecture, effi # Reference for `ultralytics/models/nas/predict.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/nas/predict.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/nas/predict.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/nas/predict.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/nas/val.md b/docs/en/reference/models/nas/val.md index 3669362925..d433eb0b3c 100644 --- a/docs/en/reference/models/nas/val.md +++ b/docs/en/reference/models/nas/val.md @@ -5,7 +5,7 @@ keywords: Ultralytics, NASValidator, models.nas.val.NASValidator, AI models, all # Reference for `ultralytics/models/nas/val.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/nas/val.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/nas/val.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/nas/val.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/rtdetr/model.md b/docs/en/reference/models/rtdetr/model.md index 3e796bb7a3..0159d0bd09 100644 --- a/docs/en/reference/models/rtdetr/model.md +++ b/docs/en/reference/models/rtdetr/model.md @@ -5,7 +5,7 @@ keywords: Ultralytics, RTDETR model, Ultralytics models, object detection, Ultra # Reference for `ultralytics/models/rtdetr/model.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/rtdetr/model.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/rtdetr/model.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/rtdetr/model.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/rtdetr/predict.md b/docs/en/reference/models/rtdetr/predict.md index 0f0fa38d9b..6eb41b32a4 100644 --- a/docs/en/reference/models/rtdetr/predict.md +++ b/docs/en/reference/models/rtdetr/predict.md @@ -5,7 +5,7 @@ keywords: Ultralytics, RTDETRPredictor, model documentation, guide, real-time ob # Reference for `ultralytics/models/rtdetr/predict.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/rtdetr/predict.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/rtdetr/predict.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/rtdetr/predict.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/rtdetr/train.md b/docs/en/reference/models/rtdetr/train.md index 3ee22d05bf..87d885af60 100644 --- a/docs/en/reference/models/rtdetr/train.md +++ b/docs/en/reference/models/rtdetr/train.md @@ -5,7 +5,7 @@ keywords: Ultralytics, RTDETRTrainer, model training, Ultralytics models, PyTorc # Reference for `ultralytics/models/rtdetr/train.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/rtdetr/train.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/rtdetr/train.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/rtdetr/train.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/rtdetr/val.md b/docs/en/reference/models/rtdetr/val.md index e39afd0f01..e258018c1b 100644 --- a/docs/en/reference/models/rtdetr/val.md +++ b/docs/en/reference/models/rtdetr/val.md @@ -5,7 +5,7 @@ keywords: Ultralytics, RTDETRDataset, RTDETRValidator, real-time object detectio # Reference for `ultralytics/models/rtdetr/val.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/rtdetr/val.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/rtdetr/val.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/rtdetr/val.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/sam/amg.md b/docs/en/reference/models/sam/amg.md index 890ced9b6c..fe2345fbd4 100644 --- a/docs/en/reference/models/sam/amg.md +++ b/docs/en/reference/models/sam/amg.md @@ -5,7 +5,7 @@ keywords: Ultralytics, Mask Data, Transformation, Encoding, RLE encoding, Image # Reference for `ultralytics/models/sam/amg.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/amg.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/amg.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/sam/amg.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/sam/build.md b/docs/en/reference/models/sam/build.md index d61af22f4b..4305c13b96 100644 --- a/docs/en/reference/models/sam/build.md +++ b/docs/en/reference/models/sam/build.md @@ -5,7 +5,7 @@ keywords: Ultralytics, SAM, build sam, vision transformer, vits, build_sam_vit_l # Reference for `ultralytics/models/sam/build.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/build.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/build.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/sam/build.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/sam/model.md b/docs/en/reference/models/sam/model.md index ad29dccbec..b98312be07 100644 --- a/docs/en/reference/models/sam/model.md +++ b/docs/en/reference/models/sam/model.md @@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, SAM Model, Documentations, Machine Learning, AI, Co # Reference for `ultralytics/models/sam/model.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/model.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/model.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/sam/model.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/sam/modules/decoders.md b/docs/en/reference/models/sam/modules/decoders.md index 15d647c51a..bff331e5e9 100644 --- a/docs/en/reference/models/sam/modules/decoders.md +++ b/docs/en/reference/models/sam/modules/decoders.md @@ -5,7 +5,7 @@ keywords: Ultralytics, MaskDecoder, SAM modules, decoders, MLP, YOLO, machine le # Reference for `ultralytics/models/sam/modules/decoders.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/modules/decoders.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/modules/decoders.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/sam/modules/decoders.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/sam/modules/encoders.md b/docs/en/reference/models/sam/modules/encoders.md index bb9d2c2978..494271447e 100644 --- a/docs/en/reference/models/sam/modules/encoders.md +++ b/docs/en/reference/models/sam/modules/encoders.md @@ -5,7 +5,7 @@ keywords: Ultralytics, Encoders, Modules, Documentation, ImageEncoderViT, Positi # Reference for `ultralytics/models/sam/modules/encoders.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/modules/encoders.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/modules/encoders.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/sam/modules/encoders.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/sam/modules/sam.md b/docs/en/reference/models/sam/modules/sam.md index b4a1b42b02..39613969a1 100644 --- a/docs/en/reference/models/sam/modules/sam.md +++ b/docs/en/reference/models/sam/modules/sam.md @@ -5,7 +5,7 @@ keywords: Ultralytics, Sam module, deep learning, model training, Ultralytics do # Reference for `ultralytics/models/sam/modules/sam.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/modules/sam.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/modules/sam.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/sam/modules/sam.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/sam/modules/tiny_encoder.md b/docs/en/reference/models/sam/modules/tiny_encoder.md index d0489b49dd..564707b48e 100644 --- a/docs/en/reference/models/sam/modules/tiny_encoder.md +++ b/docs/en/reference/models/sam/modules/tiny_encoder.md @@ -5,7 +5,7 @@ keywords: Ultralytics, Tiny Encoder, Conv2d_BN, MBConv, ConvLayer, Attention, Ba # Reference for `ultralytics/models/sam/modules/tiny_encoder.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/modules/tiny_encoder.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/modules/tiny_encoder.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/sam/modules/tiny_encoder.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/sam/modules/transformer.md b/docs/en/reference/models/sam/modules/transformer.md index cbe62fea52..260b104044 100644 --- a/docs/en/reference/models/sam/modules/transformer.md +++ b/docs/en/reference/models/sam/modules/transformer.md @@ -5,7 +5,7 @@ keywords: Ultralytics, TwoWayTransformer, Attention, AI models, transformers # Reference for `ultralytics/models/sam/modules/transformer.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/modules/transformer.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/modules/transformer.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/sam/modules/transformer.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/sam/predict.md b/docs/en/reference/models/sam/predict.md index 4471af7e97..7c36a3b108 100644 --- a/docs/en/reference/models/sam/predict.md +++ b/docs/en/reference/models/sam/predict.md @@ -5,7 +5,7 @@ keywords: Ultralytics, predictor, models, sam.predict.Predictor, AI, machine lea # Reference for `ultralytics/models/sam/predict.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/predict.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/sam/predict.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/sam/predict.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/utils/loss.md b/docs/en/reference/models/utils/loss.md index 990b11821f..82dfaafab4 100644 --- a/docs/en/reference/models/utils/loss.md +++ b/docs/en/reference/models/utils/loss.md @@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, Documentation, DETRLoss, Detection Loss, Loss funct # Reference for `ultralytics/models/utils/loss.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/utils/loss.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/utils/loss.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/utils/loss.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/utils/ops.md b/docs/en/reference/models/utils/ops.md index 1ad96a1896..58d9a153ed 100644 --- a/docs/en/reference/models/utils/ops.md +++ b/docs/en/reference/models/utils/ops.md @@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, HungarianMatcher, inverse_sigmoid, detection models # Reference for `ultralytics/models/utils/ops.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/utils/ops.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/utils/ops.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/utils/ops.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/yolo/classify/predict.md b/docs/en/reference/models/yolo/classify/predict.md index 62efbee235..ebee14e905 100644 --- a/docs/en/reference/models/yolo/classify/predict.md +++ b/docs/en/reference/models/yolo/classify/predict.md @@ -5,7 +5,7 @@ keywords: Ultralytics, classification predictor, predict, YOLO, AI models, model # Reference for `ultralytics/models/yolo/classify/predict.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/classify/predict.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/classify/predict.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/yolo/classify/predict.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/yolo/classify/train.md b/docs/en/reference/models/yolo/classify/train.md index 056ffd4f90..9a6d51f39b 100644 --- a/docs/en/reference/models/yolo/classify/train.md +++ b/docs/en/reference/models/yolo/classify/train.md @@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, Classification Trainer, deep learning, training pro # Reference for `ultralytics/models/yolo/classify/train.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/classify/train.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/classify/train.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/yolo/classify/train.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/yolo/classify/val.md b/docs/en/reference/models/yolo/classify/val.md index 8b71246b84..4516cc32a2 100644 --- a/docs/en/reference/models/yolo/classify/val.md +++ b/docs/en/reference/models/yolo/classify/val.md @@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, ClassificationValidator, model validation, model fi # Reference for `ultralytics/models/yolo/classify/val.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/classify/val.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/classify/val.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/yolo/classify/val.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/yolo/detect/predict.md b/docs/en/reference/models/yolo/detect/predict.md index 5094ad2c70..20c0cc7ba2 100644 --- a/docs/en/reference/models/yolo/detect/predict.md +++ b/docs/en/reference/models/yolo/detect/predict.md @@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, DetectionPredictor, detect, predict, object detecti # Reference for `ultralytics/models/yolo/detect/predict.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/detect/predict.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/detect/predict.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/yolo/detect/predict.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/yolo/detect/train.md b/docs/en/reference/models/yolo/detect/train.md index bdcd807a2e..eb5a0d3cb9 100644 --- a/docs/en/reference/models/yolo/detect/train.md +++ b/docs/en/reference/models/yolo/detect/train.md @@ -5,7 +5,7 @@ keywords: Ultralytics YOLO, YOLO, Detection Trainer, Model Training, Machine Lea # Reference for `ultralytics/models/yolo/detect/train.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/detect/train.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/detect/train.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/yolo/detect/train.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/yolo/detect/val.md b/docs/en/reference/models/yolo/detect/val.md index cc1fd2be83..b688e76f05 100644 --- a/docs/en/reference/models/yolo/detect/val.md +++ b/docs/en/reference/models/yolo/detect/val.md @@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, Detection Validator, model valuation, precision, re # Reference for `ultralytics/models/yolo/detect/val.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/detect/val.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/detect/val.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/yolo/detect/val.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/yolo/model.md b/docs/en/reference/models/yolo/model.md index a56ca09d0a..9c09a800c2 100644 --- a/docs/en/reference/models/yolo/model.md +++ b/docs/en/reference/models/yolo/model.md @@ -5,7 +5,7 @@ keywords: Ultralytics YOLO, YOLO, YOLO model, Model Training, Machine Learning, # Reference for `ultralytics/models/yolo/model.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/model.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/model.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/yolo/model.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/yolo/pose/predict.md b/docs/en/reference/models/yolo/pose/predict.md index 7ec709c670..6de6df4486 100644 --- a/docs/en/reference/models/yolo/pose/predict.md +++ b/docs/en/reference/models/yolo/pose/predict.md @@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, PosePredictor, machine learning, AI, predictive mod # Reference for `ultralytics/models/yolo/pose/predict.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/pose/predict.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/pose/predict.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/yolo/pose/predict.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/yolo/pose/train.md b/docs/en/reference/models/yolo/pose/train.md index a60508f9e7..61a440a432 100644 --- a/docs/en/reference/models/yolo/pose/train.md +++ b/docs/en/reference/models/yolo/pose/train.md @@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, PoseTrainer, pose training, AI modeling, custom dat # Reference for `ultralytics/models/yolo/pose/train.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/pose/train.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/pose/train.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/yolo/pose/train.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/yolo/pose/val.md b/docs/en/reference/models/yolo/pose/val.md index 9c72b5cc0e..373a9049d6 100644 --- a/docs/en/reference/models/yolo/pose/val.md +++ b/docs/en/reference/models/yolo/pose/val.md @@ -5,7 +5,7 @@ keywords: PoseValidator, Ultralytics, YOLO, Object detection, Pose validation # Reference for `ultralytics/models/yolo/pose/val.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/pose/val.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/pose/val.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/yolo/pose/val.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/yolo/segment/predict.md b/docs/en/reference/models/yolo/segment/predict.md index f5df1a0737..58a7184919 100644 --- a/docs/en/reference/models/yolo/segment/predict.md +++ b/docs/en/reference/models/yolo/segment/predict.md @@ -5,7 +5,7 @@ keywords: YOLO, Ultralytics, object detection, segmentation predictor # Reference for `ultralytics/models/yolo/segment/predict.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/segment/predict.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/segment/predict.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/yolo/segment/predict.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/yolo/segment/train.md b/docs/en/reference/models/yolo/segment/train.md index b512b199cd..301f9579a2 100644 --- a/docs/en/reference/models/yolo/segment/train.md +++ b/docs/en/reference/models/yolo/segment/train.md @@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, SegmentationTrainer, image segmentation, object det # Reference for `ultralytics/models/yolo/segment/train.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/segment/train.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/segment/train.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/yolo/segment/train.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/models/yolo/segment/val.md b/docs/en/reference/models/yolo/segment/val.md index eb2943fce5..c6705efd77 100644 --- a/docs/en/reference/models/yolo/segment/val.md +++ b/docs/en/reference/models/yolo/segment/val.md @@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, SegmentationValidator, model segmentation, image cl # Reference for `ultralytics/models/yolo/segment/val.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/segment/val.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/models/yolo/segment/val.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/models/yolo/segment/val.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/nn/autobackend.md b/docs/en/reference/nn/autobackend.md index ecc62eab40..45afc90735 100644 --- a/docs/en/reference/nn/autobackend.md +++ b/docs/en/reference/nn/autobackend.md @@ -5,7 +5,7 @@ keywords: Ultralytics, AutoBackend, check_class_names, YOLO, YOLO models, optimi # Reference for `ultralytics/nn/autobackend.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/autobackend.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/autobackend.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/nn/autobackend.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/nn/modules/block.md b/docs/en/reference/nn/modules/block.md index d3cb113e5b..0d38ff595f 100644 --- a/docs/en/reference/nn/modules/block.md +++ b/docs/en/reference/nn/modules/block.md @@ -5,7 +5,7 @@ keywords: YOLO, Ultralytics, neural network, nn.modules.block, Proto, HGBlock, S # Reference for `ultralytics/nn/modules/block.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/modules/block.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/modules/block.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/nn/modules/block.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/nn/modules/conv.md b/docs/en/reference/nn/modules/conv.md index 8c4fc1c396..d96cb37fbb 100644 --- a/docs/en/reference/nn/modules/conv.md +++ b/docs/en/reference/nn/modules/conv.md @@ -5,7 +5,7 @@ keywords: Ultralytics, Convolution Modules, Conv2, DWConv, ConvTranspose, GhostC # Reference for `ultralytics/nn/modules/conv.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/modules/conv.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/modules/conv.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/nn/modules/conv.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/nn/modules/head.md b/docs/en/reference/nn/modules/head.md index 6b8e6b508e..2bf9e5361e 100644 --- a/docs/en/reference/nn/modules/head.md +++ b/docs/en/reference/nn/modules/head.md @@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, Detection, Pose, RTDETRDecoder, nn modules, guides # Reference for `ultralytics/nn/modules/head.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/modules/head.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/modules/head.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/nn/modules/head.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/nn/modules/transformer.md b/docs/en/reference/nn/modules/transformer.md index 2a509ca50b..a38aa7bd59 100644 --- a/docs/en/reference/nn/modules/transformer.md +++ b/docs/en/reference/nn/modules/transformer.md @@ -5,7 +5,7 @@ keywords: Ultralytics, Ultralytics documentation, TransformerEncoderLayer, Trans # Reference for `ultralytics/nn/modules/transformer.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/modules/transformer.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/modules/transformer.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/nn/modules/transformer.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/nn/modules/utils.md b/docs/en/reference/nn/modules/utils.md index 116a1e2418..5bed98e710 100644 --- a/docs/en/reference/nn/modules/utils.md +++ b/docs/en/reference/nn/modules/utils.md @@ -5,7 +5,7 @@ keywords: Ultralytics, neural network, nn.modules.utils, bias_init_with_prob, in # Reference for `ultralytics/nn/modules/utils.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/modules/utils.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/modules/utils.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/nn/modules/utils.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/nn/tasks.md b/docs/en/reference/nn/tasks.md index d404da55e2..fea43a9ec4 100644 --- a/docs/en/reference/nn/tasks.md +++ b/docs/en/reference/nn/tasks.md @@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, nn tasks, DetectionModel, PoseModel, RTDETRDetectio # Reference for `ultralytics/nn/tasks.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/tasks.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/nn/tasks.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/nn/tasks.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/trackers/basetrack.md b/docs/en/reference/trackers/basetrack.md index a72d23e2c4..fc437ab004 100644 --- a/docs/en/reference/trackers/basetrack.md +++ b/docs/en/reference/trackers/basetrack.md @@ -5,7 +5,7 @@ keywords: Ultralytics, TrackState, BaseTrack, Ultralytics tracker, Ultralytics d # Reference for `ultralytics/trackers/basetrack.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/basetrack.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/basetrack.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/trackers/basetrack.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/trackers/bot_sort.md b/docs/en/reference/trackers/bot_sort.md index 0c3d5f306e..56a58a7c57 100644 --- a/docs/en/reference/trackers/bot_sort.md +++ b/docs/en/reference/trackers/bot_sort.md @@ -5,7 +5,7 @@ keywords: Ultralytics, BOTSORT, BOTrack, tracking system, official documentation # Reference for `ultralytics/trackers/bot_sort.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/bot_sort.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/bot_sort.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/trackers/bot_sort.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/trackers/byte_tracker.md b/docs/en/reference/trackers/byte_tracker.md index 9823566500..33738d860d 100644 --- a/docs/en/reference/trackers/byte_tracker.md +++ b/docs/en/reference/trackers/byte_tracker.md @@ -5,7 +5,7 @@ keywords: STrack, Ultralytics, BYTETracker, documentation, Ultralytics tracker, # Reference for `ultralytics/trackers/byte_tracker.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/byte_tracker.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/byte_tracker.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/trackers/byte_tracker.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/trackers/track.md b/docs/en/reference/trackers/track.md index f2e0e93b77..32dbabd01e 100644 --- a/docs/en/reference/trackers/track.md +++ b/docs/en/reference/trackers/track.md @@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, on predict start, register tracker, prediction func # Reference for `ultralytics/trackers/track.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/track.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/track.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/trackers/track.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/trackers/utils/gmc.md b/docs/en/reference/trackers/utils/gmc.md index e6297138ae..9181fd52c7 100644 --- a/docs/en/reference/trackers/utils/gmc.md +++ b/docs/en/reference/trackers/utils/gmc.md @@ -5,7 +5,7 @@ keywords: Ultralytics, GMC utility, Ultralytics documentation, Ultralytics track # Reference for `ultralytics/trackers/utils/gmc.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/utils/gmc.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/utils/gmc.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/trackers/utils/gmc.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/trackers/utils/kalman_filter.md b/docs/en/reference/trackers/utils/kalman_filter.md index eae06f171e..2c5b04f7e6 100644 --- a/docs/en/reference/trackers/utils/kalman_filter.md +++ b/docs/en/reference/trackers/utils/kalman_filter.md @@ -5,7 +5,7 @@ keywords: Ultralytics, KalmanFilterXYAH, tracker, documentation, guide # Reference for `ultralytics/trackers/utils/kalman_filter.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/utils/kalman_filter.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/utils/kalman_filter.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/trackers/utils/kalman_filter.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/trackers/utils/matching.md b/docs/en/reference/trackers/utils/matching.md index 1a866e58b5..3fc4bc1f68 100644 --- a/docs/en/reference/trackers/utils/matching.md +++ b/docs/en/reference/trackers/utils/matching.md @@ -5,7 +5,7 @@ keywords: Ultralytics, Trackers Utils, Matching, merge_matches, linear_assignmen # Reference for `ultralytics/trackers/utils/matching.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/utils/matching.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/trackers/utils/matching.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/trackers/utils/matching.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/__init__.md b/docs/en/reference/utils/__init__.md index 811631e620..ac9f2d484c 100644 --- a/docs/en/reference/utils/__init__.md +++ b/docs/en/reference/utils/__init__.md @@ -5,7 +5,7 @@ keywords: Ultralytics, Utils, utilitarian functions, colorstr, yaml_save, set_lo # Reference for `ultralytics/utils/__init__.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/__init__.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/__init__.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/__init__.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/autobatch.md b/docs/en/reference/utils/autobatch.md index 22dd7dfa87..9b8a729820 100644 --- a/docs/en/reference/utils/autobatch.md +++ b/docs/en/reference/utils/autobatch.md @@ -5,7 +5,7 @@ keywords: Ultralytics, check_train_batch_size, autobatch, utility, machine learn # Reference for `ultralytics/utils/autobatch.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/autobatch.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/autobatch.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/autobatch.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/benchmarks.md b/docs/en/reference/utils/benchmarks.md index a36fa6ee31..886318cd63 100644 --- a/docs/en/reference/utils/benchmarks.md +++ b/docs/en/reference/utils/benchmarks.md @@ -5,7 +5,7 @@ keywords: Ultralytics, ProfileModels, benchmarks, model profiling, performance o # Reference for `ultralytics/utils/benchmarks.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/benchmarks.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/benchmarks.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/benchmarks.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/callbacks/base.md b/docs/en/reference/utils/callbacks/base.md index d76ff12fca..1f934054ed 100644 --- a/docs/en/reference/utils/callbacks/base.md +++ b/docs/en/reference/utils/callbacks/base.md @@ -5,7 +5,7 @@ keywords: Ultralytics, Callbacks, On-train, On-validation, On-pretrain, On-predi # Reference for `ultralytics/utils/callbacks/base.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/base.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/base.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/callbacks/base.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/callbacks/clearml.md b/docs/en/reference/utils/callbacks/clearml.md index 5488864914..b2dbed1aac 100644 --- a/docs/en/reference/utils/callbacks/clearml.md +++ b/docs/en/reference/utils/callbacks/clearml.md @@ -5,7 +5,7 @@ keywords: Ultralytics, clearML, callbacks, pretrain routine start, validation en # Reference for `ultralytics/utils/callbacks/clearml.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/clearml.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/clearml.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/callbacks/clearml.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/callbacks/comet.md b/docs/en/reference/utils/callbacks/comet.md index 7961b34f1b..0a2f5491d1 100644 --- a/docs/en/reference/utils/callbacks/comet.md +++ b/docs/en/reference/utils/callbacks/comet.md @@ -5,7 +5,7 @@ keywords: Ultralytics, Comet Callbacks, Training optimisation, Logging, Experime # Reference for `ultralytics/utils/callbacks/comet.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/comet.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/comet.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/callbacks/comet.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/callbacks/dvc.md b/docs/en/reference/utils/callbacks/dvc.md index e54ebc619e..af2167b069 100644 --- a/docs/en/reference/utils/callbacks/dvc.md +++ b/docs/en/reference/utils/callbacks/dvc.md @@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, callbacks, logger, training, pretraining, machine l # Reference for `ultralytics/utils/callbacks/dvc.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/dvc.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/dvc.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/callbacks/dvc.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/callbacks/hub.md b/docs/en/reference/utils/callbacks/hub.md index 9f1ec4ea6e..4dda485f67 100644 --- a/docs/en/reference/utils/callbacks/hub.md +++ b/docs/en/reference/utils/callbacks/hub.md @@ -5,7 +5,7 @@ keywords: Ultralytics, callbacks, on_pretrain_routine_end, on_model_save, on_tra # Reference for `ultralytics/utils/callbacks/hub.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/hub.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/hub.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/callbacks/hub.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/callbacks/mlflow.md b/docs/en/reference/utils/callbacks/mlflow.md index 54e8b12c9b..37780c6235 100644 --- a/docs/en/reference/utils/callbacks/mlflow.md +++ b/docs/en/reference/utils/callbacks/mlflow.md @@ -5,7 +5,7 @@ keywords: Ultralytics, MLflow, Callbacks, on_pretrain_routine_end, on_train_end, # Reference for `ultralytics/utils/callbacks/mlflow.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/mlflow.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/mlflow.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/callbacks/mlflow.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/callbacks/neptune.md b/docs/en/reference/utils/callbacks/neptune.md index d3cd0fbd40..8c5e1cf7b3 100644 --- a/docs/en/reference/utils/callbacks/neptune.md +++ b/docs/en/reference/utils/callbacks/neptune.md @@ -5,7 +5,7 @@ keywords: Ultralytics, Neptune callbacks, on_train_epoch_end, on_val_end, _log_p # Reference for `ultralytics/utils/callbacks/neptune.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/neptune.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/neptune.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/callbacks/neptune.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/callbacks/raytune.md b/docs/en/reference/utils/callbacks/raytune.md index af92c4e981..a990789db7 100644 --- a/docs/en/reference/utils/callbacks/raytune.md +++ b/docs/en/reference/utils/callbacks/raytune.md @@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, on_fit_epoch_end, callbacks, documentation, deep le # Reference for `ultralytics/utils/callbacks/raytune.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/raytune.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/raytune.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/callbacks/raytune.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/callbacks/tensorboard.md b/docs/en/reference/utils/callbacks/tensorboard.md index 9249565b8d..ba5e51673c 100644 --- a/docs/en/reference/utils/callbacks/tensorboard.md +++ b/docs/en/reference/utils/callbacks/tensorboard.md @@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, documentation, callback utilities, log_scalars, on_ # Reference for `ultralytics/utils/callbacks/tensorboard.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/tensorboard.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/tensorboard.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/callbacks/tensorboard.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/callbacks/wb.md b/docs/en/reference/utils/callbacks/wb.md index f031904742..ab9fbd7233 100644 --- a/docs/en/reference/utils/callbacks/wb.md +++ b/docs/en/reference/utils/callbacks/wb.md @@ -5,7 +5,7 @@ keywords: Ultralytics, callbacks, _log_plots, on_fit_epoch_end, on_train_end # Reference for `ultralytics/utils/callbacks/wb.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/wb.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/callbacks/wb.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/callbacks/wb.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/checks.md b/docs/en/reference/utils/checks.md index 9d72be6c08..c286f678cd 100644 --- a/docs/en/reference/utils/checks.md +++ b/docs/en/reference/utils/checks.md @@ -5,7 +5,7 @@ keywords: Ultralytics, utility checks, ASCII, check_version, pip_update, check_p # Reference for `ultralytics/utils/checks.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/checks.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/checks.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/checks.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/dist.md b/docs/en/reference/utils/dist.md index d732412c0b..1b5150c4fc 100644 --- a/docs/en/reference/utils/dist.md +++ b/docs/en/reference/utils/dist.md @@ -5,7 +5,7 @@ keywords: Ultralytics, DDP, DDP utility functions, Distributed Data Processing, # Reference for `ultralytics/utils/dist.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/dist.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/dist.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/dist.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/downloads.md b/docs/en/reference/utils/downloads.md index 9e7f526cef..ee9273e9c0 100644 --- a/docs/en/reference/utils/downloads.md +++ b/docs/en/reference/utils/downloads.md @@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, download utilities, is_url, check_disk_space, get_g # Reference for `ultralytics/utils/downloads.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/downloads.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/downloads.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/downloads.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/errors.md b/docs/en/reference/utils/errors.md index f7181122d6..df05d08053 100644 --- a/docs/en/reference/utils/errors.md +++ b/docs/en/reference/utils/errors.md @@ -5,7 +5,7 @@ keywords: Ultralytics, HUBModelError, Machine Learning, Error troubleshooting, U # Reference for `ultralytics/utils/errors.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/errors.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/errors.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/errors.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/files.md b/docs/en/reference/utils/files.md index ce49b4b407..f33b9abc1e 100644 --- a/docs/en/reference/utils/files.md +++ b/docs/en/reference/utils/files.md @@ -5,7 +5,7 @@ keywords: Ultralytics, utility functions, file operations, working directory, fi # Reference for `ultralytics/utils/files.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/files.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/files.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/files.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/instance.md b/docs/en/reference/utils/instance.md index 27bb6c246f..ff513e067e 100644 --- a/docs/en/reference/utils/instance.md +++ b/docs/en/reference/utils/instance.md @@ -5,7 +5,7 @@ keywords: Ultralytics, Bboxes, _ntuple, utility, ultralytics utils.instance # Reference for `ultralytics/utils/instance.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/instance.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/instance.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/instance.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/loss.md b/docs/en/reference/utils/loss.md index 87fb7e49a2..c6f80f4795 100644 --- a/docs/en/reference/utils/loss.md +++ b/docs/en/reference/utils/loss.md @@ -5,7 +5,7 @@ keywords: Ultralytics, Loss functions, VarifocalLoss, BboxLoss, v8DetectionLoss, # Reference for `ultralytics/utils/loss.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/loss.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/loss.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/loss.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/metrics.md b/docs/en/reference/utils/metrics.md index 987c53d73a..b05c679382 100644 --- a/docs/en/reference/utils/metrics.md +++ b/docs/en/reference/utils/metrics.md @@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, YOLOv3, YOLOv4, metrics, confusion matrix, detectio # Reference for `ultralytics/utils/metrics.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/metrics.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/metrics.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/metrics.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/ops.md b/docs/en/reference/utils/ops.md index 6dfdf6e222..a2a77d5f57 100644 --- a/docs/en/reference/utils/ops.md +++ b/docs/en/reference/utils/ops.md @@ -5,7 +5,7 @@ keywords: Ultralytics YOLO, Utility Operations, segment2box, make_divisible, cli # Reference for `ultralytics/utils/ops.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/ops.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/ops.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/ops.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/patches.md b/docs/en/reference/utils/patches.md index 1d471950f7..775e306723 100644 --- a/docs/en/reference/utils/patches.md +++ b/docs/en/reference/utils/patches.md @@ -5,7 +5,7 @@ keywords: Ultralytics, Utils, Patches, imread, imshow, torch_save, image process # Reference for `ultralytics/utils/patches.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/patches.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/patches.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/patches.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/plotting.md b/docs/en/reference/utils/plotting.md index 9826479ce0..a2db0ea8b2 100644 --- a/docs/en/reference/utils/plotting.md +++ b/docs/en/reference/utils/plotting.md @@ -5,7 +5,7 @@ keywords: Ultralytics, plotting, utils, color annotation, label plotting, image # Reference for `ultralytics/utils/plotting.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/plotting.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/plotting.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/plotting.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/tal.md b/docs/en/reference/utils/tal.md index 230ba284ce..2ad021fb4f 100644 --- a/docs/en/reference/utils/tal.md +++ b/docs/en/reference/utils/tal.md @@ -5,7 +5,7 @@ keywords: Ultralytics, task aligned assigner, select highest overlaps, make anch # Reference for `ultralytics/utils/tal.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/tal.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/tal.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/tal.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/torch_utils.md b/docs/en/reference/utils/torch_utils.md index 471b7fd0a1..77ce278498 100644 --- a/docs/en/reference/utils/torch_utils.md +++ b/docs/en/reference/utils/torch_utils.md @@ -5,7 +5,7 @@ keywords: Ultralytics, Torch Utils, Model EMA, Early Stopping, Smart Inference, # Reference for `ultralytics/utils/torch_utils.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/torch_utils.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/torch_utils.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/torch_utils.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/triton.md b/docs/en/reference/utils/triton.md index d133f97622..64f716a4ac 100644 --- a/docs/en/reference/utils/triton.md +++ b/docs/en/reference/utils/triton.md @@ -5,7 +5,7 @@ keywords: Ultralytics, YOLO, TritonRemoteModel, machine learning, model serving, # Reference for `ultralytics/utils/triton.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/triton.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/triton.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/triton.py) 🛠️. Thank you 🙏! diff --git a/docs/en/reference/utils/tuner.md b/docs/en/reference/utils/tuner.md index dd26bc8485..a4e879e9c7 100644 --- a/docs/en/reference/utils/tuner.md +++ b/docs/en/reference/utils/tuner.md @@ -5,7 +5,7 @@ keywords: Ultralytics, run_ray_tune, machine learning tuning, machine learning e # Reference for `ultralytics/utils/tuner.py` -!!! note +!!! Note This file is available at [https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/tuner.py](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/utils/tuner.py). If you spot a problem please help fix it by [contributing](https://docs.ultralytics.com/help/contributing/) a [Pull Request](https://github.com/ultralytics/ultralytics/edit/main/ultralytics/utils/tuner.py) 🛠️. Thank you 🙏! diff --git a/docs/en/robots.txt b/docs/en/robots.txt index 6794e59645..6d80eaeb3b 100644 --- a/docs/en/robots.txt +++ b/docs/en/robots.txt @@ -1,8 +1,10 @@ User-agent: * Sitemap: http://docs.ultralytics.com/sitemap.xml +Sitemap: http://docs.ultralytics.com/ar/sitemap.xml Sitemap: http://docs.ultralytics.com/de/sitemap.xml Sitemap: http://docs.ultralytics.com/es/sitemap.xml Sitemap: http://docs.ultralytics.com/fr/sitemap.xml +Sitemap: http://docs.ultralytics.com/hi/sitemap.xml Sitemap: http://docs.ultralytics.com/ja/sitemap.xml Sitemap: http://docs.ultralytics.com/ko/sitemap.xml Sitemap: http://docs.ultralytics.com/pt/sitemap.xml diff --git a/docs/en/tasks/classify.md b/docs/en/tasks/classify.md index 928574096a..b52c796cd9 100644 --- a/docs/en/tasks/classify.md +++ b/docs/en/tasks/classify.md @@ -12,7 +12,7 @@ Image classification is the simplest of the three tasks and involves classifying The output of an image classifier is a single class label and a confidence score. Image classification is useful when you need to know only what class an image belongs to and don't need to know where objects of that class are located or what their exact shape is. -!!! tip "Tip" +!!! Tip "Tip" YOLOv8 Classify models use the `-cls` suffix, i.e. `yolov8n-cls.pt` and are pretrained on [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). @@ -40,7 +40,7 @@ YOLOv8 pretrained Classify models are shown here. Detect, Segment and Pose model Train YOLOv8n-cls on the MNIST160 dataset for 100 epochs at image size 64. For a full list of available arguments see the [Configuration](../usage/cfg.md) page. -!!! example "" +!!! Example "" === "Python" @@ -77,7 +77,7 @@ YOLO classification dataset format can be found in detail in the [Dataset Guide] Validate trained YOLOv8n-cls model accuracy on the MNIST160 dataset. No argument need to passed as the `model` retains it's training `data` and arguments as model attributes. -!!! example "" +!!! Example "" === "Python" @@ -104,7 +104,7 @@ Validate trained YOLOv8n-cls model accuracy on the MNIST160 dataset. No argument Use a trained YOLOv8n-cls model to run predictions on images. -!!! example "" +!!! Example "" === "Python" @@ -131,7 +131,7 @@ See full `predict` mode details in the [Predict](https://docs.ultralytics.com/mo Export a YOLOv8n-cls model to a different format like ONNX, CoreML, etc. -!!! example "" +!!! Example "" === "Python" diff --git a/docs/en/tasks/detect.md b/docs/en/tasks/detect.md index bed738a33e..0482ad2059 100644 --- a/docs/en/tasks/detect.md +++ b/docs/en/tasks/detect.md @@ -23,7 +23,7 @@ The output of an object detector is a set of bounding boxes that enclose the obj Watch: Object Detection with Pre-trained Ultralytics YOLOv8 Model.

-!!! tip "Tip" +!!! Tip "Tip" YOLOv8 Detect models are the default YOLOv8 models, i.e. `yolov8n.pt` and are pretrained on [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml). @@ -51,7 +51,7 @@ YOLOv8 pretrained Detect models are shown here. Detect, Segment and Pose models Train YOLOv8n on the COCO128 dataset for 100 epochs at image size 640. For a full list of available arguments see the [Configuration](../usage/cfg.md) page. -!!! example "" +!!! Example "" === "Python" @@ -87,7 +87,7 @@ YOLO detection dataset format can be found in detail in the [Dataset Guide](../d Validate trained YOLOv8n model accuracy on the COCO128 dataset. No argument need to passed as the `model` retains it's training `data` and arguments as model attributes. -!!! example "" +!!! Example "" === "Python" @@ -116,7 +116,7 @@ Validate trained YOLOv8n model accuracy on the COCO128 dataset. No argument need Use a trained YOLOv8n model to run predictions on images. -!!! example "" +!!! Example "" === "Python" @@ -143,7 +143,7 @@ See full `predict` mode details in the [Predict](https://docs.ultralytics.com/mo Export a YOLOv8n model to a different format like ONNX, CoreML, etc. -!!! example "" +!!! Example "" === "Python" diff --git a/docs/en/tasks/pose.md b/docs/en/tasks/pose.md index 3c3a5c3c20..2a94579bc7 100644 --- a/docs/en/tasks/pose.md +++ b/docs/en/tasks/pose.md @@ -24,7 +24,7 @@ The output of a pose estimation model is a set of points that represent the keyp Watch: Pose Estimation with Ultralytics YOLOv8.

-!!! tip "Tip" +!!! Tip "Tip" YOLOv8 _pose_ models use the `-pose` suffix, i.e. `yolov8n-pose.pt`. These models are trained on the [COCO keypoints](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) dataset and are suitable for a variety of pose estimation tasks. @@ -54,7 +54,7 @@ YOLOv8 pretrained Pose models are shown here. Detect, Segment and Pose models ar Train a YOLOv8-pose model on the COCO128-pose dataset. -!!! example "" +!!! Example "" === "Python" @@ -91,7 +91,7 @@ YOLO pose dataset format can be found in detail in the [Dataset Guide](../datase Validate trained YOLOv8n-pose model accuracy on the COCO128-pose dataset. No argument need to passed as the `model` retains it's training `data` and arguments as model attributes. -!!! example "" +!!! Example "" === "Python" @@ -120,7 +120,7 @@ retains it's training `data` and arguments as model attributes. Use a trained YOLOv8n-pose model to run predictions on images. -!!! example "" +!!! Example "" === "Python" @@ -147,7 +147,7 @@ See full `predict` mode details in the [Predict](https://docs.ultralytics.com/mo Export a YOLOv8n Pose model to a different format like ONNX, CoreML, etc. -!!! example "" +!!! Example "" === "Python" diff --git a/docs/en/tasks/segment.md b/docs/en/tasks/segment.md index fc52b052f0..87aecd1ce7 100644 --- a/docs/en/tasks/segment.md +++ b/docs/en/tasks/segment.md @@ -23,7 +23,7 @@ The output of an instance segmentation model is a set of masks or contours that Watch: Run Segmentation with Pre-Trained Ultralytics YOLOv8 Model in Python.

-!!! tip "Tip" +!!! Tip "Tip" YOLOv8 Segment models use the `-seg` suffix, i.e. `yolov8n-seg.pt` and are pretrained on [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml). @@ -51,7 +51,7 @@ YOLOv8 pretrained Segment models are shown here. Detect, Segment and Pose models Train YOLOv8n-seg on the COCO128-seg dataset for 100 epochs at image size 640. For a full list of available arguments see the [Configuration](../usage/cfg.md) page. -!!! example "" +!!! Example "" === "Python" @@ -88,7 +88,7 @@ YOLO segmentation dataset format can be found in detail in the [Dataset Guide](. Validate trained YOLOv8n-seg model accuracy on the COCO128-seg dataset. No argument need to passed as the `model` retains it's training `data` and arguments as model attributes. -!!! example "" +!!! Example "" === "Python" @@ -121,7 +121,7 @@ retains it's training `data` and arguments as model attributes. Use a trained YOLOv8n-seg model to run predictions on images. -!!! example "" +!!! Example "" === "Python" @@ -148,7 +148,7 @@ See full `predict` mode details in the [Predict](https://docs.ultralytics.com/mo Export a YOLOv8n-seg model to a different format like ONNX, CoreML, etc. -!!! example "" +!!! Example "" === "Python" diff --git a/docs/en/usage/cfg.md b/docs/en/usage/cfg.md index 7eb8668c5b..0e2c1949d1 100644 --- a/docs/en/usage/cfg.md +++ b/docs/en/usage/cfg.md @@ -8,7 +8,7 @@ YOLO settings and hyperparameters play a critical role in the model's performanc YOLOv8 `yolo` CLI commands use the following syntax: -!!! example "" +!!! Example "" === "CLI" diff --git a/docs/en/usage/cli.md b/docs/en/usage/cli.md index a4bdffca99..57844a5fbb 100644 --- a/docs/en/usage/cli.md +++ b/docs/en/usage/cli.md @@ -19,7 +19,7 @@ The YOLO command line interface (CLI) allows for simple single-line commands wit Watch: Mastering Ultralytics YOLOv8: CLI & Python Usage and Live Inference

-!!! example +!!! Example === "Syntax" @@ -80,7 +80,7 @@ Where: - `ARGS` (optional) are any number of custom `arg=value` pairs like `imgsz=320` that override defaults. For a full list of available `ARGS` see the [Configuration](cfg.md) page and `defaults.yaml` GitHub [source](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/default.yaml). -!!! warning "Warning" +!!! Warning "Warning" Arguments must be passed as `arg=val` pairs, split by an equals `=` sign and delimited by spaces ` ` between pairs. Do not use `--` argument prefixes or commas `,` between arguments. @@ -92,7 +92,7 @@ Where: Train YOLOv8n on the COCO128 dataset for 100 epochs at image size 640. For a full list of available arguments see the [Configuration](cfg.md) page. -!!! example "Example" +!!! Example "Example" === "Train" @@ -112,7 +112,7 @@ Train YOLOv8n on the COCO128 dataset for 100 epochs at image size 640. For a ful Validate trained YOLOv8n model accuracy on the COCO128 dataset. No argument need to passed as the `model` retains it's training `data` and arguments as model attributes. -!!! example "Example" +!!! Example "Example" === "Official" @@ -132,7 +132,7 @@ Validate trained YOLOv8n model accuracy on the COCO128 dataset. No argument need Use a trained YOLOv8n model to run predictions on images. -!!! example "Example" +!!! Example "Example" === "Official" @@ -152,7 +152,7 @@ Use a trained YOLOv8n model to run predictions on images. Export a YOLOv8n model to a different format like ONNX, CoreML, etc. -!!! example "Example" +!!! Example "Example" === "Official" @@ -190,7 +190,7 @@ Available YOLOv8 export formats are in the table below. You can export to any fo Default arguments can be overridden by simply passing them as arguments in the CLI in `arg=value` pairs. -!!! tip "" +!!! Tip "" === "Train" Train a detection model for `10 epochs` with `learning_rate` of `0.01` @@ -218,7 +218,7 @@ To do this first create a copy of `default.yaml` in your current working dir wit This will create `default_copy.yaml`, which you can then pass as `cfg=default_copy.yaml` along with any additional args, like `imgsz=320` in this example: -!!! example "" +!!! Example "" === "CLI" ```bash diff --git a/docs/en/usage/python.md b/docs/en/usage/python.md index 200383c0d8..17624aab33 100644 --- a/docs/en/usage/python.md +++ b/docs/en/usage/python.md @@ -10,7 +10,7 @@ Welcome to the YOLOv8 Python Usage documentation! This guide is designed to help For example, users can load a model, train it, evaluate its performance on a validation set, and even export it to ONNX format with just a few lines of code. -!!! example "Python" +!!! Example "Python" ```python from ultralytics import YOLO @@ -38,7 +38,7 @@ For example, users can load a model, train it, evaluate its performance on a val Train mode is used for training a YOLOv8 model on a custom dataset. In this mode, the model is trained using the specified dataset and hyperparameters. The training process involves optimizing the model's parameters so that it can accurately predict the classes and locations of objects in an image. -!!! example "Train" +!!! Example "Train" === "From pretrained(recommended)" ```python @@ -68,7 +68,7 @@ Train mode is used for training a YOLOv8 model on a custom dataset. In this mode Val mode is used for validating a YOLOv8 model after it has been trained. In this mode, the model is evaluated on a validation set to measure its accuracy and generalization performance. This mode can be used to tune the hyperparameters of the model to improve its performance. -!!! example "Val" +!!! Example "Val" === "Val after training" ```python @@ -96,7 +96,7 @@ Val mode is used for validating a YOLOv8 model after it has been trained. In thi Predict mode is used for making predictions using a trained YOLOv8 model on new images or videos. In this mode, the model is loaded from a checkpoint file, and the user can provide images or videos to perform inference. The model predicts the classes and locations of objects in the input images or videos. -!!! example "Predict" +!!! Example "Predict" === "From source" ```python @@ -164,7 +164,7 @@ Predict mode is used for making predictions using a trained YOLOv8 model on new Export mode is used for exporting a YOLOv8 model to a format that can be used for deployment. In this mode, the model is converted to a format that can be used by other software applications or hardware devices. This mode is useful when deploying the model to production environments. -!!! example "Export" +!!! Example "Export" === "Export to ONNX" @@ -192,7 +192,7 @@ Export mode is used for exporting a YOLOv8 model to a format that can be used fo Track mode is used for tracking objects in real-time using a YOLOv8 model. In this mode, the model is loaded from a checkpoint file, and the user can provide a live video stream to perform real-time object tracking. This mode is useful for applications such as surveillance systems or self-driving cars. -!!! example "Track" +!!! Example "Track" === "Python" @@ -216,7 +216,7 @@ Track mode is used for tracking objects in real-time using a YOLOv8 model. In th Benchmark mode is used to profile the speed and accuracy of various export formats for YOLOv8. The benchmarks provide information on the size of the exported format, its `mAP50-95` metrics (for object detection and segmentation) or `accuracy_top5` metrics (for classification), and the inference time in milliseconds per image across various export formats like ONNX, OpenVINO, TensorRT and others. This information can help users choose the optimal export format for their specific use case based on their requirements for speed and accuracy. -!!! example "Benchmark" +!!! Example "Benchmark" === "Python" @@ -234,7 +234,7 @@ or `accuracy_top5` metrics (for classification), and the inference time in milli `YOLO` model class is a high-level wrapper on the Trainer classes. Each YOLO task has its own trainer that inherits from `BaseTrainer`. -!!! tip "Detection Trainer Example" +!!! Tip "Detection Trainer Example" ```python from ultralytics.models.yolo import DetectionTrainer, DetectionValidator, DetectionPredictor diff --git a/docs/en/yolov5/tutorials/roboflow_datasets_integration.md b/docs/en/yolov5/tutorials/roboflow_datasets_integration.md index c2b11f3687..8f72af4e83 100644 --- a/docs/en/yolov5/tutorials/roboflow_datasets_integration.md +++ b/docs/en/yolov5/tutorials/roboflow_datasets_integration.md @@ -8,7 +8,7 @@ keywords: Ultralytics, YOLOv5, Roboflow, data organization, data labelling, data You can now use Roboflow to organize, label, prepare, version, and host your datasets for training YOLOv5 🚀 models. Roboflow is free to use with YOLOv5 if you make your workspace public. UPDATED 7 June 2023. -!!! warning +!!! Warning Roboflow users can use Ultralytics under the [AGPL license](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) or procure an [Enterprise license](https://ultralytics.com/license) directly from Ultralytics. Be aware that Roboflow does **not** provide Ultralytics licenses, and it is the responsibility of the user to ensure appropriate licensing. diff --git a/docs/en/yolov5/tutorials/train_custom_data.md b/docs/en/yolov5/tutorials/train_custom_data.md index 2ac3ce244f..84b5ea58a7 100644 --- a/docs/en/yolov5/tutorials/train_custom_data.md +++ b/docs/en/yolov5/tutorials/train_custom_data.md @@ -32,7 +32,7 @@ YOLOv5 models must be trained on labelled data in order to learn classes of obje
Use Roboflow to create your dataset in YOLO format 🌟 -!!! note +!!! Note Roboflow users can use Ultralytics under the [AGPL license](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) or can request an [Enterprise license](https://ultralytics.com/license) directly from Ultralytics. Be aware that Roboflow does not provide Ultralytics licenses, and it is the responsibility of the user to ensure appropriate licensing. @@ -141,11 +141,11 @@ Train a YOLOv5s model on COCO128 by specifying dataset, batch-size, image size a python train.py --img 640 --epochs 3 --data coco128.yaml --weights yolov5s.pt ``` -!!! tip "Tip" +!!! Tip "Tip" 💡 Add `--cache ram` or `--cache disk` to speed up training (requires significant RAM/disk resources). -!!! tip "Tip" +!!! Tip "Tip" 💡 Always train from a local dataset. Mounted or network drives like Google Drive will be very slow. diff --git a/docs/es/datasets/index.md b/docs/es/datasets/index.md index 5cc6fda6d3..fd7f1179c1 100644 --- a/docs/es/datasets/index.md +++ b/docs/es/datasets/index.md @@ -8,7 +8,7 @@ keywords: visión por computadora, conjuntos de datos, Ultralytics, YOLO, detecc Ultralytics brinda soporte para varios conjuntos de datos para facilitar tareas de visión por computadora como detección, segmentación de instancias, estimación de poses, clasificación y seguimiento de múltiples objetos. A continuación se presenta una lista de los principales conjuntos de datos de Ultralytics, seguido por un resumen de cada tarea de visión por computadora y los respectivos conjuntos de datos. -!!! note +!!! Note 🚧 Nuestra documentación multilingüe está actualmente en construcción y estamos trabajando arduamente para mejorarla. ¡Gracias por su paciencia! 🙏 @@ -104,7 +104,7 @@ Contribuir con un nuevo conjunto de datos implica varios pasos para garantizar q ### Código de Ejemplo para Optimizar y Comprimir un Conjunto de Datos -!!! example "Optimizar y Comprimir un Conjunto de Datos" +!!! Example "Optimizar y Comprimir un Conjunto de Datos" === "Python" diff --git a/docs/es/index.md b/docs/es/index.md index 0d338d0816..c80693385b 100644 --- a/docs/es/index.md +++ b/docs/es/index.md @@ -38,7 +38,7 @@ Presentamos [Ultralytics](https://ultralytics.com) [YOLOv8](https://github.com/u Explore los documentos de YOLOv8, un recurso integral diseñado para ayudarle a comprender y utilizar sus características y capacidades. Independientemente de que sea un practicante experimentado en aprendizaje automático o nuevo en el campo, este centro tiene como objetivo maximizar el potencial de YOLOv8 en sus proyectos. -!!! note +!!! Note 🚧 Nuestra documentación en varios idiomas está actualmente en construcción y estamos trabajando duro para mejorarla. ¡Gracias por su paciencia! 🙏 diff --git a/docs/es/models/index.md b/docs/es/models/index.md index 1654c6e2bc..42be5a3630 100644 --- a/docs/es/models/index.md +++ b/docs/es/models/index.md @@ -8,7 +8,7 @@ keywords: Ultralytics, documentación, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, ¡Bienvenido a la documentación de modelos de Ultralytics! Ofrecemos soporte para una amplia gama de modelos, cada uno adaptado a tareas específicas como [detección de objetos](../tasks/detect.md), [segmentación de instancias](../tasks/segment.md), [clasificación de imágenes](../tasks/classify.md), [estimación de postura](../tasks/pose.md) y [seguimiento de múltiples objetos](../modes/track.md). Si estás interesado en contribuir con tu arquitectura de modelo a Ultralytics, consulta nuestra [Guía de Contribución](../../help/contributing.md). -!!! note +!!! Note 🚧 Nuestra documentación en varios idiomas está actualmente en construcción y estamos trabajando arduamente para mejorarla. ¡Gracias por tu paciencia! 🙏 @@ -41,7 +41,7 @@ Aquí tienes algunos de los modelos clave soportados: ## Comenzando: Ejemplos de Uso -!!! example "" +!!! Example "Ejemplo" === "Python" diff --git a/docs/es/modes/benchmark.md b/docs/es/modes/benchmark.md index d430ec4b5b..3a165da65b 100644 --- a/docs/es/modes/benchmark.md +++ b/docs/es/modes/benchmark.md @@ -32,7 +32,7 @@ Una vez que su modelo está entrenado y validado, el siguiente paso lógico es e - **OpenVINO:** Para la optimización en hardware de Intel - **CoreML, TensorFlow SavedModel y Más:** Para necesidades de despliegue diversas. -!!! tip "Consejo" +!!! Tip "Consejo" * Exporte a ONNX o OpenVINO para acelerar la velocidad de CPU hasta 3 veces. * Exporte a TensorRT para acelerar la velocidad de GPU hasta 5 veces. @@ -41,7 +41,7 @@ Una vez que su modelo está entrenado y validado, el siguiente paso lógico es e Ejecute benchmarks de YOLOv8n en todos los formatos de exportación soportados incluyendo ONNX, TensorRT, etc. Vea la sección de Argumentos a continuación para una lista completa de argumentos de exportación. -!!! example "" +!!! Example "Ejemplo" === "Python" diff --git a/docs/es/modes/export.md b/docs/es/modes/export.md index 688822dd59..e701ccb268 100644 --- a/docs/es/modes/export.md +++ b/docs/es/modes/export.md @@ -39,7 +39,7 @@ Aquí tienes algunas de las funcionalidades destacadas: - **Inferencia Optimizada:** Los modelos exportados están optimizados para tiempos de inferencia más rápidos. - **Vídeos Tutoriales:** Guías y tutoriales en profundidad para una experiencia de exportación fluida. -!!! tip "Consejo" +!!! Tip "Consejo" * Exporta a ONNX u OpenVINO para acelerar la CPU hasta 3 veces. * Exporta a TensorRT para acelerar la GPU hasta 5 veces. @@ -48,7 +48,7 @@ Aquí tienes algunas de las funcionalidades destacadas: Exporta un modelo YOLOv8n a un formato diferente como ONNX o TensorRT. Consulta la sección Argumentos más abajo para una lista completa de argumentos de exportación. -!!! example "" +!!! Example "Ejemplo" === "Python" diff --git a/docs/es/modes/predict.md b/docs/es/modes/predict.md index 2384c15b59..0c1751af27 100644 --- a/docs/es/modes/predict.md +++ b/docs/es/modes/predict.md @@ -50,7 +50,7 @@ El modo predictivo de YOLOv8 está diseñado para ser robusto y versátil, y cue Los modelos YOLO de Ultralytics devuelven ya sea una lista de objetos `Results` de Python, o un generador de objetos `Results` de Python eficiente en memoria cuando se pasa `stream=True` al modelo durante la inferencia: -!!! ejemplo "Predict" +!!! Example "Predict" === "Devolver una lista con `stream=False`" ```python @@ -92,7 +92,7 @@ Los modelos YOLO de Ultralytics devuelven ya sea una lista de objetos `Results` YOLOv8 puede procesar diferentes tipos de fuentes de entrada para la inferencia, como se muestra en la tabla a continuación. Las fuentes incluyen imágenes estáticas, transmisiones de video y varios formatos de datos. La tabla también indica si cada fuente se puede utilizar en modo de transmisión con el argumento `stream=True` ✅. El modo de transmisión es beneficioso para procesar videos o transmisiones en vivo ya que crea un generador de resultados en lugar de cargar todos los fotogramas en la memoria. -!!! consejo "Consejo" +!!! Tip "Consejo" Utilice `stream=True` para procesar videos largos o conjuntos de datos grandes para gestionar eficientemente la memoria. Cuando `stream=False`, los resultados de todos los fotogramas o puntos de datos se almacenan en la memoria, lo que puede aumentar rápidamente y causar errores de memoria insuficiente para entradas grandes. En contraste, `stream=True` utiliza un generador, que solo mantiene los resultados del fotograma o punto de datos actual en la memoria, reduciendo significativamente el consumo de memoria y previniendo problemas de falta de memoria. @@ -115,7 +115,7 @@ YOLOv8 puede procesar diferentes tipos de fuentes de entrada para la inferencia, A continuación se muestran ejemplos de código para usar cada tipo de fuente: -!!! ejemplo "Fuentes de predicción" +!!! Example "Fuentes de predicción" === "imagen" Ejecute inferencia en un archivo de imagen. diff --git a/docs/es/modes/track.md b/docs/es/modes/track.md index 719e6c7e51..e7b514d18a 100644 --- a/docs/es/modes/track.md +++ b/docs/es/modes/track.md @@ -58,7 +58,7 @@ El rastreador predeterminado es BoT-SORT. Para ejecutar el rastreador en flujos de video, usa un modelo Detect, Segment o Pose entrenado tales como YOLOv8n, YOLOv8n-seg y YOLOv8n-pose. -!!! ejemplo "" +!!! Example "Ejemplo" === "Python" @@ -97,7 +97,7 @@ Como se puede ver en el uso anterior, el seguimiento está disponible para todos La configuración de seguimiento comparte propiedades con el modo Predict, como `conf`, `iou` y `show`. Para configuraciones adicionales, consulta la página del modelo [Predict](https://docs.ultralytics.com/modes/predict/). -!!! ejemplo "" +!!! Example "Ejemplo" === "Python" @@ -120,7 +120,7 @@ La configuración de seguimiento comparte propiedades con el modo Predict, como Ultralytics también te permite usar un archivo de configuración de rastreador modificado. Para hacerlo, simplemente haz una copia de un archivo de configuración de rastreador (por ejemplo, `custom_tracker.yaml`) de [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) y modifica cualquier configuración (excepto el `tracker_type`) según tus necesidades. -!!! ejemplo "" +!!! Example "Ejemplo" === "Python" @@ -147,7 +147,7 @@ Para obtener una lista completa de los argumentos de seguimiento, consulta la p Aquí hay un script en Python que utiliza OpenCV (`cv2`) y YOLOv8 para ejecutar el seguimiento de objetos en fotogramas de video. Este script aún asume que ya has instalado los paquetes necesarios (`opencv-python` y `ultralytics`). El argumento `persist=True` le indica al rastreador que la imagen o fotograma actual es el siguiente en una secuencia y que espera rastros de la imagen anterior en la imagen actual. -!!! ejemplo "Bucle de transmisión en vivo con seguimiento" +!!! Example "Bucle de transmisión en vivo con seguimiento" ```python import cv2 diff --git a/docs/es/modes/train.md b/docs/es/modes/train.md index 33f2688a52..6cb798aa53 100644 --- a/docs/es/modes/train.md +++ b/docs/es/modes/train.md @@ -41,7 +41,7 @@ Las siguientes son algunas características notables del modo Entrenamiento de Y - **Configuración de Hiperparámetros:** La opción de modificar hiperparámetros a través de archivos de configuración YAML o argumentos CLI. - **Visualización y Monitoreo:** Seguimiento en tiempo real de métricas de entrenamiento y visualización del proceso de aprendizaje para una mejor comprensión. -!!! consejo "Consejo" +!!! Tip "Consejo" * Los conjuntos de datos de YOLOv8 como COCO, VOC, ImageNet y muchos otros se descargan automáticamente en el primer uso, es decir, `yolo train data=coco.yaml` @@ -49,7 +49,7 @@ Las siguientes son algunas características notables del modo Entrenamiento de Y Entrena YOLOv8n en el conjunto de datos COCO128 durante 100 épocas con un tamaño de imagen de 640. El dispositivo de entrenamiento se puede especificar usando el argumento `device`. Si no se pasa ningún argumento, se usará la GPU `device=0` si está disponible; de lo contrario, se usará `device=cpu`. Consulta la sección de Argumentos a continuación para una lista completa de argumentos de entrenamiento. -!!! ejemplo "Ejemplo de Entrenamiento con una sola GPU y CPU" +!!! Example "Ejemplo de Entrenamiento con una sola GPU y CPU" El dispositivo se determina automáticamente. Si hay una GPU disponible, se usará; de lo contrario, el entrenamiento comenzará en la CPU. @@ -84,7 +84,7 @@ Entrena YOLOv8n en el conjunto de datos COCO128 durante 100 épocas con un tama El entrenamiento Multi-GPU permite una utilización más eficiente de los recursos de hardware disponibles, distribuyendo la carga de entrenamiento en varias GPUs. Esta característica está disponible tanto a través de la API de Python como de la interfaz de línea de comandos. Para habilitar el entrenamiento Multi-GPU, especifica los IDs de los dispositivos GPU que deseas usar. -!!! ejemplo "Ejemplo de Entrenamiento Multi-GPU" +!!! Example "Ejemplo de Entrenamiento Multi-GPU" Para entrenar con 2 GPUs, dispositivos CUDA 0 y 1, usa los siguientes comandos. Amplía a GPUs adicionales según sea necesario. @@ -113,7 +113,7 @@ Con el soporte para los chips Apple M1 y M2 integrados en los modelos Ultralytic Para habilitar el entrenamiento en chips Apple M1 y M2, debes especificar 'mps' como tu dispositivo al iniciar el proceso de entrenamiento. A continuación se muestra un ejemplo de cómo podrías hacer esto en Python y a través de la línea de comandos: -!!! ejemplo "Ejemplo de Entrenamiento MPS" +!!! Example "Ejemplo de Entrenamiento MPS" === "Python" @@ -148,7 +148,7 @@ Para usar un registrador, selecciónalo en el menú desplegable en el fragmento Para usar Comet: -!!! ejemplo "" +!!! Example "Ejemplo" === "Python" ```python @@ -166,7 +166,7 @@ Recuerda iniciar sesión en tu cuenta de Comet en su sitio web y obtener tu clav Para usar ClearML: -!!! ejemplo "" +!!! Example "Ejemplo" === "Python" ```python @@ -184,7 +184,7 @@ Después de ejecutar este script, necesitarás iniciar sesión en tu cuenta de C Para usar TensorBoard en [Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb): -!!! ejemplo "" +!!! Example "Ejemplo" === "CLI" ```bash @@ -194,7 +194,7 @@ Para usar TensorBoard en [Google Colab](https://colab.research.google.com/github Para usar TensorBoard localmente, ejecuta el siguiente comando y visualiza los resultados en http://localhost:6006/. -!!! ejemplo "" +!!! Example "Ejemplo" === "CLI" ```bash diff --git a/docs/es/modes/val.md b/docs/es/modes/val.md index d70df3a74b..ee81404ddb 100644 --- a/docs/es/modes/val.md +++ b/docs/es/modes/val.md @@ -30,7 +30,7 @@ Estas son las funcionalidades notables ofrecidas por el modo Val de YOLOv8: - **CLI y API de Python:** Elija entre la interfaz de línea de comandos o API de Python basada en su preferencia para validación. - **Compatibilidad de Datos:** Funciona sin problemas con conjuntos de datos utilizados durante la fase de entrenamiento así como con conjuntos de datos personalizados. -!!! tip "Consejo" +!!! Tip "Consejo" * Los modelos YOLOv8 recuerdan automáticamente sus ajustes de entrenamiento, así que puede validar un modelo en el mismo tamaño de imagen y en el conjunto de datos original fácilmente con solo `yolo val model=yolov8n.pt` o `model('yolov8n.pt').val()` @@ -38,7 +38,7 @@ Estas son las funcionalidades notables ofrecidas por el modo Val de YOLOv8: Valide la precisión del modelo YOLOv8n entrenado en el conjunto de datos COCO128. No es necesario pasar ningún argumento ya que el `modelo` retiene sus `datos` de entrenamiento y argumentos como atributos del modelo. Vea la sección de Argumentos a continuación para una lista completa de argumentos de exportación. -!!! example "" +!!! Example "Ejemplo" === "Python" diff --git a/docs/es/quickstart.md b/docs/es/quickstart.md index e64b2c8482..41305e13d1 100644 --- a/docs/es/quickstart.md +++ b/docs/es/quickstart.md @@ -8,7 +8,7 @@ keywords: instalación de Ultralytics, pip install Ultralytics, instalación de Ultralytics ofrece varios métodos de instalación incluyendo pip, conda y Docker. Instala YOLOv8 a través del paquete `ultralytics` de pip para la última versión estable o clonando el [repositorio de GitHub de Ultralytics](https://github.com/ultralytics/ultralytics) para obtener la versión más actualizada. Docker se puede utilizar para ejecutar el paquete en un contenedor aislado, evitando la instalación local. -!!! example "Instalar" +!!! Example "Instalar" === "Instalación con Pip (recomendado)" Instala el paquete `ultralytics` usando pip o actualiza una instalación existente ejecutando `pip install -U ultralytics`. Visita el Índice de Paquetes de Python (PyPI) para más detalles sobre el paquete `ultralytics`: [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/). @@ -39,7 +39,7 @@ Ultralytics ofrece varios métodos de instalación incluyendo pip, conda y Docke conda install -c conda-forge ultralytics ``` - !!! note + !!! Note Si estás instalando en un entorno CUDA, la mejor práctica es instalar `ultralytics`, `pytorch` y `pytorch-cuda` en el mismo comando para permitir que el gestor de paquetes de conda resuelva cualquier conflicto, o en su defecto instalar `pytorch-cuda` al final para permitir que sobrescriba el paquete específico de CPU `pytorch` si es necesario. ```bash @@ -89,7 +89,7 @@ Consulta el archivo [requirements.txt](https://github.com/ultralytics/ultralytic Watch: Ultralytics YOLO Quick Start Guide

-!!! tip "Consejo" +!!! Tip "Consejo" Los requisitos de PyTorch varían según el sistema operativo y los requisitos de CUDA, por lo que se recomienda instalar primero PyTorch siguiendo las instrucciones en [https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally). @@ -101,7 +101,7 @@ Consulta el archivo [requirements.txt](https://github.com/ultralytics/ultralytic La interfaz de línea de comandos (CLI) de Ultralytics permite el uso de comandos simples de una sola línea sin la necesidad de un entorno de Python. La CLI no requiere personalización ni código Python. Puedes simplemente ejecutar todas las tareas desde el terminal con el comando `yolo`. Consulta la [Guía de CLI](/../usage/cli.md) para aprender más sobre el uso de YOLOv8 desde la línea de comandos. -!!! example +!!! Example === "Sintaxis" @@ -155,7 +155,7 @@ La interfaz de línea de comandos (CLI) de Ultralytics permite el uso de comando yolo cfg ``` -!!! warning "Advertencia" +!!! Warning "Advertencia" Los argumentos deben pasarse como pares `arg=valor`, separados por un signo igual `=` y delimitados por espacios ` ` entre pares. No utilices prefijos de argumentos `--` ni comas `,` entre los argumentos. @@ -171,7 +171,7 @@ La interfaz de Python de YOLOv8 permite una integración perfecta en tus proyect Por ejemplo, los usuarios pueden cargar un modelo, entrenarlo, evaluar su rendimiento en un conjunto de validación e incluso exportarlo al formato ONNX con solo unas pocas líneas de código. Consulta la [Guía de Python](/../usage/python.md) para aprender más sobre el uso de YOLOv8 dentro de tus proyectos de Python. -!!! example +!!! Example ```python from ultralytics import YOLO diff --git a/docs/es/tasks/classify.md b/docs/es/tasks/classify.md index fc1d85bf2d..b9b45ff556 100644 --- a/docs/es/tasks/classify.md +++ b/docs/es/tasks/classify.md @@ -12,7 +12,7 @@ La clasificación de imágenes es la tarea más sencilla de las tres y consiste La salida de un clasificador de imágenes es una única etiqueta de clase y una puntuación de confianza. La clasificación de imágenes es útil cuando solo necesita saber a qué clase pertenece una imagen y no necesita conocer dónde están ubicados los objetos de esa clase o cuál es su forma exacta. -!!! tip "Consejo" +!!! Tip "Consejo" Los modelos YOLOv8 Classify utilizan el sufijo `-cls`, por ejemplo, `yolov8n-cls.pt` y están preentrenados en [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). @@ -39,7 +39,7 @@ Los [modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/c Entrena el modelo YOLOv8n-cls en el conjunto de datos MNIST160 durante 100 épocas con un tamaño de imagen de 64. Para obtener una lista completa de argumentos disponibles, consulte la página de [Configuración](/../usage/cfg.md). -!!! example "" +!!! Example "Ejemplo" === "Python" @@ -76,7 +76,7 @@ El formato del conjunto de datos de clasificación YOLO puede encontrarse en det Validar la exactitud del modelo YOLOv8n-cls entrenado en el conjunto de datos MNIST160. No es necesario pasar ningún argumento ya que el `modelo` retiene su `data` y argumentos como atributos del modelo. -!!! example "" +!!! Example "Ejemplo" === "Python" @@ -103,7 +103,7 @@ Validar la exactitud del modelo YOLOv8n-cls entrenado en el conjunto de datos MN Usar un modelo YOLOv8n-cls entrenado para realizar predicciones en imágenes. -!!! example "" +!!! Example "Ejemplo" === "Python" @@ -130,7 +130,7 @@ Ver detalles completos del modo `predict` en la página de [Predicción](https:/ Exportar un modelo YOLOv8n-cls a un formato diferente como ONNX, CoreML, etc. -!!! example "" +!!! Example "Ejemplo" === "Python" diff --git a/docs/es/tasks/detect.md b/docs/es/tasks/detect.md index 0ddaf15642..7779c78033 100644 --- a/docs/es/tasks/detect.md +++ b/docs/es/tasks/detect.md @@ -23,7 +23,7 @@ La salida de un detector de objetos es un conjunto de cajas delimitadoras que en Ver: Detección de Objetos con Modelo Preentrenado YOLOv8 de Ultralytics.

-!!! tip "Consejo" +!!! Tip "Consejo" Los modelos YOLOv8 Detect son los modelos predeterminados de YOLOv8, es decir, `yolov8n.pt` y están preentrenados en [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml). @@ -50,7 +50,7 @@ Los [modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/c Entrena a YOLOv8n en el conjunto de datos COCO128 durante 100 épocas a tamaño de imagen 640. Para una lista completa de argumentos disponibles, consulta la página [Configuración](/../usage/cfg.md). -!!! ejemplo "" +!!! Example "Ejemplo" === "Python" @@ -86,7 +86,7 @@ El formato del conjunto de datos de detección de YOLO se puede encontrar en det Valida la precisión del modelo YOLOv8n entrenado en el conjunto de datos COCO128. No es necesario pasar ningún argumento, ya que el `modelo` retiene sus datos de `entrenamiento` y argumentos como atributos del modelo. -!!! ejemplo "" +!!! Example "Ejemplo" === "Python" @@ -115,7 +115,7 @@ Valida la precisión del modelo YOLOv8n entrenado en el conjunto de datos COCO12 Utiliza un modelo YOLOv8n entrenado para realizar predicciones en imágenes. -!!! ejemplo "" +!!! Example "Ejemplo" === "Python" @@ -142,7 +142,7 @@ Consulta los detalles completos del modo `predict` en la página [Predicción](h Exporta un modelo YOLOv8n a un formato diferente como ONNX, CoreML, etc. -!!! ejemplo "" +!!! Example "Ejemplo" === "Python" diff --git a/docs/es/tasks/index.md b/docs/es/tasks/index.md index a94edd2462..97983af156 100644 --- a/docs/es/tasks/index.md +++ b/docs/es/tasks/index.md @@ -11,7 +11,7 @@ keywords: Ultralytics, YOLOv8, Detección, Segmentación, Clasificación, Estima YOLOv8 es un marco de trabajo de IA que soporta múltiples **tareas** de visión por computadora. El marco puede usarse para realizar [detección](detect.md), [segmentación](segment.md), [clasificación](classify.md) y estimación de [pose](pose.md). Cada una de estas tareas tiene un objetivo y caso de uso diferente. -!!! note +!!! Note 🚧 Nuestra documentación multilenguaje está actualmente en construcción y estamos trabajando arduamente para mejorarla. ¡Gracias por su paciencia! 🙏 diff --git a/docs/es/tasks/pose.md b/docs/es/tasks/pose.md index 80d756d245..5374f5f43f 100644 --- a/docs/es/tasks/pose.md +++ b/docs/es/tasks/pose.md @@ -23,7 +23,7 @@ La salida de un modelo de estimación de pose es un conjunto de puntos que repre Ver: Estimación de Pose con Ultralytics YOLOv8.

-!!! tip "Consejo" +!!! Tip "Consejo" Los modelos _pose_ YOLOv8 utilizan el sufijo `-pose`, por ejemplo, `yolov8n-pose.pt`. Estos modelos están entrenados en el conjunto de datos [COCO keypoints](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) y son adecuados para una variedad de tareas de estimación de pose. @@ -51,7 +51,7 @@ Los [modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/c Entrena un modelo YOLOv8-pose en el conjunto de datos COCO128-pose. -!!! example "" +!!! Example "Ejemplo" === "Python" @@ -87,7 +87,7 @@ El formato del conjunto de datos de pose de YOLO se puede encontrar en detalle e Valida la precisión del modelo YOLOv8n-pose entrenado en el conjunto de datos COCO128-pose. No es necesario pasar ningún argumento ya que el `modelo` mantiene sus `datos` de entrenamiento y argumentos como atributos del modelo. -!!! example "" +!!! Example "Ejemplo" === "Python" @@ -116,7 +116,7 @@ Valida la precisión del modelo YOLOv8n-pose entrenado en el conjunto de datos C Usa un modelo YOLOv8n-pose entrenado para realizar predicciones en imágenes. -!!! example "" +!!! Example "Ejemplo" === "Python" @@ -143,7 +143,7 @@ Consulta los detalles completos del modo `predict` en la página de [Predicción Exporta un modelo YOLOv8n Pose a un formato diferente como ONNX, CoreML, etc. -!!! example "" +!!! Example "Ejemplo" === "Python" diff --git a/docs/es/tasks/segment.md b/docs/es/tasks/segment.md index 5bcf6fa953..24de16361b 100644 --- a/docs/es/tasks/segment.md +++ b/docs/es/tasks/segment.md @@ -23,7 +23,7 @@ La salida de un modelo de segmentación de instancias es un conjunto de máscara Mira: Ejecuta la Segmentación con el Modelo Ultralytics YOLOv8 Preentrenado en Python.

-!!! tip "Consejo" +!!! Tip "Consejo" Los modelos YOLOv8 Segment utilizan el sufijo `-seg`, es decir, `yolov8n-seg.pt` y están preentrenados en el [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml). @@ -50,7 +50,7 @@ Los [Modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/c Entrena el modelo YOLOv8n-seg en el conjunto de datos COCO128-seg durante 100 épocas con tamaño de imagen de 640. Para una lista completa de argumentos disponibles, consulta la página de [Configuración](/../usage/cfg.md). -!!! example "" +!!! Example "Ejemplo" === "Python" @@ -86,7 +86,7 @@ El formato del conjunto de datos de segmentación YOLO puede encontrarse detalla Valida la precisión del modelo YOLOv8n-seg entrenado en el conjunto de datos COCO128-seg. No es necesario pasar ningún argumento ya que el `modelo` retiene sus `datos` de entrenamiento y argumentos como atributos del modelo. -!!! example "" +!!! Example "Ejemplo" === "Python" @@ -119,7 +119,7 @@ Valida la precisión del modelo YOLOv8n-seg entrenado en el conjunto de datos CO Usa un modelo YOLOv8n-seg entrenado para realizar predicciones en imágenes. -!!! example "" +!!! Example "Ejemplo" === "Python" @@ -146,7 +146,7 @@ Consulta todos los detalles del modo `predict` en la página de [Predicción](ht Exporta un modelo YOLOv8n-seg a un formato diferente como ONNX, CoreML, etc. -!!! example "" +!!! Example "Ejemplo" === "Python" diff --git a/docs/fr/datasets/index.md b/docs/fr/datasets/index.md index 9ac5643fab..be470ae6a0 100644 --- a/docs/fr/datasets/index.md +++ b/docs/fr/datasets/index.md @@ -8,7 +8,7 @@ keywords: vision par ordinateur, ensembles de données, Ultralytics, YOLO, déte Ultralytics fournit un soutien pour divers ensembles de données pour faciliter les tâches de vision par ordinateur telles que la détection, la segmentation d'instance, l'estimation de la pose, la classification et le suivi multi-objets. Ci-dessous se trouve une liste des principaux ensembles de données Ultralytics, suivie d'un résumé de chaque tâche de vision par ordinateur et des ensembles de données respectifs. -!!! note +!!! Note 🚧 Notre documentation multilingue est actuellement en cours de construction et nous travaillons dur pour l'améliorer. Merci de votre patience ! 🙏 @@ -104,7 +104,7 @@ Contribuer un nouvel ensemble de données implique plusieurs étapes pour s'assu ### Exemple de Code pour Optimiser et Zipper un Ensemble de Données -!!! exemple "Optimiser et Zipper un Ensemble de Données" +!!! Example "Optimiser et Zipper un Ensemble de Données" === "Python" diff --git a/docs/fr/index.md b/docs/fr/index.md index f4aa6a9c07..4703d1d8c9 100644 --- a/docs/fr/index.md +++ b/docs/fr/index.md @@ -38,7 +38,7 @@ Présentation d'[Ultralytics](https://ultralytics.com) [YOLOv8](https://github.c Explorez les Docs YOLOv8, une ressource complète conçue pour vous aider à comprendre et à utiliser ses fonctionnalités et capacités. Que vous soyez un praticien chevronné de l'apprentissage automatique ou nouveau dans le domaine, ce hub vise à maximiser le potentiel de YOLOv8 dans vos projets. -!!! note +!!! Note 🚧 Notre documentation multilingue est actuellement en construction et nous travaillons dur pour l'améliorer. Merci de votre patience ! 🙏 diff --git a/docs/fr/models/index.md b/docs/fr/models/index.md index 9e43374a8f..585e63e8c2 100644 --- a/docs/fr/models/index.md +++ b/docs/fr/models/index.md @@ -8,7 +8,7 @@ keywords: Ultralytics, documentation, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, R Bienvenue dans la documentation des modèles d'Ultralytics ! Nous proposons une prise en charge d'une large gamme de modèles, chacun adapté à des tâches spécifiques comme [la détection d'objets](../tasks/detect.md), [la segmentation d'instances](../tasks/segment.md), [la classification d'images](../tasks/classify.md), [l'estimation de posture](../tasks/pose.md) et [le suivi multi-objets](../modes/track.md). Si vous souhaitez contribuer avec votre architecture de modèle à Ultralytics, consultez notre [Guide de Contribution](../../help/contributing.md). -!!! note +!!! Note 🚧 Notre documentation multilingue est actuellement en construction et nous travaillons activement à l'améliorer. Merci de votre patience ! 🙏 @@ -41,7 +41,7 @@ Voici quelques-uns des modèles clés pris en charge : ## Pour commencer : Exemples d'utilisation -!!! example "" +!!! Example "Exemple" === "Python" diff --git a/docs/fr/modes/benchmark.md b/docs/fr/modes/benchmark.md index 671830a016..5708aa40b2 100644 --- a/docs/fr/modes/benchmark.md +++ b/docs/fr/modes/benchmark.md @@ -41,7 +41,7 @@ Une fois votre modèle entraîné et validé, l'étape logique suivante est d'é Exécutez les benchmarks YOLOv8n sur tous les formats d'exportation supportés, y compris ONNX, TensorRT, etc. Consultez la section Arguments ci-dessous pour une liste complète des arguments d'exportation. -!!! exemple "" +!!! Example "Exemple" === "Python" diff --git a/docs/fr/modes/export.md b/docs/fr/modes/export.md index 79c1788ea8..e37d6e932e 100644 --- a/docs/fr/modes/export.md +++ b/docs/fr/modes/export.md @@ -48,7 +48,7 @@ Voici quelques-unes des fonctionnalités remarquables : Exportez un modèle YOLOv8n vers un format différent tel que ONNX ou TensorRT. Voir la section Arguments ci-dessous pour une liste complète des arguments d'exportation. -!!! exemple "" +!!! Example "Exemple" === "Python" diff --git a/docs/fr/modes/predict.md b/docs/fr/modes/predict.md index c1bd7e1f75..4279dff772 100644 --- a/docs/fr/modes/predict.md +++ b/docs/fr/modes/predict.md @@ -50,7 +50,7 @@ Le mode de prédiction YOLOv8 est conçu pour être robuste et polyvalent, avec Les modèles YOLO d'Ultralytics renvoient soit une liste d'objets `Results` Python, soit un générateur Python efficace en termes de mémoire d'objets `Results` lorsque `stream=True` est passé au modèle pendant l'inférence : -!!! exemple "Prédire" +!!! Example "Prédire" === "Renvoie une liste avec `stream=False`" ```python @@ -115,7 +115,7 @@ YOLOv8 peut traiter différents types de sources d'entrée pour l'inférence, co Ci-dessous des exemples de code pour utiliser chaque type de source : -!!! exemple "Sources de prédiction" +!!! Example "Sources de prédiction" === "image" Exécutez une inférence sur un fichier image. diff --git a/docs/fr/modes/track.md b/docs/fr/modes/track.md index 5adf651751..5da691c303 100644 --- a/docs/fr/modes/track.md +++ b/docs/fr/modes/track.md @@ -58,7 +58,7 @@ Le traceur par défaut est BoT-SORT. Pour exécuter le traceur sur des flux vidéo, utilisez un modèle Detect, Segment ou Pose formé tel que YOLOv8n, YOLOv8n-seg et YOLOv8n-pose. -!!! exemple "" +!!! Example "Exemple" === "Python" @@ -97,7 +97,7 @@ Comme on peut le voir dans l'utilisation ci-dessus, le suivi est disponible pour La configuration du suivi partage des propriétés avec le mode Prédiction, telles que `conf`, `iou`, et `show`. Pour des configurations supplémentaires, référez-vous à la page [Predict](https://docs.ultralytics.com/modes/predict/) du modèle. -!!! exemple "" +!!! Example "Exemple" === "Python" @@ -120,7 +120,7 @@ La configuration du suivi partage des propriétés avec le mode Prédiction, tel Ultralytics vous permet également d'utiliser un fichier de configuration de traceur modifié. Pour cela, faites simplement une copie d'un fichier de configuration de traceur (par exemple, `custom_tracker.yaml`) à partir de [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) et modifiez toute configuration (à l'exception du `tracker_type`) selon vos besoins. -!!! exemple "" +!!! Example "Exemple" === "Python" @@ -147,7 +147,7 @@ Pour une liste complète des arguments de suivi, référez-vous à la page [ultr Voici un script Python utilisant OpenCV (`cv2`) et YOLOv8 pour exécuter le suivi d'objet sur des images vidéo. Ce script suppose toujours que vous avez déjà installé les packages nécessaires (`opencv-python` et `ultralytics`). L'argument `persist=True` indique au traceur que l'image ou la trame actuelle est la suivante dans une séquence et s'attend à ce que les pistes de l'image précédente soient présentes dans l'image actuelle. -!!! exemple "Boucle for streaming avec suivi" +!!! Example "Boucle for streaming avec suivi" ```python import cv2 diff --git a/docs/fr/modes/train.md b/docs/fr/modes/train.md index 56934b7d0c..652a91815f 100644 --- a/docs/fr/modes/train.md +++ b/docs/fr/modes/train.md @@ -41,7 +41,7 @@ Voici quelques caractéristiques remarquables du mode Entraînement de YOLOv8 : - **Configuration des hyperparamètres :** La possibilité de modifier les hyperparamètres via des fichiers de configuration YAML ou des arguments CLI. - **Visualisation et suivi :** Suivi en temps réel des métriques d'entraînement et visualisation du processus d'apprentissage pour de meilleures perspectives. -!!! tip "Astuce" +!!! Tip "Astuce" * Les jeux de données YOLOv8 comme COCO, VOC, ImageNet et bien d'autres se téléchargent automatiquement lors de la première utilisation, par exemple `yolo train data=coco.yaml` @@ -49,7 +49,7 @@ Voici quelques caractéristiques remarquables du mode Entraînement de YOLOv8 : Entraînez YOLOv8n sur le jeu de données COCO128 pendant 100 époques avec une taille d'image de 640. Le dispositif d'entraînement peut être spécifié à l'aide de l'argument `device`. Si aucun argument n'est passé, le GPU `device=0` sera utilisé s'il est disponible, sinon `device=cpu` sera utilisé. Consultez la section Arguments ci-dessous pour obtenir une liste complète des arguments d'entraînement. -!!! example "Exemple d'entraînement mono-GPU et CPU" +!!! Example "Exemple d'entraînement mono-GPU et CPU" Le dispositif est déterminé automatiquement. Si un GPU est disponible, il sera utilisé, sinon l'entraînement commencera sur CPU. @@ -84,7 +84,7 @@ Entraînez YOLOv8n sur le jeu de données COCO128 pendant 100 époques avec une L'entraînement multi-GPU permet une utilisation plus efficace des ressources matérielles disponibles en répartissant la charge d'entraînement sur plusieurs GPUs. Cette fonctionnalité est disponible via l'API Python et l'interface de ligne de commande. Pour activer l'entraînement multi-GPU, spécifiez les ID des dispositifs GPU que vous souhaitez utiliser. -!!! example "Exemple d'entraînement multi-GPU" +!!! Example "Exemple d'entraînement multi-GPU" Pour s'entraîner avec 2 GPUs, les dispositifs CUDA 0 et 1, utilisez les commandes suivantes. Développez à des GPUs supplémentaires selon le besoin. @@ -113,7 +113,7 @@ Avec le support pour les puces Apple M1 et M2 intégré dans les modèles Ultral Pour activer l'entraînement sur les puces Apple M1 et M2, vous devez spécifier 'mps' comme votre dispositif lors du lancement du processus d'entraînement. Voici un exemple de la manière dont vous pourriez le faire en Python et via la ligne de commande : -!!! example "Exemple d'entraînement MPS" +!!! Example "Exemple d'entraînement MPS" === "Python" @@ -148,7 +148,7 @@ Pour utiliser un journal, sélectionnez-le dans le menu déroulant ci-dessus et Pour utiliser Comet : -!!! example "" +!!! Example "Exemple" === "Python" ```python @@ -166,7 +166,7 @@ N'oubliez pas de vous connecter à votre compte Comet sur leur site web et d'obt Pour utiliser ClearML : -!!! example "" +!!! Example "Exemple" === "Python" ```python @@ -184,7 +184,7 @@ Après avoir exécuté ce script, vous devrez vous connecter à votre compte Cle Pour utiliser TensorBoard dans [Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb) : -!!! example "" +!!! Example "Exemple" === "CLI" ```bash @@ -194,7 +194,7 @@ Pour utiliser TensorBoard dans [Google Colab](https://colab.research.google.com/ Pour utiliser TensorBoard localement, exécutez la commande ci-dessous et consultez les résultats à l'adresse http://localhost:6006/. -!!! example "" +!!! Example "Exemple" === "CLI" ```bash diff --git a/docs/fr/modes/val.md b/docs/fr/modes/val.md index 46f31e9060..f6f51bfb35 100644 --- a/docs/fr/modes/val.md +++ b/docs/fr/modes/val.md @@ -30,7 +30,7 @@ Voici les fonctionnalités notables offertes par le mode Val de YOLOv8 : - **CLI et API Python :** Choisissez entre l'interface en ligne de commande ou l'API Python en fonction de vos préférences pour la validation. - **Compatibilité des Données :** Fonctionne de manière transparente avec les jeux de données utilisés pendant la phase d'entraînement ainsi qu'avec les jeux personnalisés. -!!! tip "Conseil" +!!! Tip "Conseil" * Les modèles YOLOv8 se souviennent automatiquement de leurs paramètres d'entraînement, vous pouvez donc facilement valider un modèle à la même taille d'image et sur le jeu de données original avec juste `yolo val model=yolov8n.pt` ou `model('yolov8n.pt').val()` @@ -38,7 +38,7 @@ Voici les fonctionnalités notables offertes par le mode Val de YOLOv8 : Validez la précision du modèle YOLOv8n entraîné sur le jeu de données COCO128. Aucun argument n'a besoin d'être passé car le `modèle` conserve ses `données` d'entraînement et arguments comme attributs du modèle. Consultez la section des arguments ci-dessous pour une liste complète des arguments d'exportation. -!!! example "" +!!! Example "Exemple" === "Python" diff --git a/docs/fr/quickstart.md b/docs/fr/quickstart.md index 8d0af0f0d6..9a11427f7b 100644 --- a/docs/fr/quickstart.md +++ b/docs/fr/quickstart.md @@ -8,7 +8,7 @@ keywords: installation d'Ultralytics, pip install Ultralytics, Docker install Ul Ultralytics propose diverses méthodes d'installation, y compris pip, conda et Docker. Installez YOLOv8 via le package `ultralytics` avec pip pour obtenir la dernière version stable ou en clonant le [répertoire GitHub d'Ultralytics](https://github.com/ultralytics/ultralytics) pour la version la plus récente. Docker peut être utilisé pour exécuter le package dans un conteneur isolé, évitant l'installation locale. -!!! exemple "Installer" +!!! Example "Installer" === "Installation avec Pip (recommandé)" Installez le package `ultralytics` en utilisant pip, ou mettez à jour une installation existante en exécutant `pip install -U ultralytics`. Visitez l'Index des Packages Python (PyPI) pour plus de détails sur le package `ultralytics` : [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/). @@ -39,7 +39,7 @@ Ultralytics propose diverses méthodes d'installation, y compris pip, conda et D conda install -c conda-forge ultralytics ``` - !!! note + !!! Note Si vous installez dans un environnement CUDA, la meilleure pratique est d'installer `ultralytics`, `pytorch` et `pytorch-cuda` dans la même commande pour permettre au gestionnaire de package conda de résoudre les conflits, ou bien d'installer `pytorch-cuda` en dernier pour lui permettre de remplacer le package `pytorch` spécifique aux CPU si nécessaire. ```bash @@ -101,7 +101,7 @@ Voir le fichier [requirements.txt](https://github.com/ultralytics/ultralytics/bl L'interface en ligne de commande (CLI) d'Ultralytics permet l'utilisation de commandes simples en une seule ligne sans nécessiter d'environnement Python. La CLI ne requiert pas de personnalisation ou de code Python. Vous pouvez simplement exécuter toutes les tâches depuis le terminal avec la commande `yolo`. Consultez le [Guide CLI](/../usage/cli.md) pour en savoir plus sur l'utilisation de YOLOv8 depuis la ligne de commande. -!!! exemple +!!! Example === "Syntaxe" @@ -155,7 +155,7 @@ L'interface en ligne de commande (CLI) d'Ultralytics permet l'utilisation de com yolo cfg ``` -!!! avertissement "Avertissement" +!!! Warning "Avertissement" Les arguments doivent être passés sous forme de paires `arg=val`, séparés par un signe égal `=` et délimités par des espaces ` ` entre les paires. N'utilisez pas de préfixes d'arguments `--` ou de virgules `,` entre les arguments. @@ -171,7 +171,7 @@ L'interface Python de YOLOv8 permet une intégration transparente dans vos proje Par exemple, les utilisateurs peuvent charger un modèle, l'entraîner, évaluer ses performances sur un set de validation, et même l'exporter au format ONNX avec seulement quelques lignes de code. Consultez le [Guide Python](/../usage/python.md) pour en savoir plus sur l'utilisation de YOLOv8 au sein de vos projets Python. -!!! exemple +!!! Example ```python from ultralytics import YOLO diff --git a/docs/fr/tasks/classify.md b/docs/fr/tasks/classify.md index dd42a3fc12..c9d8155da2 100644 --- a/docs/fr/tasks/classify.md +++ b/docs/fr/tasks/classify.md @@ -12,7 +12,7 @@ La classification d'images est la tâche la plus simple des trois et consiste à Le résultat d'un classificateur d'images est une étiquette de classe unique et un score de confiance. La classification d'images est utile lorsque vous avez besoin de savoir seulement à quelle classe appartient une image et que vous n'avez pas besoin de connaître l'emplacement des objets de cette classe ou leur forme exacte. -!!! tip "Astuce" +!!! Tip "Astuce" Les modèles YOLOv8 Classify utilisent le suffixe `-cls`, par exemple `yolov8n-cls.pt` et sont pré-entraînés sur [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). @@ -39,7 +39,7 @@ Les [modèles](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/ Entraînez le modèle YOLOv8n-cls sur le dataset MNIST160 pendant 100 époques avec une taille d'image de 64. Pour une liste complète des arguments disponibles, consultez la page [Configuration](/../usage/cfg.md). -!!! example "" +!!! Example "Exemple" === "Python" @@ -76,7 +76,7 @@ Le format du dataset de classification YOLO peut être trouvé en détails dans Validez la précision du modèle YOLOv8n-cls entraîné sur le dataset MNIST160. Aucun argument n'est nécessaire car le `modèle` conserve ses données d'entraînement et arguments en tant qu'attributs du modèle. -!!! example "" +!!! Example "Exemple" === "Python" @@ -103,7 +103,7 @@ Validez la précision du modèle YOLOv8n-cls entraîné sur le dataset MNIST160. Utilisez un modèle YOLOv8n-cls entraîné pour exécuter des prédictions sur des images. -!!! example "" +!!! Example "Exemple" === "Python" @@ -130,7 +130,7 @@ Voir les détails complets du mode `predict` sur la page [Prédire](https://docs Exportez un modèle YOLOv8n-cls dans un format différent comme ONNX, CoreML, etc. -!!! example "" +!!! Example "Exemple" === "Python" diff --git a/docs/fr/tasks/detect.md b/docs/fr/tasks/detect.md index ab775a77e8..21ad10806b 100644 --- a/docs/fr/tasks/detect.md +++ b/docs/fr/tasks/detect.md @@ -23,7 +23,7 @@ La sortie d'un détecteur d'objets est un ensemble de boîtes englobantes qui en Regardez : Détection d'Objets avec le Modèle Pré-entraîné Ultralytics YOLOv8.

-!!! tip "Conseil" +!!! Tip "Conseil" Les modèles Detect YOLOv8 sont les modèles YOLOv8 par défaut, c.-à-d. `yolov8n.pt` et sont pré-entraînés sur le jeu de données [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml). @@ -50,7 +50,7 @@ Les modèles pré-entraînés Detect YOLOv8 sont présentés ici. Les modèles D Entraînez le modèle YOLOv8n sur le jeu de données COCO128 pendant 100 époques à la taille d'image de 640. Pour une liste complète des arguments disponibles, consultez la page [Configuration](/../usage/cfg.md). -!!! example "" +!!! Example "Exemple" === "Python" @@ -86,7 +86,7 @@ Le format des jeux de données de détection YOLO est détaillé dans le [Guide Validez la précision du modèle YOLOv8n entraîné sur le jeu de données COCO128. Aucun argument n'est nécessaire puisque le `modèle` conserve ses `données` d'entraînement et arguments en tant qu'attributs du modèle. -!!! example "" +!!! Example "Exemple" === "Python" @@ -115,7 +115,7 @@ Validez la précision du modèle YOLOv8n entraîné sur le jeu de données COCO1 Utilisez un modèle YOLOv8n entraîné pour exécuter des prédictions sur des images. -!!! example "" +!!! Example "Exemple" === "Python" @@ -142,7 +142,7 @@ Consultez les détails complets du mode `predict` sur la page [Prédire](https:/ Exportez un modèle YOLOv8n dans un format différent tel que ONNX, CoreML, etc. -!!! example "" +!!! Example "Exemple" === "Python" diff --git a/docs/fr/tasks/index.md b/docs/fr/tasks/index.md index 10ef4558fc..bf121610e1 100644 --- a/docs/fr/tasks/index.md +++ b/docs/fr/tasks/index.md @@ -11,7 +11,7 @@ keywords: Ultralytics, YOLOv8, Détection, Segmentation, Classification, Estimat YOLOv8 est un cadre d'intelligence artificielle qui prend en charge de multiples tâches de **vision par ordinateur**. Le cadre peut être utilisé pour effectuer de la [détection](detect.md), de la [segmentation](segment.md), de la [classification](classify.md) et de l'estimation de la [pose](pose.md). Chacune de ces tâches a un objectif et un cas d'utilisation différents. -!!! note +!!! Note 🚧 Notre documentation multilingue est actuellement en construction et nous travaillons dur pour l'améliorer. Merci de votre patience ! 🙏 diff --git a/docs/fr/tasks/pose.md b/docs/fr/tasks/pose.md index 7da717e658..7a972de788 100644 --- a/docs/fr/tasks/pose.md +++ b/docs/fr/tasks/pose.md @@ -42,7 +42,7 @@ Les [Modèles](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/ Entraînez un modèle YOLOv8-pose sur le jeu de données COCO128-pose. -!!! exemple "" +!!! Example "Exemple" === "Python" @@ -78,7 +78,7 @@ Le format du jeu de données YOLO pose peut être trouvé en détail dans le [Gu Validez la précision du modèle YOLOv8n-pose entraîné sur le jeu de données COCO128-pose. Aucun argument n'est nécessaire car le `modèle` conserve ses données d'entraînement et arguments en tant qu'attributs du modèle. -!!! exemple "" +!!! Example "Exemple" === "Python" @@ -107,7 +107,7 @@ Validez la précision du modèle YOLOv8n-pose entraîné sur le jeu de données Utilisez un modèle YOLOv8n-pose entraîné pour exécuter des prédictions sur des images. -!!! exemple "" +!!! Example "Exemple" === "Python" @@ -134,7 +134,7 @@ Consultez les détails complets du mode `predict` sur la page [Prédire](https:/ Exportez un modèle YOLOv8n Pose dans un autre format tel que ONNX, CoreML, etc. -!!! exemple "" +!!! Example "Exemple" === "Python" diff --git a/docs/fr/tasks/segment.md b/docs/fr/tasks/segment.md index eafc109be7..a49d64be0f 100644 --- a/docs/fr/tasks/segment.md +++ b/docs/fr/tasks/segment.md @@ -50,7 +50,7 @@ Les [modèles](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/ Entraînez YOLOv8n-seg sur le jeu de données COCO128-seg pendant 100 époques à la taille d'image 640. Pour une liste complète des arguments disponibles, consultez la page [Configuration](/../usage/cfg.md). -!!! exemple "" +!!! Example "Exemple" === "Python" @@ -87,7 +87,7 @@ Le format des données de segmentation YOLO peut être trouvé en détail dans l Validez la précision du modèle YOLOv8n-seg entraîné sur le jeu de données COCO128-seg. Aucun argument n'est nécessaire car le `modèle` conserve ses données de formation et ses arguments comme attributs du modèle. -!!! exemple "" +!!! Example "Exemple" === "Python" @@ -120,7 +120,7 @@ conserve ses données de formation et ses arguments comme attributs du modèle. Utilisez un modèle YOLOv8n-seg entraîné pour effectuer des prédictions sur des images. -!!! exemple "" +!!! Example "Exemple" === "Python" @@ -147,7 +147,7 @@ Voir les détails complets du mode `predict` sur la page [Predict](https://docs. Exportez un modèle YOLOv8n-seg vers un format différent comme ONNX, CoreML, etc. -!!! exemple "" +!!! Example "Exemple" === "Python" diff --git a/docs/hi/datasets/index.md b/docs/hi/datasets/index.md new file mode 100644 index 0000000000..cddf373a5d --- /dev/null +++ b/docs/hi/datasets/index.md @@ -0,0 +1,134 @@ +--- +comments: true +description: Ultralytics द्वारा समर्थित विभिन्न कंप्यूटर विज्ञान डेटासेट्स का अवलोकन | वस्त्र स्पष्टीकरण, संरेखण, पोज आकलन, छवि वर्गीकरण और बहु-वस्तु ट्रैकिंग के लिए। +keywords: computer vision, datasets, Ultralytics, YOLO, object detection, instance segmentation, pose estimation, image classification, multi-object tracking +--- + +# डेटासेट अवलोकन + +Ultralytics कंप्यूटर विज्ञान कार्यों को सुविधाजनक बनाने के लिए विभिन्न डेटासेट्स का समर्थन प्रदान करता है। इसमें वस्त्र स्पष्टीकरण, संदर्भ बनाने, पोज आकलन, वर्गीकरण और बहु-वस्तु ट्रैकिंग जैसे कंप्यूटर विज्ञान कार्यों के लिए। नीचे मुख्य Ultralytics डेटासेट की सूची है, इसके पश्चात प्रत्येक कंप्यूटर विज्ञान कार्य और संबंधित डेटासेटों का संक्षेप दिया गया है। + +!!! Note + + 🚧 हमारे बहुभाषी दस्तावेज़ीकरण वर्तमान में निर्माणाधीन है, और हम इसे सुधारने के लिए कड़ी मेहनत कर रहे हैं। आपकी सहकार्य के लिए आपका धन्यवाद! 🙏 + +## [वस्त्र स्पष्टीकरण डेटासेट (Detection Datasets)](../../datasets/detect/index.md) + +बाउंडिंग बॉक्स ऑब्जेक्ट डिटेक्शन एक कंप्यूटर विज्ञान तकनीक है जिसमें प्रत्येक ऑब्जेक्ट के चारों ओर एक बाउंडिंग बॉक्स बनाकर छवि में ऑब्जेक्ट का पता लगाया जाता है। + +- [Argoverse](../../datasets/detect/argoverse.md): एक डेटासेट जो शहरी वातावरणों से 3D ट्रैकिंग और मोशन फोरेकास्टिंग डेटा को समृद्ध एनोटेशन के साथ स्थानांतरित करता है। +- [COCO](../../datasets/detect/coco.md): एक बड़े पैमाने पर डिज़ाइन किए गए डेटासेट जिसमें ऑब्जेक्ट डिटेक्शन, सेगमेंटेशन और कैप्शनिंग के लिए 200K से अधिक लेबल चित्र हैं। +- [COCO8](../../datasets/detect/coco8.md): COCO प्रशिक्षण और COCO मूल्यांकन के पहले 4 छवियां हैं, जो त्वरित परीक्षणों के लिए उपयुक्त हैं। +- [Global Wheat 2020](../../datasets/detect/globalwheat2020.md): विश्वव्यापी गेहूँ शिर्ष छवियों का एक डेटासेट, जिसे ऑब्जेक्ट डिटेक्शन और स्थानांतरण कार्यों के लिए ऐच्छिक बनाया गया है। +- [Objects365](../../datasets/detect/objects365.md): ऑब्जेक्ट डिटेक्शन के लिए एक उच्च गुणवत्ता वाला बड़ा-स्केल डेटासेट जिसमें 365 ऑब्जेक्ट श्रेणियाँ और 600K से अधिक एनोटेटेड छवियां हैं। +- [OpenImagesV7](../../datasets/detect/open-images-v7.md): Google द्वारा एक व्यापक डेटासेट, जिसमें 1.7M प्रशिक्षण छवियां और 42k मान्यता छवियां हैं। +- [SKU-110K](../../datasets/detect/sku-110k.md): विपणनीय वातावरणों में घना ऑब्जेक्ट डिटेक्शन के तत्वों के साथ एक डेटासेट, जिसमें 11K छवियां और 1.7 मिलियन बाउंडिंग बॉक्स हैं। +- [VisDrone](../../datasets/detect/visdrone.md): ड्रोन द्वारा पकड़ी गई छवियों से ऑब्जेक्ट डिटेक्शन और बहु-ऑब्जेक्ट ट्रैकिंग डेटा का एक डेटासेट, जिसमें 10K से अधिक छवियां और वीडियो सीक्वेंसेस हैं। +- [VOC](../../datasets/detect/voc.md): Pascal Visual Object Classes (VOC) डेटासेट, जिसमें 20 ऑब्जेक्ट कक्षाएं और 11K से अधिक छवियां हैं, के लिए ऑब्जेक्ट डिटेक्शन और संवर्धन जैसे कार्यों के लिए है। +- [xView](../../datasets/detect/xview.md): ओवरहेड छवियों में ऑब्जेक्ट डिटेक्शन के लिए एक डेटासेट, जिसमें 60 ऑब्जेक्ट श्रेणियां और 1 मिलियन से अधिक एनोटेटेड ऑब्जेक्ट हैं। + +## [संरेखण डेटासेट (Instance Segmentation Datasets)](../../datasets/segment/index.md) + +संरेखण एक कंप्यूटर विज्ञान तकनीक है जिसमें छवि में ऑब्जेक्ट की उपयुक्त स्तर पर पहचान और स्थानांतरण होता है। + +- [COCO](../../datasets/segment/coco.md): ऑब्जेक्ट डिटेक्शन, संरेखण, और कैप्शनिंग के लिए डिज़ाइन किए गए एक बड़े पैमाने पर डेटासेट जिसमें 200K से अधिक लेबल चित्र हैं। +- [COCO8-संरेखण](../../datasets/segment/coco8-seg.md): संरेखण कार्यों के लिए योग्यता युक्त 8 COCO छवियों के एक हल्का डेटासेट जिसमें संरेखण एनोटेशन्स हैं। + +## [पोज आकलन (Pose Estimation)](../../datasets/pose/index.md) + +पोज आकलन एक तकनीक है जिसमें ऑब्जेक्ट की पोज को कैमरे या विश्व संचालन सिद्धांत के मुकाबले आकलित किया जाता है। + +- [COCO](../../datasets/pose/coco.md): पोज आकलन कार्यों के लिए मानव पोज एनोटेशन के साथ एक बड़े पैमाने पर डेटासेट। +- [COCO8-पोज](../../datasets/pose/coco8-pose.md): पोज आकलन कार्यों के लिए योग्यता युक्त 8 COCO छवियों के एक हल्का डेटासेट जिसमें मानव पोज एनोटेशन्स हैं। +- [Tiger-पोज](../../datasets/pose/tiger-pose.md): पोज आकलन कार्यों के लिए 12 कीपॉइंट्स प्रति बाघ के लिए 263 छवियों का एक संक्षिप्त डेटासेट। + +## [वर्गीकरण (Classification)](../../datasets/classify/index.md) + +छवि वर्गीकरण एक कंप्यूटर विज्ञान कार्य है जिसमें एक छवि को उसके विज़ुअल सामग्री के आधार पर एक या एक से अधिक पहले से निर्धारित कक्षाओं या श्रेणियों में वर्गीकृत किया जाता है। + +- [Caltech 101](../../datasets/classify/caltech101.md): 101 ऑब्जेक्ट कक्षाओं की छवियां वर्गीकरण कार्यों के लिए एक डेटासेट। +- [Caltech 256](../../datasets/classify/caltech256.md): 256 ऑब्जेक्ट कक्षाओं के साथ Caltech 101 का विस्तारित संस्करण जिसमें अधिक चुनौतीपूर्ण छवियां हैं। +- [CIFAR-10](../../datasets/classify/cifar10.md): 10 कक्षाओं में 60K 32x32 रंगीन छवियों का डेटासेट, प्रति कक्षा 6K छवियां हैं। +- [CIFAR-100](../../datasets/classify/cifar100.md): 100 ऑब्जेक्ट कक्षाओं के साथ CIFAR-10 का विस्तारित संस्करण जिसमें प्रति कक्षा 600 छवियां हैं। +- [Fashion-MNIST](../../datasets/classify/fashion-mnist.md): छवि वर्गीकरण कार्यों के लिए 10 फैशन कक्षाओं के 70,000 सेंधांतरण छवि से बना एक डेटासेट। +- [ImageNet](../../datasets/classify/imagenet.md): ऑब्जेक्ट डिटेक्शन और छवि वर्गीकरण के लिए एक बड़े पैमाने पर डेटासेट, जिसमें 14 मिलियन से अधिक छवियां और 20,000 कक्षाएं हैं। +- [ImageNet-10](../../datasets/classify/imagenet10.md): छवि प्रायोगशाला में त्वरित प्रयोग और परीक्षण के लिए 10 कक्षाओं के ImageNet का एक छोटा संकलन। +- [Imagenette](../../datasets/classify/imagenette.md): त्वरित प्रशिक्षण और परीक्षण के लिए 10 आसानी से पहचाने जाने वाली कक्षाएं वाले ImageNet का एक छोटा संकलन। +- [Imagewoof](../../datasets/classify/imagewoof.md): छवि वर्गीकरण कार्यों के लिए 10 कुत्ते की नस्लों के आकृतियों के साथ ImageNet का एक अधिक चुनौतीपूर्ण संकलन। +- [MNIST](../../datasets/classify/mnist.md): छवि वर्गीकरण कार्यों के लिए हस्तलेखित अंकों के 70,000 सेंधांतरण छवि से बना एक डेटासेट। + +## [उभयार्थित बाउंडिंग बॉक्सेस (Oriented Bounding Boxes, OBB)](../../datasets/obb/index.md) + +उभयार्थित बाउंडिंग बॉक्सेस (OBB) एक कंप्यूटर विज्ञान में एक तरीका है जिसमें घुमे हुए बाउंडिंग बॉक्स का उपयोग करके छवियों में एंगल हुए ऑब्जेक्ट्स का पता लगाया जाता है, जो अक्सर आवक और उपग्रह प्रतिमाओं पर लागू होता है। + +- [DOTAv2](../../datasets/obb/dota-v2.md): एक लोकप्रिय OBB आकाशीय छवि डेटासेट जिसमें 1.7 मिलियन आइंस्टेंसेज और 11,268 छवियां हैं। + +## [बहु-ऑब्जेक्ट ट्रैकिंग (Multi-Object Tracking)](../../datasets/track/index.md) + +बहु-ऑब्जेक्ट ट्रैकिंग एक कंप्यूटर विज्ञान तकनीक है जिसमें वीडियो सिक्वेंस में वक्त के साथ एक से अधिक ऑब्जेक्ट्स का पता लगाने और ट्रैक करने का शामिल है। + +- [Argoverse](../../datasets/detect/argoverse.md): उच्च शहरी वातावरणों से 3D ट्रैकिंग और मोशन फोरेकास्टिंग डेटा के साथ रिच एनोटेशन के लिए एक डेटासेट। +- [VisDrone](../../datasets/detect/visdrone.md): ड्रोन-पकड़ी छवियों से ऑब्जेक्ट डिटेक्शन और बहु-ऑब्जेक्ट ट्रैकिंग डेटा का एक डेटासेट जिसमें 10K से अधिक छवियां और वीडियो सीक्वेंसेस हैं। + +## नई डेटासेट का योगदान दें + +नई डेटासेट का योगदान देना मौजूदा ढांचे के स्थानांतरण के साथ समर्थित होने के लिए कई चरणों का पालन करने की आवश्यकता होती है। नीचे दिए गए मानक कदम हैं: + +### नई डेटासेट के योगदान के चरण + +1. **छवियों का संग्रह करें**: + डेटासेट में शामिल होने वाली छवियों का संग्रह करें। इन्हें पब्लिक डेटाबेस से या अपने संग्रह से इकट्ठा किया जा सकता है। + +2. **छवि एनोटेशन करें**: + इन छवियों को बाउंडिंग बॉक्स, संरेखण या कीपॉइंट्स के साथ थस्क करें, टास्क के आधार पर। + +3. **एनोटेशन निर्यात करें**: + इन एनोटेशन को योलो *.txt फ़ाइल प्रारूप में निर्यात करें, जिसे Ultralytics समर्थित करता है। + +4. **डेटासेट व्यवस्थित करें**: + अपने डेटासेट को सही फ़ोल्डर संरचना में व्यवस्थित करें। आपके पास `train/` और `val/` शीर्ष-स्तर निर्देशिकाएँ होनी चाहिए, और हर एक में `images/` और `labels/` उप-निर्देशिका होनी चाहिए। + + ``` + dataset/ + ├── train/ + │ ├── images/ + │ └── labels/ + └── val/ + ├── images/ + └── labels/ + ``` + +5. **एक `data.yaml` फ़ाइल बनाएं**: + अपने डेटासेट के रूट निर्देशिका में, डेटासेट, कक्षाएँ, और अन्य आवश्यक जानकारी का वर्णन करने वाली `data.yaml` फ़ाइल बनाएं। + +6. **छवियों को अवधित करें (वैकल्पिक)**: + यदि आप प्रभावी प्रसंस्करण के लिए डेटासेट का आकार कम करना चाहते हैं, तो आप निम्नलिखित कोड का उपयोग करके छवियों को अवधित कर सकते हैं। यह अनिवार्य नहीं है, लेकिन छोटा डेटासेट आकार और तेज डाउनलोड की गति के लिए सिफारिश की जाती है। + +7. **डेटासेट को ज़िप करें**: + पूरे डेटासेट फ़ोल्डर को एक ज़िप फ़ाइल में संपीड़ित करें। + +8. **दस्तावेज़ीकरण और पीआर**: अपने डेटासेट के बारे में एक दस्तावेज़ीकरण पेज बनाएं और उसके बारे में समर्थन करने वाली मौजूदा संरचना में कैसे समाविष्ट करें इसका वर्णन करें । उसके बाद, एक पुल अनुरोध (PR) सबमिट करें। पीआर जमा करने के लिए अधिक विवरण के लिए [उल्ट्रालिटिक्स योगदान दिशानिर्देशिका](https://docs.ultralytics.com/help/contributing) देखें। + +### डेटासेट को अवधित करने और ज़िप करने के लिए उदाहरण कोड + +!!! Example "डेटासेट को अवधित करने और ज़िप करने के लिए उदाहरण कोड" + + === "Python" + + ```python + from pathlib import Path + from ultralytics.data.utils import compress_one_image + from ultralytics.utils.downloads import zip_directory + + # डेटासेट निर्देशिका को परिभाषित करें + path = Path('path/to/dataset') + + # डेटासेट में छवि अवधित करें (वैकल्पिक) + for f in path.rglob('*.jpg'): + compress_one_image(f) + + # डेटासेट को 'path/to/dataset.zip' में ज़िप करें + zip_directory(path) + ``` + +इन कदमों का पालन करके, आप अपने डेटासेट का योगदान प्रदान कर सकते हैं जो Ultralytics के मौजूदा संरचना के अच्छी तरह से समाविष्ट होता है। diff --git a/docs/hi/index.md b/docs/hi/index.md new file mode 100644 index 0000000000..68b48738bc --- /dev/null +++ b/docs/hi/index.md @@ -0,0 +1,83 @@ +--- +comments: true +description: Ultralytics YOLOv8 के पूर्ण गाइड को जानें, एक उच्च गति, उच्च योग्यता वाले वस्तु का पता लगाने और छवि विभाजन मॉडल। स्थापना, भविष्यवाणी, प्रशिक्षण ट्यूटोरियल और बहुत कुछ। +keywords: Ultralytics, YOLOv8, वस्तु पता लगाना, छवि विभाजन, मशीन लर्निंग, गहरी लर्निंग, कंप्यूटर विज़न, YOLOv8 स्थापना, YOLOv8 भविष्यवाणी, YOLOv8 प्रशिक्षण, YOLO इतिहास, YOLO लाइसेंसेस +--- + +
+

+ + Ultralytics YOLO banner +

+ Ultralytics GitHub + + Ultralytics LinkedIn + + Ultralytics Twitter + + Ultralytics YouTube + + Ultralytics TikTok + + Ultralytics Instagram + + Ultralytics Discord +
+
+ Ultralytics CI + Ultralytics Code Coverage + YOLOv8 Citation + Docker Pulls +
+ Run on Gradient + Open In Colab + Open In Kaggle +
+ + +पेश करते हैं [युल्ट्रालिटिक्स](https://ultralytics.com) [YOLOv8](https://github.com/ultralytics/ultralytics), प्रसिद्ध वास्तविक समय वस्तु पता लगाने और छवि विभाजन मॉडल की नवीनतम संस्करण। YOLOv8 गहरी लर्निंग और कंप्यूटर विज़न में कटिंग-एज उन्नति पर आधारित है, इसलिए गति और योग्यता के मामले में इसका प्रदर्शन अद्वितीय है। इसका संक्षेपित डिज़ाइन इसे विभिन्न अनुप्रयोगों के लिए उपयुक्त बनाता है और विभिन्न हार्डवेयर प्लेटफ़ॉर्म्स पर आसानी से अनुकूल बनाता है, शुरू और धारण के लिए िजोग्य करता है। + +YOLOv8 डॉक्स का अन्वेषण करें, यह एक व्यापक स्रोत है जो आपको इसके सुविधाओं और क्षमताओं को समझने और उपयोग करने में मदद करने के लिए विकसित किया गया है। चाहे आप एक अनुभवी मशीन लर्निंग प्रैक्टीशनर हो या क्षेत्र में नये हों, इस हब का उद्देश्य आपके परियोजनाओं में YOLOv8 की क्षमताओं को अधिकतम करना है। + +!!! Note + + 🚧 हमारी बहुभाषी दस्तावेजीकरण वर्तमान में निर्माणाधीन है, और हम इसे सुधारने के लिए कठिनताओं पर काम कर रहे हैं। आपकी सहायता के लिए धन्यवाद! 🙏 + +## शुरुआत कहाँ से करें + +- **Install** `pip` के साथ `ultralytics` स्थापित करें और कुछ मिनट में चलता हुआ पाएं   [:material-clock-fast: शुरू हो जाओ](quickstart.md){ .md-button } +- **Predict** यूनिक images और videos को YOLOv8 के साथ   [:octicons-image-16: छवियों पर भविष्यवाणी करें](modes/predict.md){ .md-button } +- **Train** अपने खुद के custom डेटासेट पर एक नया YOLOv8 मॉडल   [:fontawesome-solid-brain: मॉडल प्रशिक्षित करें](modes/train.md){ .md-button } +- **अन्वेषण** करें YOLOv8 tasks जैसे कि विभाजित, वर्गीकृत, स्थिति और ट्रैक करें   [:material-magnify-expand: टास्क्स अन्वेषण करें](tasks/index.md){ .md-button } + +

+
+ +
+ देखें: अपने कस्टम डेटासेट पर YOLOv8 मॉडल को कैसे ट्रेन करें Google Colab में। +

+ +## YOLO: एक संक्षिप्त इतिहास + +[YOLO](https://arxiv.org/abs/1506.02640) (You Only Look Once), एक लोकप्रिय वस्तु पता लगाने और छवि विभाजन मॉडल, यूनिवर्सिटी ऑफ वाशिंगटन में Joseph Redmon और Ali Farhadi द्वारा विकसित किया गया था। YOLO की उच्च गति और योग्यता के कारण, यह 2015 में तेजी से प्रसिद्ध हुआ। + +- [YOLOv2](https://arxiv.org/abs/1612.08242), 2016 में जारी किया गया, मूल मॉडल में batch normalization, anchor boxes और dimension clusters शामिल करके मॉडल में सुधार किया। +- [YOLOv3](https://pjreddie.com/media/files/papers/YOLOv3.pdf), 2018 में लॉन्च किया गया, एक अधिक प्रभावी बैकबोन नेटवर्क, एंकर बॉक्सेस और स्थानिक पिरामिड पूलिंग के उपयोग से मॉडल की प्रदर्शन को और बढ़ाया। +- [YOLOv4](https://arxiv.org/abs/2004.10934) 2020 में जारी किया गया, Mosaic डेटा वृद्धि, एक नया anchor-free डिटेक्शन हेड और एक नया लॉस फ़ंक्शन के जैसे नवाचार द्वारा मॉडल को बेहतर बनाया गया। +- [YOLOv5](https://github.com/ultralytics/yolov5) मॉडल की प्रदर्शन को और बेहतर बनाने के साथ, हाइपरपैरामीटर ऑप्टिमाइज़ेशन, एकीकृत प्रयोग ट्रैकिंग और लोकप्रिय export formats में स्वचालित निर्यात जैसे नए सुविधाएं जोड़ी गईं। +- [YOLOv6](https://github.com/meituan/YOLOv6) 2022 में [मेटुआन](https://about.meituan.com/) द्वारा ओपन-सोस्ड किया गया था और कई कम्पनी के स्वतंत्र वितरण रोबोट में उपयोग में है। +- [YOLOv7](https://github.com/WongKinYiu/yolov7) ने COCO keypoints डेटासेट पर पोज अनुमान जैसे अतिरिक्त टास्क जोड़ दिया। +- [YOLOv8](https://github.com/ultralytics/ultralytics) Ultralytics द्वारा YOLO का नवीनतम संस्करण है। एक तलवार की काट, आपातता मॉडल के सफलता पर निर्मितकर्ताओं की मेहनत की चटानों पर निर्माण करके YOLOv8 ने पिछले संस्करणों की सफलता पर आधारित, नई सुविधाएं और सुधार अद्यतित प्रदर्शन, लचीलापन और प्रदार्थता के लिए प्रस्तुत किए हैं। YOLOv8 विजन AI tasks, जैसे [पता लगाना](tasks/detect.md), [विभाजन](tasks/segment.md), [पोज अनुमान](tasks/pose.md), [ट्रैकिंग](modes/track.md), और [वर्गीकरण](tasks/classify.md) का पूरा समर्थन करता है। यह विविध अनुप्रयोग और क्षेत्रों में योलोवी8 की क्षमताओं का उपयोग करने की अनुमति देता है। + +YOLO लाइसेंसेस: Ultralytics YOLO का प्रयोग कैसे होता है? + +Ultralytics विभिन्न उपयोग मामलों को समर्थित करने के लिए दो लाइसेंसिंग विकल्प प्रदान करता है: + +- **AGPL-3.0 लाइसेंस**: यह [OSI स्वीकृत](https://opensource.org/licenses/) ओपन-सोर्स लाइसेंस छात्रों और उत्साहीयों के लिए उपयुक्त है, गहन सहयोग और ज्ञान साझा करने के लिए प्रोत्साहित करता है। अधिक जानकारी के लिए [LICENSE](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) फ़ाइल देखें। +- **व्यवसायिक लाइसेंस**: व्यावसायिक उपयोग के लिए डिज़ाइन किया गया, यह लाइसेंस Ultralytics सॉफ़्टवेयर और AI मॉडल को वाणिज्यिक माल और सेवाओं में सरलतापूर्वक सम्मिलित करने की अनुमति देता है, AGPL-3.0 की ओपन-सोर्स आवश्यकताओं को छोड़ता है। यदि आपके परिदृश्य में हमारे समाधानों को एक वाणिज्यिक प्रस्ताव में एम्बेड करना शामिल है, [Ultralytics Licensing](https://ultralytics.com/license) के माध्यम से संपर्क करें। + +हमारी लाइसेंसिंग रणनीति इस सुनिश्चित करने के लिए है कि हमारे ओपन-सोर्स परियोजनाओं में किए गए कोई भी सुधार समुदाय को लौटाए जाएं। हम ओपन सोर्स के सिद्धांतों को अपने दिल के पास रखते हैं ❤️, और हमारा मिशन यह सुनिश्चित करना है कि हमारे योगदानों का उपयोग और विस्तार किए जाने के तरीकों में क्रियान्वयन किए जाएं जो सभी के लिए लाभदायक हों। diff --git a/docs/hi/models/index.md b/docs/hi/models/index.md new file mode 100644 index 0000000000..db6924d812 --- /dev/null +++ b/docs/hi/models/index.md @@ -0,0 +1,94 @@ +--- +comments: true +description: Ultralytics द्वारा समर्थित YOLO समूह, SAM, MobileSAM, FastSAM, YOLO-NAS, और RT-DETR मॉडल्स की विविधता का पता लगाएं। CLI और Python उपयोग के लिए उदाहरणों के साथ शुरू हो जाएं। +keywords: Ultralytics, दस्तावेज़ीकरण, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, RT-DETR, मॉडल, वास्तुरचना, Python, CLI +--- + +# Ultralytics द्वारा समर्थित मॉडल्स + +Ultralytics के मॉडल दस्तावेज़ीकरण में आपका स्वागत है! हम विशेष टास्क जैसे [ऑब्जेक्ट डिटेक्शन](../tasks/detect.md), [इंस्टेंस सेग्मेंटेशन](../tasks/segment.md), [छवि श्रेणीबद्धीकरण](../tasks/classify.md), [पोज़ संख्यानन](../tasks/pose.md), और [मल्टी-ऑब्जेक्ट ट्रैकिंग](../modes/track.md) के लिए विशेष रूप से तैयार किए गए मॉडल का समर्थन करते हैं। अगर आप अपनी मॉडल वास्तुरचना को Ultralytics में योगदान देना चाहते हैं, तो हमारे [योगदान गाइड](../../help/contributing.md) की जांच करें। + +!!! Note + + 🚧 हमारी बहुभाषी दस्तावेज़ीकरण वर्तमान में निर्माणाधीन है, और हम उसे सुधारने के लिए कठिनताओं पर काम कर रहे हैं। धन्यवाद आपकी सहानुभूति के लिए! 🙏 + +## प्रमुख मॉडल + +यहां कुछ महत्वपूर्ण मॉडल हैं जिन्हें समर्थित किया जाता है: + +1. **[YOLOv3](../../models/yolov3.md)**: YOLO मॉडल परिवार का तीसरा संस्करण, जो मूल रूप में Joseph Redmon द्वारा विकसित किया गया था, जिसे उसकी क्षमता के लिए जाना जाता है सही समय में ऑब्जेक्ट डिटेक्शन की। +2. **[YOLOv4](../../models/yolov4.md)**: YOLOv3 के लिए एक डार्कनेट जन्मित अपडेट, जिसे Alexey Bochkovskiy ने 2020 में जारी किया। +3. **[YOLOv5](../../models/yolov5.md)**: यूल्ट्रालिटिक्स द्वारा योगदान की एक सुधारी हुई YOLO वास्तुरचि। पिछले संस्करणों की तुलना में बेहतर प्रदर्शन और गति विपरीत संलग्नाता प्रदान करने का वादा। +4. **[YOLOv6](../../models/yolov6.md)**: 2022 में [मेटुआन](https://about.meituan.com/) द्वारा जारी किया गया, और कंपनी के कई स्वतंत्र वितरण रोबोट में प्रयोग होता है। +5. **[YOLOv7](../../models/yolov7.md)**: YOLOv4 के लेखकों द्वारा जारी किए गए नवीनतम YOLO मॉडल्स। +6. **[YOLOv8](../../models/yolov8.md)**: YOLO परिवार का नवीनतम संस्करण, जिसमें घटनाक्रम सेग्मेंटेशन, पोज़/कीपॉइंट्स अनुमान, और वर्गीकरण जैसी बढ़ी हुई क्षमताएं होती हैं। +7. **[सेगमेंट एनीथिंग मॉडल (SAM)](../../models/sam.md)**: मेटा का सेगमेंट एनीथिंग मॉडल (SAM)। +8. **[मोबाइल सेगमेंट एनीथिंग मॉडल (MobileSAM)](../../models/mobile-sam.md)**: मोबाइल एप्लिकेशनों के लिए MobileSAM, Kyung Hee विश्वविद्यालय द्वारा। +9. **[फ़ास्ट सेगमेंट एनीथिंग मॉडल (FastSAM)](../../models/fast-sam.md)**: दृश्य और वीडियो विश्लेषण समूह, स्वचालन विज्ञान संस्थान, चीन संगठन द्वारा FastSAM। +10. **[YOLO-NAS](../../models/yolo-nas.md)**: YOLO Neural Architecture Search (NAS) मॉडल्स। +11. **[रियलटाइम डिटेक्शन ट्रांसफॉर्मर (RT-DETR)](../../models/rtdetr.md)**: बाइडू का PaddlePaddle रियलटाइम डिटेक्शन ट्रांसफॉर्मर (RT-DETR) मॉडल। + +

+
+ +
+ देखें: थोड़ी सी कोड के कुछ पंक्तियों में Ultralytics YOLO मॉडल चलाएँ। +

+ +## प्रारंभ करना: उपयोग उदाहरण + +!!! Example "उदाहरण" + + === "Python" + + PyTorch पूर्व-प्रशिक्षित `*.pt` मॉडल और विन्यास `*.yaml` फ़ाइलों को पायथन में योगदान करने के लिए `YOLO()`, `SAM()`, `NAS()` और `RTDETR()` कक्षाओं को पास करके मॉडल की एक नमूना उत्पन्न की जा सकती है: + + ```python + from ultralytics import YOLO + + # एक COCO-पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें + model = YOLO('yolov8n.pt') + + # मॉडल जानकारी प्रदर्शित करें (वैकल्पिक) + model.info() + + # COCO8 उदाहरण डेटासेट पर मॉडल 100 एपॉक्स के लिए प्रशिक्षित करें + results = model.train(data='coco8.yaml', epochs=100, imgsz=640) + + # YOLOv8n मॉडल के साथ 'bus.jpg' छवि पर इंफ़ेरेंस चलाएँ + results = model('path/to/bus.jpg') + ``` + + === "CLI" + + मॉडलों को सीधे चलाने के लिए CLI कमांड प्रदान किए गए हैं: + + ```bash + # एक COCO-पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें और इसे COCO8 उदाहरण डेटासेट पर 100 एपॉक्स के लिए प्रशिक्षित करें + yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640 + + # एक COCO-पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें और 'bus.jpg' छवि पर इंफ़ेरेंस चलाएँ + yolo predict model=yolov8n.pt source=path/to/bus.jpg + ``` + +## नए मॉडल का योगदान देना + +Ultralytics में अपना मॉडल योगदान करने में रुचि है? शानदार! हमें हमेशा अपने मॉडल पोर्टफोलियो का विस्तार करने के लिए खुले दिमाग से आगे बढ़ने की आवश्यकता है। + +1. **यहाँ से रिपॉजिटरी फोर्क करें**: सबसे पहले, [Ultralytics GitHub रिपॉजिटरी](https://github.com/ultralytics/ultralytics) को फोर्क करके शुरू करें। + +2. **अपने फोर्क को क्लोन करें**: अपने फोर्क को अपनी स्थानीय मशीन पर क्लोन करें और काम करने के लिए एक नया शाखा बनाएं। + +3. **अपना मॉडल लागू करें**: अपना मॉडल उन्नत करें और Coding मानकों और दिशानिर्देशिकाओं का पालन करते हुए इसे जोड़ें। हमारे [योगदान गाइड](../../help/contributing.md) में उपलब्ध विवरणीय चरणों के लिए संपर्क करें। + +4. **पूरी तरह से परीक्षण करें**: अपना मॉडल सम्पूर्ण रूप से औधोगिक रूप से परीक्षण करें, एकांत में और पाइपलाइन का हिस्सा के रूप में। + +5. **एक पुल अनुरोध बनाएं**: अपने मॉडल से संतुष्ट होने के बाद, मुख्य रिपॉजिटरी के लिए एक पुल अनुरोध बनाएं जिसका समीक्षा की जाएगी। + +6. **कोड समीक्षा और मर्ज**: समीक्षा के बाद, यदि आपका मॉडल हमारे मानदंडों को पूरा करता है, तो यह मुख्य रिपॉजिटरी में मर्ज हो जाएगा। + +विस्तृत चरणों के लिए, हमारे [योगदान गाइड](../../help/contributing.md) पर देखें। diff --git a/docs/hi/modes/benchmark.md b/docs/hi/modes/benchmark.md new file mode 100644 index 0000000000..9187029cb8 --- /dev/null +++ b/docs/hi/modes/benchmark.md @@ -0,0 +1,94 @@ +--- +comments: true +description: Ultralytics YOLO के विभिन्न निर्यात प्रारूपों के जरिए YOLOv8 की गति और सटीकता का जांच करें; mAP50-95, accuracy_top5 माप, और अन्य मापों पर अनुभव प्राप्त करें। +keywords: Ultralytics, YOLOv8, बंचमार्किंग, गति प्रोफाइलिंग, सटीकता प्रोफाइलिंग, mAP50-95, accuracy_top5, ONNX, OpenVINO, TensorRT, YOLO निर्यात प्रारूप +--- + +# उल्ट्राल्याटिक्स YOLO के साथ मॉडल बंचमार्किंग + +उल्ट्राल्याटिक्स YOLO पारिस्थितिकी और समावेश + +## परिचय + +जब आपका मॉडल प्रशिक्षित और सत्यापित हो जाता है, तो आगामी तार्किक चरण होता है कि तत्कालिक वास्तविक-दुनिया की स्थितियों में इसके प्रदर्शन का मूल्यांकन करें। Ultralytics YOLOv8 में बेंचमार्क मोड इस उद्देश्य की सेवा करता है, जहां उपयोगकर्ताओं को अपने मॉडल की गति और सटीकता का मूल्यांकन करने के लिए एक मजबूत ढांचा प्रदान करता है। + +## बंचमार्किंग क्यों महत्वपूर्ण है? + +- **जागरूक निर्णय:** गति और सटीकता के बीच ट्रेड-ऑफ के बारे में जानकारी प्राप्त करें। +- **संसाधन आवंटन:** अलग-अलग निर्यात प्रारूपों का विभिन्न हार्डवेयर पर कैसा काम करता है इसकी समझ पाएं। +- **अनुकूलन:** अपने विशिष्ट उपयोग मामले में सर्वोत्तम प्रदर्शन प्रदान करने वाला निर्यात प्रारूप कौन सा है, इसकी जानकारी प्राप्त करें। +- **लागत संचय:** बंचमार्क परिणामों के आधार पर हार्डवेयर संसाधनों का अधिक अभिकल्प सेवन करें। + +### बंचमार्क मोड में मुख्य माप + +- **mAP50-95:** वस्तु का पता लगाने, विभाजन करने और स्थिति मान के लिए। +- **accuracy_top5:** छवि वर्गीकरण के लिए। +- **परिन्दता समय:** प्रति छवि के लिए लिया गया समय मिलीसेकंड में। + +### समर्थित निर्यात प्रारूप + +- **ONNX:** CPU प्रदर्शन के लिए आदर्श +- **TensorRT:** अधिकतम GPU क्षमता के लिए +- **OpenVINO:** Intel हार्डवेयर संशोधन के लिए +- **CoreML, TensorFlow SavedModel, और अधिक:** विविध डिप्लॉयमेंट आवश्यकताओं के लिए। + +!!! Tip "युक्ति" + + * तकनीकी कारणों से कंप्यूटिंग संसाधनों का उपयोग करते समय ONNX या OpenVINO में निर्यात करें, ताकि आप CPU स्पीड तक upto 3x तक स्पीडअप कर सकें। + * GPU स्पीड तक अपने कंप्यूटिंग संसाधनों का उपयोग करते समय TensorRT में निर्यात करें ताकि आप तक 5x तक स्पीडअप कर सकें। + +## उपयोग उदाहरण + +समर्थित सभी निर्यात प्रारूपों पर ONNX, TensorRT आदि के साथ YOLOv8n बंचमार्क चलाएं। पूरी निर्यात विवरण के लिए नीचे Arguments अनुभाग देखें। + +!!! Example "उदाहरण" + + === "Python" + + ```python + from ultralytics.utils.benchmarks import benchmark + + # GPU पर बंचमार्क + benchmark(model='yolov8n.pt', data='coco8.yaml', imgsz=640, half=False, device=0) + ``` + === "CLI" + + ```bash + yolo बंचमार्क model=yolov8n.pt data='coco8.yaml' imgsz=640 half=False device=0 + ``` + +## Arguments + +`model`, `data`, `imgsz`, `half`, `device`, और `verbose` जैसे तर्क उपयोगकर्ताओं को मानदंडों को अपनी विशेष आवश्यकताओं के लिए सुगमता के साथ बंचमार्क को संशोधित करने की सुविधा प्रदान करते हैं, और विभिन्न निर्यात प्रारूपों के प्रदर्शन की तुलना करने की सुविधा प्रदान करते हैं। + +| कुंजी | मान | विवरण | +|-----------|------------|---------------------------------------------------------------------------------| +| `model` | `कोई नहीं` | मॉडल फ़ाइल का पथ, यानी yolov8n.pt, yolov8n.yaml | +| `data` | `कोई नहीं` | बेंचमार्किंग डेटासेट को संदर्भित करने वाले YAML फ़ाइल का पथ (val लेबल के तहत) | +| `imgsz` | `640` | छवि का आकार स्कैलर या (h, w) सूची, अर्थात (640, 480) | +| `half` | `असत्य` | FP16 माप्यांकन | +| `int8` | `असत्य` | INT8 माप्यांकन | +| `device` | `कोई नहीं` | चलाने के लिए युक्ति उपकरण, अर्थात cuda device=0 या device=0,1,2,3 या device=cpu | +| `verbose` | `असत्य` | त्रुटि में न जारी रखे (बूल), या वाल (फ्लोट) | + +## निर्यात प्रारूप + +बंचमार्क प्रयास होगा निम्नलिखित सभी संभावित निर्यात प्रारूपों पर स्वचालित रूप से चलाने की कोशिश करेगा। + +| प्रारूप | `प्रारूप` तर्क | मॉडल | मेटाडेटा | तर्क | +|--------------------------------------------------------------------|----------------|---------------------------|----------|-----------------------------------------------------| +| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | +| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | +| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | +| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half`, `int8` | +| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | +| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | +| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras`, `int8` | +| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | +| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | +| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | +| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | +| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | +| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | + +पूर्ण निर्यात विवरण देखें निर्यात पृष्ठ में [Export](https://docs.ultralytics.com/modes/export/)। diff --git a/docs/hi/modes/export.md b/docs/hi/modes/export.md new file mode 100644 index 0000000000..646b439493 --- /dev/null +++ b/docs/hi/modes/export.md @@ -0,0 +1,108 @@ +--- +comments: true +description: सभी प्रकार के निर्यात स्तर पर YOLOv8 मॉडल्स को निर्यात करने के लिए आपके लिए चरण-दर-चरण मार्गदर्शिका। अब निर्यात की जांच करें! +keywords: YOLO, YOLOv8, Ultralytics, मॉडल निर्यात, ONNX, TensorRT, CoreML, TensorFlow SavedModel, OpenVINO, PyTorch, निर्यात मॉडल +--- + +# Ultralytics YOLO के साथ मॉडल निर्यात + +यूल्ट्रालिक्स YOLO ecosystem and integrations + +## परिचय + +एक मॉडल की प्रशिक्षण की अंतिम लक्ष्य उसे वास्तविक दुनिया के आवेदनों के लिए तैनात करना होता है। उल्ट्रालिटीक्स YOLOv8 में निर्यात मोड में आपको अभिनवता रेंज के ऑप्शन प्रदान करता है, वायरले किए गए मॉडल को विभिन्न स्वरूपों में निर्यात करने के लिए, जिससे वे विभिन्न प्लेटफॉर्मों और उपकरणों पर प्रदर्शित किए जा सकें। यह व्यापक मार्गदर्शिका अधिकतम संगतता और प्रदर्शन प्राप्त करने के तरीकों को दिखाने का लक्ष्य रखती है। + +

+
+ +
+ देखें: अपने उत्पादन को निर्यात करने के लिए कस्टम प्रशिक्षित Ultralytics YOLOv8 मॉडल निर्यात करने और वेबकैम पर लाइव अनुमान चलाने। +

+ +## YOLOv8 के निर्यात मोड को क्यों चुनें? + +- **विविधता:** ONNX, TensorRT, CoreML और अन्य सहित कई फॉर्मेट में निर्यात करें। +- **प्रदर्शन:** TensorRT में 5x जीपीयू स्पीडअप और ONNX या OpenVINO में 3x सीपीयू स्पीडअप प्राप्त करें। +- **संगतता:** अपने मॉडल को कई हार्डवेयर और सॉफ़्टवेयर पर संगठित करें। +- **उपयोग की सुविधा:** त्वरित और सीधी मॉडल निर्यात के लिए सरल CLI और Python API। + +### निर्यात मोड की प्रमुख विशेषताएं + +यहाँ कुछ मुख्य विशेषताएँ हैं: + +- **एक-क्लिक निर्यात:** अलग-अलग फॉर्मेट में निर्यात करने के लिए सरल कमांड। +- **बैच निर्यात:** बैच-इन्फरेंस क्षमता वाले मॉडलों को निर्यात करें। +- **सुधारित अनुमान:** निर्यात किए गए मॉडल अनुमान समय के लिए अनुकूलन किए जाते हैं। +- **ट्यूटोरियल वीडियो:** सुविधाएं और ट्यूटोरियल सुनिश्चित करने के लिए गहन मार्गदर्शिकाओं का उपयोग करें। + +!!! Tip "सुझाव" + + * 3x सीपीयू स्पीडअप के लिए ONNX या OpenVINO में निर्यात करें। + * 5x जीपीयू स्पीडअप के लिए TensorRT में निर्यात करें। + +## उपयोग उदाहरण + +YOLOv8n मॉडल को ONNX या TensorRT जैसे अलग फॉर्मेट में निर्यात करें। पूरी सूची निर्यात तर्कों के लिए नीचे दिए गए Arguments खंड को देखें। + +!!! Example "उदाहरण" + + === "Python" + + ```python + from ultralytics import YOLO + + # एक मॉडल लोड करें + model = YOLO('yolov8n.pt') # एक आधिकारिक मॉडल लोड करें + model = YOLO('path/to/best.pt') # एक कस्टम प्रशिक्षित मॉडल लोड करें + + # मॉडल निर्यात करें + model.export(format='onnx') + ``` + === "CLI" + + ```bash + yolo export model=yolov8n.pt format=onnx # आधिकारिक मॉडल का निर्यात करें + yolo export model=path/to/best.pt format=onnx # कस्टम प्रशिक्षित मॉडल का निर्यात करें + ``` + +## Arguments + +YOLO मॉडलों के निर्यात सेटिंग्स निर्यात के विभिन्न विन्यास और विकल्पों के बारे में होते हैं, जिन्हें यूज़ करके मॉडल को अन्य पर्यावरण या प्लेटफ़ॉर्म में सहेजने या निर्यात करने के लिए उपयोग किया जा सकता है। इन सेटिंग्स से मॉडल के प्रदर्शन, आकार और विभिन्न सिस्टम के साथ संगतता प्रभावित हो सकती हैं। कुछ सामान्य YOLO निर्यात सेटिंग्स में निर्यात की गई मॉडल फ़ाइल का स्वरूप (जैसे ONNX, TensorFlow SavedModel), मॉडल कोरी सहवास में चलाने वाली उपकरण (जैसे CPU, GPU) और मास्क या प्रत्येक बॉक्स पर कई लेबलों की उपस्थिति जैसे अतिरिक्त विशेषताएँ शामिल हो सकते हैं। निर्यात प्रक्रिया प्रभावित करने वाले अन्य कारकों में मॉडल द्वारा उपयोग के लिए एक विशेष कार्य और लक्षित पर्यावरण या प्लेटफ़ॉर्म की आवश्यकताओं या सीमाओं का ध्यान देना महत्वपूर्ण है। लक्ष्य प्रयोजन और लक्ष्यित वातावरण में प्रभावी ढंग से उपयोग होने के लिए इन सेटिंग्स को ध्यान से विचार करना महत्वपूर्ण है। + +| कुंजी | मान | विवरण | +|-------------|-----------------|------------------------------------------------------------------------| +| `format` | `'torchscript'` | योग्यता के लिए निर्यात करने के लिए स्वरूप | +| `imgsz` | `640` | एकल रूप में छवि का आकार या (h, w) सूची, जैसे (640, 480) | +| `keras` | `False` | TF SavedModel निर्यात के लिए केरस का प्रयोग करें | +| `optimize` | `False` | TorchScript: मोबाइल के लिए ऑप्टिमाइज़ करें | +| `half` | `False` | FP16 संगणना | +| `int8` | `False` | INT8 संगणना | +| `dynamic` | `False` | ONNX/TensorRT: गतिशील ध्यान दिलाने वाले ध्यान | +| `simplify` | `False` | ONNX/TensorRT: मॉडल को सरल बनाएं | +| `opset` | `None` | ONNX: ऑपसेट संस्करण (वैकल्पिक, डिफ़ॉल्ट्स को नवीनतम के रूप में छोड़ें) | +| `workspace` | `4` | TensorRT: कार्यक्षेत्र आकार (GB) | +| `nms` | `False` | CoreML: NMS जोड़ें | + +## निर्यात स्वरूप + +नीचे दिए गए तालिका में YOLOv8 निर्यात स्वरूप दिए गए हैं। आप किसी भी स्वरूप में निर्यात कर सकते हैं, जैसे `format='onnx'` या `format='engine'`। + +| स्वरूप | `format` तर्क | मॉडल | मेटाडाटा | तर्क | +|--------------------------------------------------------------------|---------------|---------------------------|----------|-----------------------------------------------------| +| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | +| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | +| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | +| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half`, `int8` | +| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | +| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | +| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras`, `int8` | +| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | +| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | +| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | +| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | +| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | +| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | diff --git a/docs/hi/modes/index.md b/docs/hi/modes/index.md new file mode 100644 index 0000000000..318d0b5331 --- /dev/null +++ b/docs/hi/modes/index.md @@ -0,0 +1,78 @@ +--- +comments: true +description: प्रशिक्षण से ट्रैकिंग तक, Ultralytics के साथ YOLOv8 का अधिकतम लाभ उठाएं। मान्यता प्राप्त मोड, जैसे पुष्टीकरण, निर्यात और बेंचमार्किंग, के लिए अवधारणाओं और उदाहरण प्राप्त करें। +keywords: Ultralytics, YOLOv8, मशीन लर्निंग, ऑब्जेक्ट डिटेक्शन, प्रशिक्षण, पुष्टीकरण, पूर्वावलोकन, निर्यात, ट्रैकिंग, बेंचमार्किंग +--- + +# Ultralytics YOLOv8 मोड + +Ultralytics YOLO ecosystem and integrations + +## परिचय + +Ultralytics YOLOv8 सिर्फ एक ओब्जेक्ट डिटेक्शन मॉडल नहीं है; यह मशीन लर्निंग मॉडलों के पूर्ण जीवन चक्र के लिए एक विकशील फ्रेमवर्क है—डेटा संग्रह और मॉडल प्रशिक्षण से पुष्टीकरण, डिप्लॉयमेंट और वास्तविक दुनिया के ट्रैकिंग तक। प्रत्येक मोड का एक विशेष उद्देश्य होता है और आपको विभिन्न कार्यों और यूज-केस के लिए आवश्यक लचीलापन और कार्यक्षमता प्रदान करने के लिए बनाया जाता है। + +!!! Note + + 🚧 हमारी बहुभाषीय दस्तावेज़ीकरण वर्तमान में निर्माणाधीन है, और हम इसे सुधारने के लिए कड़ी मेहनत कर रहे हैं। आपकी सहनशीलता के लिए धन्यवाद! 🙏 + +

+
+ +
+ देखें: Ultralytics मोड ट्यूटोरियल: प्रशिक्षण, पुष्टीकरण, पूर्वावलोकन, निर्यात और बेंचमार्किंग। +

+ +### एक पल मोडें + +Ultralytics YOLOv8 के समर्थित **मोड** को समझना आपके मॉडल का अधिकतम उपयोग करने के लिए महत्वपूर्ण है: + +- **प्रशिक्षण** मोड: अपने मॉडल को कस्टम या पूर्व-भर्ती डेटासेट में संशोधित करें। +- **पुष्टीकरण** मोड: मॉडल प्रदर्शन को मान्यता प्राप्त करने के लिए प्रशिक्षण के बाद के चेकप्वाइंट का उपयोग करें। +- **पूर्वावलोकन** मोड: नए छवियों या वीडियो का उपयोग करके प्रशिक्षित YOLOv8 मॉडल के माध्यम से पूर्वानुमान करें। +- **निर्यात** मोड: डिप्लॉयमेंट के लिए मॉडल को विभिन्न प्रारूपों में तैयार करें। +- **ट्रैक** मोड: रीयल-टाइम ट्रैकिंग अनुप्रयोगों में योजित आइटम डिटेक्शन मॉडल का विस्तार करें। +- **बेंचमार्क** मोड: विविध डिप्लॉयमेंट वातावरणों में मॉडल की गति और सटीकता का विश्लेषण करें। + +यह सामग्री आपको प्रत्येक मोड का अवलोकन और व्यावहारिक अंदाज़ देने का उद्देश्य रखती है, जिससे आप YOLOv8 की पूरी क्षमता का उपयोग कर सकें। + +## [प्रशिक्षण](train.md) + +प्रशिक्षण मोड का उपयोग कस्टम डेटासेट पर YOLOv8 मॉडल के प्रशिक्षण के लिए किया जाता है। इस मोड में, मॉडल को निर्दिष्ट डेटासेट और हाइपरपैरामीटर का उपयोग करके प्रशिक्षित किया जाता है। प्रशिक्षण प्रक्रिया में, मॉडल के पैरामीटरों को अनुकूलित किया जाता है ताकि यह छवियों में ऑब्जेक्टों की कक्षाओं और स्थानों का सटीक पूर्वानुमान कर सके। + +[प्रशिक्षण उदाहरण](train.md){ .md-button .md-button--primary} + +## [पुष्टीकरण](val.md) + +पुष्टीकरण मोड का उपयोग YOLOv8 मॉडल के प्रशिक्षण के बाद मॉडल की मान्यता और सामान्यीकरण प्रदर्शन को मापने के लिए किया जाता है। इस मोड में, मॉडल को एक प्रमाणीकरण सेट पर मूल्यांकन किया जाता है ताकि उसकी सटीकता और सामान्यीकरण प्रदर्शन को मापा जा सके। इस मोड का उपयोग मॉडल के प्रदर्शन को सुधारने के लिए मॉडल के हाइपरपैरामीटरों को ट्यून करने के लिए किया जा सकता है। + +[पुष्टीकरण उदाहरण](val.md){ .md-button .md-button--primary} + +## [पूर्वानुमान](predict.md) + +पूर्वानुमान मोड का उपयोग नई छवियों या वीडियो पर प्रशिक्षित YOLOv8 मॉडल का उपयोग करके पूर्वानुमान बनाने के लिए किया जाता है। इस मोड में, मॉडल एक चेकप्वाइंट फ़ाइल से लोड किया जाता है, और उपयोगकर्ता छवियों या वीडियों को उपयोग करके इन्फेरेंस कर सकता है। मॉडल उपयोगकर्ता को इनपुट छवियों या वीडियों में ऑब्जेक्टों की कक्षाओं और स्थानों का पूर्वानुमान करता है। + +[पूर्वानुमान उदाहरण](predict.md){ .md-button .md-button--primary} + +## [निर्यात](export.md) + +निर्यात मोड का उपयोग एक YOLOv8 मॉडल को इस्तेमाल करने के लिए एक प्रारूप में करने के लिए किया जाता है जो कि अन्य सॉफ़्टवेयर अनुप्रयोगों या हार्डवेयर उपकरणों द्वारा इस्तेमाल किया जा सकता है। यह मोडल को उत्पादन उद्योगों में डिप्लॉय करने के लिए उपयोगी होता है। + +[निर्यात उदाहरण](export.md){ .md-button .md-button--primary} + +## [ट्रैक](track.md) + +ट्रैक मोड का उपयोग एक YOLOv8 मॉडल का उपयोग करके वास्तविक समय में वस्तुओं का ट्रैकिंग करने के लिए किया जाता है। इस मोड में, मॉडल एक चेकप्वाइंट फ़ाइल से लोड किया जाता है, और उपयोगकर्ता एक लाइव वीडियो स्ट्रीम प्रदान कर सकता है ताकि वास्तविक समय में वस्तुओं का ट्रैकिंग किया जा सके। यह मोड सतर्कता प्रणालियों या स्वयं चालित कार जैसे अनुप्रयोगों के लिए उपयोगी होता है। + +[ट्रैक उदाहरण](track.md){ .md-button .md-button--primary} + +## [बेंचमार्क](benchmark.md) + +बेंचमार्क मोड का उपयोग YOLOv8 के विभिन्न निर्यात प्रारूपों की गति और सटीकता का प्रोफ़ाइल बनाने के लिए किया जाता है। बेंचमार्क से प्राप्त जानकारी निर्यात प्रारूप के आकार, उसकी `mAP50-95` metric (ऑब्जेक्ट डिटेक्शन, सेगमेंटेशन और पोज़ के लिए) +या `accuracy_top5` metric (वर्गीकरण के लिए), और चित्र माध्यमिक समय के मिलीसेकंड प्रति इमेज के अलग-अलग निर्यात प्रारूपों की जानकारी प्रदान करता है। यह जानकारी उपयोगकर्ताओं को उनकी विशेष उपयोग के मामले में उनकी खासियतों के लिए मिति और सटीकता के लिए सर्वोत्तम निर्यात प्रारूप का चयन करने में मदद कर सकती है। + +[बेंचमार्क उदाहरण](benchmark.md){ .md-button .md-button--primary} diff --git a/docs/hi/modes/predict.md b/docs/hi/modes/predict.md new file mode 100644 index 0000000000..86c3a04e68 --- /dev/null +++ b/docs/hi/modes/predict.md @@ -0,0 +1,226 @@ +--- +comments: true +description: योलोवी 8 के अल्ट्रालायटिक्स पूर्वानुमान मोड का उपयोग करना सीखें और विभिन्न कार्यों के लिए विभिन्न पूर्वानुमान स्रोतों के बारे में जानें। इमेजेस, वीडियोज़ और डेटा प्रारूपों जैसे पूर्वानुमान स्रोतों के बारे में जानें। +keywords: Ultralytics, YOLOv8, पूर्वानुमान मोड, पूर्वानुमान स्रोत, पूर्वानुमान कार्य, धारणा योजना, छवि प्रसंस्करण, वीडियो प्रसंस्करण, मशीन लर्निंग, एआई +--- + +# अल्ट्रालायटिक्स YOLO मॉडल पूर्वानुमान + +अल्ट्रालायटिक्स YOLO संघटना और एकीकरण + +## परिचय + +मशीन लर्निंग और कंप्यूटर विजन की दुनिया में दृश्यांश से समझने की प्रक्रिया को 'पूर्वानुमान' या 'पूर्वानुमान' कहा जाता है। अल्ट्रालायटिक्स YOLOv8 एक शक्तिशाली विशेषता प्रदान करता है जिसे **पूर्वानुमान मोड** कहा जाता है, जो व्यापक डेटा स्रोतों पर उच्च प्रदर्शन, वास्तुकालिक पूर्वानुमान के लिए विशेष रूप से तैयार किया गया है। + +

+
+ +
+ देखें: अल्ट्रालायटिक्स YOLOv8 मॉडल से आउटपुट निकालने का तरीका कस्टम परियोजनाओं के लिए। +

+ +## वास्तविक जगत में अनुप्रयोग + +| विनिर्माण | खेल संघ | सुरक्षा | +|:-------------------------------------------:|:--------------------------------------------------:|:---------------------------------------------:| +| ![वाहन के पुर्जे डिटेक्शन][car spare parts] | ![फुटबॉल खिलाड़ी डिटेक्शन][football player detect] | ![लोगों का गिरना डिटेक्शन][human fall detect] | +| वाहन के पुर्जे डिटेक्शन | फुटबॉल खिलाड़ी डिटेक्शन | लोगों का गिरना | + +## पूर्वानुमान के लिए अल्ट्रालायटिक्स YOLO का उपयोग क्यों करें? + +यहां आपको योलोवी 8 के पूर्वानुमान मोड का उपयोग अपने विभिन्न पूर्वानुमान की आवश्यकताओं के लिए करना चाहिए का कारण है: + +- **बहुमुखीपन:** छवियों, वीडियोज और यह तक कि लाइव स्ट्रीम की पूर्वानुमान पर योग्य हैं। +- **प्रदर्शन:** मुख्यतः बिना सटीकता पर बलवर्धित, रियल-टाइम, उच्च गति प्रसंस्करण के लिए engineering किए गए हैं। +- **उपयोग सहज:** खद्य पाइथन और यथार्थता (CLI) इंटरफ़ेसों को जल्दी विपणन और परीक्षण के लिए। +- **ऊच्चतम अनुकूलनयोग्यता:** अपनी विशिष्ट आवश्यकताओं के अनुसार मॉडल के पूर्वानुमान कृति को निर्धारित करने के लिए विभिन्न सेटिंग और पैरामीटर। + +### पूर्वानुमान मोड की प्रमुख सुविधाएँ + +YOLOv8 का पूर्वानुमान मोड मजबूत और विशेषता प्राप्त करने के लिए डिज़ाइन किया गया है, जिसमें शामिल हैं: + +- **यदि आपके डेटा के कई स्रोतों के पंजीकरण:** चाहे आपका डेटा व्यक्तिगत छवियों, छोटू माला छवियों, वीडियो फ़ाइलों या वास्तविक समय वीडियो स्ट्रीमों की रूप में हो, पूर्वानुमान मोड आपके लिए उपयुक्त है। +- **स्ट्रीमिंग मोड:** `स्ट्रीमिंग` सुविधाका उपयोग करें और `पूर्वानुमान की कॉल विधि` में `स्ट्रीम = ट्रू` सेट करके `रिजल्ट्स` ऑब्जेक्ट के एक मेमोरी-पर्याप्त जेनरेटर का उत्पादन करें। +- **बैच प्रोसेसिंग:** एक ही बैच में कई छवियों या वीडियो फ़्रेम्स की प्रोसेसिंग करने की क्षमता, पूर्वानुमान समय को और तेज़ करती है। +- **इंटीग्रेशन फ्रेंडली:** लचीली API के कारण मौजूदा डेटा पाईपलाइन और अन्य सॉफ़्टवेयर घटकों के साथ आसानी से इंटीग्रेट करें। + +जब पूर्वानुमान के दौरान मॉडल को `गेनरेटर की `रूप में लोड किया जाता है, तो अल्ट्रालायटिक्स YOLO मॉडल निम्नलिखित मेथड से `रिजल्ट` ऑब्जेक्ट के एक पायथन सूची या यादृच्छिक संख्यकारी जनरेटर लौटाते हैं: + +!!! Example "पूर्वानुमान" + + === "`स्ट्रीम = फाल्स` के साथ सूची यादृच्छिक" + ```python + from ultralytics import YOLO + + # एक मॉडल लोड करें + model = YOLO('yolov8n.pt') # पूर्व-प्रशिक्षित YOLOv8n मॉडल + + # सूची के लिए बैच्ड पूर्वानुमान चलाएं + results = model(['im1.jpg', 'im2.jpg']) # रिजल्ट्स ऑब्जेक्ट की सूची लौटाएँ + + # परिणाम सूची को प्रोसेस करें + for result in results: + boxes = result.boxes # बॉक्स के लिए बॉक्स ऑब्जेक्ट + masks = result.masks # सेगमेंटेशन मोड के लिए मास्क्स ऑब्जेक्ट + keypoints = result.keypoints # पोज़ के लिए कीपॉइंट्स ऑब्जेक्ट + probs = result.probs # वर्गीकरण के लिए प्रोब्स ऑब्जेक्ट + ``` + + === "`स्ट्रीम = ट्रू के साथ जेनरेटर` की प्राथमिकता" + ```python + from ultralytics import YOLO + + # एक मॉडल लोड करें + model = YOLO('yolov8n.pt') # पूर्व-प्रशिक्षित YOLOv8n मॉडल + + # सूची के लिए बैच्ड पूर्वानुमान चलाएं + results = model(['im1.jpg', 'im2.jpg'], stream=True) # रिजल्ट्स ऑब्जेक्ट का जनरेटर लौटाएँ + + # रिजल्ट्स जनरेटर को प्रोसेस करें + for result in results: + boxes = result.boxes # बॉक्स के लिए बॉक्स ऑब्जेक्ट + masks = result.masks # सेगमेंटेशन मास्क्स के लिए मास्क्स ऑब्जेक्ट + keypoints = result.keypoints # पोज़ के लिए कीपॉइंट्स ऑब्जेक्ट + probs = result.probs # वर्गीकरण के लिए प्रोब्स ऑब्जेक्ट + ``` + +## पूर्वानुमान स्रोत + +YOLOv8 पूर्वानुमान के लिए विभिन्न प्रकार के इनपुट स्रोतों को process कर सकता है, जैसा कि नीचे दिए गए तालिका में दिखाया गया है। स्रोतों में स्थिर छवियाँ, वीडियो स्ट्रीम्स, और विभिन्न डेटा प्रारूपों को विकास के साथ उपयोग किया जा सकता है। यह तालिका भी इंगित करती है कि क्या प्रत्येक स्रोत को स्ट्रीमिंग मोड में `द्वारा इस्तेमाल किया जा सकता है।' यहां स्ट्रीमिंग मोड का उपयोग वीडियो या लाइव स्ट्रीम को प्रोसेस करने के लिए उपयोगी है क्योंकि इसमें सभी फ्रेम्स को मेमोरी में लोड किए बिना एक रिजल्ट की generator बनाई जाती है। + +!!! Tip "सुझाव" + + `स्ट्रीम = ट्रू` का उपयोग बड़ी वीडियोज़ या विशाल डेटासेट को संचालित करने के लिए करें ताकि मेमोरी का दक्षिणा प्रबंधित किया जा सके। `स्ट्रीम = फाल्स` के खंड के खंड में सभी फ्रेम्स या डेटा बिंदुओं के लिए परिणाम स्तोर किए जाते हैं, जो अधिकांशता में मेमोरी में लोड हो सकते हैं और बड़े इनपुट के लिए आउट-ऑफ-मेमोरी त्रुटियां उत्पन्न कर सकते हैं। इसके बराबर उपयोग करके `स्ट्रीम= True` एक जेनरेटर का उपयोग करता है, जिसके संचित होने वाले + +केवल ब्रह्मण्ड के परिणामों को सीमित संग्रह किया जाता है, बहुत कम मेमोरी खपत करता है और बड़े इनपुट के लिए आउट ऑफमेमोरीनुमान syllabus नुकसान होने से बचाता है। + +| स्रोत | तर्क | प्रकार | टिप्पणियाँ | +|-----------------|-------------------------------------------|---------------|-------------------------------------------------------------------------------------------------------------| +| छवि | `'छवि.जेपीजी'` | `श. या पथ` | एकल छवि फ़ाइल। | +| यूआरएल | `'https://ultralytics.com/छवि/बस.जेपीजी'` | `शः` | छवि होस्टेड रिमोटली उन्नत करने के लिए यूआरएल । | +| स्क्रीनशॉट | `'स्क्रीन'` | `शः` | स्क्रीन की वर्तमान सामग्री के रूप में कैप्चर । | +| आदर्श | `इमेज.ओपन('चित्र.जेपीजी')` | `पीआईएल.इमेज` | HWC format with RGB channels। | +| ओपनसीवी | `ओपेंसीवी.इमरेड('चित्र.जेपीजी')` | `एनपी.न्डआरे` | HWC format with BGR channels `uint8 (0-255)`। | +| नम्पी | `नपाई.जीरोस((640,1280,३))` | `एनपी.नडअरे` | HWC format with BGR channels `uint8 (0-255)`। | +| टॉर्च | `टॉर्च.जीरोस(16,3,320,640)` | `टॉर्च.टेंसर` | BCHW format with RGB channels `float32 (0.0-1.0)`। | +| सीएसवी | `'स्रोत.सीएसवी'` | `शः` or `पथ` | छवियों, वीडियोज़, या निर्देशिकाओं की पथों को समेटने वाली CSV फ़ाइल। | +| वीडियो ✅ | `'वीडियो.म्प४'` | `पथ` or `पथ` | MP4, AVI, आदि जैसे वीडियो फ़ाइल में वीडियो। | +| निर्देशिका ✅ | `'पथ/'` | `शः` or `पथ` | छवियों या वीडियोज़ को समेटने वाली एक निर्देशिका का पथ। | +| ग्लॉब ✅ | `'पथ/ *.जेपीजी'` | `शः` | एकाधिक फ़ाइलों के मिलते-जुलते गोलियाँ। वाइल्डकार्ड के रूप में `*` चरित्र का उपयोग करें। | +| यूट्यूब ✅ | `'https://youtu.be/LNwODJXcvt4'` | `शः` | एक यूट्यूब वीडियो के लिए यूआरएल। | +| स्ट्रीम ✅ | `'rtsp://माद्यदिनता.कॉम/media.म्प४'` | `शः` | RTSP, RTMP, TCP या IP पते जैसे स्ट्रीमिंग प्रोटोकॉल्स के लिए पता। | +| मल्टी-स्ट्रीम ✅ | `'सूची.स्ट्रीम्स'` | `शः` or `पथ` | प्रति पंक्ति एक स्ट्रिम URL के साथ `*.streams` पाठ फ़ाइल, उदाहरण के लिए 8 स्ट्रीम 8 बैच-आकार के साथ चलेंगे। | + +लेखक आदान प्रियतमानसों का सुझाव देते हैं: + +!!! Example "पूर्वानुमान स्रोत" + + === "छवि" + एक छवि फ़ाइल पर पूर्वानुमान चलाएं। + ```python + from ultralytics import YOLO + + # पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें + model = YOLO('yolov8n.pt') + + # छवि फ़ाइल के लिए पथ निर्धारित करें + स्रोत = 'फाईल/पर/चित्र.jpg' + + # छवि पर पूर्वानुमान चलाएं + परिणाम = model(स्रोत) # रिजल्ट्स ऑब्जेक्ट की सूची + + # परिणाम सूची को प्रोसेस करें + for परिणाम in परिणाम: + बॉक्स = परिणाम.बॉक्स # बॉक्स आउटपुट्स के लिए बॉक्स ऑब्जेक्ट + मास्क्स = परिणाम.मास्क्स # सेगमेंटेशन मास्क्स आउटपुट्स के लिए मास्क्स ऑब्जेक्ट + कीपॉइंट्स = परिणाम.कीपॉइंट्स # पोज के लिए कीपॉइंट्स ऑब्जेक्ट + प्रोब्स = परिणाम.प्रोब्स # वर्गीकरण आउटपुट्स के लिए प्रोब्स ऑब्जेक्ट + ``` + + === "स्क्रीनशॉट" + वर्तमान स्क्रीन सामग्री पर पूर्वानुमान चलाएं। + ```python + from ultralytics import YOLO + + # पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें + model = YOLO('yolov8n.pt') + + # वर्तमान स्क्रीन सामग्री को स्रोत रूप में परिभाषित करें + स्रोत = 'स्क्रीन' + + # वर्तमान सामग्री पर पूर्वानुमान चलाएं + परिणाम = model(स्रोत) # रिजल्ट्स ऑब्जेक्ट की सूची + ``` + + === "यूआरएल" + दूरस्थ छवि या वीडियो पर पूर्वानुमान चलाएं। + ```python + from ultralytics import YOLO + + # पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें + model = YOLO('yolov8n.pt') + + # गहनर् रूप से निर्धारित दूरस्थ छवि या वीडियो की यूआरएल + स्रोत = 'https://ultralytics.com/छवि/बस.जेपीजी' + + # यूआरएल पर पूर्वानुमान चलाएं + परिणाम = model(स्रोत) # रिजल्ट्स ऑब्जेक्ट की सूची + ``` + + === "आदर्श" + Python Imaging Library (PIL) के साथ खोली गई छवि पर पूर्वानुमान चलाएं। + ```python + from PIL import Image + from ultralytics import YOLO + + # पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें + model = YOLO('yolov8n.pt') + + # Python Imaging Library (PIL) के साथ खोली गई छवि + स्रोत = Image.open('छवि.जेपीजी') + + # आदर्श पर पूर्वानुमान चलाएं + परिणाम = model(स्रोत) # रिजल्ट्स ऑब्जेक्ट की सूची + ``` + + === "ओपेंसीवी" + OpenCV के साथ पढ़ी गई छवि पर पूर्वानुमान चलाएं। + ```python + import cv2 + from ultralytics import YOLO + + # पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें + model = YOLO('yolov8n.pt') + + # OpenCV के साथ पढ़ी गई छवि + स्रोत = cv2.imread('छवि.जेपीजी') + + # ओपेंसीवी पर पूर्वानुमान चलाएं + परिणाम = model(स्रोत) # रिजल्ट्स ऑब्जेक्ट की सूची + ``` + + === "नम्पी" + numpy array के रूप में प्रस्तुत छवि पर पूर्वानुमान चलाएं। + ```python + import numpy as np + from ultralytics import YOLO + + # पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें + model = YOLO('yolov8n.pt') + + # छवि रूप में एक हिंदी छवि को बनाएँ + स्रोत = np.zeros((640, 640, 3)) + + # नम्पी पर पूर्वानुमान चलाएं + परिणाम = model(स्रोत) # रिजल्ट्स ऑब्जेक्ट की सूची + ``` + +[वाहन के पुर्जे डिटेक्शन]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/a0f802a8-0776-44cf-8f17-93974a4a28a1 + +[फुटबॉल खिलाड़ी डिटेक्शन]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/7d320e1f-fc57-4d7f-a691-78ee579c3442 + +[लोगों का गिरना डिटेक्शन]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/86437c4a-3227-4eee-90ef-9efb697bdb43 diff --git a/docs/hi/modes/track.md b/docs/hi/modes/track.md new file mode 100644 index 0000000000..7f5773f0eb --- /dev/null +++ b/docs/hi/modes/track.md @@ -0,0 +1,358 @@ +--- +comments: true +description: वीडियो स्ट्रीम में आवक ट्रेक करने के लिए Ultralytics YOLO का उपयोग कैसे करें। ट्रैकर्स का उपयोग करने और ट्रैकर कॉन्फ़िगरेशन को अनुकूलित करने के लिए गाइड। +keywords: Ultralytics, YOLO, आवक ट्रैकिंग, वीडियो स्ट्रीम, BoT-SORT, ByteTrack, पायथन गाइड, CLI गाइड +--- + +# Ultralytics YOLO के साथ मल्टी-ऑब्जेक्ट ट्रैकिंग + +Multi-object tracking examples + +वीडियो एनालिटिक्स के क्षेत्र में, ऑब्जेक्ट ट्रैकिंग एक महत्वपूर्ण कार्य है जो केवल फ्रेम में वस्तुओं के स्थान और वर्ग की पहचान करने के अलावा वीडियो के प्रगति के साथ-साथ प्रत्येक खोजी गई वस्तु के लिए एक अद्वितीय आईडी बनाए रखता है। इसके अनुप्रयोग हैं असीमित—निगरानी और सुरक्षा से लेकर रियल-टाइम स्पोर्ट्स एनालिटिक्स तक। + +## ऑब्जेक्ट ट्रैकिंग के लिए Ultralytics YOLO क्यों चुनें? + +Ultralytics ट्रैकरों से उत्पन्न परिणाम मानक ऑब्जेक्ट डिटेक्शन के साथ मेल खाते हैं, लेकिन वीडियो स्ट्रीम में ऑब्जेक्टों को ट्रैक करने और उपयोगी गणना करने में आसान हो जाता है। यहाँ आपको Ultralytics YOLO का उपयोग अपनी ऑब्जेक्ट ट्रैकिंग की जरूरतों के लिए करने की सलाह दी जा रही है: + +- **प्रदर्शनशीलता:** सटीकता के मामले में समय-सत्य ही होने के साथ वीडियो स्ट्रीम को प्रक्रिया करें। +- **लचीलापन:** विभिन्न ट्रैकिंग ऍल्गोरिदम और विन्यास पर समर्थन करें। +- **उपयोग करने में आसानी:** झटपट एकीकरण और डिप्लॉय करने के लिए सरल पायथन API और CLI विकल्प। +- **कस्टमाइज़ेबिलिटी:** कस्टम ट्रेन किए गए YOLO मॉडल के साथ उपयोग में आसान, जिससे डोमेन-विशिष्ट एप्लिकेशन में समावेश करना संभव होता है। + +

+
+ +
+ देखें: Ultralytics YOLOv8 के साथ ऑब्जेक्ट डिटेक्शन और ट्रैकिंग। +

+ +## वास्तविक दुनिया के अनुप्रयोग + +| परिवहन | खुदराबाज़ार | जलजीवाणुजनित उत्पादन | +|:-------------------------------:|:-----------------------------:|:----------------------------:| +| ![वाहन ट्रैकिंग][vehicle track] | ![लोग ट्रैकिंग][people track] | ![मछली ट्रैकिंग][fish track] | +| वाहन ट्रैकिंग | लोग ट्रैकिंग | मछली ट्रैकिंग | + +## विशेषताएँ एक झलक में + +Ultralytics YOLO अपनी ऑब्जेक्ट डिटेक्शन विशेषताओं को बढ़ाकर मज़बूत और बहुमुखी ऑब्जेक्ट ट्रैकिंग प्रदान करता है: + +- **रीयल-टाइम ट्रैकिंग:** उच्च फ्रेम दर वाले वीडियो में समयबद्ध रूप से ऑब्जेक्ट्स को ट्रैक करें। +- **एकाधिक ट्रैकर समर्थन:** इस्थापित ट्रैकिंग ऍल्गोरिदमों में से एक चुनें। +- **कस्टमाइज़ेबल ट्रैकर कॉन्फ़िगरेशन:** विभिन्न पैरामीटर्स को समायोजित करके विशेष आवश्यकताओं को पूरा करने के लिए ट्रैकिंग ऍल्गोरिदम को अनुकूलित करें। + +## उपलब्ध ट्रैकर्स + +Ultralytics YOLO निम्नलिखित ट्रैकिंग ऍल्गोरिदमों का समर्थन करता है। आप इन्हें योग्य YAML कॉन्फ़िगरेशन फ़ाइल (`tracker=tracker_type.yaml`) पारित करके सक्षम कर सकते हैं: + +* [BoT-SORT](https://github.com/NirAharon/BoT-SORT) - इस ट्रैकर को सक्षम करने के लिए `botsort.yaml` का उपयोग करें। +* [ByteTrack](https://github.com/ifzhang/ByteTrack) - इस ट्रैकर को सक्षम करने के लिए `bytetrack.yaml` का उपयोग करें। + +डिफ़ॉल्ट ट्रैकर BoT-SORT है। + +## ट्रैकिंग + +वीडियो स्ट्रीम्स पर ट्रैकर चलाने के लिए, YOLOv8n, YOLOv8n-seg और YOLOv8n-pose जैसे प्रशिक्षित Detect, Segment या Pose मॉडल का उपयोग करें। + +!!! Example "उदाहरण" + + === "पायथन" + + ```python + from ultralytics import YOLO + + # एक आधिकारिक या कस्टम मॉडल लोड करें + model = YOLO('yolov8n.pt') # एक आधिकारिक Detect मॉडल लोड करें + model = YOLO('yolov8n-seg.pt') # एक आधिकारिक Segment मॉडल लोड करें + model = YOLO('yolov8n-pose.pt') # एक आधिकारिक Pose मॉडल लोड करें + model = YOLO('path/to/best.pt') # एक कस्टम प्रशिक्षित मॉडल लोड करें + + # मॉडल के साथ ट्रैकिंग करें + results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True) # डिफ़ॉल्ट ट्रैकर के साथ ट्रैकिंग करें + results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True, tracker="bytetrack.yaml") # ByteTrack ट्रैकर के साथ ट्रैकिंग करें + ``` + + === "CLI" + + ```बैश + # CLI के साथ विभिन्न मॉडल के साथ ट्रैकिंग करें + योलो ट्रैक मॉडल=yolov8n.pt स्रोत="https://youtu.be/LNwODJXcvt4" # आधिकारिक डिटेक्ट मॉडल + योलो ट्रैक मॉडल=yolov8n-seg.pt स्रोत="https://youtu.be/LNwODJXcvt4" # आधिकारिक सेगमेंट मॉडल + योलो ट्रैक मॉडल=yolov8n-pose.pt स्रोत="https://youtu.be/LNwODJXcvt4" # आधिकारिक पोज मॉडल + योलो ट्रैक मॉडल=path/to/best.pt स्रोत="https://youtu.be/LNwODJXcvt4" # कस्टम प्रशिक्षित मॉडल + + # ByteTrack ट्रैकर का उपयोग करें + योलो ट्रैक मॉडल=path/to/best.pt ट्रैकर="bytetrack.yaml" + ``` + +ऊपर के उपयोग में उंगलियों के निचले हिस्से के द्वारा ट्रैकिंग उपलब्ध है सभी डिटेक्ट, सेगमेंट और पोज मॉडल्स के लिए जो वीडियो या स्ट्रीमिंग स्रोत पर चला जा सकते हैं। + +## कॉन्फ़िगरेशन + +### ट्रैकिंग आर्ग्युमेंट्स + +ट्रैकिंग कॉन्फ़िगरेशन, जैसे कि `conf`, `iou` और `show`, ने प्रेडिक्शन मोड के साथ गुणों को साझा करता है। और विन्यास करने के लिए, कृपया [प्रेडिक्शन](../modes/predict.md#inference-arguments) मॉडल पृष्ठ पर संदर्भ करें। + +!!! Example "उदाहरण" + + === "पायथन" + + ```python + from ultralytics import YOLO + + # ट्रैकिंग पैरामीटर आवंटन करें और ट्रैकर चलाएं + model = YOLO('yolov8n.pt') + results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True) + ``` + + === "CLI" + + ```बैश + # कमांड लाइन इंटरफेस का उपयोग करें ट्रैकिंग पैरामीटर कॉन्फ़िगर करें और ट्रैकर चलाएं + योलो ट्रैक मॉडल=yolov8n.pt स्रोत="https://youtu.be/LNwODJXcvt4" conf=0.3, iou=0.5 show + ``` + +### ट्रैकर चयन + +Ultralytics आपको एक संशोधित ट्रैकर कॉन्फ़िगरेशन फ़ाइल का उपयोग करने की भी अनुमति देता है। ऐसा करने के लिए, बस [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) से एक ट्रैकर कॉन्फ़िगरेशन फ़ाइल (जैसे `custom_tracker.yaml`) की एक प्रतिलिपि बनाएँ और किसी भी विन्यास को संशोधित करें ( `tracker_type` को छोड़कर) अपनी जरूरतों के अनुसार। + +!!! Example "उदाहरण" + + === "पायथन" + + ```python + from ultralytics import YOLO + + # मॉडल लोड करें और एक कस्टम कॉन्फ़िगरेशन फ़ाइल के साथ ट्रैकर चलाएं + model = YOLO('yolov8n.pt') + results = model.track(source="https://youtu.be/LNwODJXcvt4", tracker='custom_tracker.yaml') + ``` + + === "CLI" + + ```बैश + # ट्रैकर के साथ एक कस्टम कॉन्फ़िगरेशन फ़ाइल का उपयोग करके मॉडल लोड करें और ट्रैकर चलाएं + योलो ट्रैक मॉडल=yolov8n.pt स्रोत="https://youtu.be/LNwODJXcvt4" tracker='custom_tracker.yaml' + ``` + +ट्रैकिंग आर्ग्युमेंट्स की एक व्यापक सूची के लिए, [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) पेज पर संदर्भ करें। + +## पायथन उदाहरण + +### ट्रैक पर्सिस्ट करना + +यहाँ एक Python स्क्रिप्ट है जो OpenCV (`cv2`) और YOLOv8 का उपयोग करके वीडियो फ़्रेम पर ऑब्जेक्ट ट्रैकिंग चलाने के लिए है। इस स्क्रिप्ट में यह मान लिया गया है कि आपने पहले ही आवश्यक पैकेज (`opencv-python` और `ultralytics`) इंस्टॉल कर लिए हैं। `persist=True` आर्ग्युमेंट ये ट्रैकर को बताता है कि मौजूदा इमेज या फ़्रेम उन अनुसरण तथ्यों के लिए होता है जो पिछले इमेज में से बनाए गए होते हैं। + +!!! Example "ट्रैकिंग के लिए स्ट्रीमिंग फ़ोर-लूप" + + ```python + import cv2 + from ultralytics import YOLO + + # YOLOv8 मॉडल लोड करें + model = YOLO('yolov8n.pt') + + # वीडियो फ़ाइल खोलें + video_path = "path/to/video.mp4" + cap = cv2.VideoCapture(video_path) + + # वीडियो फ़्रेम्स पर लूप चलाएं + while cap.isOpened(): + # वीडियो से एक फ्रेम पढ़ें + success, frame = cap.read() + + if success: + # फ्रेम पर YOLOv8 ट्रैकिंग चलाएं, फ़्रेम के बीच ट्रैक पर्सिस्ट करता है + results = model.track(frame, persist=True) + + # परिणामों को फ़्रेम पर दिखाएं + annotated_frame = results[0].plot() + + # ट्रैक करें फ़्रेम को प्रदर्शित करें + cv2.imshow("YOLOv8 ट्रैकिंग", annotated_frame) + + # 'q' दबाएं तो फ़्रेम से बाहर निकलें + if cv2.waitKey(1) & 0xFF == ord("q"): + break + else: + # वीडियो के अंत तक पहुँचने पर भी फ़्रेम से बाहर निकलें + break + + # वीडियो कैप्चर ऑब्जेक्ट छोड़ें और प्रदर्शन विंडो बंद करें + cap.release() + cv2.destroyAllWindows() + ``` + +मैने फ़्रेम से ट्रैकिंग के लिए 'model(frame)' से 'model.track(frame)' में बदलाव किया है, जो साधारण डिटेक्शन की बजाय ऑब्जेक्ट ट्रैकिंग को सक्षम करता है। यह संशोधित स्क्रिप्ट प्रति फ़्रेम वाली वीडियो पर ट्रैकर चलाएगा, परिणामों को दिखाएगा और एक विंडो में दिखाएगा। 'q' दबाने पर फ़्रेम से बाहर निकला जा सकता है। + +### समय के साथ ट्रैक चित्रित करना + +संबंधित वीडियो फ्रेम पर ऑब्जेक्ट ट्रैक्स को प्लॉट करके समान्तर स्थानीय मार्गों को प्रदर्शित करने से हमें चित्रित पथ के माध्यम से पहले के अंतरालों और पतों की आपूर्ति में मूल्यवान प्रेरणा मिल सकती है। Ultralytics YOLOv8 के साथ समय के साथ ट्रैक्स को प्लॉट करना एक चुस्त और कुशल प्रक्रिया है। + +निम्न उदाहरण में, हम दिखाए गए वीडियो फ्रेम्स पर YOLO मॉडल का उपयोग करके विभिन्न ऑब्जेक्ट की गति को चित्रित करने के लिए कैसे करेंगे। यह स्क्रिप्ट एक वीडियो फ़ाइल को खोलता है, फ्रेम दर फ्रेम यह पढ़ता है, और YOLO मॉडल का उपयोग करके विभिन्न ऑब्जेक्ट की पहचान और ट्रैक करता है। पहचान वाले बॉक्स के केंद्रीय प्रांक्तियों को संवेदी करके उन्हें जोड़ते हैं, हम ट्रैक किए गए वस्तुओं द्वारा फ़ालतू की जगहों को चूंकियों का संग्रहित करने के लिए लाइनें खींच सकते हैं। + +!!! Example "कई वीडियो फ़्रेम्स पर पथ चित्रित करना" + + ```python + from collections import defaultdict + + import cv2 + import numpy as np + + from ultralytics import YOLO + + # YOLOv8 मॉडल लोड करें + model = YOLO('yolov8n.pt') + + # वीडियो फ़ाइल खोलें + video_path = "path/to/video.mp4" + cap = cv2.VideoCapture(video_path) + + # ट्रैक इतिहास को संग्रहीत करें + track_history = defaultdict(lambda: []) + + # वीडियो फ्रेम्स पर लूप चलाएं + while cap.isOpened(): + # वीडियो से एक फ्रेम पढ़ें + success, frame = cap.read() + + if success: + # फ्रेम पर YOLOv8 ट्रैकिंग चलाएं, फ़्रेम के बीच ट्रैक पर्सिस्ट करता है + results = model.track(frame, persist=True) + + # बॉक्स और ट्रैक आईडी प्राप्त करें + boxes = results[0].boxes.xywh.cpu() + track_ids = results[0].boxes.id.int().cpu().tolist() + + # रिज़ल्ट पर विजुअलाइज़ करें + annotated_frame = results[0].plot() + + # पथ चित्रित करें + for box, track_id in zip(boxes, track_ids): + x, y, w, h = box + track = track_history[track_id] + track.append((float(x), float(y))) # x, y centre point + if len(track) > 30: # 90 फ़्रेम्स के लिए 90 ट्रैक्स को जमा करें + track.pop(0) + + # ट्रैकिंग लाइनें खींचें + points = np.hstack(track).astype(np.int32).reshape((-1, 1, 2)) + cv2.polylines(annotated_frame, [points], isClosed=False, color=(230, 230, 230), thickness=10) + + # पथ को प्रदर्शित करें + cv2.imshow("YOLOv8 ट्रैकिंग", annotated_frame) + + # 'q' दबायें तो फ़्रेम से बाहर निकलें + if cv2.waitKey(1) & 0xFF == ord("q"): + break + else: + # वीडियो के अंत तक पहुँचने पर भी फ़्रेम से बाहर निकलें + break + + # वीडियो कैप्चर ऑब्जेक्ट छोड़ें और प्रदर्शन विंडो बंद करें + cap.release() + cv2.destroyAllWindows() + ``` + +### मल्टीथ्रेड ट्रैकिंग + +मल्टीथ्रेड ट्रैकिंग एक साथ कई वीडियो स्ट्रीमों पर ऑब्जेक्ट ट्रैकिंग चलाने की क्षमता प्रदान करता है। यह खासकर उपयोगी होता है जब हम कई निगरानी कैमरों से जैसे कि वहां से मौजूद वीडियो इनपुट को संभालने के लिए परस्पर प्रोसेसिंग करने की क्षमता बढ़ा सकते हैं। + +प्रदान किए गए पायथन स्क्रिप्ट में हम Python के `threading` मॉड्यूल का उपयोग करके यह संभव करते हैं कि कई इंस्टेंसेज को एक साथ ट्रैकर चलाया जा सके। यह हर थ्रेड के लिए एक ट्रैकर चलाने की जिम्मेदारी होती है, और सभी थ्रेड संघ थ्रेड बैकग्राउंड में एक साथ चलते हैं। + +हर थ्रेड को सही पैरामीटर्स (वीडियो फ़ाइल, उपयोग करने के लिए मॉडल और फ़ाइल इंडेक्स) प्राप्त करने के लिए, हम `run_tracker_in_thread` नामक एक फ़ंक्शन को परिभाषित करते हैं जो इन पैरामीटर्स को स्वीकार करता है और मुख्य ट्रैकिंग लूप को संबंधित करता है। यह फ़ंक्शन वीडियो फ्रेम्स को फ्रेम द्वारा पढकर, ट्रैकर चलाने और परिणामों को प्रदर्शित कर रही है। + +इस उदाहरण में दो अलग मॉडल इस्तेमाल होते हैं: `yolov8n.pt` और `yolov8n-seg.pt`, जो हर एक अलग वीडियो फ़ाइल में ऑब्जेक्ट को ट्रैक करते हैं। वीडियो फाइल `video_file1` और `video_file2` में निर्दिष्ट किए गए हैं। `threading.Thread` में `daemon=True` विधिमति का उपयोग संकेत करता है कि यह सुनिश्चित करता है कि जब प्रमुख कार्यक्रम समाप्त हो जाए, तो ये सभी थ्रेड बंद हो जाएंगे। हम `start()` का उपयोग करके थ्रेडों को शुरू करते हैं और `join()` का उपयोग करके मुख्य थ्रेड को प्रतीक्षा करने के लिए बनाते हैं जब तक कि ट्रैकर थ्रेड खत्म नहीं हो जाते। + +चूंकि सभी थ्रेडों ने अपना कार्य पूरा कर लिया है, इसलिए `cv2.destroyAllWindows()` का उपयोग करके परिणामों को दिखाने वाली विंडो को बंद करते हैं। + +!!! Example "ट्रैकिंग के लिए स्ट्रीमिंग फ़ोर-लूप" + + ```python + import threading + import cv2 + from ultralytics import YOLO + + + def run_tracker_in_thread(filename, model, file_index): + """ + थ्रेडिंग के साथ YOLOv8 मॉडल के साथ एक वीडियो फ़ाइल या webcam स्रोत संगतरूप पर ट्रैकर चलाता है। + + यह फ़ंक्शन एक वेदनीय वीडियो फ़ाइल या कैमरा स्रोत से वीडियो फ़्रेमों को पकड़ता है और ऑब्जेक्ट ट्रैकिंग के लिए YOLOv8 मॉडल का उपयोग करता है। यह फ़ंक्शन अपनी थ्रेड में चलता है जो कार्य प्रसंस्करण के रूप में एक साथ चलता है। + + Args: + filename (str): वीडियो फ़ाइल के पथ या कैमरे / बाहरी कैमरे स्रोत का पहचानकर्ता। + model (obj): YOLOv8 मॉडल ऑब्जेक्ट। + file_index (int): फ़ाइल को पहचानने के लिए ऐंद्रिक कोड। + + ध्यान दें: + वीडियो डिस्प्ले विंडो बंद करने के लिए 'q' दबाएं। + """ + वीडियो = cv2.VideoCapture(filename) # वीडियो फ़ाइल पढ़ें + + while True: + सफलता, फ़्रेम = वीडियो.read() # वीडियो फ़्रेम पढ़ें + + # कोई भी फ़्रेम न बचा हो, तो लूप से बाहर निकलें + if not सफलता: + तोड़ो + तोड़ो + + # ऑब्जेक्ट्स को ट्रैक करें यदि उपलब्ध हों + results = model.track(फ़्रेम, persist=True) + res_plotted = results[0].plot() + cv2.imshow(f"स्रोत_{file_index} पर ट्रैकिंग", res_plotted) + + कुंजी = cv2.waitKey(1) + if कुंजी == ord('q'): + तोड़ो + + # वीडियो स्रोतों को छोड़ें + वीडियो.रिलीज़े() + + + # मॉडल लोड करें + model1 = YOLO('yolov8n.pt') + model2 = YOLO('yolov8n-seg.pt') + + # ट्रैकर के लिए वीडियो फ़ाइलें परिभाषित करें + video_file1 = "path/to/video1.mp4" # वीडियो फ़ाइल का पथ, वेबकैम के लिए 0 + video_file2 = 0 # वीडियो फ़ाइल का पथ, वेबकैम के लिए 0, बाहरी कैमरा के लिए 1 + + # ट्रैकर थ्रेड सबसे ऊपर बनाएं + tracker_thread1 = threading.Thread(target=run_tracker_in_thread, args=(video_file1, model1, 1), daemon=True) + tracker_thread2 = threading.Thread(target=run_tracker_in_thread, args=(video_file2, model2, 2), daemon=True) + + # ट्रैकर थ्रेड प्रारंभ करें + tracker_thread1.start() + tracker_thread2.start() + + # ट्रैकर थ्रेड की प्रतीक्षा करें + tracker_thread1.join() + tracker_thread2.join() + + # सभी ट्रैकर थ्रेडों के निपटाए जाने के बाद, परिणामों को प्रदर्शन विंडोज बंद करें + cv2.destroyAllWindows() + ``` + +यह उदाहरण स्क्रिप्ट जोड़कर और इसी मार्गदर्शन का उपयोग करके और अधिक वीडियो फ़ाइल और मॉडल के लिए बाहरी थ्रेड बना कर इसे कार्यान्वित करने के लिए आसानी से विस्तारित किया जा सकता है। + +## नए ट्रैकरों में सहयोग दें + +क्या आप बहु-ऑब्जेक्ट ट्रैकिंग में माहिर हैं और उल्ट्रालिटिक्स YOLO के साथ एक ट्रैकिंग ऍल्गोरिदम को सफलतापूर्वक अमल में लाया है? हम आपको [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) में हमारे ट्रैकर खंड के लिए योगदान देने के लिए आमंत्रित करते हैं! आपका वास्तविक दुनिया के अनुप्रयोग और समाधान आपके समुदाय के लिए अमूल्य हो सकते हैं। + +इस खंड में योगदान देकर, आप उल्ट्रालिटिक्स YOLO फ्रेमवर्क के भीतर उपलब्ध ट्रैकिंग समाधानों की विस्तारवादी सूची बढ़ा सकते हैं, जो उल्ट्रालिटिक्स YOLO माध्यम से काम कर रहे उपयोगकर्ताओं के लिए अत्यधिक समर्पणशीलता और उपयोगीता जोड़ते हैं। + +अपनी योगदान की शुरुआत करने के लिए, कृपया हमारे [योगदान गाइड](https://docs.ultralytics.com/help/contributing) का संदर्भ लें जहां परामर्शिका प्रस्तुत करने के सचेत निर्देश दिए गए हैं। हम इंतजार कर रहे हैं देखें आप क्या लाते हैं! + +साथ में, चलिए Ultralytics YOLO पारिस्थितिकी की गतिशीलता को मजबूत करें 🙏! + +[वाहन ट्रैकिंग]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/ee6e6038-383b-4f21-ac29-b2a1c7d386ab + +[लोग ट्रैकिंग]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/93bb4ee2-77a0-4e4e-8eb6-eb8f527f0527 + +[मछली ट्रैकिंग]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/a5146d0f-bfa8-4e0a-b7df-3c1446cd8142 diff --git a/docs/hi/modes/train.md b/docs/hi/modes/train.md new file mode 100644 index 0000000000..74c0371b97 --- /dev/null +++ b/docs/hi/modes/train.md @@ -0,0 +1,293 @@ +--- +comments: true +description: Ultralytics YOLO के साथ YOLOv8 मॉडल ट्रेन करने के लिए चरणबद्ध मार्गदर्शिका, एकल-GPU और बहु-GPU ट्रेनिंग के उदाहरणों के साथ। +keywords: Ultralytics, YOLOv8, YOLO, ऑब्जेक्ट डिटेक्शन, ट्रेन मोड, कस्टम डेटासेट, GPU ट्रेनिंग, बहु-GPU, हाइपरपैरामीटर, CLI उदाहरण, Python उदाहरण +--- + +# Ultralytics YOLO के साथ मॉडल ट्रेनिंग + +Ultralytics YOLO इकोसिस्टम और इंटीग्रेशन + +## परिचय + +एक गहरी यान्त्रिकी मॉडल को ट्रेनिंग देना उसे डेटा खिलाते हुए और इसके पैरामीटर्स को समायोजित करके सही पूर्वानुमान करने की सामर्थ्य को शामिल करता है। YOLOv8 मॉडल में Ultralytics YOLO के ट्रेन मोड ने ऑब्जेक्ट डिटेक्शन मॉडल्स को प्रभावी और दक्ष ट्रेनिंग के लिए इंजीनियरिंग किया गया है, जिससे आधुनिक हार्डवेयर क्षमताओं का पूरी तरह से उपयोग किया जा सके। यह मार्गदर्शिका उन सभी विवरणों को कवर करने का उद्देश्य रखती है जो आपको YOLOv8 के मजबूत सेट ऑफ़ सुविधाओं का उपयोग करके अपने खुद के मॉडल्स को ट्रेनिंग शुरू करने के लिए चाहिए। + +

+
+ +
+ देखें: Google Colab में अपने कस्टम डेटासेट पर एक YOLOv8 मॉडल को ट्रेन करने का तरीका। +

+ +## प्रशिक्षण के लिए Ultralytics YOLO का चयन क्यों करें? + +यहां YOLOv8 के ट्रेन मोड को चुनने के कुछ प्रमुख कारण हैं: + +- **दक्षता:** अपने हार्डवेयर से सबसे अधिक लाभ उठाएं, चाहे आप सिंगल-GPU सेटअप पर हों या कई GPU पर स्केल कर रहें हों। +- **प्राक्तिशिल्ता:** COCO, VOC और ImageNet जैसे तत्परता उपलब्ध डेटासेटों के अलावा कस्टम डेटासेट पर ट्रेन करें। +- **उपयोगकर्ता मित्रपूर्णता:** सीधे और शक्तिशाली CLI और Python इंटरफ़ेस का उपयोग एक सीधी ट्रेनिंग अनुभव के लिए। +- **हाइपरपैरामीटर लचीलापन:** मॉडल प्रदर्शन को सुधारने के लिए वैश्विक स्तर पर अनुकूलन योग्य हाइपरपैरामीटरों की एक व्यापक श्रृंखला। + +### ट्रेन मोड की प्रमुख सुविधाएं + +निम्नलिखित YOLOv8 के ट्रेन मोड की कुछ महत्वपूर्ण सुविधाएं हैं: + +- **स्वत: डेटासेट डाउनलोड:** COCO, VOC और ImageNet जैसे मानक डेटासेट्स को पहली बार के उपयोग पर स्वत: डाउनलोड किया जाता है। +- **बहु-GPU समर्थन:** प्रक्रिया की गति को तेज करने के लिए अनुप्रयोग में कई जीपीयू का उपयोग करें। +- **हाइपरपैरामीटर कॉन्फ़िगरेशन:** हाइपरपैरामीटर को यामल कॉन्फ़िगरेशन फ़ाइल या CLI तर्कों के माध्यम से संशोधित करने का विकल्प। +- **दृश्यीकरण और मॉनिटरिंग:** प्रशिक्षण मैट्रिक्स के वास्तविक समय ट्रैकिंग और सीखने की प्रक्रिया के दृश्यीकरण के लिए बेहतर अवधारणा के लिए। + +!!! Tip "टिप" + + * COCO, VOC, ImageNet और कई अन्य जैसे YOLOv8 डेटासेट पहले से आपूर्ति हो जाते हैं, उपयोग पर स्वत: डाउनलोड होते हैं, जैसे `yolo train data=coco.yaml` + +## उपयोग उदाहरण + +सौंधांग्रही कोड को नजरअंदाज किए बिना कोई उत्तर देने के लिए, कोको128 डेटासेट के लिए YOLOv8n पर ट्रेनिंग करें। ट्रेनिंग उपकरण `device` तर्क का उपयोग करके निर्दिष्ट किया जा सकता है। आगर कोई तर्क निर्दिष्ट नहीं किया जाता है, तो प्रशिक्षण `device=0` लगाने के लिए उपयुक्त GPU `device=0` का उपयोग करेगा, अन्यथा `device=cpu` का उपयोग किया जाएगा। पूरी प्रशिक्षण तर्कों की पूरी सूची के लिए नीचे देखें। + +!!! Example "सिंगल-जीपीयू और सीपीयू प्रशिक्षण उदाहरण" + + उपकरण स्वत: निर्धारित किया जाता है। यदि साझा-GPU उपलब्ध हो तो उसका उपयोग किया जाएगा, अन्यथा प्रशिक्षण सीपीयू पर शुरू होगा। + + === "Python" + + ```python + from ultralytics import YOLO + + # एक मॉडल लोड करें + model = YOLO('yolov8n.yaml') # YAML से एक नया मॉडल बनाएं + model = YOLO('yolov8n.pt') # प्रशिक्षण के लिए सिफारिश की जाती है, एक पूर्व-प्रशिक्षित मॉडल लोड करें + model = YOLO('yolov8n.yaml').load('yolov8n.pt') # YAML से बनाएं और वजन मारे ट्रांसफर करें + + # मॉडल प्रशिक्षण + results = model.train(data='coco128.yaml', epochs=100, imgsz=640) + ``` + + === "CLI" + + ```bash बैश + # YAML से एक नया मॉडल बनाएं और शुरू से प्रशिक्षण शुरू करें + yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640 + + # पूर्व-प्रशिक्षित *.pt मॉडल से प्रशिक्षण शुरू करें + yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 + + # YAML से एक नया मॉडल बनाएं, पूर्व-प्रशिक्षित वजनों को इसमें स्थानांतरित करें और प्रशिक्षण शुरू करें + yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640 + ``` + +### बहु-जीपीयू प्रशिक्षण + +बहु-जीपीयू प्रशिक्षण एकाधिक जीपीयू के उपयोग से उपलब्ध होता है और उपकरण माध्यम से भी Python API के माध्यम से उपलब्ध है। बहु-जीपीयू प्रशिक्षण को सक्षम करने के लिए, आप उपयोग करना चाहते हैं उन जीपीयू उपकरण आईडीजी को निर्दिष्ट करें। + +!!! Example "बहु-जीपीयू प्रशिक्षण का उदाहरण" + + 2 जीपीयू के साथ प्रशिक्षित करें, CUDA उपकरण 0 और 1 का उपयोग करें। अतिरिक्त जीपीयू के लिए विस्तार करें जितना आवश्यक हो। + + === "Python" + + ```python + from ultralytics import YOLO + + # एक मॉडल लोड करें + model = YOLO('yolov8n.pt') # प्रशिक्षण के लिए सिफारिश की जाती है, एक पूर्व-प्रशिक्षित मॉडल लोड करें + + # दो जीपीयू के साथ मॉडल प्रशिक्षण + results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device=[0, 1]) + ``` + + === "CLI" + + ```bash + # पूर्व-प्रशिक्षित *.pt मॉडल से जीपीयू 0 और 1 का उपयोग करके प्रशिक्षण शुरू करें + yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=0,1 + ``` + +### ऐपल M1 और M2 MPS प्रशिक्षण + +ऐपल M1 और M2 चिप्स के समर्थन के साथ Ultralytics YOLO मॉडल पर ट्रेनिंग करना अब ऐसे उपकरणों पर संभव होता है जहां शक्तिशाली मेटल परफार्मेंस शेडर (MPS) फ़्रेमवर्क का उपयोग किया जाता है। MPS कंप्यूटेशन और छवि प्रसंस्करण कार्यों को आईयूपी स्लिकॉन पर निष्पादित करने का एक उच्च कार्यक्षमता तरीका प्रदान करता है। + +ऐपल M1 और M2 चिप्स पर प्रशिक्षण को सक्षम करने के लिए, आपको प्रशिक्षण प्रक्रिया शुरू करते समय "mps" को अपने उपकरण के रूप में निर्दिष्ट करना चाहिए। नीचे Python और कमांड लाइन में इसे कैसे कर सकते हैं उसका एक उदाहरण दिया गया है: + +!!! Example "MPS प्रशिक्षण का उदाहरण" + + === "Python" + + ```python + from ultralytics import YOLO + + # एक मॉडल लोड करें + model = YOLO('yolov8n.pt') # प्रशिक्षण के लिए सिफारिश की जाती है, एक पूर्व-प्रशिक्षित मॉडल लोड करें + + # दो जीपीयू के साथ मॉडल प्रशिक्षण + results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device='mps') + ``` + + === "CLI" + + ```bash + # पूर्व-प्रशिक्षित *.pt मॉडल से जीपीयू 0 और 1 का उपयोग करके प्रशिक्षण शुरू करें + yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=mps + ``` + +M1/M2 चिप्स के गणितात्मक शक्ति का लाभ लेते हुए, इससे प्रशिक्षण कार्यों की कार्यक्षमता को और बढ़ाया जाता है। अधिक विस्तृत मार्गदर्शन और उन्नत रूपरेखा विकल्पों के लिए, कृपया [PyTorch MPS दस्तावेज़ीकरण](https://pytorch.org/docs/stable/notes/mps.html) का संदर्भ देखें। + +### बाधित प्रशिक्षण को बहाल करना + +पहले ही बचे हुए अवस्था की तालिका स्थापित करना, गहरी यान्त्रिकी मॉडल के साथ काम करते समय एक महत्वपूर्ण सुविधा है। यह विविध परिदृश्यों में उपयोगी है, जैसे जब अप्रत्याशित रूप से प्रशिक्षण प्रक्रिया रुक गई हो, या जब आप नए डेटा के साथ या अधिक इपॉक्स के लिए एक मॉडल को प्रशिक्षण जारी रखना चाहते हैं। + +प्रशिक्षण बहाल करने पर, Ultralytics YOLO अंतिम सहेजे गए मॉडल से वजनों को लोड करता है और अद्यतनकर्ता की स्थिति, शिक्षा दर नियोजक और युग क्रमांक को भी पुनर्स्थापित करता है। इससे आप प्रशिक्षण प्रक्रिया को बिना किसी गड़बड़ के बाहर छोड़ देने के लिए कर सकते हैं। + +आप आसानी से Ultralytics YOLO में प्रशिक्षण को बहाल कर सकते हैं जब आप `train` विधि को बुलाने पर `resume` तर्क को `True` निर्दिष्ट करके और आंशिक रूप से निर्दिष्ट `pt` फ़ाइल के पथ को निर्दिष्ट करके, और आपका ट्रेनिंग प्रक्रिया जहां से छोड़ गई थी से प्रशिक्षण जारी रखने के लिए `train` फ़ंक्शन को कम्युट कीजिए। + +नीचे एक उदाहरण दिया गया है कि कैसे पायथन और कमांड लाइन में एक अविरल प्रशिक्षण को कैसे बहाल करें: + +!!! Example "प्रशिक्षण बहाल करने का उदाहरण" + + === "Python" + + ```python + from ultralytics import YOLO + + # एक मॉडल लोड करें + model = YOLO('path/to/last.pt') # एक आंशिक-प्रशिक्षित मॉडल लोड करें + + # प्रशिक्षण बहाल करें + results = model.train(resume=True) + ``` + + === "CLI" + ```bash शैल + # एक अविरल प्रशिक्षण बहाल करें + yolo train resume model=path/to/last.pt + ``` + +`resume=True` सेट करके, `train` फ़ंक्शन पहले से बचे हुए मॉडल के स्थान में बचे हुए अवस्था में से प्रशिक्षण जारी रखेगा। यदि `resume` तर्क छोड़ दिया जाता है या `False` के रूप में निर्दिष्ट किया जाता है, तो `train` फ़ंक्शन एक नया प्रशिक्षण सत्र शुरू करेगा। + +याद रखें कि डिफ़ॉल्ट रूप स्थिति पर दशा-अतीत प्रति के अंत में बचावात्मक संग्रहण होते हैं, या `save_period` तर्क का उपयोग करके निश्चित अंतराल पर, इसलिए आपको एक प्रशिक्षण दौड़ को बहाल करने के लिए कम से कम 1 इपॉक्स पूर्ण करना होगा। + +## तर्क + +YOLO मॉडलों के लिए प्रशिक्षण सेटिंग विभिन्न हाइपरपैरामीटर और कॉन्फ़िगरेशन का उपयोग करते हैं जो मॉडल को एक डेटासेट पर प्रशिक्षित करने के लिए उपयोग होता है। इन सेटिंग्स में मॉडल के प्रदर्शन, गति और नियमितता पर प्रभाव पड़ सकता है। कुछ सामान्य YOLO प्रशिक्षण सेटिंग्स में बैच का आकार, सीखने दर, मोमेंटम और वेट डिके जैसी मानक अद्यतन वाली चीजें शामिल हैं। प्रशिक्षण प्रक्रिया को प्रभावी ढंग से स्थापित करने के लिए इन सेटिंग्स को सावधानीपूर्वक संयोजित करना महत्वपूर्ण है और एक दिए गए कार्य के लिए श्रेणी में सबसे अच्छे परिणाम प्राप्त करने के लिए इन सेटिंग्स के साथ संगतन करने की आवश्यकता होती है। + +| कुंजी | मान | विवरण | +|-------------------|----------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------| +| `model` | `None` | मॉडल फ़ाइल का पथ, चाहे yolov8n.pt, yolov8n.yaml | +| `data` | `None` | डेटा फ़ाइल का पथ, चाहे coco128.yaml | +| `epochs` | `100` | प्रशिक्षण के लिए बार की संख्या | +| `patience` | `50` | प्रशिक्षण के आरंभ में कोई देखने के योग्य सुधार के लिए इपॉक्स इंतजार करें | +| `batch` | `16` | प्रति बैच छवि की संख्या (-1 के लिए AutoBatch) | +| `imgsz` | `640` | प्रारंभिक छवियों का आकार मानदंड | +| `save` | `True` | प्रशिक्षण नियंत्रितक और पूर्वानुमान परिणाम सहेजें | +| `save_period` | `-1` | प्रत्येक x ईपॉक्स पर निर्वाचित चेकप्वाइंट (1 से कम द्वारा अक्षम) | +| `cache` | `False` | [सही/रैम](https://github.com/rwightman/pytorch-image-models/blob/master/timm/data/constants.py) या खोलने के लिए ब्राउज़र के लिए ब्राउज़र डेटा लोड करने के लिए उपयोग करें | +| `device` | `None` | चलाने के लिए उपकरण, उदाहरण के लिए cuda उपकरण का उपयोग करें device=0 या device=0,1 या device=cpu | +| `workers` | `8` | वर्कर सूत्रों की संख्या | +| `project` | `None` | प्रोजेक्ट का नाम | +| `name` | `None` | प्रयोग का नाम | +| `exist_ok` | `False` | मौजूदा प्रयोग को अधिलेखित करने के लिए या नहीं | +| `pretrained` | `True` | (बूल या स्ट्रिंग) आज्ञानुसार एक पूर्व-प्रशिक्षित मॉडल का उपयोग करें (बूल) या वजनों को लोड करने के लिए मॉडल से (स्ट्रिंग) | +| `optimizer` | `'auto'` | चयन के लिए बराबरी=[SGD, Adam, Adamax, AdamW, NAdam, RAdam, RMSProp, auto] | +| `verbose` | `False` | वर्बोज़ आउटपुट प्रिंट करें | +| `seed` | `0` | नियंत्रित (प्रशिक्षणीय) बीज के लिए | +| `deterministic` | `True` | नियंत्रित माध्यम को सक्षम करें | +| `single_cls` | `False` | हिल विशेषज्ञता डेटा सिंगल-कक्षा के रूप में | +| `rect` | `False` | न्यूनतम पैडिंग के लिए प्रति बैच रो टैब्री के साथ आयतात्मक प्रशिक्षण | +| `cos_lr` | `False` | साइन के साइन शिक्षण दर नियोजक का उपयोग करें | +| `close_mosaic` | `10` | अंतिम अवधि के लिए मॉज़ेक त断श्रावक में माध्यम वृक्षों की सक्षमता (0 को अक्षम करें) | +| `resume` | `False` | आखिरी निर्वाचित चेकप्वाइंट से प्रशिक्षण बहाल करें | +| `amp` | `True` | ऑटोमेटिक मिक्स्ड प्रेसिजन (AMP) प्रशिक्षण, चयन=[True, False] | +| `fraction` | `1.0` | प्रशिक्षित करने के लिए डेटासेट आंशिक (डिफ़ॉल्ट 1.0, प्रशिक्षण सेट में सभी छवियां) | +| `profile` | `False` | लॉगर्स के लिए प्रशिक्षण के दौरान ONNX और TensorRT की स्पीड प्रोफ़ाइल | +| `freeze` | `None` | श्रोणि की पहले n परतें, या श्रोणि सूची लेयर सूची को प्रशिक्षण के दौरान लॉक करें | +| `lr0` | `0.01` | प्रारंभिक सीखने दर (उदा. SGD=1E-2, Adam=1E-3) | +| `lrf` | `0.01` | परिणामकारी सीखने दर (lr0 * lrf) | +| `momentum` | `0.937` | SGD मोमेंटम/Adam बीटा1 | +| `weight_decay` | `0.0005` | शव्य वजन दण्ड 5e-4 | +| `warmup_epochs` | `3.0` | प्रारंभिक अवधि (अंशों में ठंडा) | +| `warmup_momentum` | `0.8` | प्रारंभिक अवधि मे प्रारम्भिक अवधि | +| `warmup_bias_lr` | `0.1` | प्रारंभिक जुकान एलआर | +| `box` | `7.5` | बॉक्स हानि प्राप्ति | +| `cls` | `0.5` | वर्ग हानि प्राप्ति (पिक्सेल के साथ स्थापना करें) | +| `dfl` | `1.5` | खींची हानि प्राप्ति | +| `pose` | `12.0` | माथाप्रविष्टि हानि प्राप्ति (केवल ठंडा) | +| `kobj` | `2.0` | कीपॉइंट obj हानि प्राप्ति (केवल ठंडा) | +| `label_smoothing` | `0.0` | लेबल स्मूदिंग (अंश) | +| `nbs` | `64` | नामोज़यल बैच का आकार | +| `overlap_mask` | `True` | प्रशिक्षण के दौरान मास्क ओवरलैप होने चाहिए (सेगमेंट ट्रेन केवल) | +| `mask_ratio` | `4` | स्थानकटू औरता (सेगमेंट ट्रेन केवल) | +| `dropout` | `0.0` | निर्द्यमता का उपयोग करें (वर्गीकरण केवल प्रशिक्षण) | +| `val` | `True` | प्रशिक्षण के दौरान जाँच/परीक्षण | + +## लॉगिंग + +YOLO मॉडल के प्रशिक्षण में आपको समय-समय पर मॉडल के प्रदर्शन का पता रखना महत्वपूर्ण हो सकता है। यहां लॉगिंग की एक वैरांगणिकता, यानी कीमेट, क्लियरएमएल और टेंसरबोर्ड का समर्थन है। + +लॉगर का उपयोग करने के लिए, ऊपरी कोड स्निपेट के ठोकवाला मेनू से इसे चयन करें और इसे चलाएं। चयनित लॉगर स्थापित किया जाएगा और इनिशलाइज़ किया जाएगा। + +### कीमेट + +[कीमेट](../../integrations/comet.md) एक प्लेटफ़ॉर्म है जो डेटा वैज्ञानिकों और डेवलपरों को प्रयोग और मॉडलों की प्रशिक्षण में तुलनात्मक, व्याख्यान करने और अग्रिम निर्धारण करने में मदद करता है। इसकी सुविधाएं वास्तविक समय मापक, कोड अंतर और हाइपरपैरामीटर ट्रैकिंग जैसी विभिन्नताएं प्रदान करती हैं। + +कीमेट का उपयोग करने के लिए: + +!!! Example "उदाहरण" + + === "Python" + ```python + # pip install comet_ml + import comet_ml + + comet_ml.init() + ``` + +कृपया कीमेट वेबसाइट पर अपने कीमेट खाते में साइन इन करें और अपनी एपीआई कुंजी प्राप्त करें। आपको अपने वातावरण प्रतिस्थापित करने या अपने स्क्रिप्ट में इसे जोड़ने की आवश्यकता होगी ताकि आप अपने प्रयोगों को लॉग कर सकें। + +### क्लियरएमएल + +[क्लियरएमएल](https://www.clear.ml/) एक ओपन-सोर्स प्लेटफ़ॉर्म है जो प्रयोगों के ट्रैकिंग को स्वतंत्र और प्रभावी संसाधित करने में मदद करता है। यह टीम को उनके एमएल का कार्य प्रबंधन, क्रियाकलापों को क्रियान्वयन करने और उनकी पुनःसृजन की संवेदनशीलता से सहायता करने के लिए डिज़ाइन दोबारा करने के लिए विकसित किया गया है। + +क्लियरएमएल का उपयोग करने के लिए: + +!!! Example "उदाहरण" + + === "Python" + ```python + # pip install clearml + import clearml + + clearml.browser_login() + ``` + +इस स्क्रिप्ट को चलाने के बाद, कृपया क्लियरएमएल वेबसाइट पर अपने क्लियरएमएल खाते में साइन इन करें और अपने ब्राउज़र सत्र की प्रमाणिकता स्वीकार करें। + +### टेंसरबोर्ड + +[टेंसरबोर्ड](https://www.tensorflow.org/tensorboard) एक टेन्सरफ़्लो वीज़ुअलाइज़ेशन टूलकिट है। यह आपको अपने टेन्सरफ़्लो ग्राफ को दृष्टिगतिक टुकड़ों में वेटवेद्य करने, आपातकालीन अवकलनों के बारे में मितियों को प्लॉट करने और इसके मध्य से जाने की कल्पना से बदलने जैसे अतिरिक्त डेटा दिखाने की अनुमति देता है। + +[Google Colab में](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb) टेंसरबोर्ड का उपयोग करने के लिए: + +!!! Example "उदाहरण" + + === "CLI" + ```bash + load_ext tensorboard + tensorboard --logdir ultralytics/runs # ध्यान दें कि 'धावक' निर्देशिका के साथ बदलें + ``` + +स्थानीय टेंसरबोर्ड का उपयोग करने के लिए नीचे दिए गए कमांड को चलाएं और परिणामों को http://localhost:6006/ पर देखें। + +!!! Example "उदाहरण" + + === "CLI" + ```bash + tensorboard --logdir ultralytics/runs # ध्यान दें कि 'धावक' निर्देशिका के साथ बदलें + ``` + +इससे टेंसरबोर्ड लोड होगा और यह आपके प्रशिक्षण लॉगों की सहेजी हुई निर्देशिका की ओर दिशानिर्देश करेगा। + +लॉगर स्थापित करने के बाद, आप अपने चयनित प्लेटफ़ॉर्म में स्वचालित रूप से रूपांतरण मात्राओं को अद्यतन करने के लिए प्रशिक्षणीय कोड जारी रख सकते हैं, और आपको इन लॉगों का उपयोग करके अपने मॉडल के प्रदर्शन का मूल्यांकन कर सकते हैं चाहे यह मॉडलों के प्रदर्शन के समय, विभिन्न मॉडलों का तुलनात्मक मूल्यांकन, और सुधार करने का पहचान करने के लिए। diff --git a/docs/hi/modes/val.md b/docs/hi/modes/val.md new file mode 100644 index 0000000000..8880f820ae --- /dev/null +++ b/docs/hi/modes/val.md @@ -0,0 +1,86 @@ +--- +comments: true +description: YOLOv8 मॉडलों की मान्यता सत्यापन के लिए गाइड। यहाँ जानें कि कैसे पायथन और CLI उदाहरणों के साथ परीक्षण सेटिंग्स और मापों का उपयोग करके अपने YOLO मॉडलों के प्रदर्शन का मूल्यांकन करें। +keywords: Ultralytics, YOLO दस्तावेज़, YOLOv8, मान्यता, मॉडल मूल्यांकन, हाइपरपैरामीटर, सटीकता, माप, पायथन, सीएलआई +--- + +# Ultralytics YOLO के साथ मॉडल मान्यता + +Ultralytics YOLO पारिस्थितिकी और एकीकरण + +## परिचय + +मान्यता मशीन लर्निंग पाइपलाइन में एक महत्वपूर्ण चरण है, जो आपको अपने प्रशिक्षित मॉडलों की गुणवत्ता का मूल्यांकन करने की अनुमति देता है। Ultralytics YOLOv8 में Val मोड बहुत सारे टूल्स और मापों का प्रयोग करके आपके ऑब्जेक्ट डिटेक्शन मॉडलों के प्रदर्शन का मूल्यांकन करने के लिए है। यह गाइड योग्यता और विश्वसनीयता दोनों सुनिश्चित करने के लिए Val मोड का सविस्तर संसाधन के रूप में काम आता है। + +## Ultralytics YOLO के साथ मान्यता करने के फायदे + +यहाँ योलोवी8 के Val मोड का उपयोग करने के फायदे हैं: + +- **सटीकता:** अपने मॉडल को पूरी तरह से मूल्यांकित करने के लिए mAP50, mAP75, और mAP50-95 जैसे टिकाऊ मापों को प्राप्त करें। +- **सुविधा:** मूल्यांकन प्रक्रिया को सरल बनाने के लिए ट्रेनिंग सेटिंग्स को याद करने वाली इनबिल्ट सुविधा का उपयोग करें। +- **लचीलापन:** अपने मॉडल को एक ही या अलग डेटासेट और छवि आकार के साथ मान्यता दें। +- **हाइपरपैरामीटर ट्यूनिंग:** मूल्यांकन मापों का उपयोग करके अपने मॉडल को बेहतर प्रदर्शन के लिए समायोजित करें। + +### Val मोड की मुख्य विशेषताएं + +ये हैं YOLOv8 के Val मोड द्वारा प्रदान की जाने वाली महत्वपूर्ण कार्यक्षमताएं: + +- **स्वत: सेटिंग्स:** मॉडल योग्यता के लिए अपने प्रशिक्षण समायोजनों को स्वतः याद रखते हैं। +- **बहुमान्यता समर्थन:** विभिन्न सटीकता मापों के आधार पर अपने मॉडल की मूल्यांकन करें। +- **CLI और पायथन एपीआई:** मान्यता के लिए CLI या पायथन एपीआई में से एक का चयन करें। +- **डेटा सम्पर्कता:** कोकोविवक प्रशिक्षण चरण में उपयोग की जाने वाली डेटासेट के साथ सहजता से काम करता है। + +!!! Tip "टिप" + + * YOLOv8 मॉडल अपने प्रशिक्षण सेटिंग्स को स्वतः याद रखते हैं, इसलिए आप केवल `yolo val model=yolov8n.pt` या `model('yolov8n.pt').val()` द्वारा सरलतापूर्वक एक मॉडल को समान छवि आकार के साथ और मूल डेटासेट पर मान्यता दे सकते हैं। + +## उपयोग के उदाहरण + +COCO128 डेटासेट पर प्रशिक्षित YOLOv8n मॉडल की सटीकता मान्यांकन करें। `model` को विद्यमान ट्रेनिंग `data` और तर्क बने रहते हैं, इसलिए कोई तर्क पास कराने की आवश्यकता नहीं है। पूरी सूची निर्यात तर्कों के लिए नीचे देखें। + +!!! Example "उदाहरण" + + === "पायथन" + + ```python + from ultralytics import YOLO + + # मॉडल लोड करें + model = YOLO('yolov8n.pt') # एक आधिकारिक मॉडल लोड करें + model = YOLO('path/to/best.pt') # एक कस्टम मॉडल लोड करें + + # मॉडल को मान्यांकन करें + metrics = model.val() # कोई तर्क आवश्यक नहीं होते हैं, डेटासेट और सेटिंग्स याद रखे जाते हैं + metrics.box.map # map50-95 + metrics.box.map50 # map50 + metrics.box.map75 # map75 + metrics.box.maps # हर श्रेणी के map50-95 से बना एक सूची + ``` + === "CLI" + + ```bash + yolo detect val model=yolov8n.pt # आधिकारिक मॉडल को मान्यांकन करें + yolo detect val model=path/to/best.pt # कस्टम मॉडल को मान्यांकन करें + ``` + +## तर्क + +YOLO मॉडल के लिए मान्यांकन सेटिंग्स निम्नलिखित होते हैं: हाइपरपैरामीटर और विन्यास जैसे, जो मॉडल की मान्यता को मूल्यांकित करने के लिए उपयोग होते हैं। ये सेटिंग्स मॉडल के प्रदर्शन, गति, और सटीकता पर प्रभाव डाल सकती हैं। कुछ आम YOLO मान्यांकन सेटिंग्स में दाल-दालत, ट्रेनिंग के दौरान मान्यांकन कब किया जाता है और मान्यांकन के लिए उपयोग किए जाने वाले माप शामिल हैं। मान्यांकन प्रक्रिया को प्रभावित कर सकने वाले अन्य कारकों में मान्यांकन डेटासेट का आकार और संरचना और मॉडल का विशेष कार्य शामिल हैं। ओवरफिटिंग का पता लगाने और रोकने के लिए इन सेटिंग्स को सावधानीपूर्वक समायोजित और प्रयोग करना महत्वपूर्ण है। + +| कुंजी | मान | विवरण | +|---------------|---------|------------------------------------------------------------------------------------| +| `data` | `None` | डेटा फ़ाइल का पथ, जैसे की coco128.yaml | +| `imgsz` | `640` | प्रारूपिक छवि का आकार एक पूर्णांक के रूप में | +| `batch` | `16` | प्रति बैच छवि की संख्या (-1 for AutoBatch) | +| `save_json` | `False` | परिणाम JSON फ़ाइल में सहेजें | +| `save_hybrid` | `False` | प्रकारों के हाइब्रिड संस्करण को सहेजें (लेबल + अतिरिक्त पूर्वानुमान) | +| `conf` | `0.001` | डिटेक्शन के लिए वस्तु का विश्वसनीयता थ्रेशहोल्ड | +| `iou` | `0.6` | संयोग/संधि (IoU) के लिए थ्रेशहोल्ड डाकघर | +| `max_det` | `300` | प्रति छवि के लिए अधिकतम निकासी संख्या | +| `half` | `True` | अर्धसरलता (FP16) का उपयोग करें | +| `device` | `None` | चलाएं के लिए युक्ति, उदाहरण के लिए cuda device=0/1/2/3 या device=cpu | +| `dnn` | `False` | ओएनएनएक्स संज्ञानात्मक के लिए ओपेंसीवी डीएनएन का उपयोग करें | +| `plots` | `False` | प्रशिक्षण के दौरान चित्रितियाँ दिखाएं | +| `rect` | `False` | न्यूनतम पैडिंग के लिए हर बैच को संकलित आयताकारक विमान करें | +| `split` | `val` | मान्यांकन के लिए उपयोग की जाने वाली डेटासेट स्प्लिट, जैसे 'val', 'test' या 'train' | +| diff --git a/docs/hi/quickstart.md b/docs/hi/quickstart.md new file mode 100644 index 0000000000..e1af65a071 --- /dev/null +++ b/docs/hi/quickstart.md @@ -0,0 +1,327 @@ +--- +comments: true +description: Ultralytics को स्थापित करने के विभिन्न तरीकों के बारे में जानें। Ultralytics को pip, conda, git और Docker का उपयोग करके स्थापित करें। Ultralytics का उपयोग कमांड लाइन इंटरफेस या अपनी Python परियोजनाओं के भीतर करना सीखें। +keywords: Ultralytics स्थापना, pip install Ultralytics, Docker install Ultralytics, Ultralytics कमांड लाइन इंटरफेस, Ultralytics Python इंटरफेस +--- + +## Ultralytics स्थापित करें + +Ultralytics ने pip, conda और Docker सहित कई स्थापना विधियाँ प्रदान की हैं। नवीनतम स्थिर संस्करण के लिए `ultralytics` pip पैकेज का उपयोग करके YOLOv8 स्थापित करें या सबसे अद्यतित संस्करण के लिए [Ultralytics GitHub repository](https://github.com/ultralytics/ultralytics) क्लोन करें। Docker का उपयोग करके, स्थानीय स्थापना से बच कर, एक छोटे जगह में पैकेज के नए संस्करण का निष्पादन किया जा सकता है। + +!!! Note + + 🚧 हमारे बहुभाषीय दस्तावेज़ीकरण की वर्तमान में निर्माणाधीन है और हम उसे सुधारने के लिए कठिनताओं पर काम कर रहे हैं। आपके धैर्य के लिए धन्यवाद! 🙏 + +!!! Example "स्थापित करें" + + === "Pip स्थापित करें (अनुशंसित)" + यदि आपके पास पिछले संस्करण का स्थापना है, तो पिप का उपयोग करके `ultralytics` पैकेज को स्थापित करने के लिए `pip install -U ultralytics` कमांड चलाएं। `ultralytics` पैकेज के बारे में अधिक विवरण के लिए [Python Package Index (PyPI)](https://pypi.org/project/ultralytics/) पर जाएं। + + [![PyPI version](https://badge.fury.io/py/ultralytics.svg)](https://badge.fury.io/py/ultralytics) [![Downloads](https://static.pepy.tech/badge/ultralytics)](https://pepy.tech/project/ultralytics) + + ```bash + # PyPI से ultralytics पैकेज का स्थापना करें + pip install ultralytics + ``` + + आप इसे सीधे [GitHub repository](https://github.com/ultralytics/ultralytics) से भी स्थापित कर सकते हैं। यह अद्यतन संस्करण प्राप्त करना चाहते हैं तो यह सर्वोत्तम हो सकता है। इसके लिए अपने सिस्टम पर गिट कमांड-लाइन टूल स्थापित होना चाहिए। `@main` अपदेश की `main` शाखा को स्थापित करता है और इसे दूसरी शाखा, उदा. `@my-branch`, में संशोधित किया जा सकता है, या पूर्णतः हटा दिया जा सकता है, ताकि यह डिफ़ॉल्ट रूप से `main` शाखा को ले जाए। + + ```bash + # GitHub से ultralytics पैकेज का स्थापना करें + pip install git+https://github.com/ultralytics/ultralytics.git@main + ``` + + + === "Conda स्थापित करें" + स्थापना के लिए pip के बदले Conda एक वैकल्पिक पैकेज प्रबंधक है जिसे आप स्थापना के लिए उपयोग कर सकते हैं। किसी भी जानकारी के लिए [Anaconda की मुख्य साइट](https://anaconda.org/conda-forge/ultralytics) पर जाएं। कंडा पैकेज की अद्यतन और संसाधन रिपो के लिए [यहां](https://github.com/conda-forge/ultralytics-feedstock/) देखें। + + + [![Conda Recipe](https://img.shields.io/badge/recipe-ultralytics-green.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda Downloads](https://img.shields.io/conda/dn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda Version](https://img.shields.io/conda/vn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda Platforms](https://img.shields.io/conda/pn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) + + ```bash + # conda का उपयोग करके ultralytics पैकेज का स्थापना करें + conda install -c conda-forge ultralytics + ``` + + !!! Note + + यदि आप CUDA परिवेश में स्थापित कर रहे हैं तो सर्वोत्तम अनुशंसा है कि आप कमांड-लाइन पर `pytorch` और `pytorch-cuda` स्थापित करने के लिए कमांड एक साथ इंस्टॉल करें ताकि कोण्डा पैकेज प्रबंधक को कोई भी टकराव सुलझाने के लिए अनुमति मिले, या फिर जरूरत पड़ने पर CPU-विशिष्ट `pytorch` पैकेज को CPU-विशिष्ट होने वाले `pytorch-cuda` पैकेज को अधिरोहित करने की अनुमति दें। + ```bash + # conda का उपयोग करके सभी पैकेजों को एक साथ स्थापित करें + conda install -c pytorch -c nvidia -c conda-forge pytorch torchvision pytorch-cuda=11.8 ultralytics + ``` + + ### Conda Docker इमेज + + Ultralytics Conda Docker इमेज [DockerHub](https://hub.docker.com/r/ultralytics/ultralytics) से उपलब्ध हैं। ये इमेजेज [Miniconda3](https://docs.conda.io/projects/miniconda/en/latest/) पर आधारित हैं और `ultralytics` का उपयोग Conda पर्यावरण में करने के लिए एक सरल तरीका है। + + ```bash + # रूपरेखा नाम को एक चर के रूप में सेट करें + t=ultralytics/ultralytics:latest-conda + + # Docker Hub से नवीनतम ultralytics इमेज को पुल करें + sudo docker pull $t + + # जीपीयू समर्थन वाले कंटेनर में ultralytics इमेज चलाएं + sudo docker run -it --ipc=host --gpus all $t # सभी जीपीयू + sudo docker run -it --ipc=host --gpus '"device=2,3"' $t # जीपीयू द्वारा निर्दिष्ट करें + ``` + + === "Git क्लोन" + यदि आप विकास में योगदान करने में रुचि रखते हैं या नवीनतम स्रोत कोड के साथ प्रयोग करने की इच्छा रखते हैं, तो `ultralytics` रिपॉजिटरी क्लोन करें। क्लोनिंग के बाद, उस निर्दिष्टित संदर्भ में नेविगेट करें और पैकेज को पहचानने के लिए pip का उपयोग करते हुए संगठनात्मक मोड `-e` के साथ पैकेज स्थापित करें। + ```bash + # ultralytics रिपॉजिटरी क्लोन करें + git clone https://github.com/ultralytics/ultralytics + + # क्लोन की गई निर्देशिका में नेविगेट करें + cd ultralytics + + # विकास के लिए संगठनात्मक मोड में पैकेज स्थापित करें + pip install -e . + ``` + + === "Docker" + + Docker का उपयोग करके `ultralytics` पैकेज का आसानी से निष्पादन करें और इसे रखरखाव में बेहद सुगम बनाएं, इस पैकेज का उपयोग करें, विभिन्न पर्यावरणों पर सतत और सुगम प्रदर्शन सुनिश्चित करने के लिए। [Docker Hub](https://hub.docker.com/r/ultralytics/ultralytics) से सत्यापित कार्यकारी वातावरण तक पहुंच के लिए Ultralytics 5 मुख्य समर्थित Docker इमेज उपलब्ध हैं, जो विभिन्न प्लेटफ़ॉर्म और उपयोग मामलों के लिए उच्च संगतता और प्रदार्थशीलता प्रदान करने के लिए डिज़ाइन किए गए हैं: + + डॉकर पुल्ल्स + + - **Dockerfile:** प्रशिक्षण के लिए अद्यतन संस्करण के लिए अनुशंसित GPU चित्र। + - **Dockerfile-arm64:** ARM64 वाणिज्यिकरण के लिए अनुकूलित, Raspberry Pi और अन्य ARM64 आधारित प्लेटफ़ॉर्म पर यातायात की अनुमति देता है। + - **Dockerfile-cpu:** GPU रहित पतला मॉडल, उबंटू आधारित योग्यता तक पुनर्निर्माण के लिए उपयुक्त है। + - **Dockerfile-jetson:** NVIDIA Jetson उपकरणों के लिए आदर्शों के आधार पर गीयू समर्थन मिलान, इन प्लेटफ़ॉर्मों के लिए अनुकूल यूपीयू समर्थन समेकित करता है। + - **Dockerfile-python:** केवल Python और आवश्यकता प्रतिस्थापित करने वाले न्यूनतम छवि, हल्के ऐप्स और विकास के लिए आदर्श छवि। + - **Dockerfile-conda:** Miniconda3 पर आधारित, Ultralytics पैकेज के कोण्डा स्थापना के साथ। + + निम्नलिखित कमांडों का उपयोग करके नवीनतम छवि लाएँ और उसे निष्पादित करें: + + ```bash + # छवि नाम को एक चर के रूप में सेट करें + t=ultralytics/ultralytics:latest + + # Docker Hub से नवीनतम ultralytics छवि पुल करें + sudo docker pull $t + + # जीपीयू समर्थन वाले कंटेनर में ultralytics छवि चलाएं + sudo docker run -it --ipc=host --gpus all $t # सभी जीपीयू + sudo docker run -it --ipc=host --gpus '"device=2,3"' $t # जीपीयू द्वारा निर्दिष्ट करें + ``` + + उपरोक्त कमांड ने एक Docker कंटेनर को एक्सेस करने के लिए उत्थान किया है। `-it` झंझटी एक प्रतीक TTY को निर्धारित करती है और stdin खुली रखती है, जिससे आप कंटेनर के साथ इंटरैक्ट कर सकते हैं। `--ipc=host` झंझटी IPC (Inter-Process Communication) नेमस्पेस को होस्ट पर सेट करता है, जो प्रक्रियाओं के बीच मेमोरी साझा करने के लिए आवश्यक होता है। `--gpus all` निर्दिष्ट जीपीयू कंटेनर के बीतर सभी उपलब्ध जीपीयू के लिए पहुंच सक्षम करता है, जो जीपीयू हस्तक्षेप आवश्यकता वाले कार्यों के लिए महत्वपूर्ण है। + + ध्यान दें: कंटेनर में स्थिति में अपनी स्थानीय मशीन पर फ़ाइलों के साथ काम करने के लिए Docker वॉल्यूम का उपयोग करें: + + ```bash + # स्थानीय निर्देशिका को कंटेनर में निर्देशिका में माउंट करें + sudo docker run -it --ipc=host --gpus all -v /path/on/host:/path/in/container $t + ``` + + `/path/on/host` को अपनी स्थानीय मशीन पर निर्देशिका पथ के साथ बदलें और `/path/in/container` को कंटेनर में योग्यता तक पथ बदलें जिससे पहुंच मिल सके। + + पूर्ण Docker उपयोग के लिए, आप [Ultralytics Docker मार्गदर्शिका](https://docs.ultralytics.com/guides/docker-quickstart/) के अन्वेषण कर सकते हैं। + +`ultralytics` के लिए सभी आवश्यकताओं की सूची के लिए `ultralytics` [requirements.txt](https://github.com/ultralytics/ultralytics/blob/main/requirements.txt) फ़ाइल देखें। ध्यान दें कि उपरोक्त सभी उदाहरणों में सभी आवश्यकताएं स्थापित होती हैं। + +

+
+ +
+ देखें: Ultralytics YOLO Quick Start Guide +

+ +!!! Tip "सुझाव" + + ऑपरेटिंग सिस्टम और CUDA आवश्यकताओं के अनुसार PyTorch आवश्यकताएं अलग-अलग हो सकती हैं, इसलिए अनुशंसा की जाती है कि पहले PyTorch स्थापित करने के लिए इंस्ट्रक्शंस पर जाएं। [https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally) पर उपयोग के बारे में अधिक जानकारी के लिए। + + + PyTorch Installation Instructions + + +## CLI के साथ Ultralytics का उपयोग करें + +Ultralytics कमांड लाइन इंटरफ़ेस (CLI) आसान एकल-पंक्ति कमांड के लिए संक्षेप में होसला अद्यतित करता है, पायथन पर्यावरण की ज़रूरत के बिना। CLI कोई अनुकूलन या पायथन कोड की आवश्यकता नहीं होती है। आप केवल `yolo` कमांड के साथ टर्मिनल से सभी कार्यों को चला सकते हैं। CLI से YOLOv8 का उपयोग करने के बारे में और अधिक जानने के लिए [CLI Guide](../usage/cli.md) देखें। + +!!! Example + + === "संयोजन" + Ultralytics `yolo` कमांड का उपयोग निम्नलिखित प्रारूप का उपयोग करता है: + ```bash + yolo टास्क मोड ARGS + ``` + + - `टास्क` (वैकल्पिक) इनमें से एक है ([खोजो](tasks/detect.md), [खंड](tasks/segment.md), [वर्गीकरण करो](tasks/classify.md), [स्थिति](tasks/pose.md)) + - `मोड` (आवश्यक) इनमें से एक है ([प्रशिक्षण](modes/train.md), [मान्य](modes/val.md), [पूर्वानुमान](modes/predict.md), [निर्यात](modes/export.md), [ट्रैक](modes/track.md)) + - `ARGS` (वैकल्पिक) `imgsz=640` जैसे `arg=मान` जो डिफ़ॉल्ट को ओवरराइड करते हैं। + + सभी `ARGS` को पूर्ण [Configuration Guide](../usage/cfg.md) या `yolo cfg` CLI कमांड के साथ देखें। + + === "प्रशिक्षण" + प्रारंभिक शिक्षण और language के साथ 10 एपोक्स के लिए एक डिटेक्शन मॉडल प्रशिक्षित करें, जहां + इंगिती शिक्षण दर 0.01 है + ```bash + yolo ट्रेन data=coco128.yaml model=yolov8n.pt epochs=10 lr0=0.01 + ``` + + === "पूर्वानुमान" + पूर्व-प्रशिक्षित सेगमेंटेशन मॉडल का उपयोग करके YouTube वीडियो की भविष्यवाणी करें + छवि आकार 320: + ```bash + yolo पूर्वानुमान model=yolov8n-seg.pt स्रोत='https://youtu.be/LNwODJXcvt4' imgsz=320 + ``` + + === "मान्य करो" + एक पूर्व-प्रशिक्षित डिटेक्शन मॉडल की मान्यता वाली प्रमाणित करें और इमेज का आकार 640 के बैच-आकार 1 के साथ देखें: + ```bash + yolo मान्य model=yolov8n.pt data=coco128.yaml batch=1 imgsz=640 + ``` + + === "निर्यात करें" + एक YOLOv8n वर्गीकरण मॉडल को ONNX प्रारूप में निर्यात करें, 224x224 के आकार पर छवि (कोई टास्क आवश्यक नहीं है) + ```bash + yolo निर्यात model=yolov8n-cls.pt format=onnx imgsz=224,128 + ``` + + === "विशेष" + संस्पेष्ट कमांडों को चलाएं ताकि संस्करण, सेटिंग देखें, चेक करें और अधिक देखें: + ```bash + yolo help + yolo checks + yolo version + yolo settings + yolo copy-cfg + yolo cfg + ``` + +!!! Warning "चेतावनी" + + ताकि दुविधा न हो, तज़्ज़ा सेटिंग को `arg=val` जोड़े के रूप में पार करना होगा, जिन्हें `=` रेखा द्वारा विभाजित किया जाता है और जोड़ों के बीच अंतरित होता है। `--` तर्क-पूर्वक अंटीरे शब्द या `,` अंतराल द्वारा तर्कों का उपयोग न करें। + + - `yolo predict model=yolov8n.pt imgsz=640 conf=0.25` ✅ + - `yolo predict model yolov8n.pt imgsz 640 conf 0.25` ❌ (अभाव `=`) + - `yolo predict model=yolov8n.pt, imgsz=640, conf=0.25` ❌ (`,` उपयोग न करें) + - `yolo predict --model yolov8n.pt --imgsz 640 --conf 0.25` ❌ (`--` उपयोग न करें) + +एकेन्द्रीय योग्यताएँ [Configuration Guide](../usage/cfg.md) या `yolo cfg` CLI कमांड के साथ देखें। + +## Python के साथ Ultralytics का उपयोग करें + +YOLOv8 का Python इंटरफ़ेस आपकी Python परियोजनाओं में अंकित मिलने के लिए एक आसान तकनीक प्रदान करता है, जिसे हमारे पास शामिल करना आसान हो जाता है। उपयोगकर्ताओं को उनके परियोजनाओं में आपातकालीन पहुंच, चलाने और मॉडल के आउटपुट की प्रसंस्करण करने की आसानी के साथ प्रश्नोत्तरी, खंड, और वर्गीकरण कार्यों के लिए सुविधाजनक मूल्य प्रदान करता है। इस तकनीक के साथ, उपयोगकर्ताओं के लिए यह अद्वितीय साधन है जो अपनी Python परियोजनाओं में इन गुणों को शामिल करने की इच्छा रखते हैं। + +उदाहरण के लिए, उपयोगकर्ता संख्या गिनती के लिए कुछ-कुछ तारणी की योजना में मॉडल को लोड करके उसे प्रशिक्षित कर सकते हैं, इसका मूल्यांकन समाप्त कर सकते हैं और यदि आवश्यक हो, उसे ONNX प्रारूप में निर्यात कर सकते हैं। अपनी Python परियोजनाओं में YOLOv8 का उपयोग करने के बारे में और अधिक जानने के लिए [Python Guide](../usage/python.md) देखें। + +!!! Example + + ```python + from ultralytics import YOLO + + # पूरी नई YOLO मॉडल बनाएँ + model = YOLO('yolov8n.yaml') + + # प्रशिक्षित YOLO मॉडल लोड करें (प्रशिक्षण के लिए अनुशंसित है) + model = YOLO('yolov8n.pt') + + # 3 एपोक्स के लिए "coco128.yaml" डेटासेट का उपयोग करके मॉडल को प्रशिक्षित करें + results = model.train(data='coco128.yaml', epochs=3) + + # मॉडल के द्वारा मान्यता वाले सेट पर प्रदर्शन करें + results = model.val() + + # मॉडल को उपयोग करके छवि पर डिटेक्शन करें + results = model('https://ultralytics.com/images/bus.jpg') + + # मॉडल को ONNX प्रारूप में निर्यात करें + success = model.export(format='onnx') + ``` + +[Python Guide](../usage/python.md){.md-button .md-button--primary} + +## Ultralytics सेटिंग्स + +Ultralytics लाइब्रेरी सेटिंग्स प्रबंधन प्रणाली प्रदान करती है ताकि आप अपने प्रयोगों पर फाइन-ग्रेन्ड नियंत्रण बनाए रख सकें। `ultralytics.utils` में स्थित `SettingsManager` का उपयोग करके उपयोगकर्ता अपनी सेटिंग्स तक पहुंच करके उन्हें पढ़ और बदल सकते हैं। इन्हें पायथन पर्यावरण के भीतर सीधे देखने और संशोधित करने के लिए, या CLI (कमांड लाइन इंटरफ़ेस) के माध्यम से किया जा सकता है। + +### सेटिंग्स का गणना + +अपनी सेटिंग्स के मौजूदा विन्यास की ओरदारी करने के लिए आप उन्हें सीधे देख सकते हैं: + +!!! Example "सेटिंग्स देखें" + + === "पायथन" + आप PyTorch से `ultralytics` मॉड्यूल में `सेटिंग्स` ऑब्जेक्ट को आयात करके अपनी सेटिंग्स देख सकते हैं। `settings` ऑब्जेक्ट पर प्रिंट और रिटर्न सेटिंग्स के लिए निम्नलिखित कमांडों का उपयोग करें: + ```python + from ultralytics import settings + + # सभी सेटिंग्स देखें + print(settings) + + # एक विशेष सेटिंग प्राप्त करें + value = settings['runs_dir'] + ``` + + === "CLI" + यदि आप प्राथमिकताएँ लेते हैं CLI का उपयोग करना पसंद करते हैं, तो निम्नलिखित कमांड के माध्यम से अपनी सेटिंग्स की जांच कर सकते हैं: + ```bash + yolo settings + ``` + +### सेटिंग्स संशोधित करना + +Ultralytics के सेटिंग्स को संशोधित करना आसान है। बदलावों को निम्न तरीकों से किया जा सकता है: + +!!! Example "सेटिंग्स अपडेट करें" + + === "पायथन" + पायथन पर्यावरण के भीतर, अपनी सेटिंग्स पर `अपडेट` विधि को बुलाकर अपनी सेटिंग्स को बदल सकते हैं: + ```python + from ultralytics import settings + + # एक सेटिंग अपडेट करें + settings.update({'runs_dir': '/path/to/runs'}) + + # एकाधिक सेटिंग अपडेट करें + settings.update({'runs_dir': '/path/to/runs', 'tensorboard': False}) + + # डिफ़ॉल्ट मान में सेटिंग रीसेट करें + settings.reset() + ``` + + === "CLI" + यदि आप कमांड लाइन इंटरफ़ेस पर ध्यान देते हैं, तो निम्नलिखित कमांड के माध्यम से अपनी सेटिंग्स को संशोधित कर सकते हैं: + ```bash + # एक सेटिंग अपडेट करें + yolo settings runs_dir='/path/to/runs' + + # एकाधिक सेटिंग अपडेट करें + yolo settings runs_dir='/path/to/runs' tensorboard=False + + # डिफ़ॉल्ट मान में सेटिंग्स को बराबरी में रीसेट करें + yolo settings reset + ``` + +### सेटिंग्स को समझना + +निम्नलिखित टेबल सेटिंग्स का अवलोकन प्रदान करता है, जबकि प्रति सेटिंग्स के लिए उदाहरण मान, डेटा प्रकार और संक्षेप में विवरण दिया गया है। + +| नाम | उदाहरण मान | डेटा प्रकार | विवरण | +|--------------------|-----------------------|-------------|----------------------------------------------------------------------------------------------------------------------------| +| `settings_version` | `'0.0.4'` | `str` | Ultralytics _settings_ संस्करण (Ultralytics [pip](https://pypi.org/project/ultralytics/) संस्करण से अलग होता है) | +| `datasets_dir` | `'/path/to/datasets'` | `str` | डेटासेट को संग्रहीत करने वाली निर्देशिका | | +| `weights_dir` | `'/path/to/weights'` | `str` | मॉडल वेट को संग्रहीत करने वाली निर्देशिका | +| `runs_dir` | `'/path/to/runs'` | `str` | प्रयोग दौड़ को संग्रहीत करने वाली निर्देशिका | +| `uuid` | `'a1b2c3d4'` | `str` | मौजूदा सेटिंग्स के लिए अद्वितीय पहचानकर्ता | +| `sync` | `True` | `bool` | Ultralytics और दुविधा को HUB में समकालीन रखें | +| `api_key` | `''` | `str` | Ultralytics HUB [API Key](https://hub.ultralytics.com/settings?tab=api+keys) | +| `clearml` | `True` | `bool` | ClearML लॉगिंग का उपयोग करें | +| `comet` | `True` | `bool` | यदि [Comet ML](https://bit.ly/yolov8-readme-comet) प्रयोग करें या नहीं experiment ट्रैकिंग और visualization | +| `dvc` | `True` | `bool` | शोध और संस्करण नियंत्रण के लिए [DVC for experiment tracking](https://dvc.org/doc/dvclive/ml-frameworks/yolo) का उपयोग करें | +| `hub` | `True` | `bool` | [Ultralytics HUB](https://hub.ultralytics.com) एकीकरण का उपयोग करें | +| `mlflow` | `True` | `bool` | एक्सपेरिमेंट ट्रैकिंग के लिए MLFlow का उपयोग करें | +| `neptune` | `True` | `bool` | एक्सपेरिमेंट ट्रैकिंग के लिए Neptune का उपयोग करें | +| `raytune` | `True` | `bool` | hyperparameter tuning के लिए Ray Tune का उपयोग करें | +| `tensorboard` | `True` | `bool` | विज़ुअलाइज़ेशन के लिए TensorBoard का उपयोग करें | +| `wandb` | `True` | `bool` | Weights & Biases logging का उपयोग करें | + +जब आप अपने परियोजनाओं या अनुभागों के माध्यम से चलते होने के द्वारा यात्रा करते हैं, तो इन सेटिंग्स पर सुधार करने के लिए लौटें। diff --git a/docs/hi/tasks/classify.md b/docs/hi/tasks/classify.md new file mode 100644 index 0000000000..e6ed1455db --- /dev/null +++ b/docs/hi/tasks/classify.md @@ -0,0 +1,172 @@ +--- +comments: true +description: YOLOv8 Classify मॉडल्स के बारे में जानें इमेज क्लासिफिकेशन के लिए। प्रीट्रेन्ड माॅडेल्स की सूची और ट्रेन, वेलिडेट, प्रेडिक्ट और एक्सपोर्ट माॅडेल्स के बारे में विस्तृत जानकारी प्राप्त करें। +keywords: Ultralytics, YOLOv8, इमेज क्लासिफिकेशन, प्रीट्रेन्ड माॅडेल्स, YOLOv8n-cls, ट्रेन, वेलिडेट, प्रेडिक्ट, माॅडेल एक्सपोर्ट +--- + +# इमेज क्लासिफिकेशन + +इमेज क्लासिफिकेशन उदाहरण + +इमेज क्लासिफिकेशन तीन कार्यों में से सबसे सरल है और पूरी तस्वीर को एक पूर्वनिर्धारित कक्षा में वर्गीकृत करना शामिल होता है। + +इमेज क्लासिफायर का आउटपुट एक एकल क्लास लेबल और एक विश्वास प्रामाणिकता स्कोर होता है। इमेज क्लासिफिकेशन उपयोगी होता है जब आपको केवल इसे जानने की जरूरत होती है कि एक इमेज किस कक्षा में सम्मिलित है और आपको नहीं पता होना चाहिए कि उस कक्षा के वस्त्राणु किस स्थान पर स्थित हैं या उनकी सटीक आकृति क्या है। + +!!! Tip "टिप" + + YOLOv8 Classify मॉडेल्स में `-cls` संकेतक प्रयोग किया जाता है, जैसे `yolov8n-cls.pt` और इन्हें पूर्व प्रशिक्षित किया जाता है [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) पर। + +## [मॉडेल](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) + +यहां YOLOv8 पूर्व प्रशिक्षित Classify मॉडेल दिखाए गए हैं। Detect, Segment, और Pose मॉडेल्स [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) डेटासेट पर पूर्व प्रशिक्षित होते हैं, जबकि Classify मॉडेल [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) डेटासेट पर पूर्व प्रशिक्षित होते हैं। + +[मॉडेल](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) डाउनलोड पहली बार उपयोग पर ताजगी Ultralytics [प्रकाशन](https://github.com/ultralytics/assets/releases) से स्वतः होता है। + +| मॉडेल | आकार
(पिक्सेल) | तालिका
शीर्ष 1 | तालिका
शीर्ष 5 | स्पीड
सीपीयू ONNX
(मि. सेकंड) | स्पीड
A100 TensorRT
(मि. सेकंड) | पैरामीटर
(M) | FLOPs
(B) at 640 | +|----------------------------------------------------------------------------------------------|------------------------|------------------------|------------------------|------------------------------------------|--------------------------------------------|----------------------|--------------------------| +| [YOLOv8n-cls](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8n-cls.pt) | 224 | 66.6 | 87.0 | 12.9 | 0.31 | 2.7 | 4.3 | +| [YOLOv8s-cls](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8s-cls.pt) | 224 | 72.3 | 91.1 | 23.4 | 0.35 | 6.4 | 13.5 | +| [YOLOv8m-cls](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8m-cls.pt) | 224 | 76.4 | 93.2 | 85.4 | 0.62 | 17.0 | 42.7 | +| [YOLOv8l-cls](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8l-cls.pt) | 224 | 78.0 | 94.1 | 163.0 | 0.87 | 37.5 | 99.7 | +| [YOLOv8x-cls](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8x-cls.pt) | 224 | 78.4 | 94.3 | 232.0 | 1.01 | 57.4 | 154.8 | + +- **तालिका** मॉडेलों की ImageNet डेटासेट मान्यीकरण सेट पर सटीकता है। +
`yolo val classify data=path/to/ImageNet device=0` द्वारा पुनः उत्पन्न करें +- **स्पीड** एक [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) इंस्टेंस का उपयोग करके ImageNet के वैल छवियों पर औसत जोड़ी गई है। +
`yolo val classify data=path/to/ImageNet batch=1 device=0|cpu` द्वारा पुनः उत्पन्न करें + +## ट्रेन + +100 एपॉक्स के लिए MNIST160 डेटासेट पर YOLOv8n-cls को 64 इमेज आकार पर रिक्तियों के साथ ट्रेन करें। उपलब्ध विकल्पों की पूरी सूची के लिए [Configuration](../../usage/cfg.md) पेज देखें। + +!!! Example "उदाहरण" + + === "Python" + + ```python + from ultralytics import YOLO + + # एक मॉडेल लोड करें + model = YOLO('yolov8n-cls.yaml') # YAML से एक नया मॉडेल बनाएं + model = YOLO('yolov8n-cls.pt') # पूर्व प्रशिक्षित मॉडेल लोड करें (ट्रेनिंग के लिए सिफारिश की जाती है) + model = YOLO('yolov8n-cls.yaml').load('yolov8n-cls.pt') # YAML से बनाएँ और भार ट्रांसफर करें + + # मॉडेल ट्रेन करें + results = model.train(data='mnist160', epochs=100, imgsz=64) + ``` + + === "CLI" + + ```bash + # YAML से नया मॉडेल बनाएं और अच्छे से प्रशिक्षण शुरू करें + yolo classify train data=mnist160 model=yolov8n-cls.yaml epochs=100 imgsz=64 + + # पूर्व प्रशिक्षित *.pt मॉडेल से प्रशिक्षण शुरू करें + yolo classify train data=mnist160 model=yolov8n-cls.pt epochs=100 imgsz=64 + + # YAML से नया मॉडेल बनाएँ, उसमें पूर्व प्रशिक्षित भार भी स्थानांतरित करें और प्रशिक्षण शुरू करें + yolo classify train data=mnist160 model=yolov8n-cls.yaml pretrained=yolov8n-cls.pt epochs=100 imgsz=64 + ``` + +### डेटासेट प्रारूप + +YOLO क्लासिफिकेशन डेटासेट प्रारूप [Dataset Guide](../../datasets/classify/index.md) में विस्तृत रूप में दिया गया है। + +## वेलिडेट + +MNIST160 डेटासेट पर प्रशिक्षित YOLOv8n-cls मॉडेल की सटीकता का मूल्यांकन करें। कोई आर्गुमेंट चक्रवात नहीं करना चाहिए क्योंकि `मॉडेल` अपने प्रशिक्षण यथार्थ डेटा और आर्गुमेंट्स को स्मरण रखता है। + +!!! Example "उदाहरण" + + === "Python" + + ```python + from ultralytics import YOLO + + # एक मॉडेल लोड करें + model = YOLO('yolov8n-cls.pt') # एक आधिकारिक मॉडेल लोड करें + model = YOLO('path/to/best.pt') # एक स्वचालित मॉडेल लोड करें + + # मॉडेल का मूल्यांकन करें + metrics = model.val() # कोई आर्गुमेंट आवश्यक नहीं हैं, डेटासेट और सेटिंग्स याद रखे जाते हैं + metrics.top1 # शीर्ष1 सटीकता + metrics.top5 # शीर्ष5 सटीकता + ``` + === "CLI" + + ```bash + yolo classify val model=yolov8n-cls.pt # आधिकारिक मॉडेल का मूल्यांकन करें + yolo classify val model=path/to/best.pt # कस्टम मॉडेल का मूल्यांकन करें + ``` + +## प्रेडिक्ट + +प्रशिक्षित YOLOv8n-cls मॉडेल का उपयोग तस्वीरों पर पूर्वानुमान चलाने के लिए करें। + +!!! Example "उदाहरण" + + === "Python" + + ```python + from ultralytics import YOLO + + # मॉडेल लोड करें + model = YOLO('yolov8n-cls.pt') # एक आधिकारिक मॉडेल लोड करें + model = YOLO('path/to/best.pt') # एक स्वचालित मॉडेल लोड करें + + # मॉडेल के साथ पूर्वानुमान करें + results = model('https://ultralytics.com/images/bus.jpg') # एक इमेज पर पूर्वानुमान करें + ``` + === "CLI" + + ```bash + yolo classify predict model=yolov8n-cls.pt source='https://ultralytics.com/images/bus.jpg' # आधिकारिक मॉडेल के साथ पूर्वानुमान करें + yolo classify predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # कस्टम मॉडेल के साथ पूर्वानुमान करें + ``` + +पूर्वानुमान पूरा होने के बाद निर्यात को सीधे पूर्वानुमानित मॉडेल पर लागू कर सकते हैं, जैसे `yolo predict model=yolov8n-cls.onnx`। एक्सपोर्ट पूर्ण होने के बाद, अपने मॉडेल के उपयोग के लिए आपको उपयोग उदाहरण दिखाए गए हैं। + +## एक्सपोर्ट + +YOLOv8n-cls मॉडल को ONNX, CoreML आदि जैसे विभिन्न प्रारूपों में निर्यात करें। + +!!! Example "उदाहरण" + + === "Python" + + ```python + from ultralytics import YOLO + + # एक मॉडेल लोड करें + model = YOLO('yolov8n-cls.pt') # load an official model + model = YOLO('path/to/best.pt') # load a custom trained model + + # मॉडेल को निर्यात करें + model.export(format='onnx') + ``` + === "CLI" + + ```bash + yolo export model=yolov8n-cls.pt format=onnx # export official model + yolo export model=path/to/best.pt format=onnx # export custom trained model + ``` + +टेबल में उपलब्ध YOLOv8-cls निर्यात प्रारूप निम्नानुसार हैं। निर्यात पूरा होने के बाद आप सीधे निर्यात किए गए मॉडेल पर पूर्व-आश्रिताओं की तरह पूर्वानुमान या मूल्यांकन कर सकते हैं, जैसे `yolo predict model=yolov8n-cls.onnx`। उपयोग की उदाहरण आपके मॉडेल के लिए निर्यात पूरा होने के बाद दिखाए गए हैं। + +| प्रारूप | `format` आर्गुमेंट | मॉडेल | मेटाडेटा | आर्गुमेंट्स | +|--------------------------------------------------------------------|--------------------|-------------------------------|----------|-----------------------------------------------------| +| [PyTorch](https://pytorch.org/) | - | `yolov8n-cls.pt` | ✅ | - | +| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-cls.torchscript` | ✅ | `imgsz`, `optimize` | +| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-cls.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | +| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-cls_openvino_model/` | ✅ | `imgsz`, `half` | +| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-cls.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | +| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-cls.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | +| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-cls_saved_model/` | ✅ | `imgsz`, `keras` | +| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-cls.pb` | ❌ | `imgsz` | +| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-cls.tflite` | ✅ | `imgsz`, `half`, `int8` | +| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-cls_edgetpu.tflite` | ✅ | `imgsz` | +| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-cls_web_model/` | ✅ | `imgsz` | +| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-cls_paddle_model/` | ✅ | `imgsz` | +| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-cls_ncnn_model/` | ✅ | `imgsz`, `half` | + +[Export](https://docs.ultralytics.com/modes/export/) पेज में `export` के पूरी विवरण देखें। diff --git a/docs/hi/tasks/detect.md b/docs/hi/tasks/detect.md new file mode 100644 index 0000000000..63d8f2bace --- /dev/null +++ b/docs/hi/tasks/detect.md @@ -0,0 +1,186 @@ +--- +comments: true +description: Ultralytics द्वारा YOLOv8 के आधिकारिक दस्तावेज़ीकरण। Various प्रारूपों में मॉडल को प्रशिक्षित, मान्य करें, निरुपित और निर्यात करने का कैसे करें सीखें। विस्तृत प्रदर्शन आँकड़े समेत। +keywords: YOLOv8, Ultralytics, वस्तु पहचान, पूर्वप्रशिक्षित मॉडल, प्रशिक्षण, मान्यता, भविष्यवाणी, मॉडल निर्यात, COCO, ImageNet, PyTorch, ONNX, CoreML +--- + +# वस्तु पहचान + +वस्तु पहचान उदाहरण + +वस्तु पहचान एक कार्य है जिसमें चित्र या वीडियो स्ट्रीम में वस्तुओं की स्थान और वर्ग की पहचान करने का समय शामिल होता है। + +वस्तु पहचान एक सेट होती है जिसमें वस्तुओं को घेरने वाले बाउंडिंग बॉक्स का पता लगाया जाता है, साथ ही प्रत्येक बॉक्स के लिए वर्ग लेबल और विश्वसनीयता स्कोर शामिल होते हैं। चित्र में हरी उड़ी रेस सामग्री डिटेक्ट करी, बांदर को डिटेक्ट करें. प्रतिस्थान से यह पता चलता है कि वस्तु कहाँ है या उसकी सटीक आकृति क्या है, परंतु कुछ तो हैं है। + +

+
+ +
+ देखें: पूर्व प्रशिक्षित Ultralytics YOLOv8 मॉडल के साथ वस्तु पहचान। +

+ + +!!! Tip "टिप" + +YOLOv8 Detect मॉडल डिफ़ॉल्ट YOLOv8 मॉडल हैं, यानी `yolov8n.pt` और [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) पर प्रशिक्षित हैं। + +## [मॉडल](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) + +YOLOv8 पूर्व प्रशिक्षित Detect मॉडल यहाँ दिखाए गए हैं। Detect, Segment और Pose मॉडल [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) डेटासेट पर पूर्वप्रशिक्षित होते हैं, जबकि Classify मॉडल [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) डेटासेट पर पूर्वप्रशिक्षित होते हैं। + +[मॉडल](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) पहली बार इस्तेमाल पर Ultralytics के नवीनतम [प्रकाशन](https://github.com/ultralytics/assets/releases) से स्वचालित रूप से डाउनलोड होते हैं। + +| मॉडल | साइज़
(pixels) | mAPval
50-95 | स्पीडCPU ONNX
(ms) | स्पीडA100 TensorRT
(ms) | पैराम्स
(M) | FLOPs
(B) | +|--------------------------------------------------------------------------------------|------------------------|----------------------|----------------------------|---------------------------------|---------------------|-------------------| +| [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8n.pt) | 640 | 37.3 | 80.4 | 0.99 | 3.2 | 8.7 | +| [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8s.pt) | 640 | 44.9 | 128.4 | 1.20 | 11.2 | 28.6 | +| [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8m.pt) | 640 | 50.2 | 234.7 | 1.83 | 25.9 | 78.9 | +| [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8l.pt) | 640 | 52.9 | 375.2 | 2.39 | 43.7 | 165.2 | +| [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8x.pt) | 640 | 53.9 | 479.1 | 3.53 | 68.2 | 257.8 | + +- **mAPval** मान को [COCO val2017](http://cocodataset.org) डेटासेट पर सिंगल-मॉडेल सिंगल-स्केल के लिए है। +
`yolo` द्वारा पुनः उत्पन्न करें `के द्वारा विन्यास करें yolo val data=coco.yaml device=0` +- **Speed** [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) + इंस्टेंस का उपयोग करके COCO val छवियों पर औसत लिया जाता है। +
`yolo` के द्वारा पुनः उत्पन्न करें `के द्वारा विन्यास करें yolo val data=coco128.yaml batch=1 device=0|cpu` + +## प्रशिक्षण + +100 युगों में 640 आकृति वाले प्रशिक्षित योलोवी8 एन को COCO128 डेटासेट पर प्रशिक्षित करें। उपलब्ध तार्किक तर्कों की पूरी सूची के लिए [कॉन्फ़िगरेशन](../../usage/cfg.md) पृष्ठ देखें। + +!!! Example "उदाहरण" + + === "Python" + + ```python + from ultralytics import YOLO + + # मॉडल लोड करें + model = YOLO('yolov8n.yaml') # YAML से नया मॉडल बनाएँ + model = YOLO('yolov8n.pt') # प्रशिक्षण के लिए सिफारिश किए गए पूर्वप्रशिक्षित मॉडल लोड करें + model = YOLO('yolov8n.yaml').load('yolov8n.pt') # YAML से बनाएं और भार ट्रांसफर करें और प्रशिक्षित करें + + # मॉडल को प्रशिक्षित करें + results = model.train(data='coco128.yaml', epochs=100, imgsz=640) + ``` + === "CLI" + + ```bash + # YAML से एक नया मॉडल बनाकर खाली से शुरू करें + yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640 + + # पूर्व प्रशिक्षित *.pt मॉडल से प्रशिक्षण शुरू करें + yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 + + # यैतायत्मिक रूप से भार ट्रांसफर करके नया मॉडल बनाएँ और प्रशिक्षण शुरू करें + yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640 + ``` + +### डेटासेट प्रारूप + +YOLO डिटेक्शन डेटासेट प्रारूप को [डेटासेट गाइड](../../datasets/detect/index.md) में विस्तार से देखा जा सकता है। कृपया अपने मौजूदा डेटासेट को अन्य प्रारूपों (जैसे COCO आदि) से YOLO प्रारूप में बदलने के लिए [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) उपकरण का उपयोग करें। + +## मान्यता + +COCO128 डेटासेट पर प्रशिक्षित YOLOv8n मॉडल की सटीकता को मान्यता दें। मॉडल प्रदर्शन से जुड़ी कोई विधि नहीं होनी चाहिए। + +!!! Example "उदाहरण" + + === "Python" + + ```python + from ultralytics import YOLO + + # मॉडल लोड करें + model = YOLO('yolov8n.pt') # आधिकारिक मॉडल लोड करें + model = YOLO('path/to/best.pt') # कस्टम मॉडल लोड करें + + # मॉडल की मान्यता जांचें + metrics = model.val() # तुलना करने के लिए कोई विधि की आवश्यकता नहीं है, डेटासेट और सेटिंग्स याद रखे जाते हैं + metrics.box.map # map50-95 + metrics.box.map50 # map50 + metrics.box.map75 # map75 + metrics.box.maps # हर श्रेणी के map50-95 से संबंधित सूची + ``` + === "CLI" + + ```bash + yolo detect val model=yolov8n.pt # आधिकारिक मॉडल की मान्यता + yolo detect val model=path/to/best.pt # कस्टम मॉडल की मान्यता + ``` + +## भविष्यवाणी + +प्रशिक्षित YOLOv8n मॉडल का उपयोग चित्रों पर भविष्यवाणी करने के लिए करें। + +!!! Example "उदाहरण" + + === "Python" + + ```python + from ultralytics import YOLO + + # मॉडल लोड करें + model = YOLO('yolov8n.pt') # आधिकारिक मॉडल लोड करें + model = YOLO('path/to/best.pt') # कस्टम मॉडल लोड करें + + # मॉडल के साथ भविष्यवाणी करें + results = model('https://ultralytics.com/images/bus.jpg') # एक छवि पर भविष्यवाणी करें + ``` + === "CLI" + + ```bash + yolo detect predict model=yolov8n.pt source='https://ultralytics.com/images/bus.jpg' # आधिकारिक मॉडल के साथ भविष्यवाणी + yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # कस्टम मॉडल के साथ भविष्यवाणी + ``` + +पूर्ण `predict` मोड़ विवरण को [भविष्यवाणी](https://docs.ultralytics.com/modes/predict/) पृष्ठ में देखें। + +## निर्यात + +YOLOv8n मॉडल को अन्य प्रारूप (जैसे ONNX, CoreML आदि) में निर्यात करें। + +!!! Example "उदाहरण" + + === "Python" + + ```python + from ultralytics import YOLO + + # मॉडल लोड करें + model = YOLO('yolov8n.pt') # आधिकारिक मॉडल लोड करें + model = YOLO('path/to/best.pt') # कस्टम प्रशिक्षित मॉडल लोड करें + + # मॉडल को निर्यात करें + model.export(format='onnx') + ``` + === "CLI" + + ```bash + yolo export model=yolov8n.pt format=onnx # आधिकारिक मॉडल को निर्यात करें + yolo export model=path/to/best.pt format=onnx # कस्टम प्रशिक्षित मॉडल को निर्यात करें + ``` + +उपलब्ध YOLOv8 निर्यात प्रारूप नीचे की सारणी में हैं। आप निर्यातित मॉडल पर सीधे भविष्यवाणी या मान्यता कर सकते हैं, जैसे 'yolo predict model=yolov8n.onnx' आदि। निर्यात पूर्ण होने के बाद आपके मॉडल के उपयोग के उदाहरण दिखाए जाते हैं। + +| प्रारूप | `format` तर्क | मॉडल | मेटाडाटा | तर्क | +|--------------------------------------------------------------------|---------------|---------------------------|----------|-----------------------------------------------------| +| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - | +| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` | +| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | +| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half`, `int8` | +| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | +| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | +| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras`, `int8` | +| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` | +| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` | +| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` | +| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` | +| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` | +| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` | + +पूर्ण `export` विवरण को [निर्यात](https://docs.ultralytics.com/modes/export/) पृष्ठ में देखें। diff --git a/docs/hi/tasks/index.md b/docs/hi/tasks/index.md new file mode 100644 index 0000000000..1c7245d2b8 --- /dev/null +++ b/docs/hi/tasks/index.md @@ -0,0 +1,55 @@ +--- +comments: true +description: जानें YOLOv8 जो कि विभिन्न कंप्यूटर विजन कार्यों जैसे डिटेक्शन, सेग्मेंटेशन, क्लासिफिकेशन और पोज़ एस्टिमेशन को कर सकता है| अपनें AI प्रोजेक्ट्स म इन टास्क का उपयोग के बारें म मर्यादित हो जाएं +keywords: Ultralytics, YOLOv8, डिटेक्शन, सेग्मेंटेशन, क्लासिफिकेशन, पोज़ एस्टिमेशन, AI Framework, कंप्यूटर विजन कार्य +--- + +# Ultralytics YOLOv8 तास्क + +
+Ultralytics YOLO Supported टास्क्स + +YOLOv8 एक AI फ्रेमवर्क है जो मल्टीपल कंप्यूटर विजन **तास्क्स** को सपोर्ट करता है। इस फ्रेमवर्क का उपयोग [डिटेक्शन](detect.md), [सेग्मेंटेशन](segment.md), [क्लासिफिकेशन](classify.md), और [पोज़](pose.md) एस्टिमेशन को करने के लिए किया जा सकता हैं। हर टास्क का एक अलग उद्देश्य और यूज केस होता हैं। + +!!! Note + + 🚧 हमारा मल्टी-भाषा डॉक्युमेंटेशन वर्तमान में निर्माणाधीन हैं, और हम उसे सुधारने के लिए मेहनत कर रहें हैं। आपकी सहानुभूति के लिए धन्यवाद! 🙏 + +

+
+ +
+ देखें: जांचें Ultralytics YOLO टास्क्स: वस्तु डिटेक्शन, सेग्मेंटेशन, ट्रैकिंग और पोज़ एस्टिमेशन। +

+ +## [डिटेक्शन](detect.md) + +डिटेक्शन YOLOv8 द्वारा सपोर्ट किया जाने वाला प्राथमिक टास्क हैं। इसका मतलब होता हैं कि एक छवि या वीडियो फ्रेम में वस्तुओं को खोजें और उनके चारों ओर ग्रेडीयेशन बॉक्स बनाएँ। पायी गयी वस्तुओं को उनके फीचर्स के आधार पर विभिन्न श्रेणियों में वर्गीकृत किया जाता हैं। YOLOv8 एक ही छवि या वीडियो फ्रेम में कई वस्तुएं पहचान सकती हैं और उसे उच्च सटीकता और गति से कर सकती हैं। + +[डिटेक्शन उदाहरण](detect.md){ .md-button .md-button--primary} + +## [सेग्मेंटेशन](segment.md) + +सेग्मेंटेशन एक टास्क हैं जिसमे एक छवि को उसकी सामग्री के आधार पर विभिन्न क्षेत्रों में विभाजित किया जाता हैं। प्रत्येक क्षेत्र को उसकी सामग्री के आधार पर एक लेबल दिया जाता हैं। यह टास्क छवि सेग्मेंटेशन और मेडिकल इमेजिंग जैसे एप्लिकेशन्स में उपयोगी होती हैं। YOLOv8 सेग्मेंटेशन करने के लिए U-Net आर्किटेक्चर का इस्तेमाल करता हैं। + +[सेग्मेंटेशन उदाहरण](segment.md){ .md-button .md-button--primary} + +## [क्लासिफिकेशन](classify.md) + +क्लासिफिकेशन एक टास्क हैं जिसमे एक छवि को विभिन्न श्रेणियों में वर्गीकृत किया जाता हैं। YOLOv8 का उपयोग छवियों को उनकी सामग्री के आधार पर क्लासिफाई करने के लिए किया जा सकता हैं। यह क्लासिफिकेशन करने के लिए EfficientNet आर्किटेक्चर का उपयोग करता हैं। + +[क्लासिफिकेशन उदाहरण](classify.md){ .md-button .md-button--primary} + +## [पोज़](pose.md) + +पोज़/कीपॉइंट डिटेक्शन एक टास्क हैं जिसमे एक छवि या वीडियो फ्रेम में विशेष बिंदुओं को खोजें। इन बिंदुओं को कीपॉइंट कहा जाता हैं और इनका उपयोग गति या पोज़ एस्टिमेशन करने के लिए किया जाता हैं। YOLOv8 एक छवि या वीडियो फ्रेम में उच्च सटीकता और गति से कीपॉइंट डिटेक्ट कर सकता हैं। + +[पोज़ उदाहरण](pose.md){ .md-button .md-button--primary} + +## निष्कर्ष + +YOLOv8 डिटेक्शन, सेग्मेंटेशन, क्लासिफिकेशन और कीपॉइंट डिटेक्शन जैसे मल्टीपल टास्क्स को सपोर्ट करता हैं। हर एक टास्क का अलग उद्देश्य और यूज केस होता हैं। इन टास्क्स के बीच अंतर को समझकर, आप अपने कंप्यूटर विजन एप्लिकेशन के लिए उचित टास्क का चुनाव कर सकते हैं। diff --git a/docs/hi/tasks/pose.md b/docs/hi/tasks/pose.md new file mode 100644 index 0000000000..b643fe34b8 --- /dev/null +++ b/docs/hi/tasks/pose.md @@ -0,0 +1,183 @@ +--- +comments: true +description: Ultralytics YOLOv8 का उपयोग पोज निर्धारण कार्यों के लिए कैसे किया जाता है इसकी जानें। प्री-शिक्षित मॉडल ढूंढें, प्रशिक्षण, मान्यता प्राप्त करें, पूर्वानुमान लगाएं, और अपना खुद का निर्यात करें। +keywords: Ultralytics, YOLO, YOLOv8, pose estimation, keypoints detection, object detection, pre-trained models, machine learning, artificial intelligence +--- + +# पोज निर्धारण + +पोज निर्धारण उदाहरण + +पोज निर्धारण एक कार्य है जिसमें एक छवि में विशेष बिंदुओं के स्थान की पहचान करना शामिल होता है, जिसे आमतौर पर कीपॉइंट्स के रूप में कहा जाता है। कीपॉइंट्स विभिन्न अंगों, भूमिकाओं या अन्य विशिष्ट सुविधाओं आदि के रूप में वस्तु के विभिन्न हिस्सों को प्रतिष्ठित कर सकते हैं। कीपॉइंट्स के स्थान आमतौर पर 2D `[x, y]` या 3D `[x, y, दिखाई देने वाला]` कोआर्डिनेट के सेट के रूप में प्रदर्शित होते हैं। + +पोज निर्धारण मॉडल की उत्पादन एक छवि में वस्तु के कीपॉइंट्स को प्रतिष्ठित करने वाले कुछ बिंदुओं का सेट होती है, आमतौर पर हर बिंदु के लिए विश्वसनीयता स्कोर के साथ। पोज निर्धारण उचित विकल्प है जब आपको स्टीन में एक वस्तु के विशेष हिस्सों की पहचान करनी होती है और विभिन्न हिस्सों के लिए उनके स्थान की पहचान करनी होती है। + +

+
+ +
+ देखें: Ultralytics YOLOv8 के साथ पोज निर्धारण। +

+ +!!! Tip "युक्ति" + + YOLOv8 _pose_ मॉडल में `-pose` सफिक्स का उपयोग किया जाता है, जैसे `yolov8n-pose.pt`। ये मॉडल [COCO कीपॉइंट](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) डेटासेट पर प्रशिक्षित होते हैं और विभिन्न पोज निर्धारण कार्यों के लिए उपयुक्त होते हैं। + +## [मॉडल्स](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) + +YOLOv8 पूर्वानुमानित पोज मॉडलस यहाँ दिखाए जाते हैं। पहचानें, अंश और पोज मॉडल मुख्यतः [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) डेटासेट पर प्रशिक्षित हैं, जबकि क्लासिफाई मॉडल्स को [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) डेटासेट पर प्रशिक्षित किया जाता है। + +पूर्वानुमानित मॉडल `Models` को Ultralytics के नवीनतम [रिलीज़](https://github.com/ultralytics/assets/releases) से स्वचालित रूप से डाउनलोड करेंगे। + +| मॉडल | आकार
(तत्व) | mAPपोज
50-95 | mAPपोज
50 | ह्वेग
CPU ONNX
(ms) | ह्वेग
A100 TensorRT
(ms) | पैराम्स
(M) | FLOPs
(B) | +|------------------------------------------------------------------------------------------------------|---------------------|----------------------|-------------------|--------------------------------|-------------------------------------|---------------------|-------------------| +| [YOLOv8n-pose](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8n-pose.pt) | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 | +| [YOLOv8s-pose](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8s-pose.pt) | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 | +| [YOLOv8m-pose](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8m-pose.pt) | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 | +| [YOLOv8l-pose](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8l-pose.pt) | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 | +| [YOLOv8x-pose](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8x-pose.pt) | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 | +| [YOLOv8x-pose-p6](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8x-pose-p6.pt) | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 | + +- **mAPval** मान एकल मॉडल एकल स्केल पर [COCO कीपॉइंट val2017](http://cocodataset.org) डेटासेट पर है। +
`yolo val pose data=coco-pose.yaml device=0` के द्वारा पुनरोत्पादित करें +- **Speed** [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) इन्स्टेंस का उपयोग करते हुए COCO val छवियों पर औसतित गणना। +
`yolo val pose data=coco8-pose.yaml batch=1 device=0|cpu` के द्वारा पुनरार्चन करें + +## ट्रेन + +COCO128-pose डेटासेट पर YOLOv8-pose मॉडल को प्रशिक्षित करें। + +!!! Example "उदाहरण" + + === "Python" + + ```python + from ultralytics import YOLO + + # एक मॉडल लोड करें + model = YOLO('yolov8n-pose.yaml') # YAML से एक नया मॉडल बनाएँ + model = YOLO('yolov8n-pose.pt') # पूर्वानुमानित मॉडल लोड करें (प्रशिक्षण के लिए सिफारिश किया जाता है) + model = YOLO('yolov8n-pose.yaml').load('yolov8n-pose.pt') # YAML से बनाएँ और वजन स्थानांतरित करें + + # मॉडल को प्रशिक्षित करें + results = model.train(data='coco8-pose.yaml', epochs=100, imgsz=640) + ``` + === "CLI" + + ```bash + # YAML से नया मॉडल बनाएँ और पूर्वानुमानित वजन स्थानांतरित करना शुरू करें + yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml epochs=100 imgsz=640 + + # पूर्वानुमानित *.pt मॉडल से प्रशिक्षण शुरू करें + yolo pose train data=coco8-pose.yaml model=yolov8n-pose.pt epochs=100 imgsz=640 + + # YAML से नया मॉडल बनाएँ, पूर्वानुमानित वजनों को स्थानांतरित करें और प्रशिक्षण शुरू करें + yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml pretrained=yolov8n-pose.pt epochs=100 imgsz=640 + ``` + +### डेटासेट प्रारूप + +YOLO पोज डेटासेट प्रारूप को विस्तार से [डेटासेट गाइड](../../datasets/pose/index.md) में दिया गया है। अपनी मौजूदा डेटासेट को अन्य प्रारूपों (जैसे कि COCO आदि) से YOLO प्रारूप में रूपांतरित करने के लिए कृपया [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) उपकरण का उपयोग करें। + +## मान्यता प्राप्त करें + +COCO128-pose डेटासेट पर प्रशिक्षित YOLOv8n-pose मॉडल की सटीकता को मान्यता प्राप्त करें। `model` के रूप में कोई आर्ग्युमेंट पारित करने की आवश्यकता नहीं है प्रशिक्षण `data` और सेटिंग्स को मॉडल खिताबों के रूप में रखता है। + +!!! Example "उदाहरण" + + === "Python" + + ```python + from ultralytics import YOLO + + # एक मॉडल लोड करें + model = YOLO('yolov8n-pose.pt') # रिपोर्टेड मॉडल लोड करें + model = YOLO('path/to/best.pt') # एक कस्टम मॉडल लोड करें + + # मॉडल की सटीकता मान्यता प्राप्त करें + metrics = model.val() # कोई आर्ग्युमेंट आवश्यक नहीं है, डेटासेट और सेटिंग्स याद रखा जाता है + metrics.box.map # map50-95 + metrics.box.map50 # map50 + metrics.box.map75 # map75 + metrics.box.maps # प्रत्येक श्रेणी के map50-95 सूची में है + ``` + === "CLI" + + ```bash + yolo pose val model=yolov8n-pose.pt # आधिकारिक मॉडल मान्यांकन करें + yolo pose val model=path/to/best.pt # कस्टम मॉडल को मान्यता प्राप्त करें + ``` + +## पूर्वानुमान लगाएं + +प्रशिक्षित YOLOv8n-pose मॉडल के साथ छवियों पर पूर्वानुमान चलाएं। + +!!! Example "उदाहरण" + + === "Python" + + ```python + from ultralytics import YOLO + + # एक मॉडल लोड करें + model = YOLO('yolov8n-pose.pt') # रिपोर्टेड मॉडल लोड करें + model = YOLO('path/to/best.pt') # एक कस्टम मॉडल लोड करें + + # मॉडल के साथ पूर्वानुमान करें + results = model('https://ultralytics.com/images/bus.jpg') # एक छवि पर पूर्वानुमान करें + ``` + === "CLI" + + ```bash + yolo pose predict model=yolov8n-pose.pt source='https://ultralytics.com/images/bus.jpg' # आधिकारिक मॉडल के साथ पूर्वानुमान लगाएं + yolo pose predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # कस्टम मॉडल के साथ पूर्वानुमान लगाएं + ``` + +एक्सपोर्ट + +YOLOv8n पोज मॉडल को ONNX, CoreML जैसे अन्य प्रारूप में निर्यात करें। + +!!! Example "उदाहरण" + + === "Python" + + ```python + from ultralytics import YOLO + + # एक मॉडल लोड करें + model = YOLO('yolov8n-pose.pt') # रिपोर्टेड मॉडल लोड करें + model = YOLO('path/to/best.pt') # एक कस्टम प्रशिक्षित मॉडल लोड करें + + # मॉडल को निर्यात करें + model.export(format='onnx') + ``` + === "CLI" + + ```bash + yolo export model=yolov8n-pose.pt format=onnx # आधिकारिक मॉडल को निर्यात करें + yolo export model=path/to/best.pt format=onnx # कस्टम प्रशिक्षित मॉडल को निर्यात करें + ``` + +निर्यात के लिए उपलब्ध YOLOv8-pose निर्यात प्रारूप नीचे करें दिए गए हैं। आप निर्यात किए गए मॉडल पर सीधा पूर्वानुमान या मान्यता कर सकते हैं, उदाहरण के लिए `yolo predict model=yolov8n-pose.onnx`। निर्यात पूरा होने के बाद अपने मॉडल के उपयोग के उदाहरण दिखाए गए हैं। + +| प्रारूप | `format` आर्ग्युमेंट | मॉडल | मेटाडेटा | आर्ग्युमेंट। | +|--------------------------------------------------------------------|----------------------|--------------------------------|----------|-----------------------------------------------------| +| [PyTorch](https://pytorch.org/) | - | `yolov8n-pose.pt` | ✅ | - | +| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-pose.torchscript` | ✅ | `imgsz`, `optimize` | +| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-pose.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | +| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-pose_openvino_model/` | ✅ | `imgsz`, `half` | +| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-pose.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | +| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-pose.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | +| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-pose_saved_model/` | ✅ | `imgsz`, `keras` | +| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-pose.pb` | ❌ | `imgsz` | +| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-pose.tflite` | ✅ | `imgsz`, `half`, `int8` | +| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-pose_edgetpu.tflite` | ✅ | `imgsz` | +| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-pose_web_model/` | ✅ | `imgsz` | +| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-pose_paddle_model/` | ✅ | `imgsz` | +| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-pose_ncnn_model/` | ✅ | `imgsz`, `half` | + +निर्यात विवरण के लिए [निर्यात](https://docs.ultralytics.com/modes/export/) पृष्ठ देखें। diff --git a/docs/hi/tasks/segment.md b/docs/hi/tasks/segment.md new file mode 100644 index 0000000000..821d9cae5a --- /dev/null +++ b/docs/hi/tasks/segment.md @@ -0,0 +1,187 @@ +--- +comments: true +description: Ultralytics YOLO के साथ उदाहरण देखें कि कैसे instance segmentation मॉडल का उपयोग करें। प्रशिक्षण, मान्यता, छवि की भविष्यवाणी और मॉडल निर्यात पर निर्देश। +keywords: yolov8, instance segmentation, Ultralytics, COCO dataset, image segmentation, object detection, model training, model validation, image prediction, model export +--- + +# Instance Segmentation + +इंस्टेंस सेगमेंटेशन ऑब्जेक्ट डिटेक्शन से एक कदम आगे जाता है और छवि में व्यक्ति ऑब्जेक्ट की पहचान करता है और उन्हें छवि के बाकी हिस्से से विभाजित करता है। + +इंस्टेंस सेगमेंटेशन मॉडल का आउटपुट एक सेट मास्क या कंटोर होता है जो छवि में प्रत्येक ऑब्जेक्ट का संकेत देता है, साथ ही प्रत्येक ऑब्जेक्ट के लिए वर्ग लेबल और आत्मविश्वास स्कोर होता है। इंस्टेंस सेगमेंटेशन उपयोगी होता है जब आपको न केवल पता चलेगा कि छवि में ऑब्जेक्ट कहाँ हैं, बल्कि वास्तव में उनका वास्तविक आकार क्या है। + +

+
+ +
+ देखें: पायथन में पूर्व-प्रशिक्षित Ultralytics YOLOv8 मॉडल के साथ Segmentation चलाएं। +

+ +!!! Tip "टिप" + + YOLOv8 Segment मॉडल `yolov8n-seg.pt` का उपयोग करते हैं, और इसे [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) पर पूरी प्रशिक्षित किया जाता है। + +## [मॉडल](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8) + +YOLOv8 पूर्व प्रशिक्षित Segment मॉडल यहां दिखाए गए हैं। Detect, Segment और Pose मॉडल [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) डेटासेट पर पूर्व प्रशिक्षित हैं, जबकि Classify मॉडल [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) डेटासेट पर पूर्व प्रशिक्षित हैं। + +[मॉडल](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) को उपयोग करके Ultralytics [रिलीज़](https://github.com/ultralytics/assets/releases) से पूर्ण डाउनलोड होते हैंं। + +| मॉडल | आकार
(पिक्सेल) | mAPबॉक्स
50-95 | mAPमास्क
50-95 | स्पीड
CPU ONNX
(मि.सेकंड) | स्पीड
A100 TensorRT
(मि.सेकंड) | पैराम्स
(M) | FLOPs
(B) | +|----------------------------------------------------------------------------------------------|------------------------|------------------------|------------------------|--------------------------------------|-------------------------------------------|---------------------|-------------------| +| [YOLOv8n-seg](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8n-seg.pt) | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 | +| [YOLOv8s-seg](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8s-seg.pt) | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 | +| [YOLOv8m-seg](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8m-seg.pt) | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 | +| [YOLOv8l-seg](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8l-seg.pt) | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 | +| [YOLOv8x-seg](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8x-seg.pt) | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 | + +- **mAPval** मान एकल मॉडल एकल स्केल के लिए [COCO val2017](http://cocodataset.org) डेटासेट पर होते हैं। +
`yolo val segment data=coco.yaml device=0` के द्वारा पुनर्जीवित किए जाएं। +- **स्पीड** एक [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) इंस्टेंस का उपयोग करते हुए COCO val छवियों के बीच औसतन। +
`yolo val segment data=coco128-seg.yaml batch=1 device=0|cpu` के द्वारा पुनर्जीवित किए जा सकते हैं। + +## प्रशिक्षण + +100 एपॉक्स पर 640 छवि के आकार के COCO128-seg डेटासेट पर YOLOv8n-seg को प्रशिक्षित करें। उपलब्ध तार्किक तर्क की पूरी सूची के लिए [Configuration](../../usage/cfg.md) पृष्ठ देखें। + +!!! Example "उदाहरण" + + === "पायथन" + + ```python + from ultralytics import YOLO + + # मॉडल लोड करें + model = YOLO('yolov8n-seg.yaml') # YAML से नया मॉडल बनाएं + model = YOLO('yolov8n-seg.pt') # पूर्व-प्रशिक्षित मॉडल लोड करें (प्रशिक्षण के लिए सिफारिश की जाती है) + model = YOLO('yolov8n-seg.yaml').load('yolov8n.pt') # YAML से नए मॉडल बनाएं और धारित करें + + # मॉडल प्रशिक्षित करें + results = model.train(data='coco128-seg.yaml', epochs=100, imgsz=640) + ``` + === "CLI" + + ```bash + # YAML से नया मॉडल बनाएं और शून्य से प्रशिक्षण शुरू करें + yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml epochs=100 imgsz=640 + + # पूर्व-प्रशिक्षित *.pt मॉडल से प्रशिक्षण शुरू करें + yolo segment train data=coco128-seg.yaml model=yolov8n-seg.pt epochs=100 imgsz=640 + + # YAML से नया मॉडल बनाएं, पूर्व-प्रशिक्षित वजनों को इसे ट्रांसफर करें और प्रशिक्षण शुरू करें + yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml pretrained=yolov8n-seg.pt epochs=100 imgsz=640 + ``` + +### डेटासेट प्रारूप + +YOLO सेगमेंटेशन डेटासेट प्रारूप [डेटासेट गाइड](../../datasets/segment/index.md) में विस्तार से देखा जा सकता है। कृपया अपने मौजूदा डेटासेट को अन्य प्रारूपों (जैसे कि COCO आदि) से YOLO प्रारूप में परिवर्तित करने के लिए [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) उपकरण का उपयोग करें। + +## मान्यता + +COCO128-seg डेटासेट पर प्रशिक्षित YOLOv8n-seg मॉडल की सत्यापन करें। `मॉडल` पास करने के लिए कोई तर्क आवश्यक नहीं होता है क्योंकि `मॉडल` +प्रशिक्षण के `डेटा` और तर्कों का ध्यान रखता है। + +!!! Example "उदाहरण" + + === "Python" + + ```python + from ultralytics import YOLO + + # मॉडल लोड करें + model = YOLO('yolov8n-seg.pt') # आधिकारिक मॉडल लोड करें + model = YOLO('path/to/best.pt') # कस्टम मॉडल लोड करें + + # मॉडल की सत्यापना करें + metrics = model.val() # कोई तर्क आवश्यक नहीं है, डेटा और सेटिंग्स याद रखे जाते हैं + metrics.box.map # map50-95(B) + metrics.box.map50 # map50(B) + metrics.box.map75 # map75(B) + metrics.box.maps # एक सूची है जिसमें प्रत्येक श्रेणी का map50-95(B) होता है + metrics.seg.map # map50-95(M) + metrics.seg.map50 # map50(M) + metrics.seg.map75 # map75(M) + metrics.seg.maps # एक सूची है जिसमें प्रत्येक श्रेणी का map50-95(M) होता है + ``` + === "CLI" + + ```bash + yolo segment val model=yolov8n-seg.pt # आधिकारिक मॉडल की मान्यता + yolo segment val model=path/to/best.pt # कस्टम मॉडल की मान्यता + ``` + +## भविष्यवाणी + +प्रशिक्षित YOLOv8n-seg मॉडल का उपयोग छवियों पर भविष्यवाणी करने के लिए करें। + +!!! Example "उदाहरण" + + === "Python" + + ```python + from ultralytics import YOLO + + # मॉडल लोड करें + model = YOLO('yolov8n-seg.pt') # आधिकारिक मॉडल लोड करें + model = YOLO('path/to/best.pt') # कस्टम मॉडल लोड करें + + # मॉडल के साथ भविष्यवाणी करें + results = model('https://ultralytics.com/images/bus.jpg') # एक छवि पर भविष्यवाणी करें + ``` + === "CLI" + + ```bash + yolo segment predict model=yolov8n-seg.pt source='https://ultralytics.com/images/bus.jpg' # आधिकारिक मॉडल के साथ भविष्यवाणी करें + yolo segment predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # कस्टम मॉडल के साथ भविष्यवाणी करें + ``` + +भविष्यवाणी मोड के पूर्ण विवरण को [Predict](https://docs.ultralytics.com/modes/predict/) पृष्ठ में देखें। + +## निर्यात + +YOLOv8n-seg मॉडल को ONNX, CoreML आदि जैसे अन्य प्रारूप में निर्यात करें। + +!!! Example "उदाहरण" + + === "Python" + + ```python + from ultralytics import YOLO + + # मॉडल लोड करें + model = YOLO('yolov8n-seg.pt') # आधिकारिक मॉडल लोड करें + model = YOLO('path/to/best.pt') # कस्टम प्रशिक्षित मॉडल लोड करें + + # मॉडल निर्यात करें + model.export(format='onnx') + ``` + === "CLI" + + ```bash + yolo export model=yolov8n-seg.pt format=onnx # आधिकारिक मॉडल को निर्यात करें + yolo export model=path/to/best.pt format=onnx # कस्टम प्रशिक्षित मॉडल को निर्यात करें + ``` + +YOLOv8-seg निर्यात प्रारूप निम्नलिखित तालिका में बताए गए हैं। आप निर्यात किए गए मॉडल पर सीधे भविष्यवाणी या मान्यता कर सकते हैं, अर्थात `yolo predict model=yolov8n-seg.onnx`। निर्यात होने के बाद अपने मॉडल के लिए उपयोग के उदाहरण देखें। + +| प्रारूप | `format` Argument | मॉडल | मेटाडेटा | तर्क | +|--------------------------------------------------------------------|-------------------|-------------------------------|----------|-----------------------------------------------------| +| [PyTorch](https://pytorch.org/) | - | `yolov8n-seg.pt` | ✅ | - | +| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-seg.torchscript` | ✅ | `imgsz`, `optimize` | +| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-seg.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` | +| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-seg_openvino_model/` | ✅ | `imgsz`, `half` | +| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-seg.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` | +| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-seg.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` | +| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-seg_saved_model/` | ✅ | `imgsz`, `keras` | +| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-seg.pb` | ❌ | `imgsz` | +| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-seg.tflite` | ✅ | `imgsz`, `half`, `int8` | +| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-seg_edgetpu.tflite` | ✅ | `imgsz` | +| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-seg_web_model/` | ✅ | `imgsz` | +| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-seg_paddle_model/` | ✅ | `imgsz` | +| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-seg_ncnn_model/` | ✅ | `imgsz`, `half` | + +[Export](https://docs.ultralytics.com/modes/export/) पृष्ठ में पूर्ण `निर्यात` विवरण देखें। diff --git a/docs/ja/datasets/index.md b/docs/ja/datasets/index.md index 4a2bf08700..075184a075 100644 --- a/docs/ja/datasets/index.md +++ b/docs/ja/datasets/index.md @@ -8,7 +8,7 @@ keywords: コンピュータビジョン, データセット, Ultralytics, YOLO, Ultralyticsは、検出、インスタンスセグメンテーション、ポーズ推定、分類、マルチオブジェクト追跡などのコンピュータビジョンタスクを容易にするために、様々なデータセットをサポートしています。以下は主要なUltralyticsデータセットのリストであり、それに続いて各コンピュータビジョンタスクの概要と関連するデータセットが記載されています。 -!!! note +!!! Note 🚧 当社の多言語ドキュメントは現在作成中であり、改善のため頑張って作業しています。ご理解いただいてありがとうございます! 🙏 @@ -104,7 +104,7 @@ Ultralyticsは、検出、インスタンスセグメンテーション、ポー ### データセットを最適化してZipするためのサンプルコード -!!! example "データセットを最適化してZipする" +!!! Example "データセットを最適化してZipする" === "Python" diff --git a/docs/ja/index.md b/docs/ja/index.md index e89878366f..c2e4d51795 100644 --- a/docs/ja/index.md +++ b/docs/ja/index.md @@ -38,7 +38,7 @@ keywords: Ultralytics, YOLOv8, オブジェクト検出, 画像セグメンテ YOLOv8ドキュメントを探索し、その特徴と能力を理解し、活用するための包括的なリソースを提供します。機械学習の経験者であれ、分野の新入りであれ、このハブはあなたのプロジェクトでYOLOv8のポテンシャルを最大限に引き出すことを目指しています。 -!!! note +!!! Note 🚧 多言語ドキュメントは現在作成中であり、改善に努めております。お待ちいただき、ありがとうございます! 🙏 diff --git a/docs/ja/models/index.md b/docs/ja/models/index.md index 9e8d76558c..3e14152833 100644 --- a/docs/ja/models/index.md +++ b/docs/ja/models/index.md @@ -8,7 +8,7 @@ keywords: Ultralytics, ドキュメンテーション, YOLO, SAM, MobileSAM, Fas Ultralyticsのモデルドキュメンテーションへようこそ![オブジェクト検出](../tasks/detect.md)、[インスタンスセグメンテーション](../tasks/segment.md)、[画像分類](../tasks/classify.md)、[ポーズ推定](../tasks/pose.md)、[マルチオブジェクトトラッキング](../modes/track.md)など、特定のタスクに適した幅広いモデルをサポートしています。Ultralyticsにあなたのモデルアーキテクチャを寄稿したい場合は、[コントリビューティングガイド](../../help/contributing.md)を確認してください。 -!!! note +!!! Note 🚧 弊社の多言語ドキュメンテーションは現在建設中で、改善に向けて努力しています。ご理解いただきありがとうございます!🙏 @@ -41,7 +41,7 @@ Ultralyticsのモデルドキュメンテーションへようこそ![オブ ## 入門:使用例 -!!! example "" +!!! Example "例" === "Python" diff --git a/docs/ja/modes/benchmark.md b/docs/ja/modes/benchmark.md index cf7d0407de..91572f3d29 100644 --- a/docs/ja/modes/benchmark.md +++ b/docs/ja/modes/benchmark.md @@ -32,7 +32,7 @@ keywords: Ultralytics, YOLOv8, ベンチマーク, スピードプロファイ - **OpenVINO:** Intelハードウェアの最適化のために - **CoreML, TensorFlow SavedModel など:** 多様なデプロイメントニーズに。 -!!! tip "ヒント" +!!! Tip "ヒント" * CPUスピードアップのためにONNXまたはOpenVINOにエクスポートする。 * GPUスピードアップのためにTensorRTにエクスポートする。 @@ -41,7 +41,7 @@ keywords: Ultralytics, YOLOv8, ベンチマーク, スピードプロファイ ONNX、TensorRTなど、すべてのサポートされるエクスポート形式でYOLOv8nベンチマークを実行します。完全なエクスポート引数のリストについては、以下のArgumentsセクションを参照してください。 -!!! example "" +!!! Example "例" === "Python" diff --git a/docs/ja/modes/export.md b/docs/ja/modes/export.md index 92b1cf7e80..fbd30c3c87 100644 --- a/docs/ja/modes/export.md +++ b/docs/ja/modes/export.md @@ -39,7 +39,7 @@ keywords: YOLO, YOLOv8, Ultralytics, モデルエキスポート, ONNX, TensorRT - **最適化推論:** より高速な推論のために最適化されたエキスポートモデル。 - **チュートリアル動画:** スムーズなエキスポート体験のための詳細なガイドとチュートリアル。 -!!! tip "ヒント" +!!! Tip "ヒント" * ONNXまたはOpenVINOへのエキスポートで最大3倍のCPU速度アップ。 * TensorRTへのエキスポートで最大5倍のGPU速度アップ。 @@ -48,7 +48,7 @@ keywords: YOLO, YOLOv8, Ultralytics, モデルエキスポート, ONNX, TensorRT YOLOv8nモデルをONNXやTensorRTなどの異なるフォーマットにエキスポートします。エキスポート引数のフルリストについては、以下のArgumentsセクションをご覧ください。 -!!! example "" +!!! Example "例" === "Python" diff --git a/docs/ja/modes/predict.md b/docs/ja/modes/predict.md index cbf8bf0621..6708187b9a 100644 --- a/docs/ja/modes/predict.md +++ b/docs/ja/modes/predict.md @@ -50,7 +50,7 @@ YOLOv8の予測モードは、頑健で多様性があり、次の特徴を備 UltralyticsのYOLOモデルは、`stream=True`が推論中にモデルに渡されると、Pythonの`Results`オブジェクトのリストまたは`Results`オブジェクトのメモリ効率の良いPythonジェネレータのいずれかを返します: -!!! 例 "予測" +!!! Example "予測" === "`stream=False`でリストを返す" ```python @@ -92,7 +92,7 @@ UltralyticsのYOLOモデルは、`stream=True`が推論中にモデルに渡さ YOLOv8は、以下の表に示されるように、異なるタイプの入力ソースを推論に処理できます。ソースには静止画像、動画ストリーム、およびさまざまなデータフォーマットが含まれます。表には、各ソースがストリーミングモードで使用できるかどうかも示されており、引数`stream=True`で✅が表示されています。ストリーミングモードは、動画やライブストリームを処理する場合に有利であり、すべてのフレームをメモリにロードする代わりに結果のジェネレータを作成します。 -!!! ヒント "ヒント" +!!! Tip "ヒント" 長い動画や大きなデータセットを効率的にメモリ管理するために`stream=True`を使用します。`stream=False`では、すべてのフレームまたはデータポイントの結果がメモリに格納されますが、大きな入力で迅速にメモリが積み上がり、メモリ不足のエラーを引き起こす可能性があります。対照的に、`stream=True`はジェネレータを利用し、現在のフレームまたはデータポイントの結果のみをメモリに保持し、メモリ消費を大幅に削減し、メモリ不足の問題を防ぎます。 @@ -115,7 +115,7 @@ YOLOv8は、以下の表に示されるように、異なるタイプの入力 以下は、それぞれのソースタイプを使用するためのコード例です: -!!! 例 "予測ソース" +!!! Example "予測ソース" === "画像" 画像ファイルに推論を実行します。 diff --git a/docs/ja/modes/track.md b/docs/ja/modes/track.md index a3dd779e8b..56453f9ed3 100644 --- a/docs/ja/modes/track.md +++ b/docs/ja/modes/track.md @@ -58,7 +58,7 @@ Ultralytics YOLOは、次のトラッキングアルゴリズムをサポート ビデオストリームでトラッカーを実行するには、YOLOv8n、YOLOv8n-seg、YOLOv8n-poseなどのトレーニング済みのDetect、Segment、またはPoseモデルを使用します。 -!!! 例 "" +!!! Example "例" === "Python" @@ -97,7 +97,7 @@ Ultralytics YOLOは、次のトラッキングアルゴリズムをサポート トラッキング構成は、`conf`、`iou`、および`show`などのPredictモードと同じプロパティを共有します。さらなる構成については、[Predict](https://docs.ultralytics.com/modes/predict/)モデルページを参照してください。 -!!! 例 "" +!!! Example "例" === "Python" @@ -120,7 +120,7 @@ Ultralytics YOLOは、次のトラッキングアルゴリズムをサポート Ultralyticsは、変更されたトラッカー構成ファイルの使用も可能にします。これを行うには、[ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers)からトラッカー構成ファイル(たとえば`custom_tracker.yaml`)のコピーを作成し、必要に応じて任意の構成(`tracker_type`を除く)を変更します。 -!!! 例 "" +!!! Example "例" === "Python" @@ -147,7 +147,7 @@ Ultralyticsは、変更されたトラッカー構成ファイルの使用も可 次は、OpenCV (`cv2`)とYOLOv8を使用してビデオフレームでオブジェクトトラッキングを実行するPythonスクリプトです。このスクリプトでは、必要なパッケージ(`opencv-python`および`ultralytics`)が既にインストールされていることが前提です。`persist=True`引数は、トラッカーに現在の画像またはフレームがシーケンスの次のものであり、現在の画像に前の画像からのトラックを期待することを伝えます。 -!!! 例 "トラッキングを伴うストリーミングforループ" +!!! Example "トラッキングを伴うストリーミングforループ" ```python import cv2 diff --git a/docs/ja/modes/train.md b/docs/ja/modes/train.md index cc22b856e4..c8d36424ed 100644 --- a/docs/ja/modes/train.md +++ b/docs/ja/modes/train.md @@ -41,7 +41,7 @@ YOLOv8のトレーニングモードを選択するいくつかの魅力的な - **ハイパーパラメータの設定:** YAML設定ファイルやCLI引数を通じてハイパーパラメータを変更するオプション。 - **可視化とモニタリング:** トレーニング指標のリアルタイム追跡と学習プロセスの可視化により、より良い洞察を得ます。 -!!! tip "ヒント" +!!! Tip "ヒント" * YOLOv8のデータセット、例えばCOCO、VOC、ImageNetなどは、最初の使用時に自動的にダウンロードされます。例:`yolo train data=coco.yaml` @@ -49,7 +49,7 @@ YOLOv8のトレーニングモードを選択するいくつかの魅力的な COCO128データセットでYOLOv8nを100エポック、画像サイズ640でトレーニングする。トレーニングデバイスは、`device`引数を使って指定できます。引数が渡されない場合、利用可能であればGPU `device=0`が、そうでなければ`device=cpu`が利用されます。全てのトレーニング引数のリストは以下の引数セクションを参照してください。 -!!! example "シングルGPUとCPUトレーニング例" +!!! Example "シングルGPUとCPUトレーニング例" デバイスは自動的に決定されます。GPUが利用可能であればそれが使用され、そうでなければCPUでトレーニングが開始されます。 @@ -84,7 +84,7 @@ COCO128データセットでYOLOv8nを100エポック、画像サイズ640でト マルチGPUトレーニングは、利用可能なハードウェアリソースをより効率的に活用するために、トレーニングの負荷を複数のGPUに分散させることを可能にします。この機能はPython APIとコマンドラインインターフェィスの両方を通じて利用できます。マルチGPUトレーニングを有効にするには、使用したいGPUデバイスIDを指定します。 -!!! example "マルチGPUトレーニング例" +!!! Example "マルチGPUトレーニング例" 2つのGPUを使ってトレーニングするには、CUDAデバイス0と1を使い以下のコマンドを使用します。必要に応じて追加のGPUに拡張します。 @@ -113,7 +113,7 @@ AppleのM1およびM2チップに対するサポートがUltralyticsのYOLOモ AppleのM1およびM2チップでのトレーニングを有効にするには、トレーニングプロセスを開始する際に`mps`をデバイスとして指定する必要があります。以下はPythonおよびコマンドラインでこれを行う例です: -!!! example "MPSトレーニング例" +!!! Example "MPSトレーニング例" === "Python" @@ -148,7 +148,7 @@ YOLOv8モデルをトレーニングする際、モデルのパフォーマン Cometを使用するには: -!!! example "" +!!! Example "例" === "Python" ```python @@ -166,7 +166,7 @@ Cometアカウントにサインインし、APIキーを取得してください ClearMLを使用するには: -!!! example "" +!!! Example "例" === "Python" ```python @@ -184,7 +184,7 @@ ClearMLを使用するには: [Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb)でTensorBoardを使用するには: -!!! example "" +!!! Example "例" === "CLI" ```bash @@ -194,7 +194,7 @@ ClearMLを使用するには: TensorBoardをローカルで使用する場合は、http://localhost:6006/ で結果を確認できます。 -!!! example "" +!!! Example "例" === "CLI" ```bash diff --git a/docs/ja/modes/val.md b/docs/ja/modes/val.md index f0acf3c065..354ca3746e 100644 --- a/docs/ja/modes/val.md +++ b/docs/ja/modes/val.md @@ -30,7 +30,7 @@ YOLOv8のValモードにより提供される注目すべき機能は以下の - **CLI and Python API:** バリデーションにコマンドラインインターフェイスもしくはPython APIのどちらかを選択できます。 - **Data Compatibility(データ互換性):** 訓練段階で使われたデータセットはもちろん、カスタムデータセットともシームレスに動作します。 -!!! tip "Tip" +!!! Tip "Tip" * YOLOv8モデルは訓練設定を自動的に記憶しているので、`yolo val model=yolov8n.pt`や`model('yolov8n.pt').val()`だけで、元のデータセットと同じ画像サイズで簡単にバリデーション可能です。 @@ -38,7 +38,7 @@ YOLOv8のValモードにより提供される注目すべき機能は以下の COCO128データセット上で訓練済みのYOLOv8nモデルの精度を検証します。`model`はその訓練時の`data`及び引数をモデル属性として保持しているため、引数を渡す必要はありません。全てのエクスポート引数のリストについては、以下のArgumentsセクションをご覧ください。 -!!! example "" +!!! Example "例" === "Python" diff --git a/docs/ja/quickstart.md b/docs/ja/quickstart.md index 5ab32c68d5..3fe4727007 100644 --- a/docs/ja/quickstart.md +++ b/docs/ja/quickstart.md @@ -8,7 +8,7 @@ keywords: Ultralyticsインストール, pipインストールUltralytics, Docke Ultralyticsはpip、conda、Dockerを含むさまざまなインストール方法を提供しています。最新の安定版リリースである`ultralytics` pipパッケージを通じてYOLOv8をインストールするか、最新バージョンを取得するために[Ultralytics GitHubリポジトリ](https://github.com/ultralytics/ultralytics)をクローンします。Dockerは、ローカルインストールを回避し、孤立したコンテナ内でパッケージを実行するために使用できます。 -!!! example "インストール" +!!! Example "インストール" === "Pipでのインストール(推奨)" pipを使用して`ultralytics`パッケージをインストールするか、`pip install -U ultralytics`を実行して既存のインストールをアップデートします。`ultralytics`パッケージの詳細については、Python Package Index(PyPI)を参照してください: [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/)。 @@ -39,7 +39,7 @@ Ultralyticsはpip、conda、Dockerを含むさまざまなインストール方 conda install -c conda-forge ultralytics ``` - !!! note + !!! Note CUDA環境でインストールする場合、パッケージマネージャーが競合を解決できるようにするため、`ultralytics`、`pytorch`、`pytorch-cuda`を同じコマンドで一緒にインストールするのがベストプラクティスです。または、CPU専用の`pytorch`パッケージに必要な場合は上書きするように`pytorch-cuda`を最後にインストールします。 ```bash @@ -89,7 +89,7 @@ Ultralyticsはpip、conda、Dockerを含むさまざまなインストール方 Watch: Ultralytics YOLO Quick Start Guide

-!!! tip "ヒント" +!!! Tip "ヒント" PyTorchの要件はオペレーティングシステムとCUDAの要件によって異なるため、[https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally)に従って最初にPyTorchをインストールすることをお勧めします。 @@ -101,7 +101,7 @@ Ultralyticsはpip、conda、Dockerを含むさまざまなインストール方 Ultralyticsコマンドラインインターフェース(CLI)を使用すると、Python環境がなくても単一の行のコマンドを簡単に実行できます。CLIはカスタマイズもPythonコードも必要ありません。単純にすべてのタスクを`yolo`コマンドでターミナルから実行することができます。コマンドラインからYOLOv8を使用する方法について詳しくは、[CLIガイド](/../usage/cli.md)を参照してください。 -!!! example +!!! Example === "構文" @@ -155,7 +155,7 @@ Ultralyticsコマンドラインインターフェース(CLI)を使用する yolo cfg ``` -!!! warning "警告" +!!! Warning "警告" 引数は`arg=val`ペアとして渡され、`=`記号で分割され、ペア間にスペース` `が必要です。引数のプレフィックスに`--`や引数間にカンマ`,`を使用しないでください。 @@ -171,7 +171,7 @@ YOLOv8のPythonインターフェースを使用すると、Pythonプロジェ たとえば、ユーザーはモデルをロードして、トレーニングし、検証セットでのパフォーマンスを評価し、ONNX形式にエクスポートするまでの一連の処理を数行のコードで行うことができます。YOLOv8をPythonプロジェクトで使用する方法について詳しくは、[Pythonガイド](/../usage/python.md)を参照してください。 -!!! example +!!! Example ```python from ultralytics import YOLO diff --git a/docs/ja/tasks/classify.md b/docs/ja/tasks/classify.md index 73dff51c7e..def346f0a8 100644 --- a/docs/ja/tasks/classify.md +++ b/docs/ja/tasks/classify.md @@ -12,7 +12,7 @@ keywords: Ultralytics, YOLOv8, 画像分類, 事前トレーニングされた 画像分類器の出力は単一のクラスラベルと信頼度スコアです。画像がどのクラスに属しているかのみを知る必要があり、クラスのオブジェクトがどこにあるか、その正確な形状は必要としない場合に画像分類が役立ちます。 -!!! tip "ヒント" +!!! Tip "ヒント" YOLOv8 分類モデルは `-cls` 接尾辞を使用します。例: `yolov8n-cls.pt` これらは [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) で事前にトレーニングされています。 @@ -39,7 +39,7 @@ keywords: Ultralytics, YOLOv8, 画像分類, 事前トレーニングされた 画像サイズ64で100エポックにわたってMNIST160データセットにYOLOv8n-clsをトレーニングします。利用可能な引数の完全なリストについては、[設定](/../usage/cfg.md) ページを参照してください。 -!!! example "" +!!! Example "例" === "Python" @@ -76,7 +76,7 @@ YOLO分類データセットのフォーマットの詳細は [データセッ MNIST160データセットでトレーニング済みのYOLOv8n-clsモデルの正確性を検証します。引数は必要ありません。`model` はトレーニング時の `data` および引数をモデル属性として保持しています。 -!!! example "" +!!! Example "例" === "Python" @@ -103,7 +103,7 @@ MNIST160データセットでトレーニング済みのYOLOv8n-clsモデルの トレーニング済みのYOLOv8n-clsモデルを使用して、画像に対する予測を実行します。 -!!! example "" +!!! Example "例" === "Python" @@ -130,7 +130,7 @@ MNIST160データセットでトレーニング済みのYOLOv8n-clsモデルの YOLOv8n-clsモデルをONNX、CoreMLなどの異なる形式にエクスポートします。 -!!! example "" +!!! Example "例" === "Python" diff --git a/docs/ja/tasks/detect.md b/docs/ja/tasks/detect.md index 59537e961e..3bc24c131f 100644 --- a/docs/ja/tasks/detect.md +++ b/docs/ja/tasks/detect.md @@ -23,7 +23,7 @@ keywords: YOLOv8, Ultralytics, 物体検出, 事前訓練済みモデル, トレ 視聴する: Ultralyticsの事前訓練済みYOLOv8モデルによる物体検出。

-!!! tip "ヒント" +!!! Tip "ヒント" YOLOv8 Detectモデルは、デフォルトのYOLOv8モデル、つまり`yolov8n.pt`であり、[COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)で事前訓練されています。 @@ -50,7 +50,7 @@ keywords: YOLOv8, Ultralytics, 物体検出, 事前訓練済みモデル, トレ YOLOv8nを画像サイズ640でCOCO128データセットに対して100エポックでトレーニングします。使用可能な引数の完全なリストについては、[設定](/../usage/cfg.md)ページをご覧ください。 -!!! example "" +!!! Example "例" === "Python" @@ -86,7 +86,7 @@ YOLO検出データセットの形式の詳細は、[データセットガイド トレーニングされたYOLOv8nモデルの精度をCOCO128データセットで検証します。引数は不要で、モデルはトレーニングの`data`と引数をモデル属性として保持しています。 -!!! example "" +!!! Example "例" === "Python" @@ -115,7 +115,7 @@ YOLO検出データセットの形式の詳細は、[データセットガイド トレーニングされたYOLOv8nモデルを使用して画像の予測を実行します。 -!!! example "" +!!! Example "例" === "Python" @@ -142,7 +142,7 @@ YOLO検出データセットの形式の詳細は、[データセットガイド YOLOv8nモデルをONNX、CoreMLなどの異なるフォーマットにエクスポートします。 -!!! example "" +!!! Example "例" === "Python" diff --git a/docs/ja/tasks/index.md b/docs/ja/tasks/index.md index 4713c87739..bc4dc96312 100644 --- a/docs/ja/tasks/index.md +++ b/docs/ja/tasks/index.md @@ -11,7 +11,7 @@ keywords: Ultralytics, YOLOv8, 検出, セグメンテーション, 分類, ポ YOLOv8は、複数のコンピュータービジョン**タスク**をサポートするAIフレームワークです。このフレームワークは、[検出](detect.md)、[セグメンテーション](segment.md)、[分類](classify.md)、及び[ポーズ](pose.md)推定を実行するために使用できます。これらのタスクはそれぞれ異なる目的と用途を持っています。 -!!! note +!!! Note 🚧 当社の多言語ドキュメントは現在建設中であり、改善のために一生懸命作業を行っています。ご理解いただきありがとうございます!🙏 diff --git a/docs/ja/tasks/pose.md b/docs/ja/tasks/pose.md index f1f2475270..d4acc94782 100644 --- a/docs/ja/tasks/pose.md +++ b/docs/ja/tasks/pose.md @@ -23,7 +23,7 @@ keywords: Ultralytics, YOLO, YOLOv8, ポーズ推定, キーポイント検出, 視聴: Ultralytics YOLOv8によるポーズ推定。

-!!! tip "ヒント" +!!! Tip "ヒント" YOLOv8 _pose_ モデルは `-pose` サフィックスを使用します。例:`yolov8n-pose.pt`。これらのモデルは [COCOキーポイント](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) データセットでトレーニングされ、多様なポーズ推定タスクに適しています。 @@ -51,7 +51,7 @@ YOLOv8事前トレーニング済みポーズモデルはこちらです。Detec COCO128-poseデータセットでYOLOv8-poseモデルをトレーニングします。 -!!! example "" +!!! Example "例" === "Python" @@ -87,7 +87,7 @@ YOLOポーズデータセットフォーマットの詳細は、[データセッ COCO128-poseデータセットでトレーニングされたYOLOv8n-poseモデルの精度を検証します。引数は必要なく、`model`にはトレーニング`data`と引数がモデル属性として保持されます。 -!!! example "" +!!! Example "例" === "Python" @@ -116,7 +116,7 @@ COCO128-poseデータセットでトレーニングされたYOLOv8n-poseモデ トレーニング済みのYOLOv8n-poseモデルを使用して画像を予測します。 -!!! example "" +!!! Example "例" === "Python" @@ -143,7 +143,7 @@ COCO128-poseデータセットでトレーニングされたYOLOv8n-poseモデ YOLOv8n PoseモデルをONNX、CoreMLなどの異なるフォーマットにエクスポートします。 -!!! example "" +!!! Example "例" === "Python" diff --git a/docs/ja/tasks/segment.md b/docs/ja/tasks/segment.md index 7e1b4e9259..bc6eae352b 100644 --- a/docs/ja/tasks/segment.md +++ b/docs/ja/tasks/segment.md @@ -23,7 +23,7 @@ keywords: yolov8, インスタンスセグメンテーション, Ultralytics, CO 視聴: Pythonで事前トレーニング済みのUltralytics YOLOv8モデルでセグメンテーションを実行する。

-!!! tip "ヒント" +!!! Tip "ヒント" YOLOv8セグメントモデルは`-seg`サフィックスを使用し、つまり`yolov8n-seg.pt`などは[COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)で事前トレーニングされています。 @@ -50,7 +50,7 @@ keywords: yolov8, インスタンスセグメンテーション, Ultralytics, CO COCO128-segデータセットで、画像サイズ640でYOLOv8n-segを100エポックトレーニングします。利用可能な全ての引数については、[コンフィギュレーション](/../usage/cfg.md)ページを参照してください。 -!!! example "" +!!! Example "例" === "Python" @@ -86,7 +86,7 @@ YOLOセグメンテーションデータセットのフォーマットの詳細 訓練されたYOLOv8n-segモデルの精度をCOCO128-segデータセットで検証します。引数は必要ありません、なぜなら`model`はモデル属性としてトレーニング`data`と引数を保持しているからです。 -!!! example "" +!!! Example "例" === "Python" @@ -119,7 +119,7 @@ YOLOセグメンテーションデータセットのフォーマットの詳細 訓練されたYOLOv8n-segモデルを使用して画像の予測を実行します。 -!!! example "" +!!! Example "例" === "Python" @@ -146,7 +146,7 @@ YOLOセグメンテーションデータセットのフォーマットの詳細 YOLOv8n-segモデルをONNX、CoreMLなどの別の形式にエクスポートします。 -!!! example "" +!!! Example "例" === "Python" diff --git a/docs/ko/datasets/index.md b/docs/ko/datasets/index.md index 3ac8af7e58..cabe02c3ec 100644 --- a/docs/ko/datasets/index.md +++ b/docs/ko/datasets/index.md @@ -8,7 +8,7 @@ keywords: 컴퓨터 비전, 데이터셋, Ultralytics, YOLO, 객체 탐지, 인 Ultralytics는 탐지, 인스턴스 세분화, 자세 추정, 분류 및 다중 객체 추적과 같은 컴퓨터 비전 작업을 촉진하기 위해 다양한 데이터셋을 지원합니다. 아래는 주요 Ultralytics 데이터셋 목록과 각 컴퓨터 비전 작업의 요약, 그리고 해당 데이터셋입니다. -!!! note +!!! Note 🚧 다국어 문서 작업은 현재 진행 중이며, 우리는 이를 개선하기 위해 노력하고 있습니다. 인내해 주셔서 감사합니다! 🙏 @@ -104,7 +104,7 @@ Ultralytics는 탐지, 인스턴스 세분화, 자세 추정, 분류 및 다중 ### 데이터셋 최적화 및 압축 예제 코드 -!!! example "데이터셋 최적화 및 압축" +!!! Example "데이터셋 최적화 및 압축" === "Python" diff --git a/docs/ko/index.md b/docs/ko/index.md index 1feed3b3b1..c811b0bb1e 100644 --- a/docs/ko/index.md +++ b/docs/ko/index.md @@ -38,7 +38,7 @@ Ultralytics의 최신 버전인 [YOLOv8](https://github.com/ultralytics/ultralyt YOLOv8 문서를 탐구하여, 그 기능과 능력을 이해하고 활용할 수 있도록 돕는 종합적인 자원입니다. 기계 학습 분야에서 경험이 많건, 새롭게 시작하는 이들이건, 이 허브는 YOLOv8의 잠재력을 극대화하기 위해 설계되었습니다. -!!! note +!!! Note 🚧 다국어 문서는 현재 제작 중이며, 이를 개선하기 위해 노력하고 있습니다. 인내해 주셔서 감사합니다! 🙏 diff --git a/docs/ko/models/index.md b/docs/ko/models/index.md index 5cd209627e..19df91d93e 100644 --- a/docs/ko/models/index.md +++ b/docs/ko/models/index.md @@ -8,7 +8,7 @@ keywords: Ultralytics, 문서화, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, RT-DE Ultralytics 모델 문서에 오신 것을 환영합니다! 저희는 [객체 검출](../tasks/detect.md), [인스턴스 분할](../tasks/segment.md), [이미지 분류](../tasks/classify.md), [자세 추정](../tasks/pose.md), [다중 객체 추적](../modes/track.md) 등 특정 작업에 맞춤화된 다양한 모델을 지원합니다. Ultralytics에 모델 아키텍처를 기여하고자 한다면, 저희의 [기여 가이드](../../help/contributing.md)를 확인해 주세요. -!!! note +!!! Note 🚧 현재 다국어 문서화 작업이 진행 중이며 문서를 개선하기 위해 열심히 작업하고 있습니다. 기다려 주셔서 감사합니다! 🙏 @@ -41,7 +41,7 @@ Ultralytics 모델 문서에 오신 것을 환영합니다! 저희는 [객체 ## 시작하기: 사용 예시 -!!! example "" +!!! Example "예제" === "Python" diff --git a/docs/ko/modes/benchmark.md b/docs/ko/modes/benchmark.md index 6aa300f07c..147da2fb01 100644 --- a/docs/ko/modes/benchmark.md +++ b/docs/ko/modes/benchmark.md @@ -32,7 +32,7 @@ keywords: Ultralytics, YOLOv8, 벤치마킹, 속도 프로파일링, 정확도 - **OpenVINO:** 인텔 하드웨어 최적화를 위함 - **CoreML, TensorFlow SavedModel, 그 외:** 다양한 배포 요구 사항을 위함. -!!! 팁 "팁" +!!! Tip "팁" * CPU 속도 향상을 위해 ONNX 또는 OpenVINO로 내보내기. * GPU 속도 향상을 위해 TensorRT로 내보내기. @@ -41,7 +41,7 @@ keywords: Ultralytics, YOLOv8, 벤치마킹, 속도 프로파일링, 정확도 YOLOv8n 벤치마킹을 ONNX, TensorRT 등 모든 지원되는 내보내기 형식에 대해 실행합니다. 완벽한 내보내기 인수 목록을 보려면 아래의 인수 섹션을 참조하세요. -!!! 예제 "" +!!! Example "예제" === "파이썬" diff --git a/docs/ko/modes/export.md b/docs/ko/modes/export.md index 7068d41870..98a9f10059 100644 --- a/docs/ko/modes/export.md +++ b/docs/ko/modes/export.md @@ -39,7 +39,7 @@ keywords: YOLO, YOLOv8, Ultralytics, 모델 내보내기, ONNX, TensorRT, CoreML - **최적화된 추론:** 내보낸 모델들은 더 빠른 추론 시간을 위해 최적화되어 있습니다. - **튜토리얼 비디오:** 원활한 내보내기 경험을 위한 심도 있는 가이드 및 튜토리얼. -!!! 팁 "팁" +!!! Tip "팁" * CPU 속도 향상을 위해 ONNX 또는 OpenVINO로 내보내세요. * GPU 속도 향상을 위해 TensorRT로 내보내세요. diff --git a/docs/ko/modes/predict.md b/docs/ko/modes/predict.md index 825757d746..ce0f6eafa6 100644 --- a/docs/ko/modes/predict.md +++ b/docs/ko/modes/predict.md @@ -92,7 +92,7 @@ Ultralytics YOLO 모델은 Python `Results` 객체의 리스트를 반환하거 YOLOv8은 아래 표에 표시된 바와 같이 추론을 위한 다양한 유형의 입력 소스를 처리할 수 있습니다. 소스에는 정적 이미지, 비디오 스트림, 다양한 데이터 형식이 포함됩니다. 표는 또한 각 소스를 'stream=True' ✅와 함께 스트리밍 모드에서 사용할 수 있는지 여부를 나타냅니다. 스트리밍 모드는 비디오나 라이브 스트림을 처리할 때 결과를 메모리에 모두 로드하는 대신 결과의 생성자를 만들어 유용하게 사용됩니다. -!!! 팁 "팁" +!!! Tip "팁" 긴 비디오나 큰 데이터 세트를 처리할 때 'stream=True'를 사용하여 효율적으로 메모리를 관리합니다. 'stream=False'일 때는 모든 프레임 또는 데이터 포인트에 대한 결과가 메모리에 저장되어, 입력이 크면 메모리 부족 오류를 빠르게 유발할 수 있습니다. 반면에, 'stream=True'는 생성자를 사용하여 현재 프레임 또는 데이터 포인트의 결과만 메모리에 유지하여 메모리 소비를 크게 줄이고 메모리 부족 문제를 방지합니다. diff --git a/docs/ko/modes/train.md b/docs/ko/modes/train.md index 512b8cb6d8..2caafd3538 100644 --- a/docs/ko/modes/train.md +++ b/docs/ko/modes/train.md @@ -41,7 +41,7 @@ YOLOv8의 훈련 모드를 선택하는 데는 몇 가지 설득력 있는 이 - **하이퍼파라미터 구성:** YAML 구성 파일이나 CLI 인수를 통해 하이퍼파라미터 수정 가능. - **시각화 및 모니터링:** 훈련 지표의 실시간 추적 및 학습 과정의 시각화로 더 나은 인사이트 제공. -!!! 팁 "팁" +!!! Tip "팁" * YOLOv8 데이터셋들은 첫 사용시 자동으로 다운로드됩니다, 예: `yolo train data=coco.yaml` @@ -49,7 +49,7 @@ YOLOv8의 훈련 모드를 선택하는 데는 몇 가지 설득력 있는 이 COCO128 데이터셋에서 YOLOv8n을 이미지 크기 640으로 100 에포크 동안 훈련합니다. 훈련 장치는 `device` 인수를 사용하여 지정할 수 있습니다. 인수를 전달하지 않으면 사용 가능한 경우 GPU `device=0`이, 아니면 `device=cpu`가 사용됩니다. 전체 훈련 인수 목록은 아래 Arguments 섹션을 참조하세요. -!!! 예제 "단일 GPU 및 CPU 훈련 예제" +!!! Example "단일 GPU 및 CPU 훈련 예제" 장치는 자동으로 결정됩니다. GPU가 사용 가능하면 사용되며, 그렇지 않으면 CPU에서 훈련이 시작됩니다. @@ -84,7 +84,7 @@ COCO128 데이터셋에서 YOLOv8n을 이미지 크기 640으로 100 에포크 다중 GPU 훈련을 통해 사용 가능한 하드웨어 리소스를 더 효율적으로 활용할 수 있습니다. 이 기능은 Python API와 명령행 인터페이스 모두를 통해 사용할 수 있습니다. 다중 GPU 훈련을 활성화하려면 사용하려는 GPU 장치 ID를 지정하세요. -!!! 예제 "다중 GPU 훈련 예제" +!!! Example "다중 GPU 훈련 예제" 2개의 GPU, CUDA 장치 0과 1로 훈련하려면 다음 명령을 사용하세요. 필요에 따라 추가 GPU로 확장하세요. @@ -113,7 +113,7 @@ Ultralytics YOLO 모델에 통합된 Apple M1 및 M2 칩들에 대한 지원을 Apple M1 및 M2 칩에서 훈련을 활성화하려면, 훈련 과정을 시작할 때 장치로 'mps'를 지정해야 합니다. 아래는 Python 및 명령행 인터페이스를 통해 이를 수행할 수 있는 예제입니다: -!!! 예제 "MPS 훈련 예제" +!!! Example "MPS 훈련 예제" === "Python" diff --git a/docs/ko/modes/val.md b/docs/ko/modes/val.md index 4b4b0cd4a8..2ebaf771f0 100644 --- a/docs/ko/modes/val.md +++ b/docs/ko/modes/val.md @@ -30,7 +30,7 @@ YOLOv8의 Val 모드가 제공하는 주목할 만한 기능들은 다음과 같 - **CLI 및 Python API:** 검증을 위해 명령 줄 인터페이스 또는 Python API 중에서 선택할 수 있습니다. - **데이터 호환성:** 훈련 단계에서 사용된 데이터셋과 사용자 정의 데이터셋 모두와 원활하게 작동합니다. -!!! tip "팁" +!!! Tip "팁" * YOLOv8 모델은 훈련 설정을 자동으로 기억하므로 `yolo val model=yolov8n.pt`나 `model('yolov8n.pt').val()`만으로 같은 이미지 크기와 원본 데이터셋에서 쉽게 검증할 수 있습니다. @@ -38,7 +38,7 @@ YOLOv8의 Val 모드가 제공하는 주목할 만한 기능들은 다음과 같 COCO128 데이터셋에서 훈련된 YOLOv8n 모델의 정확도를 검증합니다. `모델`은 훈련 `데이터`와 인자를 모델 속성으로 유지하므로 인자가 필요 없습니다. 전체 내보내기 인자 목록은 아래의 인자 섹션을 참고하세요. -!!! example "" +!!! Example "예제" === "Python" diff --git a/docs/ko/quickstart.md b/docs/ko/quickstart.md index 65e69b5f00..4d047657ac 100644 --- a/docs/ko/quickstart.md +++ b/docs/ko/quickstart.md @@ -8,7 +8,7 @@ keywords: Ultralytics 설치, pip를 이용한 Ultralytics 설치, Docker를 이 Ultralytics는 pip, conda, Docker를 포함한 다양한 설치 방법을 제공합니다. `ultralytics` pip 패키지를 이용해 가장 안정적인 최신 버전의 YOLOv8을 설치하거나 [Ultralytics GitHub 저장소](https://github.com/ultralytics/ultralytics)를 복제하여 가장 최신 버전을 받아볼 수 있습니다. Docker를 이용하면 패키지를 로컬에 설치하지 않고 격리된 컨테이너에서 실행할 수 있습니다. -!!! example "설치하기" +!!! Example "설치하기" === "Pip 설치하기 (권장)" pip을 사용하여 `ultralytics` 패키지를 설치하거나, `pip install -U ultralytics`를 실행하여 기존 설치를 업데이트하세요. Python Package Index(PyPI)에서 `ultralytics` 패키지에 대한 자세한 내용을 확인하세요: [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/). @@ -39,7 +39,7 @@ Ultralytics는 pip, conda, Docker를 포함한 다양한 설치 방법을 제공 conda install -c conda-forge ultralytics ``` - !!! note + !!! Note CUDA 환경에서 설치하는 경우 일반적으로 `ultralytics`, `pytorch` 및 `pytorch-cuda`를 동일한 명령어로 설치하여 Conda 패키지 관리자가 충돌을 해결하도록 하거나, 필요한 경우 CPU 전용 `pytorch` 패키지를 덮어쓸 수 있도록 `pytorch-cuda`를 마지막에 설치하는 것이 좋습니다. ```bash @@ -130,7 +130,7 @@ Ultralytics는 pip, conda, Docker를 포함한 다양한 설치 방법을 제공 Watch: Ultralytics YOLO Quick Start Guide

-!!! tip "팁" +!!! Tip "팁" PyTorch 설치 요구사항은 운영 체제와 CUDA 요구사항에 따라 다르므로 [https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally)의 지침에 따라 PyTorch를 먼저 설치하는 것이 권장됩니다. @@ -142,7 +142,7 @@ Ultralytics는 pip, conda, Docker를 포함한 다양한 설치 방법을 제공 Ultralytics 명령줄 인터페이스(CLI)는 Python 환경이 필요 없이 단일 라인 명령어를 통해 작업을 쉽게 실행할 수 있도록 합니다. CLI는 커스터마이징이나 Python 코드가 필요 없습니다. `yolo` 명령어를 이용해 터미널에서 모든 작업을 실행할 수 있습니다. 명령줄에서 YOLOv8을 사용하는 방법에 대해 더 알아보려면 [CLI 가이드](/../usage/cli.md)를 참고하세요. -!!! example +!!! Example === "문법" @@ -196,7 +196,7 @@ Ultralytics 명령줄 인터페이스(CLI)는 Python 환경이 필요 없이 단 yolo cfg ``` -!!! warning "주의" +!!! Warning "주의" 모든 인수는 `arg=val`쌍으로 전달되어야 하며, 각 쌍 사이에는 공백으로 구분해야 합니다. 인수 접두사로 `--`를 사용하거나 인수 사이에 쉼표 `,`를 사용해서는 안 됩니다. diff --git a/docs/ko/tasks/classify.md b/docs/ko/tasks/classify.md index a6e334c5c2..74e43bdc4c 100644 --- a/docs/ko/tasks/classify.md +++ b/docs/ko/tasks/classify.md @@ -12,7 +12,7 @@ keywords: Ultralytics, YOLOv8, 이미지 분류, 사전 훈련된 모델, YOLOv8 이미지 분류기의 출력은 단일 클래스 라벨과 신뢰도 점수입니다. 이미지 분류는 클래스의 이미지만 알고 싶고 해당 클래스의 객체가 어디에 위치하고 있는지 또는 그 정확한 형태가 무엇인지 알 필요가 없을 때 유용합니다. -!!! 팁 "팁" +!!! Tip "팁" YOLOv8 분류 모델은 `-cls` 접미사를 사용합니다. 예: `yolov8n-cls.pt`이며, [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml)에서 사전 훈련되었습니다. @@ -39,7 +39,7 @@ keywords: Ultralytics, YOLOv8, 이미지 분류, 사전 훈련된 모델, YOLOv8 YOLOv8n-cls 모델을 MNIST160 데이터셋에서 100 에포크 동안 학습시키고 이미지 크기는 64로 설정합니다. 가능한 모든 인자는 [설정](/../usage/cfg.md) 페이지에서 확인할 수 있습니다. -!!! 예제 "" +!!! Example "예제" === "Python" @@ -76,7 +76,7 @@ YOLO 분류 데이터셋 형식은 [데이터셋 가이드](../../../datasets/cl 학습된 YOLOv8n-cls 모델의 정확도를 MNIST160 데이터셋에서 검증합니다. `model`은 모델 속성으로 훈련 시 `data` 및 인자를 유지하므로 추가 인자를 전달할 필요가 없습니다. -!!! 예제 "" +!!! Example "예제" === "Python" @@ -103,7 +103,7 @@ YOLO 분류 데이터셋 형식은 [데이터셋 가이드](../../../datasets/cl 학습된 YOLOv8n-cls 모델을 사용하여 이미지에 대한 예측을 실행합니다. -!!! 예제 "" +!!! Example "예제" === "Python" @@ -130,7 +130,7 @@ YOLO 분류 데이터셋 형식은 [데이터셋 가이드](../../../datasets/cl YOLOv8n-cls 모델을 ONNX, CoreML 등과 같은 다른 형식으로 내보냅니다. -!!! 예제 "" +!!! Example "예제" === "Python" diff --git a/docs/ko/tasks/detect.md b/docs/ko/tasks/detect.md index 6d1bba3459..ceee1eba66 100644 --- a/docs/ko/tasks/detect.md +++ b/docs/ko/tasks/detect.md @@ -23,7 +23,7 @@ keywords: YOLOv8, Ultralytics, 객체 감지, 사전 훈련된 모델, 훈련, 시청하기: 사전 훈련된 Ultralytics YOLOv8 모델로 객체 감지하기.

-!!! tip "팁" +!!! Tip "팁" YOLOv8 Detect 모델들은 기본 YOLOv8 모델이며 예를 들어 `yolov8n.pt` 이 [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) 데이터셋에서 사전 훈련되었습니다. @@ -50,7 +50,7 @@ keywords: YOLOv8, Ultralytics, 객체 감지, 사전 훈련된 모델, 훈련, COCO128 데이터셋에서 이미지 크기 640으로 YOLOv8n 모델을 100 에포크 동안 훈련합니다. 가능한 모든 인수에 대한 목록은 [설정](/../usage/cfg.md) 페이지에서 확인할 수 있습니다. -!!! example "" +!!! Example "예제" === "Python" @@ -86,7 +86,7 @@ YOLO 감지 데이터셋 형식은 [데이터셋 가이드](../../../datasets/de COCO128 데이터셋에서 훈련된 YOLOv8n 모델의 정확도를 검증합니다. `model`은 훈련 시의 `data`와 인수를 모델 속성으로 보존하기 때문에 인수를 전달할 필요가 없습니다. -!!! example "" +!!! Example "예제" === "Python" @@ -115,7 +115,7 @@ COCO128 데이터셋에서 훈련된 YOLOv8n 모델의 정확도를 검증합니 훈련된 YOLOv8n 모델을 사용하여 이미지에 대한 예측을 수행합니다. -!!! example "" +!!! Example "예제" === "Python" @@ -142,7 +142,7 @@ COCO128 데이터셋에서 훈련된 YOLOv8n 모델의 정확도를 검증합니 YOLOv8n 모델을 ONNX, CoreML 등과 같은 다른 형식으로 내보냅니다. -!!! example "" +!!! Example "예제" === "Python" diff --git a/docs/ko/tasks/index.md b/docs/ko/tasks/index.md index e725ffa839..43bf2b63bc 100644 --- a/docs/ko/tasks/index.md +++ b/docs/ko/tasks/index.md @@ -11,7 +11,7 @@ keywords: Ultralytics, YOLOv8, 탐지, 세분화, 분류, 자세 추정, AI 프 YOLOv8는 여러 컴퓨터 비전 **작업**을 지원하는 AI 프레임워크입니다. 이 프레임워크는 [탐지](detect.md), [세분화](segment.md), [분류](classify.md), 그리고 [자세](pose.md) 추정을 수행하는 데 사용될 수 있습니다. 각각의 작업은 서로 다른 목적과 사용 사례를 가지고 있습니다. -!!! note +!!! Note 🚧 다국어 문서화 작업이 진행 중에 있으며, 더 나은 문서를 제공하기 위해 노력하고 있습니다. 인내해 주셔서 감사합니다! 🙏 diff --git a/docs/ko/tasks/pose.md b/docs/ko/tasks/pose.md index 3d882805b4..ee4944fb0f 100644 --- a/docs/ko/tasks/pose.md +++ b/docs/ko/tasks/pose.md @@ -23,7 +23,7 @@ keywords: Ultralytics, YOLO, YOLOv8, 포즈 추정, 키포인트 검출, 객체 시청하기: Ultralytics YOLOv8을 이용한 포즈 추정.

-!!! tip "팁" +!!! Tip "팁" YOLOv8 _pose_ 모델은 `-pose` 접미사가 붙습니다. 예: `yolov8n-pose.pt`. 이 모델들은 [COCO keypoints](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) 데이터셋으로 학습되었으며 포즈 추정 작업에 적합합니다. @@ -51,7 +51,7 @@ keywords: Ultralytics, YOLO, YOLOv8, 포즈 추정, 키포인트 검출, 객체 COCO128-pose 데이터셋에서 YOLOv8-pose 모델 학습하기. -!!! example "" +!!! Example "예제" === "Python" @@ -87,7 +87,7 @@ YOLO 포즈 데이터셋 형식에 대한 자세한 내용은 [데이터셋 가 학습된 YOLOv8n-pose 모델의 정확도를 COCO128-pose 데이터셋에서 검증하기. 모델은 학습 `data` 및 인수를 모델 속성으로 유지하기 때문에 인수를 전달할 필요가 없습니다. -!!! example "" +!!! Example "예제" === "Python" @@ -116,7 +116,7 @@ YOLO 포즈 데이터셋 형식에 대한 자세한 내용은 [데이터셋 가 학습된 YOLOv8n-pose 모델을 사용하여 이미지에 대한 예측 수행하기. -!!! example "" +!!! Example "예제" === "Python" @@ -143,7 +143,7 @@ YOLO 포즈 데이터셋 형식에 대한 자세한 내용은 [데이터셋 가 YOLOv8n 포즈 모델을 ONNX, CoreML 등 다른 형식으로 내보내기. -!!! example "" +!!! Example "예제" === "Python" diff --git a/docs/ko/tasks/segment.md b/docs/ko/tasks/segment.md index af4b462709..82c36b08b2 100644 --- a/docs/ko/tasks/segment.md +++ b/docs/ko/tasks/segment.md @@ -23,7 +23,7 @@ keywords: yolov8, 인스턴스 세그멘테이션, Ultralytics, COCO 데이터 시청하기: Python에서 사전 훈련된 Ultralytics YOLOv8 모델로 세그멘테이션 실행.

-!!! tip "팁" +!!! Tip "팁" YOLOv8 Segment 모델은 '-seg' 접미사를 사용하며 즉, `yolov8n-seg.pt`와 같이 [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) 데이터셋에 사전 훈련되어 있습니다. @@ -50,7 +50,7 @@ keywords: yolov8, 인스턴스 세그멘테이션, Ultralytics, COCO 데이터 COCO128-seg 데이터셋에서 이미지 크기 640으로 YOLOv8n-seg을 100 에포크 동안 훈련합니다. 가능한 모든 인자 목록은 [설정](/../usage/cfg.md) 페이지에서 확인할 수 있습니다. -!!! example "" +!!! Example "예제" === "파이썬" @@ -86,7 +86,7 @@ YOLO 세그멘테이션 데이터셋 형식은 [데이터셋 가이드](../../.. COCO128-seg 데이터셋에서 훈련된 YOLOv8n-seg 모델의 정확도를 검증합니다. 모델은 훈련할 때의 `data`와 인자를 모델 속성으로 기억하기 때문에 별도의 인자를 전달할 필요가 없습니다. -!!! example "" +!!! Example "예제" === "파이썬" @@ -119,7 +119,7 @@ COCO128-seg 데이터셋에서 훈련된 YOLOv8n-seg 모델의 정확도를 검 훈련된 YOLOv8n-seg 모델을 사용하여 이미지에 대한 예측을 실행합니다. -!!! example "" +!!! Example "예제" === "파이썬" @@ -146,7 +146,7 @@ COCO128-seg 데이터셋에서 훈련된 YOLOv8n-seg 모델의 정확도를 검 ONNX, CoreML 등과 같은 다른 형식으로 YOLOv8n-seg 모델을 수출합니다. -!!! example "" +!!! Example "예제" === "파이썬" diff --git a/docs/mkdocs.yml b/docs/mkdocs.yml index 1492af731b..a4a3a6cf8f 100644 --- a/docs/mkdocs.yml +++ b/docs/mkdocs.yml @@ -100,6 +100,12 @@ extra: - name: 🇵🇹 Português link: /pt/ lang: pt + - name: 🇮🇳 हिन्दी + link: /hi/ + lang: hi + - name: 🇸🇦 العربية + link: /ar/ + lang: ar social: - icon: fontawesome/brands/github link: https://github.com/ultralytics @@ -174,6 +180,8 @@ nav: - 🇫🇷  Français: https://docs.ultralytics.com/fr/ - 🇪🇸  Español: https://docs.ultralytics.com/es/ - 🇵🇹  Português: https://docs.ultralytics.com/pt/ + - 🇮🇳  हिन्दी: https://docs.ultralytics.com/hi/ + - 🇸🇦  العربية: https://docs.ultralytics.com/ar/ - Quickstart: quickstart.md - Modes: - modes/index.md diff --git a/docs/mkdocs_ar.yml b/docs/mkdocs_ar.yml new file mode 100644 index 0000000000..c14ea8e379 --- /dev/null +++ b/docs/mkdocs_ar.yml @@ -0,0 +1,202 @@ +# Ultralytics YOLO 🚀, AGPL-3.0 license + +site_name: وثائق Ultralytics YOLOv8 +site_description: استكشف Ultralytics YOLOv8، نموذج الكشف عن الأجسام وتقطيع الصورة في الوقت الحقيقي المتطور لمختلف التطبيقات والمنصات الأجهزة. +site_url: https://docs.ultralytics.com/ar/ +site_author: Ultralytics +repo_url: https://github.com/ultralytics/ultralytics +edit_uri: https://github.com/ultralytics/ultralytics/tree/main/docs/ar/ +repo_name: ultralytics/ultralytics +remote_name: https://github.com/ultralytics/docs +docs_dir: 'ar/' # where to find the markdown files +site_dir: '../site/ar' # where to publish to + +theme: + name: material + language: ar + custom_dir: overrides/ + logo: https://github.com/ultralytics/assets/raw/main/logo/Ultralytics_Logotype_Reverse.svg + favicon: assets/favicon.ico + icon: + repo: fontawesome/brands/github + # font: # disabled for faster page load times + # text: Helvetica + # code: Roboto Mono + palette: + - media: "(prefers-color-scheme)" + toggle: + icon: material/brightness-auto + name: Switch to light mode + - media: "(prefers-color-scheme: dark)" + scheme: slate + primary: black + accent: indigo + toggle: + icon: material/brightness-4 + name: Switch to system preference + - media: "(prefers-color-scheme: light)" + scheme: default + primary: indigo + accent: indigo + toggle: + icon: material/brightness-7 + name: Switch to dark mode + features: + - announce.dismiss + - content.action.edit + - content.code.annotate + - content.code.copy + - content.tooltips + - search.highlight + - search.share + - search.suggest + - toc.follow + - navigation.top + - navigation.tabs + - navigation.tabs.sticky + - navigation.prune + - navigation.footer + - navigation.tracking + - navigation.instant + - navigation.instant.progress + - navigation.indexes + - navigation.sections + - content.tabs.link # all code tabs change simultaneously + +# Customization +copyright: © 2023 Ultralytics Inc. All rights reserved. +extra: + # version: + # provider: mike # version drop-down menu + robots: robots.txt + analytics: + provider: google + property: G-2M5EHKC0BH + alternate: # language drop-down + - name: 🇬🇧 English + link: / + lang: en + - name: 🇨🇳 简体中文 + link: /zh/ + lang: zh + - name: 🇰🇷 한국어 + link: /ko/ + lang: ko + - name: 🇯🇵 日本語 + link: /ja/ + lang: ja + - name: 🇷🇺 Русский + link: /ru/ + lang: ru + - name: 🇩🇪 Deutsch + link: /de/ + lang: de + - name: 🇫🇷 Français + link: /fr/ + lang: fr + - name: 🇪🇸 Español + link: /es/ + lang: es + - name: 🇵🇹 Português + link: /pt/ + lang: pt + - name: 🇮🇳 हिन्दी + link: /hi/ + lang: hi + - name: 🇸🇦 العربية + link: /ar/ + lang: ar + social: + - icon: fontawesome/brands/github + link: https://github.com/ultralytics + - icon: fontawesome/brands/linkedin + link: https://www.linkedin.com/company/ultralytics/ + - icon: fontawesome/brands/twitter + link: https://twitter.com/ultralytics + - icon: fontawesome/brands/youtube + link: https://www.youtube.com/ultralytics + - icon: fontawesome/brands/docker + link: https://hub.docker.com/r/ultralytics/ultralytics/ + - icon: fontawesome/brands/python + link: https://pypi.org/project/ultralytics/ + - icon: fontawesome/brands/discord + link: https://ultralytics.com/discord + +extra_css: + - stylesheets/style.css +extra_javascript: + - javascript/extra.js + +markdown_extensions: + - admonition + - md_in_html + - tables + - attr_list + - def_list + - pymdownx.critic + - pymdownx.caret + - pymdownx.keys + - pymdownx.mark + - pymdownx.tilde + - pymdownx.details + - pymdownx.superfences + - pymdownx.inlinehilite + - pymdownx.highlight: + anchor_linenums: true + - pymdownx.snippets: + base_path: ./ + - pymdownx.emoji: + emoji_index: !!python/name:material.extensions.emoji.twemoji + emoji_generator: !!python/name:material.extensions.emoji.to_svg + - pymdownx.tabbed: + alternate_style: true + + +# Primary navigation --------------------------------------------------------------------------------------------------- +nav: + - الصفحة الرئيسية: + - الصفحة الرئيسية: index.md + - البدء السريع: quickstart.md + - الأوضاع: + - modes/index.md + - التدريب: modes/train.md + - التحقق: modes/val.md + - التنبؤ: modes/predict.md + - التصدير: modes/export.md + - التتبع: modes/track.md + - المعايير: modes/benchmark.md + - المهام: + - tasks/index.md + - الكشف: tasks/detect.md + - التجزئة: tasks/segment.md + - التصنيف: tasks/classify.md + - الوضعية: tasks/pose.md + - البدء السريع: quickstart.md + - الأوضاع: + - modes/index.md + - التدريب: modes/train.md + - التحقق: modes/val.md + - التنبؤ: modes/predict.md + - التصدير: modes/export.md + - التتبع: modes/track.md + - المعايير: modes/benchmark.md + - المهام: + - tasks/index.md + - الكشف: tasks/detect.md + - التجزئة: tasks/segment.md + - التصنيف: tasks/classify.md + - الوضعية: tasks/pose.md + - النماذج: + - models/index.md + - المجموعات البيانية: + - datasets/index.md + +# Plugins including 301 redirects navigation --------------------------------------------------------------------------- +plugins: + - search: + lang: ar + - ultralytics: + add_desc: False + add_image: True + add_share_buttons: True + default_image: https://github.com/ultralytics/ultralytics/assets/26833433/6d09221c-c52a-4234-9a5d-b862e93c6529 diff --git a/docs/mkdocs_de.yml b/docs/mkdocs_de.yml index a2c72e10db..0d01cc1240 100644 --- a/docs/mkdocs_de.yml +++ b/docs/mkdocs_de.yml @@ -100,6 +100,12 @@ extra: - name: 🇵🇹 Português link: /pt/ lang: pt + - name: 🇮🇳 हिन्दी + link: /hi/ + lang: hi + - name: 🇸🇦 العربية + link: /ar/ + lang: ar social: - icon: fontawesome/brands/github link: https://github.com/ultralytics diff --git a/docs/mkdocs_es.yml b/docs/mkdocs_es.yml index f9b9c663d8..aad2873db3 100644 --- a/docs/mkdocs_es.yml +++ b/docs/mkdocs_es.yml @@ -100,6 +100,12 @@ extra: - name: 🇵🇹 Português link: /pt/ lang: pt + - name: 🇮🇳 हिन्दी + link: /hi/ + lang: hi + - name: 🇸🇦 العربية + link: /ar/ + lang: ar social: - icon: fontawesome/brands/github link: https://github.com/ultralytics diff --git a/docs/mkdocs_fr.yml b/docs/mkdocs_fr.yml index c7da2613bf..65aacec6b7 100644 --- a/docs/mkdocs_fr.yml +++ b/docs/mkdocs_fr.yml @@ -100,6 +100,12 @@ extra: - name: 🇵🇹 Português link: /pt/ lang: pt + - name: 🇮🇳 हिन्दी + link: /hi/ + lang: hi + - name: 🇸🇦 العربية + link: /ar/ + lang: ar social: - icon: fontawesome/brands/github link: https://github.com/ultralytics diff --git a/docs/mkdocs_hi.yml b/docs/mkdocs_hi.yml new file mode 100644 index 0000000000..f82b3c9d48 --- /dev/null +++ b/docs/mkdocs_hi.yml @@ -0,0 +1,202 @@ +# Ultralytics YOLO 🚀, AGPL-3.0 license + +site_name: Ultralytics YOLOv8 दस्तावेज़ +site_description: विभिन्न एप्लिकेशन्स और हार्डवेयर प्लेटफॉर्म्स के लिए Ultralytics YOLOv8 की खोज करें, एक अत्याधुनिक वास्तविक समय वस्तु पहचान और छवि विभाजन मॉडल। +site_url: https://docs.ultralytics.com/hi/ +site_author: Ultralytics +repo_url: https://github.com/ultralytics/ultralytics +edit_uri: https://github.com/ultralytics/ultralytics/tree/main/docs/hi/ +repo_name: ultralytics/ultralytics +remote_name: https://github.com/ultralytics/docs +docs_dir: 'hi/' # where to find the markdown files +site_dir: '../site/hi' # where to publish to + +theme: + name: material + language: hi + custom_dir: overrides/ + logo: https://github.com/ultralytics/assets/raw/main/logo/Ultralytics_Logotype_Reverse.svg + favicon: assets/favicon.ico + icon: + repo: fontawesome/brands/github + # font: # disabled for faster page load times + # text: Helvetica + # code: Roboto Mono + palette: + - media: "(prefers-color-scheme)" + toggle: + icon: material/brightness-auto + name: Switch to light mode + - media: "(prefers-color-scheme: dark)" + scheme: slate + primary: black + accent: indigo + toggle: + icon: material/brightness-4 + name: Switch to system preference + - media: "(prefers-color-scheme: light)" + scheme: default + primary: indigo + accent: indigo + toggle: + icon: material/brightness-7 + name: Switch to dark mode + features: + - announce.dismiss + - content.action.edit + - content.code.annotate + - content.code.copy + - content.tooltips + - search.highlight + - search.share + - search.suggest + - toc.follow + - navigation.top + - navigation.tabs + - navigation.tabs.sticky + - navigation.prune + - navigation.footer + - navigation.tracking + - navigation.instant + - navigation.instant.progress + - navigation.indexes + - navigation.sections + - content.tabs.link # all code tabs change simultaneously + +# Customization +copyright: © 2023 Ultralytics Inc. All rights reserved. +extra: + # version: + # provider: mike # version drop-down menu + robots: robots.txt + analytics: + provider: google + property: G-2M5EHKC0BH + alternate: # language drop-down + - name: 🇬🇧 English + link: / + lang: en + - name: 🇨🇳 简体中文 + link: /zh/ + lang: zh + - name: 🇰🇷 한국어 + link: /ko/ + lang: ko + - name: 🇯🇵 日本語 + link: /ja/ + lang: ja + - name: 🇷🇺 Русский + link: /ru/ + lang: ru + - name: 🇩🇪 Deutsch + link: /de/ + lang: de + - name: 🇫🇷 Français + link: /fr/ + lang: fr + - name: 🇪🇸 Español + link: /es/ + lang: es + - name: 🇵🇹 Português + link: /pt/ + lang: pt + - name: 🇮🇳 हिन्दी + link: /hi/ + lang: hi + - name: 🇸🇦 العربية + link: /ar/ + lang: ar + social: + - icon: fontawesome/brands/github + link: https://github.com/ultralytics + - icon: fontawesome/brands/linkedin + link: https://www.linkedin.com/company/ultralytics/ + - icon: fontawesome/brands/twitter + link: https://twitter.com/ultralytics + - icon: fontawesome/brands/youtube + link: https://www.youtube.com/ultralytics + - icon: fontawesome/brands/docker + link: https://hub.docker.com/r/ultralytics/ultralytics/ + - icon: fontawesome/brands/python + link: https://pypi.org/project/ultralytics/ + - icon: fontawesome/brands/discord + link: https://ultralytics.com/discord + +extra_css: + - stylesheets/style.css +extra_javascript: + - javascript/extra.js + +markdown_extensions: + - admonition + - md_in_html + - tables + - attr_list + - def_list + - pymdownx.critic + - pymdownx.caret + - pymdownx.keys + - pymdownx.mark + - pymdownx.tilde + - pymdownx.details + - pymdownx.superfences + - pymdownx.inlinehilite + - pymdownx.highlight: + anchor_linenums: true + - pymdownx.snippets: + base_path: ./ + - pymdownx.emoji: + emoji_index: !!python/name:material.extensions.emoji.twemoji + emoji_generator: !!python/name:material.extensions.emoji.to_svg + - pymdownx.tabbed: + alternate_style: true + + +# Primary navigation --------------------------------------------------------------------------------------------------- +nav: + - होमपेज: + - होमपेज: index.md + - त्वरित प्रारंभ: quickstart.md + - मोड: + - modes/index.md + - प्रशिक्षण: modes/train.md + - मान्यता: modes/val.md + - भविष्यवाणी: modes/predict.md + - निर्यात: modes/export.md + - ट्रैकिंग: modes/track.md + - बेंचमार्किंग: modes/benchmark.md + - कार्य: + - tasks/index.md + - पहचान: tasks/detect.md + - खंडन: tasks/segment.md + - वर्गीकरण: tasks/classify.md + - मुद्रा: tasks/pose.md + - त्वरित प्रारंभ: quickstart.md + - मोड: + - modes/index.md + - प्रशिक्षण: modes/train.md + - मान्यता: modes/val.md + - भविष्यवाणी: modes/predict.md + - निर्यात: modes/export.md + - ट्रैकिंग: modes/track.md + - बेंचमार्किंग: modes/benchmark.md + - कार्य: + - tasks/index.md + - पहचान: tasks/detect.md + - खंडन: tasks/segment.md + - वर्गीकरण: tasks/classify.md + - मुद्रा: tasks/pose.md + - मॉडल: + - models/index.md + - डेटासेट्स: + - datasets/index.md + +# Plugins including 301 redirects navigation --------------------------------------------------------------------------- +plugins: + - search: + lang: hi + - ultralytics: + add_desc: False + add_image: True + add_share_buttons: True + default_image: https://github.com/ultralytics/ultralytics/assets/26833433/6d09221c-c52a-4234-9a5d-b862e93c6529 diff --git a/docs/mkdocs_ja.yml b/docs/mkdocs_ja.yml index 5e15543784..78b682cfd8 100644 --- a/docs/mkdocs_ja.yml +++ b/docs/mkdocs_ja.yml @@ -100,6 +100,12 @@ extra: - name: 🇵🇹 Português link: /pt/ lang: pt + - name: 🇮🇳 हिन्दी + link: /hi/ + lang: hi + - name: 🇸🇦 العربية + link: /ar/ + lang: ar social: - icon: fontawesome/brands/github link: https://github.com/ultralytics diff --git a/docs/mkdocs_ko.yml b/docs/mkdocs_ko.yml index b3df73e26a..27471a20b0 100644 --- a/docs/mkdocs_ko.yml +++ b/docs/mkdocs_ko.yml @@ -100,6 +100,12 @@ extra: - name: 🇵🇹 Português link: /pt/ lang: pt + - name: 🇮🇳 हिन्दी + link: /hi/ + lang: hi + - name: 🇸🇦 العربية + link: /ar/ + lang: ar social: - icon: fontawesome/brands/github link: https://github.com/ultralytics diff --git a/docs/mkdocs_pt.yml b/docs/mkdocs_pt.yml index 677c3dc62c..46979a4898 100644 --- a/docs/mkdocs_pt.yml +++ b/docs/mkdocs_pt.yml @@ -100,6 +100,12 @@ extra: - name: 🇵🇹 Português link: /pt/ lang: pt + - name: 🇮🇳 हिन्दी + link: /hi/ + lang: hi + - name: 🇸🇦 العربية + link: /ar/ + lang: ar social: - icon: fontawesome/brands/github link: https://github.com/ultralytics diff --git a/docs/mkdocs_ru.yml b/docs/mkdocs_ru.yml index 152041eba4..dd1a5bf535 100644 --- a/docs/mkdocs_ru.yml +++ b/docs/mkdocs_ru.yml @@ -100,6 +100,12 @@ extra: - name: 🇵🇹 Português link: /pt/ lang: pt + - name: 🇮🇳 हिन्दी + link: /hi/ + lang: hi + - name: 🇸🇦 العربية + link: /ar/ + lang: ar social: - icon: fontawesome/brands/github link: https://github.com/ultralytics diff --git a/docs/mkdocs_zh.yml b/docs/mkdocs_zh.yml index 701ad35587..b96c69334b 100644 --- a/docs/mkdocs_zh.yml +++ b/docs/mkdocs_zh.yml @@ -100,6 +100,12 @@ extra: - name: 🇵🇹 Português link: /pt/ lang: pt + - name: 🇮🇳 हिन्दी + link: /hi/ + lang: hi + - name: 🇸🇦 العربية + link: /ar/ + lang: ar social: - icon: fontawesome/brands/github link: https://github.com/ultralytics diff --git a/docs/pt/datasets/index.md b/docs/pt/datasets/index.md index 758ae5f122..0a8da79f56 100644 --- a/docs/pt/datasets/index.md +++ b/docs/pt/datasets/index.md @@ -8,7 +8,7 @@ keywords: visão computacional, conjuntos de dados, Ultralytics, YOLO, detecçã A Ultralytics oferece suporte para diversos conjuntos de dados para facilitar tarefas de visão computacional, como detecção, segmentação de instância, estimativa de pose, classificação e rastreamento de múltiplos objetos. Abaixo está uma lista dos principais conjuntos de dados da Ultralytics, seguidos por um resumo de cada tarefa de visão computacional e os respectivos conjuntos de dados. -!!! note +!!! Note 🚧 Nossa documentação multilíngue está atualmente em construção e estamos trabalhando arduamente para melhorá-la. Obrigado pela sua paciência! 🙏 @@ -104,7 +104,7 @@ Contribuir com um novo conjunto de dados envolve várias etapas para garantir qu ### Exemplo de Código para Otimizar e Compactar um Conjunto de Dados -!!! example "Otimizar e Compactar um Conjunto de Dados" +!!! Example "Otimizar e Compactar um Conjunto de Dados" === "Python" diff --git a/docs/pt/index.md b/docs/pt/index.md index f09f6679a6..30f8365b89 100644 --- a/docs/pt/index.md +++ b/docs/pt/index.md @@ -38,7 +38,7 @@ Apresentamos o [Ultralytics](https://ultralytics.com) [YOLOv8](https://github.co Explore os Documentos do YOLOv8, um recurso abrangente projetado para ajudá-lo a entender e utilizar suas características e capacidades. Seja você um praticante experiente de aprendizado de máquina ou novo no campo, este hub tem como objetivo maximizar o potencial do YOLOv8 em seus projetos -!!! note +!!! Note 🚧 Nossa documentação em vários idiomas está atualmente em construção e estamos trabalhando arduamente para aprimorá-la. Agradecemos sua paciência! 🙏 diff --git a/docs/pt/models/index.md b/docs/pt/models/index.md index a33191a149..d9b61f260c 100644 --- a/docs/pt/models/index.md +++ b/docs/pt/models/index.md @@ -8,7 +8,7 @@ keywords: Ultralytics, documentação, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, Bem-vindo à documentação de modelos da Ultralytics! Oferecemos suporte para uma ampla gama de modelos, cada um adaptado para tarefas específicas como [detecção de objetos](../tasks/detect.md), [segmentação de instâncias](../tasks/segment.md), [classificação de imagens](../tasks/classify.md), [estimativa de pose](../tasks/pose.md) e [rastreamento de múltiplos objetos](../modes/track.md). Se você está interessado em contribuir com sua arquitetura de modelo para a Ultralytics, confira nosso [Guia de Contribuição](../../help/contributing.md). -!!! note +!!! Note 🚧 Nossa documentação multilíngue está atualmente em construção e estamos trabalhando duro para melhorá-la. Obrigado pela sua paciência! 🙏 @@ -41,7 +41,7 @@ Aqui estão alguns dos principais modelos suportados: ## Começando: Exemplos de Uso -!!! example "" +!!! Example "Exemplo" === "Python" diff --git a/docs/pt/modes/benchmark.md b/docs/pt/modes/benchmark.md index a6598fe933..f311481a4b 100644 --- a/docs/pt/modes/benchmark.md +++ b/docs/pt/modes/benchmark.md @@ -32,7 +32,7 @@ Uma vez que seu modelo esteja treinado e validado, o próximo passo lógico é a - **OpenVINO:** Para otimização em hardware Intel - **CoreML, TensorFlow SavedModel e Mais:** Para uma variedade de necessidades de implantação. -!!! dica "Dica" +!!! Tip "Dica" * Exporte para ONNX ou OpenVINO para acelerar até 3x a velocidade em CPU. * Exporte para TensorRT para acelerar até 5x em GPU. @@ -41,7 +41,7 @@ Uma vez que seu modelo esteja treinado e validado, o próximo passo lógico é a Execute benchmarks do YOLOv8n em todos os formatos de exportação suportados incluindo ONNX, TensorRT etc. Consulte a seção Argumentos abaixo para ver uma lista completa de argumentos de exportação. -!!! exemplo "" +!!! Example "Exemplo" === "Python" diff --git a/docs/pt/modes/export.md b/docs/pt/modes/export.md index 3cf226a4bd..a6cb313b60 100644 --- a/docs/pt/modes/export.md +++ b/docs/pt/modes/export.md @@ -39,7 +39,7 @@ Aqui estão algumas das funcionalidades de destaque: - **Inferência Otimizada:** Modelos exportados são otimizados para tempos de inferência mais rápidos. - **Vídeos Tutoriais:** Guias e tutoriais detalhados para uma experiência de exportação tranquila. -!!! dica "Dica" +!!! Tip "Dica" * Exporte para ONNX ou OpenVINO para até 3x aceleração em CPU. * Exporte para TensorRT para até 5x aceleração em GPU. @@ -48,7 +48,7 @@ Aqui estão algumas das funcionalidades de destaque: Exporte um modelo YOLOv8n para um formato diferente como ONNX ou TensorRT. Veja a seção de Argumentos abaixo para uma lista completa dos argumentos de exportação. -!!! exemplo "" +!!! Example "Exemplo" === "Python" diff --git a/docs/pt/modes/predict.md b/docs/pt/modes/predict.md index f7f1295108..319f1d29e9 100644 --- a/docs/pt/modes/predict.md +++ b/docs/pt/modes/predict.md @@ -50,7 +50,7 @@ O modo predict do YOLOv8 é projetado para ser robusto e versátil, apresentando Os modelos Ultralytics YOLO retornam ou uma lista de objetos `Results` em Python, ou um gerador em Python eficiente de memória de objetos `Results` quando `stream=True` é passado para o modelo durante a inferência: -!!! exemplo "Predict" +!!! Example "Predict" === "Retorna uma lista com `stream=False`" ```python @@ -92,7 +92,7 @@ Os modelos Ultralytics YOLO retornam ou uma lista de objetos `Results` em Python O YOLOv8 pode processar diferentes tipos de fontes de entrada para inferência, conforme mostrado na tabela abaixo. As fontes incluem imagens estáticas, transmissões de vídeo e vários formatos de dados. A tabela também indica se cada fonte pode ser usada no modo de streaming com o argumento `stream=True` ✅. O modo de streaming é benéfico para processar vídeos ou transmissões ao vivo, pois cria um gerador de resultados em vez de carregar todos os quadros na memória. -!!! dica "Dica" +!!! Tip "Dica" Use `stream=True` para processar vídeos longos ou grandes conjuntos de dados para gerenciar a memória de forma eficiente. Quando `stream=False`, os resultados de todos os quadros ou pontos de dados são armazenados na memória, o que pode aumentar rapidamente e causar erros de falta de memória para grandes entradas. Em contraste, `stream=True` utiliza um gerador, que mantém apenas os resultados do quadro atual ou ponto de dados na memória, reduzindo significativamente o consumo de memória e prevenindo problemas de falta dela. @@ -115,7 +115,7 @@ O YOLOv8 pode processar diferentes tipos de fontes de entrada para inferência, Abaixo estão exemplos de código para usar cada tipo de fonte: -!!! exemplo "Fontes de previsão" +!!! Example "Fontes de previsão" === "imagem" Executa a inferência em um arquivo de imagem. diff --git a/docs/pt/modes/track.md b/docs/pt/modes/track.md index 657eedbd1b..b2148f8058 100644 --- a/docs/pt/modes/track.md +++ b/docs/pt/modes/track.md @@ -58,7 +58,7 @@ O rastreador padrão é o BoT-SORT. Para executar o rastreador em fluxos de vídeo, use um modelo Detect, Segment ou Pose treinado, como YOLOv8n, YOLOv8n-seg e YOLOv8n-pose. -!!! exemplo "" +!!! Example "Exemplo" === "Python" @@ -97,7 +97,7 @@ Como pode ser visto no uso acima, o rastreamento está disponível para todos os A configuração de rastreamento compartilha propriedades com o modo Predict, como `conf`, `iou`, e `show`. Para mais configurações, consulte a página de [Predict](https://docs.ultralytics.com/modes/predict/) model page. -!!! exemplo "" +!!! Example "Exemplo" === "Python" @@ -120,7 +120,7 @@ A configuração de rastreamento compartilha propriedades com o modo Predict, co A Ultralytics também permite que você use um arquivo de configuração de rastreador modificado. Para fazer isso, simplesmente faça uma cópia de um arquivo de configuração de rastreador (por exemplo, `custom_tracker.yaml`) de [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) e modifique quaisquer configurações (exceto `tracker_type`) conforme suas necessidades. -!!! exemplo "" +!!! Example "Exemplo" === "Python" @@ -147,7 +147,7 @@ Para uma lista completa de argumentos de rastreamento, consulte a página [ultra Aqui está um script em Python usando OpenCV (`cv2`) e YOLOv8 para executar rastreamento de objetos em quadros de vídeo. Este script ainda pressupõe que você já instalou os pacotes necessários (`opencv-python` e `ultralytics`). O argumento `persist=True` indica ao rastreador que a imagem ou quadro atual é o próximo de uma sequência e que espera rastreamentos da imagem anterior na imagem atual. -!!! exemplo "Loop de fluxo com rastreamento" +!!! Example "Loop de fluxo com rastreamento" ```python import cv2 diff --git a/docs/pt/modes/train.md b/docs/pt/modes/train.md index c09cfc3dd6..b677b4b61a 100644 --- a/docs/pt/modes/train.md +++ b/docs/pt/modes/train.md @@ -41,7 +41,7 @@ Os seguintes são alguns recursos notáveis ​​do modo de Treino da YOLOv8: - **Configuração de Hiperparâmetros:** Opção de modificar hiperparâmetros através de arquivos de configuração YAML ou argumentos de CLI. - **Visualização e Monitoramento:** Acompanhamento em tempo real das métricas de treinamento e visualização do processo de aprendizagem para obter melhores insights. -!!! dica "Dica" +!!! Tip "Dica" * Conjuntos de dados YOLOv8 como COCO, VOC, ImageNet e muitos outros são baixados automaticamente na primeira utilização, ou seja, `yolo train data=coco.yaml` @@ -49,7 +49,7 @@ Os seguintes são alguns recursos notáveis ​​do modo de Treino da YOLOv8: Treine o YOLOv8n no conjunto de dados COCO128 por 100 épocas com tamanho de imagem de 640. O dispositivo de treinamento pode ser especificado usando o argumento `device`. Se nenhum argumento for passado, a GPU `device=0` será usado se disponível, caso contrário, `device=cpu` será usado. Veja a seção Argumentos abaixo para uma lista completa dos argumentos de treinamento. -!!! exemplo "Exemplo de Treinamento em Uma Única GPU e CPU" +!!! Example "Exemplo de Treinamento em Uma Única GPU e CPU" O dispositivo é determinado automaticamente. Se uma GPU estiver disponível, ela será usada, caso contrário, o treinamento começará na CPU. @@ -84,7 +84,7 @@ Treine o YOLOv8n no conjunto de dados COCO128 por 100 épocas com tamanho de ima O treinamento com múltiplas GPUs permite uma utilização mais eficiente dos recursos de hardware disponíveis, distribuindo a carga de treinamento entre várias GPUs. Esse recurso está disponível por meio da API do Python e da interface de linha de comando. Para habilitar o treinamento com várias GPUs, especifique os IDs dos dispositivos de GPU que deseja usar. -!!! exemplo "Exemplo de Treinamento com Multi-GPU" +!!! Example "Exemplo de Treinamento com Multi-GPU" Para treinar com 2 GPUs, dispositivos CUDA 0 e 1 use os seguintes comandos. Expanda para GPUs adicionais conforme necessário. @@ -113,7 +113,7 @@ Com a integração do suporte para os chips Apple M1 e M2 nos modelos YOLO da Ul Para habilitar o treinamento nos chips Apple M1 e M2, você deve especificar 'mps' como seu dispositivo ao iniciar o processo de treinamento. Abaixo está um exemplo de como você pode fazer isso em Python e via linha de comando: -!!! exemplo "Exemplo de Treinamento com MPS" +!!! Example "Exemplo de Treinamento com MPS" === "Python" @@ -148,7 +148,7 @@ Para usar um logger, selecione-o no menu suspenso no trecho de código acima e e Para usar o Comet: -!!! exemplo "" +!!! Example "Exemplo" === "Python" ```python @@ -166,7 +166,7 @@ Lembre-se de fazer login na sua conta Comet no site deles e obter sua chave de A Para usar o ClearML: -!!! exemplo "" +!!! Example "Exemplo" === "Python" ```python @@ -184,7 +184,7 @@ Após executar este script, você precisará fazer login na sua conta ClearML no Para usar o TensorBoard em [Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb): -!!! exemplo "" +!!! Example "Exemplo" === "CLI" ```bash @@ -194,7 +194,7 @@ Para usar o TensorBoard em [Google Colab](https://colab.research.google.com/gith Para usar o TensorBoard localmente, execute o comando abaixo e veja os resultados em http://localhost:6006/: -!!! exemplo "" +!!! Example "Exemplo" === "CLI" ```bash diff --git a/docs/pt/modes/val.md b/docs/pt/modes/val.md index 75435bfce9..a482f14fc6 100644 --- a/docs/pt/modes/val.md +++ b/docs/pt/modes/val.md @@ -30,7 +30,7 @@ Estas são as funcionalidades notáveis oferecidas pelo modo Val do YOLOv8: - **API em Python e CLI:** Escolha entre a interface de linha de comando ou API em Python com base na sua preferência de validação. - **Compatibilidade de Dados:** Funciona perfeitamente com conjuntos de dados usados durante a fase de treinamento, bem como conjuntos de dados personalizados. -!!! tip "Dica" +!!! Tip "Dica" * Os modelos YOLOv8 lembram automaticamente suas configurações de treinamento, então você pode validar um modelo no mesmo tamanho de imagem e no conjunto de dados original facilmente com apenas `yolo val model=yolov8n.pt` ou `model('yolov8n.pt').val()` @@ -38,7 +38,7 @@ Estas são as funcionalidades notáveis oferecidas pelo modo Val do YOLOv8: Validar a precisão do modelo YOLOv8n treinado no conjunto de dados COCO128. Nenhum argumento precisa ser passado, pois o `model` retém os dados de treinamento e argumentos como atributos do modelo. Veja a seção de Argumentos abaixo para uma lista completa dos argumentos de exportação. -!!! example "" +!!! Example "Exemplo" === "Python" diff --git a/docs/pt/quickstart.md b/docs/pt/quickstart.md index d55780f289..99afd69e8e 100644 --- a/docs/pt/quickstart.md +++ b/docs/pt/quickstart.md @@ -8,7 +8,7 @@ keywords: Instalação do Ultralytics, pip install Ultralytics, Docker install U O Ultralytics oferece diversos métodos de instalação, incluindo pip, conda e Docker. Instale o YOLOv8 através do pacote `ultralytics` pip para a versão estável mais recente ou clonando o [repositório GitHub do Ultralytics](https://github.com/ultralytics/ultralytics) para obter a versão mais atualizada. O Docker pode ser usado para executar o pacote em um contêiner isolado, evitando a instalação local. -!!! example "Instalar" +!!! Example "Instalar" === "Pip install (recomendado)" Instale o pacote `ultralytics` usando pip, ou atualize uma instalação existente executando `pip install -U ultralytics`. Visite o Índice de Pacotes Python (PyPI) para mais detalhes sobre o pacote `ultralytics`: [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/). @@ -39,7 +39,7 @@ O Ultralytics oferece diversos métodos de instalação, incluindo pip, conda e conda install -c conda-forge ultralytics ``` - !!! note + !!! Note Se você está instalando em um ambiente CUDA a prática recomendada é instalar `ultralytics`, `pytorch` e `pytorch-cuda` no mesmo comando para permitir que o gerenciador de pacotes conda resolva quaisquer conflitos, ou instalar `pytorch-cuda` por último para permitir que ele substitua o pacote específico para CPU `pytorch`, se necessário. ```bash @@ -89,7 +89,7 @@ Veja o arquivo [requirements.txt](https://github.com/ultralytics/ultralytics/blo Watch: Ultralytics YOLO Quick Start Guide

-!!! tip "Dica" +!!! Tip "Dica" Os requisitos do PyTorch variam pelo sistema operacional e pelos requisitos de CUDA, então é recomendado instalar o PyTorch primeiro seguindo as instruções em [https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally). @@ -101,7 +101,7 @@ Veja o arquivo [requirements.txt](https://github.com/ultralytics/ultralytics/blo A interface de linha de comando (CLI) do Ultralytics permite comandos simples de uma única linha sem a necessidade de um ambiente Python. O CLI não requer personalização ou código Python. Você pode simplesmente rodar todas as tarefas do terminal com o comando `yolo`. Confira o [Guia CLI](/../usage/cli.md) para aprender mais sobre o uso do YOLOv8 pela linha de comando. -!!! example +!!! Example === "Sintaxe" @@ -155,7 +155,7 @@ A interface de linha de comando (CLI) do Ultralytics permite comandos simples de yolo cfg ``` -!!! warning "Aviso" +!!! Warning "Aviso" Argumentos devem ser passados como pares `arg=valor`, separados por um sinal de igual `=` e delimitados por espaços ` ` entre pares. Não use prefixos de argumentos `--` ou vírgulas `,` entre os argumentos. @@ -171,7 +171,7 @@ A interface Python do YOLOv8 permite uma integração tranquila em seus projetos Por exemplo, os usuários podem carregar um modelo, treiná-lo, avaliar o seu desempenho em um conjunto de validação e até exportá-lo para o formato ONNX com apenas algumas linhas de código. Confira o [Guia Python](/../usage/python.md) para aprender mais sobre o uso do YOLOv8 dentro dos seus projetos Python. -!!! example +!!! Example ```python from ultralytics import YOLO diff --git a/docs/pt/tasks/classify.md b/docs/pt/tasks/classify.md index d953568acd..0e04bec5db 100644 --- a/docs/pt/tasks/classify.md +++ b/docs/pt/tasks/classify.md @@ -12,7 +12,7 @@ A classificação de imagens é a tarefa mais simples das três e envolve classi A saída de um classificador de imagem é um único rótulo de classe e uma pontuação de confiança. A classificação de imagem é útil quando você precisa saber apenas a qual classe uma imagem pertence e não precisa conhecer a localização dos objetos dessa classe ou o formato exato deles. -!!! tip "Dica" +!!! Tip "Dica" Os modelos YOLOv8 Classify usam o sufixo `-cls`, ou seja, `yolov8n-cls.pt` e são pré-treinados na [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). @@ -39,7 +39,7 @@ Aqui são mostrados os modelos pré-treinados YOLOv8 Classify. Modelos de Detec Treine o modelo YOLOv8n-cls no dataset MNIST160 por 100 épocas com tamanho de imagem 64. Para uma lista completa de argumentos disponíveis, veja a página de [Configuração](/../usage/cfg.md). -!!! exemplo "" +!!! Example "Exemplo" === "Python" @@ -76,7 +76,7 @@ O formato do dataset de classificação YOLO pode ser encontrado em detalhes no Valide a acurácia do modelo YOLOv8n-cls treinado no dataset MNIST160. Não é necessário passar argumento, pois o `modelo` retém seus dados de treinamento e argumentos como atributos do modelo. -!!! exemplo "" +!!! Example "Exemplo" === "Python" @@ -103,7 +103,7 @@ Valide a acurácia do modelo YOLOv8n-cls treinado no dataset MNIST160. Não é n Use um modelo YOLOv8n-cls treinado para realizar previsões em imagens. -!!! exemplo "" +!!! Example "Exemplo" === "Python" @@ -130,7 +130,7 @@ Veja detalhes completos do modo de `previsão` na página [Predict](https://docs Exporte um modelo YOLOv8n-cls para um formato diferente, como ONNX, CoreML, etc. -!!! exemplo "" +!!! Example "Exemplo" === "Python" diff --git a/docs/pt/tasks/detect.md b/docs/pt/tasks/detect.md index e942598564..d3f84c03f0 100644 --- a/docs/pt/tasks/detect.md +++ b/docs/pt/tasks/detect.md @@ -23,7 +23,7 @@ A saída de um detector de objetos é um conjunto de caixas delimitadoras que ce Assista: Detecção de Objetos com Modelo Pre-treinado Ultralytics YOLOv8.

-!!! tip "Dica" +!!! Tip "Dica" Os modelos YOLOv8 Detect são os modelos padrão do YOLOv8, ou seja, `yolov8n.pt` e são pré-treinados no [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml). @@ -51,7 +51,7 @@ Os [Modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cf Treine o YOLOv8n no dataset COCO128 por 100 épocas com tamanho de imagem 640. Para uma lista completa de argumentos disponíveis, veja a página [Configuração](/../usage/cfg.md). -!!! example "" +!!! Example "Exemplo" === "Python" @@ -87,7 +87,7 @@ O formato do dataset de detecção do YOLO pode ser encontrado em detalhes no [G Valide a precisão do modelo YOLOv8n treinado no dataset COCO128. Não é necessário passar nenhum argumento, pois o `modelo` mantém seus `dados` de treino e argumentos como atributos do modelo. -!!! example "" +!!! Example "Exemplo" === "Python" @@ -116,7 +116,7 @@ Valide a precisão do modelo YOLOv8n treinado no dataset COCO128. Não é necess Use um modelo YOLOv8n treinado para fazer predições em imagens. -!!! example "" +!!! Example "Exemplo" === "Python" @@ -143,7 +143,7 @@ Veja os detalhes completos do modo `predict` na página [Predição](https://doc Exporte um modelo YOLOv8n para um formato diferente, como ONNX, CoreML, etc. -!!! example "" +!!! Example "Exemplo" === "Python" diff --git a/docs/pt/tasks/index.md b/docs/pt/tasks/index.md index 9a59793769..5743c240b2 100644 --- a/docs/pt/tasks/index.md +++ b/docs/pt/tasks/index.md @@ -11,7 +11,7 @@ keywords: Ultralytics, YOLOv8, Detecção, Segmentação, Classificação, Estim YOLOv8 é um framework de IA que suporta múltiplas tarefas de **visão computacional**. O framework pode ser usado para realizar [detecção](detect.md), [segmentação](segment.md), [classificação](classify.md) e estimativa de [pose](pose.md). Cada uma dessas tarefas tem um objetivo e caso de uso diferente. -!!! note +!!! Note 🚧 Nossa documentação multilíngue está atualmente em construção e estamos trabalhando para aprimorá-la. Agradecemos sua paciência! 🙏 diff --git a/docs/pt/tasks/pose.md b/docs/pt/tasks/pose.md index dab8ea6451..5bb4505574 100644 --- a/docs/pt/tasks/pose.md +++ b/docs/pt/tasks/pose.md @@ -23,7 +23,7 @@ A saída de um modelo de estimativa de pose é um conjunto de pontos que represe Assista: Estimativa de Pose com Ultralytics YOLOv8.

-!!! tip "Dica" +!!! Tip "Dica" Modelos YOLOv8 _pose_ usam o sufixo `-pose`, isto é `yolov8n-pose.pt`. Esses modelos são treinados no conjunto de dados [COCO keypoints](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) e são adequados para uma variedade de tarefas de estimativa de pose. @@ -53,7 +53,7 @@ Os modelos YOLOv8 Pose pré-treinados são mostrados aqui. Os modelos Detect, Se Treine um modelo YOLOv8-pose no conjunto de dados COCO128-pose. -!!! example "" +!!! Example "Exemplo" === "Python" @@ -90,7 +90,7 @@ O formato do conjunto de dados de pose YOLO pode ser encontrado em detalhes no [ Valide a acurácia do modelo YOLOv8n-pose treinado no conjunto de dados COCO128-pose. Não é necessário passar nenhum argumento, pois o `model` retém seus `data` de treinamento e argumentos como atributos do modelo. -!!! example "" +!!! Example "Exemplo" === "Python" @@ -119,7 +119,7 @@ retém seus `data` de treinamento e argumentos como atributos do modelo. Use um modelo YOLOv8n-pose treinado para executar previsões em imagens. -!!! example "" +!!! Example "Exemplo" === "Python" @@ -146,7 +146,7 @@ Veja detalhes completos do modo `predict` na página [Prever](https://docs.ultra Exporte um modelo YOLOv8n Pose para um formato diferente como ONNX, CoreML, etc. -!!! example "" +!!! Example "Exemplo" === "Python" diff --git a/docs/pt/tasks/segment.md b/docs/pt/tasks/segment.md index 6b32e7ffb5..958b4b72ef 100644 --- a/docs/pt/tasks/segment.md +++ b/docs/pt/tasks/segment.md @@ -23,7 +23,7 @@ A saída de um modelo de segmentação de instâncias é um conjunto de máscara Assista: Executar Segmentação com o Modelo Treinado Ultralytics YOLOv8 em Python.

-!!! tip "Dica" +!!! Tip "Dica" Modelos YOLOv8 Segment usam o sufixo `-seg`, ou seja, `yolov8n-seg.pt` e são pré-treinados no [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml). @@ -50,7 +50,7 @@ Os modelos Segment pré-treinados do YOLOv8 estão mostrados aqui. Os modelos De Treine o modelo YOLOv8n-seg no conjunto de dados COCO128-seg por 100 épocas com tamanho de imagem 640. Para uma lista completa de argumentos disponíveis, consulte a página [Configuração](/../usage/cfg.md). -!!! example "" +!!! Example "Exemplo" === "Python" @@ -86,7 +86,7 @@ O formato do conjunto de dados de segmentação YOLO pode ser encontrado em deta Valide a acurácia do modelo YOLOv8n-seg treinado no conjunto de dados COCO128-seg. Não é necessário passar nenhum argumento, pois o `modelo` retém seus `dados` de treino e argumentos como atributos do modelo. -!!! example "" +!!! Example "Exemplo" === "Python" @@ -119,7 +119,7 @@ Valide a acurácia do modelo YOLOv8n-seg treinado no conjunto de dados COCO128-s Use um modelo YOLOv8n-seg treinado para realizar previsões em imagens. -!!! example "" +!!! Example "Exemplo" === "Python" @@ -146,7 +146,7 @@ Veja detalhes completos do modo `predict` na página [Prever](https://docs.ultra Exporte um modelo YOLOv8n-seg para um formato diferente como ONNX, CoreML, etc. -!!! example "" +!!! Example "Exemplo" === "Python" diff --git a/docs/ru/datasets/index.md b/docs/ru/datasets/index.md index 1230bd0f65..5154492e52 100644 --- a/docs/ru/datasets/index.md +++ b/docs/ru/datasets/index.md @@ -8,7 +8,7 @@ keywords: компьютерное зрение, наборы данных, Ultr Ultralytics предоставляет поддержку различных наборов данных для выполнения задач компьютерного зрения, таких как обнаружение объектов, индивидуальная сегментация, оценка поз, классификация и многократное отслеживание объектов. Ниже приведен список основных наборов данных Ultralytics, а затем представлены описание каждой задачи компьютерного зрения и соответствующие наборы данных. -!!! note +!!! Note 🚧 Наша многоязычная документация в настоящее время находится в стадии разработки, и мы усердно работаем над ее улучшением. Спасибо за терпение! 🙏 @@ -104,7 +104,7 @@ Ultralytics предоставляет поддержку различных н ### Пример кода для оптимизации и архивации набора данных -!!! example "Оптимизация и архивация набора данных" +!!! Example "Оптимизация и архивация набора данных" === "Python" diff --git a/docs/ru/index.md b/docs/ru/index.md index c565e94512..551a20b7c5 100644 --- a/docs/ru/index.md +++ b/docs/ru/index.md @@ -38,7 +38,7 @@ keywords: Ultralytics, YOLOv8, обнаружение объектов, сегм Исследуйте документацию YOLOv8 — обширный ресурс, разработанный, чтобы помочь вам понять и использовать его функции и возможности. Независимо от того, являетесь ли вы опытным практиком машинного обучения или новичком в этой области, этот центр ресурсов нацелен на максимальное раскрытие потенциала YOLOv8 в ваших проектах. -!!! note +!!! Note 🚧 Наша многоязычная документация в настоящее время находится в стадии разработки, и мы усердно работаем над ее улучшением. Спасибо за ваше терпение! 🙏 diff --git a/docs/ru/models/index.md b/docs/ru/models/index.md index ea58243465..c210772644 100644 --- a/docs/ru/models/index.md +++ b/docs/ru/models/index.md @@ -8,7 +8,7 @@ keywords: Ultralytics, документация, YOLO, SAM, MobileSAM, FastSAM, Добро пожаловать в документацию по моделям Ultralytics! Мы поддерживаем широкий спектр моделей, каждая из которых адаптирована для конкретных задач, таких как [обнаружение объектов](../tasks/detect.md), [сегментация на уровне экземпляров](../tasks/segment.md), [классификация изображений](../tasks/classify.md), [оценка позы](../tasks/pose.md) и [множественное отслеживание объектов](../modes/track.md). Если вы заинтересованы в добавлении архитектуры вашей модели в Ultralytics, ознакомьтесь с нашим [Руководством для участников](../../help/contributing.md). -!!! note +!!! Note 🚧 Наша многоязычная документация в настоящее время находится в стадии разработки, и мы усердно работаем над ее улучшением. Спасибо за ваше терпение! 🙏 @@ -41,7 +41,7 @@ keywords: Ultralytics, документация, YOLO, SAM, MobileSAM, FastSAM, ## Начало работы: Примеры использования -!!! example "" +!!! Example "Пример" === "Python" diff --git a/docs/ru/modes/benchmark.md b/docs/ru/modes/benchmark.md index ea6e794dd9..564edb1b73 100644 --- a/docs/ru/modes/benchmark.md +++ b/docs/ru/modes/benchmark.md @@ -32,7 +32,7 @@ keywords: Ultralytics, YOLOv8, бенчмаркинг, профилирован - **OpenVINO:** Для оптимизации под аппаратное обеспечение Intel - **CoreML, TensorFlow SavedModel и другие:** Для разнообразных потребностей развертывания. -!!! tip "Совет" +!!! Tip "Совет" * Экспортируйте в ONNX или OpenVINO для ускорения процессора до 3 раз. * Экспортируйте в TensorRT для ускорения GPU до 5 раз. @@ -41,7 +41,7 @@ keywords: Ultralytics, YOLOv8, бенчмаркинг, профилирован Запустите бенчмарк YOLOv8n на всех поддерживаемых форматах экспорта, включая ONNX, TensorRT и т. д. Смотрите раздел Аргументы ниже для полного списка параметров экспорта. -!!! example "" +!!! Example "Пример" === "Python" diff --git a/docs/ru/modes/export.md b/docs/ru/modes/export.md index f03eaa294e..6351f21afb 100644 --- a/docs/ru/modes/export.md +++ b/docs/ru/modes/export.md @@ -39,7 +39,7 @@ keywords: YOLO, YOLOv8, Ultralytics, Экспорт модели, ONNX, TensorRT - **Оптимизированное предсказание:** Экспортированные модели оптимизированы для более быстрого предсказания. - **Учебные видео:** Глубокие руководства и обучающие видео для гладкого опыта экспорта. -!!! tip "Совет" +!!! Tip "Совет" * Экспортируйте в ONNX или OpenVINO для ускорения CPU до 3 раз. * Экспортируйте в TensorRT для увеличения скорости на GPU до 5 раз. @@ -48,7 +48,7 @@ keywords: YOLO, YOLOv8, Ultralytics, Экспорт модели, ONNX, TensorRT Экспорт модели YOLOv8n в другой формат, например ONNX или TensorRT. Смотрите раздел Аргументы ниже для полного списка аргументов экспорта. -!!! example "" +!!! Example "Пример" === "Python" diff --git a/docs/ru/modes/predict.md b/docs/ru/modes/predict.md index 7d00c0ccff..3e849a49b1 100644 --- a/docs/ru/modes/predict.md +++ b/docs/ru/modes/predict.md @@ -50,7 +50,7 @@ keywords: Ultralytics, YOLOv8, режим предсказаний, источн Модели Ultralytics YOLO возвращают либо список объектов `Results`, либо генератор объектов `Results` в Python, экономящий память, когда `stream=True` передается в модель во время вывода: -!!! example "Предсказание" +!!! Example "Предсказание" === "Вернуть список с `stream=False`" ```python @@ -92,7 +92,7 @@ keywords: Ultralytics, YOLOv8, режим предсказаний, источн YOLOv8 может обрабатывать различные типы входных источников для вывода, как показано в таблице ниже. Источники включают статические изображения, видеопотоки и различные форматы данных. В таблице также указано, можно ли использовать каждый источник в режиме потоковой передачи с аргументом `stream=True` ✅. Режим потоковой передачи полезен для обработки видео или живых трансляций, так как создает генератор результатов вместо загрузки всех кадров в память. -!!! tip "Совет" +!!! Tip "Совет" Используйте `stream=True` для обработки длинных видеороликов или больших наборов данных для эффективного управления памятью. Когда `stream=False`, результаты для всех кадров или точек данных хранятся в памяти, что может быстро накопиться и вызвать ошибки переполнения памяти для больших входов. В отличие от этого, `stream=True` использует генератор, который хранит в памяти результаты только текущего кадра или точки данных, значительно сокращая потребление памяти и предотвращая проблемы с переполнением памяти. @@ -115,7 +115,7 @@ YOLOv8 может обрабатывать различные типы вход Ниже приведены примеры кода для использования каждого типа источника: -!!! example "Источники предсказаний" +!!! Example "Источники предсказаний" === "изображение" Выполнить вывод на файл изображения. diff --git a/docs/ru/modes/track.md b/docs/ru/modes/track.md index f2ac6c8250..97bd877d1a 100644 --- a/docs/ru/modes/track.md +++ b/docs/ru/modes/track.md @@ -58,7 +58,7 @@ Ultralytics YOLO поддерживает следующие алгоритмы Для запуска трекера на видеопотоках используйте обученные модели Detect, Segment или Pose, такие как YOLOv8n, YOLOv8n-seg и YOLOv8n-pose. -!!! пример "" +!!! Example "Пример" === "Python" @@ -97,7 +97,7 @@ Ultralytics YOLO поддерживает следующие алгоритмы Конфигурация отслеживания имеет общие свойства с режимом Predict, такие как `conf`, `iou` и `show`. Для дальнейшей настройки обратитесь к странице модели [Predict](https://docs.ultralytics.com/modes/predict/). -!!! пример "" +!!! Example "Пример" === "Python" @@ -120,7 +120,7 @@ Ultralytics YOLO поддерживает следующие алгоритмы Ultralytics также позволяет использовать измененный файл конфигурации трекера. Для этого просто сделайте копию файла конфигурации трекера (например, `custom_tracker.yaml`) из [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) и измените любые настройки (кроме `tracker_type`) в соответствии с вашими потребностями. -!!! пример "" +!!! Example "Пример" === "Python" @@ -147,7 +147,7 @@ Ultralytics также позволяет использовать измене Вот пример скрипта Python, использующий OpenCV (`cv2`) и YOLOv8 для выполнения отслеживания объектов на кадрах видео. В этом сценарии предполагается, что вы уже установили необходимые пакеты (`opencv-python` и `ultralytics`). Аргумент `persist=True` указывает трекеру, что текущее изображение или кадр является следующим в последовательности и ожидает, что следы с предыдущего изображения будут присутствовать в текущем изображении. -!!! пример "Цикл с потоковым отслеживанием for-loop" +!!! Example "Цикл с потоковым отслеживанием for-loop" ```python import cv2 diff --git a/docs/ru/modes/train.md b/docs/ru/modes/train.md index 42309c4d8a..38642f30b7 100644 --- a/docs/ru/modes/train.md +++ b/docs/ru/modes/train.md @@ -41,7 +41,7 @@ keywords: Ultralytics, YOLOv8, YOLO, обнаружение объектов, р - **Настройка гиперпараметров:** Возможность изменения гиперпараметров через файлы конфигурации YAML или аргументы CLI. - **Визуализация и мониторинг:** Отслеживание метрик обучения в реальном времени и визуализация процесса обучения для лучшего понимания. -!!! tip "Совет" +!!! Tip "Совет" * Наборы данных YOLOv8, такие как COCO, VOC, ImageNet и многие другие, автоматически загружаются при первом использовании, например, `yolo train data=coco.yaml` @@ -49,7 +49,7 @@ keywords: Ultralytics, YOLOv8, YOLO, обнаружение объектов, р Обучение YOLOv8n на наборе данных COCO128 в течение 100 эпох с размером изображения 640. Устройство для обучения может быть указано с помощью аргумента `device`. Если аргумент не передан, будет использоваться GPU `device=0`, если доступен, в противном случае будет использоваться `device=cpu`. Смотрите раздел Аргументы ниже для полного списка аргументов обучения. -!!! example "Пример обучения на одном GPU и CPU" +!!! Example "Пример обучения на одном GPU и CPU" Устройство определяется автоматически. Если доступен GPU, то он будет использован, иначе обучение начнется на CPU. @@ -84,7 +84,7 @@ keywords: Ultralytics, YOLOv8, YOLO, обнаружение объектов, р Обучение на нескольких GPU позволяет более эффективно использовать доступные аппаратные ресурсы, распределяя нагрузку по обучению на несколько GPU. Эта функция доступна как через Python API, так и через командный интерфейс. Чтобы включить обучение на нескольких GPU, укажите идентификаторы устройств GPU, которые вы хотите использовать. -!!! example "Пример обучения на нескольких GPU" +!!! Example "Пример обучения на нескольких GPU" Чтобы обучить с использованием 2 GPU, устройств CUDA 0 и 1 используйте следующие команды. Расширьте до дополнительных GPU по мере необходимости. @@ -113,7 +113,7 @@ keywords: Ultralytics, YOLOv8, YOLO, обнаружение объектов, р Чтобы запустить обучение на чипах Apple M1 и M2, вы должны указать 'mps' в качестве вашего устройства при запуске процесса обучения. Ниже приведены примеры использования Python и командной строки: -!!! example "Пример обучения с MPS" +!!! Example "Пример обучения с MPS" === "Python" @@ -148,7 +148,7 @@ keywords: Ultralytics, YOLOv8, YOLO, обнаружение объектов, р Чтобы использовать Comet: -!!! example "" +!!! Example "Пример" === "Python" ```python @@ -166,7 +166,7 @@ keywords: Ultralytics, YOLOv8, YOLO, обнаружение объектов, р Чтобы использовать ClearML: -!!! example "" +!!! Example "Пример" === "Python" ```python @@ -184,7 +184,7 @@ keywords: Ultralytics, YOLOv8, YOLO, обнаружение объектов, р Чтобы использовать TensorBoard в [Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb): -!!! example "" +!!! Example "Пример" === "CLI" ```bash @@ -194,7 +194,7 @@ keywords: Ultralytics, YOLOv8, YOLO, обнаружение объектов, р Чтобы использовать TensorBoard локально, запустите приведенную ниже команду и просмотрите результаты по адресу http://localhost:6006/. -!!! example "" +!!! Example "Пример" === "CLI" ```bash diff --git a/docs/ru/modes/val.md b/docs/ru/modes/val.md index 77757a577d..1d7fb5d7bf 100644 --- a/docs/ru/modes/val.md +++ b/docs/ru/modes/val.md @@ -30,7 +30,7 @@ keywords: Ultralytics, YOLO Документация, YOLOv8, проверка, - **CLI и Python API:** Выберите интерфейс командной строки или Python API в зависимости от вашего предпочтения для проверки. - **Совместимость данных:** Бесперебойно работает с наборами данных, используемыми во время фазы обучения, а также с пользовательскими наборами данных. -!!! tip "Совет" +!!! Tip "Совет" * Модели YOLOv8 автоматически запоминают свои настройки обучения, так что вы можете легко проверить модель с тем же размером изображения и на оригинальном наборе данных, просто используя `yolo val model=yolov8n.pt` или `model('yolov8n.pt').val()` @@ -38,7 +38,7 @@ keywords: Ultralytics, YOLO Документация, YOLOv8, проверка, Проверьте точность обученной модели YOLOv8n на наборе данных COCO128. Аргументы передавать не требуется, так как `модель` сохраняет `данные` и аргументы в качестве атрибутов модели. См. раздел Аргументы ниже для полного списка аргументов экспорта. -!!! example "" +!!! Example "Пример" === "Python" diff --git a/docs/ru/quickstart.md b/docs/ru/quickstart.md index 792146c695..14f145787d 100644 --- a/docs/ru/quickstart.md +++ b/docs/ru/quickstart.md @@ -8,7 +8,7 @@ keywords: установка Ultralytics, установка pip Ultralytics, у Ultralytics предлагает различные методы установки, включая pip, conda и Docker. Установите YOLOv8 через пакет `ultralytics` pip для последнего стабильного выпуска или путем клонирования [репозитория Ultralytics на GitHub](https://github.com/ultralytics/ultralytics) для получения самой актуальной версии. Docker можно использовать для выполнения пакета в изолированном контейнере, избегая локальной установки. -!!! example "Установка" +!!! Example "Установка" === "Установка через Pip (рекомендуется)" Установите пакет `ultralytics` с помощью pip или обновите существующую установку, запустив `pip install -U ultralytics`. Посетите индекс пакетов Python (PyPI) для получения дополнительной информации о пакете `ultralytics`: [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/). @@ -37,7 +37,7 @@ Ultralytics предлагает различные методы установ conda install -c conda-forge ultralytics ``` - !!! note + !!! Note Если вы устанавливаете пакет в среде CUDA, лучшей практикой будет установка `ultralytics`, `pytorch` и `pytorch-cuda` одной командой, чтобы менеджер пакетов conda мог разрешить любые конфликты или установить `pytorch-cuda` последним, чтобы при необходимости он мог заменить пакет `pytorch`, предназначенный для ЦП. @@ -89,7 +89,7 @@ Ultralytics предлагает различные методы установ Watch: Ultralytics YOLO Quick Start Guide

-!!! tip "Совет" +!!! Tip "Совет" Требования PyTorch зависят от операционной системы и требований CUDA, поэтому рекомендуется сначала установить PyTorch, следуя инструкциям на [https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally). @@ -101,7 +101,7 @@ Ultralytics предлагает различные методы установ Интерфейс командной строки (CLI) Ultralytics позволяет выполнять простые команды одной строкой без необходимости настройки Python среды. CLI не требует настройки или кода на Python. Все задачи можно легко выполнить из терминала с помощью команды `yolo`. Прочтите [Руководство по CLI](/../usage/cli.md), чтобы узнать больше о использовании YOLOv8 из командной строки. -!!! example +!!! Example === "Cинтаксис" @@ -155,7 +155,7 @@ Ultralytics предлагает различные методы установ yolo cfg ``` -!!! warning "Предупреждение" +!!! Warning "Предупреждение" Аргументы должны передаваться в виде пар `arg=val`, разделенных знаком равенства `=`, и разделены пробелами ` ` между парами. Не используйте префиксы аргументов `--` или запятые `,` между аргументами. @@ -171,7 +171,7 @@ Python интерфейс YOLOv8 позволяет легко интегрир Например, пользователи могут загрузить модель, обучить ее, оценить ее производительность на валидационном наборе, и даже экспортировать ее в формат ONNX всего за несколько строк кода. Подробнее о том, как использовать YOLOv8 в ваших Python проектах, читайте в [Руководстве по Python](/../usage/python.md). -!!! example +!!! Example ```python from ultralytics import YOLO diff --git a/docs/ru/tasks/classify.md b/docs/ru/tasks/classify.md index 683f0790a0..f25594922a 100644 --- a/docs/ru/tasks/classify.md +++ b/docs/ru/tasks/classify.md @@ -12,7 +12,7 @@ keywords: Ultralytics, YOLOv8, классификация изображений Выход классификатора изображений - это один классовый ярлык и уровень доверия. Классификация изображений полезна, когда вам нужно знать только к какому классу относится изображение, и не нужно знать, где находятся объекты данного класса или какова их точная форма. -!!! tip "Совет" +!!! Tip "Совет" Модели YOLOv8 Classify используют суффикс `-cls`, например `yolov8n-cls.pt`, и предварительно обучены на [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml). @@ -39,7 +39,7 @@ keywords: Ultralytics, YOLOv8, классификация изображений Обучите модель YOLOv8n-cls на наборе данных MNIST160 на протяжении 100 эпох с размером изображения 64. Полный список доступных аргументов приведен на странице [Конфигурация](/../usage/cfg.md). -!!! example "" +!!! Example "Пример" === "Python" @@ -76,7 +76,7 @@ keywords: Ultralytics, YOLOv8, классификация изображений Проверьте точность обученной модели YOLOv8n-cls на наборе данных MNIST160. Не нужно передавать какие-либо аргументы, так как `model` сохраняет свои `data` и аргументы в качестве атрибутов модели. -!!! example "" +!!! Example "Пример" === "Python" @@ -103,7 +103,7 @@ keywords: Ultralytics, YOLOv8, классификация изображений Используйте обученную модель YOLOv8n-cls для выполнения предсказаний на изображениях. -!!! example "" +!!! Example "Пример" === "Python" @@ -130,7 +130,7 @@ keywords: Ultralytics, YOLOv8, классификация изображений Экспортируйте модель YOLOv8n-cls в другой формат, например, ONNX, CoreML и т. д. -!!! example "" +!!! Example "Пример" === "Python" diff --git a/docs/ru/tasks/detect.md b/docs/ru/tasks/detect.md index 972085f4a8..8110dd5ace 100644 --- a/docs/ru/tasks/detect.md +++ b/docs/ru/tasks/detect.md @@ -23,7 +23,7 @@ keywords: YOLOv8, Ultralytics, обнаружение объектов, пред Смотрите: Обнаружение объектов с предобученной моделью Ultralytics YOLOv8.

-!!! tip "Совет" +!!! Tip "Совет" YOLOv8 Detect модели являются стандартными моделями YOLOv8, то есть `yolov8n.pt`, и предобучены на [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml). @@ -50,7 +50,7 @@ keywords: YOLOv8, Ultralytics, обнаружение объектов, пред Обучите модель YOLOv8n на датасете COCO128 в течение 100 эпох с размером изображения 640. Полный список доступных аргументов см. на странице [Конфигурация](/../usage/cfg.md). -!!! example "" +!!! Example "Пример" === "Python" @@ -86,7 +86,7 @@ keywords: YOLOv8, Ultralytics, обнаружение объектов, пред Проверьте точность обученной модели YOLOv8n на датасете COCO128. Необходимо передать аргументы, поскольку `model` сохраняет свои `data` и аргументы обучения как атрибуты модели. -!!! example "" +!!! Example "Пример" === "Python" @@ -115,7 +115,7 @@ keywords: YOLOv8, Ultralytics, обнаружение объектов, пред Используйте обученную модель YOLOv8n для выполнения предсказаний на изображениях. -!!! example "" +!!! Example "Пример" === "Python" @@ -142,7 +142,7 @@ keywords: YOLOv8, Ultralytics, обнаружение объектов, пред Экспортируйте модель YOLOv8n в другой формат, такой как ONNX, CoreML и др. -!!! example "" +!!! Example "Пример" === "Python" diff --git a/docs/ru/tasks/index.md b/docs/ru/tasks/index.md index ffced03a26..2006c8ff6d 100644 --- a/docs/ru/tasks/index.md +++ b/docs/ru/tasks/index.md @@ -11,7 +11,7 @@ keywords: Ultralytics, YOLOv8, Обнаружение, Сегментация, YOLOv8 — это AI фреймворк, поддерживающий множество задач компьютерного зрения **задачи**. Фреймворк может быть использован для выполнения [обнаружения](detect.md), [сегментации](segment.md), [классификации](classify.md) и оценки [позы](pose.md). Каждая из этих задач имеет различные цели и области применения. -!!! note +!!! Note 🚧 Наша многоязычная документация в настоящее время находится в стадии разработки, и мы усердно работаем над ее улучшением. Спасибо за ваше терпение! 🙏 diff --git a/docs/ru/tasks/pose.md b/docs/ru/tasks/pose.md index 7e645d02ca..03d0d8d472 100644 --- a/docs/ru/tasks/pose.md +++ b/docs/ru/tasks/pose.md @@ -13,7 +13,7 @@ description: Узнайте, как использовать Ultralytics YOLOv8 [Смотрите: Оценка позы с Ultralytics YOLOv8.](https://www.youtube.com/embed/Y28xXQmju64?si=pCY4ZwejZFu6Z4kZ) -!!! tip "Совет" +!!! Tip "Совет" Модели _pose_ YOLOv8 используют суффикс `-pose`, т.е. `yolov8n-pose.pt`. Эти модели обучены на наборе данных [COCO keypoints](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) и подходят для различных задач оценки позы. @@ -41,7 +41,7 @@ description: Узнайте, как использовать Ultralytics YOLOv8 Обучите модель YOLOv8-pose на наборе данных COCO128-pose. -!!! example "" +!!! Example "Пример" === "Python" @@ -78,7 +78,7 @@ description: Узнайте, как использовать Ultralytics YOLOv8 Проверьте точность обученной модели YOLOv8n-pose на наборе данных COCO128-pose. Аргументы не нужны, так как `model` запоминает свои `data` и аргументы как атрибуты модели. -!!! example "" +!!! Example "Пример" === "Python" @@ -107,7 +107,7 @@ description: Узнайте, как использовать Ultralytics YOLOv8 Используйте обученную модель YOLOv8n-pose для выполнения предсказаний на изображениях. -!!! example "" +!!! Example "Пример" === "Python" @@ -134,7 +134,7 @@ description: Узнайте, как использовать Ultralytics YOLOv8 Экспортируйте модель YOLOv8n Pose в другой формат, такой как ONNX, CoreML и т.д. -!!! example "" +!!! Example "Пример" === "Python" diff --git a/docs/ru/tasks/segment.md b/docs/ru/tasks/segment.md index 76abb4e2ab..94d67b3445 100644 --- a/docs/ru/tasks/segment.md +++ b/docs/ru/tasks/segment.md @@ -23,7 +23,7 @@ keywords: yolov8, сегментация объектов, Ultralytics, набо Смотрите: Запуск сегментации с предварительно обученной моделью Ultralytics YOLOv8 на Python.

-!!! tip "Совет" +!!! Tip "Совет" Модели YOLOv8 Segment используют суффикс `-seg`, например `yolov8n-seg.pt` и предварительно обучены на [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml). @@ -51,7 +51,7 @@ keywords: yolov8, сегментация объектов, Ultralytics, набо Обучите модель YOLOv8n-seg на наборе данных COCO128-seg в течение 100 эпох при размере изображения 640. Полный список доступных аргументов см. на странице [Конфигурация](/../usage/cfg.md). -!!! example "" +!!! Example "Пример" === "Python" @@ -87,7 +87,7 @@ keywords: yolov8, сегментация объектов, Ultralytics, набо Проверьте точность обученной модели YOLOv8n-seg на наборе данных COCO128-seg. Аргументы передавать не нужно, так как `model` сохраняет `data` и аргументы обучения в качестве атрибутов модели. -!!! example "" +!!! Example "Пример" === "Python" @@ -120,7 +120,7 @@ keywords: yolov8, сегментация объектов, Ultralytics, набо Используйте обученную модель YOLOv8n-seg для выполнения предсказаний на изображениях. -!!! example "" +!!! Example "Пример" === "Python" @@ -147,7 +147,7 @@ keywords: yolov8, сегментация объектов, Ultralytics, набо Экспортируйте модель YOLOv8n-seg в другой формат, например ONNX, CoreML и т.д. -!!! example "" +!!! Example "Пример" === "Python" diff --git a/docs/update_translations.py b/docs/update_translations.py index 33b9b598b8..896f469a71 100644 --- a/docs/update_translations.py +++ b/docs/update_translations.py @@ -17,45 +17,81 @@ from pathlib import Path class MarkdownLinkFixer: """Class to fix Markdown links and front matter in language-specific directories.""" - def __init__(self, base_dir, update_links=True, update_frontmatter=True, update_iframes=True): + def __init__(self, base_dir, update_links=True, update_text=True): """Initialize the MarkdownLinkFixer with the base directory.""" self.base_dir = Path(base_dir) self.update_links = update_links - self.update_frontmatter = update_frontmatter - self.update_iframes = update_iframes + self.update_text = update_text self.md_link_regex = re.compile(r'\[([^]]+)]\(([^:)]+)\.md\)') - self.translations = { + + @staticmethod + def replace_front_matter(content, lang_dir): + """Ensure front matter keywords remain in English.""" + english = ['comments', 'description', 'keywords'] + translations = { 'zh': ['评论', '描述', '关键词'], # Mandarin Chinese (Simplified) warning, sometimes translates as 关键字 'es': ['comentarios', 'descripción', 'palabras clave'], # Spanish 'ru': ['комментарии', 'описание', 'ключевые слова'], # Russian 'pt': ['comentários', 'descrição', 'palavras-chave'], # Portuguese 'fr': ['commentaires', 'description', 'mots-clés'], # French - 'de': ['Kommentare', 'Beschreibung', 'Schlüsselwörter'], # German + 'de': ['kommentare', 'beschreibung', 'schlüsselwörter'], # German 'ja': ['コメント', '説明', 'キーワード'], # Japanese - 'ko': ['댓글', '설명', '키워드'] # Korean + 'ko': ['댓글', '설명', '키워드'], # Korean + 'hi': ['टिप्पणियाँ', 'विवरण', 'कीवर्ड'], # Hindi + 'ar': ['التعليقات', 'الوصف', 'الكلمات الرئيسية'] # Arabic } # front matter translations for comments, description, keyword - def replace_front_matter(self, content): - """Ensure front matter keywords remain in English.""" - english_keys = ['comments', 'description', 'keywords'] + for term, eng_key in zip(translations.get(lang_dir.stem, []), english): + content = re.sub(rf'{term} *[::].*', f'{eng_key}: true', content, flags=re.IGNORECASE) if \ + eng_key == 'comments' else re.sub(rf'{term} *[::] *', f'{eng_key}: ', content, flags=re.IGNORECASE) + return content - for lang, terms in self.translations.items(): - for term, eng_key in zip(terms, english_keys): - if eng_key == 'comments': - # Replace comments key and set its value to 'true' - content = re.sub(rf'{term} *[::].*', f'{eng_key}: true', content) - else: - content = re.sub(rf'{term} *[::] *', f'{eng_key}: ', content) + @staticmethod + def replace_admonitions(content, lang_dir): + """Ensure front matter keywords remain in English.""" + english = [ + 'Note', 'Summary', 'Tip', 'Info', 'Success', 'Question', 'Warning', 'Failure', 'Danger', 'Bug', 'Example', + 'Quote', 'Abstract', 'Seealso', 'Admonition'] + translations = { + 'en': + english, + 'zh': ['笔记', '摘要', '提示', '信息', '成功', '问题', '警告', '失败', '危险', '故障', '示例', '引用', '摘要', '另见', '警告'], + 'es': [ + 'Nota', 'Resumen', 'Consejo', 'Información', 'Éxito', 'Pregunta', 'Advertencia', 'Fracaso', 'Peligro', + 'Error', 'Ejemplo', 'Cita', 'Abstracto', 'Véase También', 'Amonestación'], + 'ru': [ + 'Заметка', 'Сводка', 'Совет', 'Информация', 'Успех', 'Вопрос', 'Предупреждение', 'Неудача', 'Опасность', + 'Ошибка', 'Пример', 'Цитата', 'Абстракт', 'См. Также', 'Предостережение'], + 'pt': [ + 'Nota', 'Resumo', 'Dica', 'Informação', 'Sucesso', 'Questão', 'Aviso', 'Falha', 'Perigo', 'Bug', + 'Exemplo', 'Citação', 'Abstrato', 'Veja Também', 'Advertência'], + 'fr': [ + 'Note', 'Résumé', 'Conseil', 'Info', 'Succès', 'Question', 'Avertissement', 'Échec', 'Danger', 'Bug', + 'Exemple', 'Citation', 'Abstrait', 'Voir Aussi', 'Admonestation'], + 'de': [ + 'Hinweis', 'Zusammenfassung', 'Tipp', 'Info', 'Erfolg', 'Frage', 'Warnung', 'Ausfall', 'Gefahr', + 'Fehler', 'Beispiel', 'Zitat', 'Abstrakt', 'Siehe Auch', 'Ermahnung'], + 'ja': ['ノート', '要約', 'ヒント', '情報', '成功', '質問', '警告', '失敗', '危険', 'バグ', '例', '引用', '抄録', '参照', '訓告'], + 'ko': ['노트', '요약', '팁', '정보', '성공', '질문', '경고', '실패', '위험', '버그', '예제', '인용', '추상', '참조', '경고'], + 'hi': [ + 'नोट', 'सारांश', 'सुझाव', 'जानकारी', 'सफलता', 'प्रश्न', 'चेतावनी', 'विफलता', 'खतरा', 'बग', 'उदाहरण', + 'उद्धरण', 'सार', 'देखें भी', 'आगाही'], + 'ar': [ + 'ملاحظة', 'ملخص', 'نصيحة', 'معلومات', 'نجاح', 'سؤال', 'تحذير', 'فشل', 'خطر', 'عطل', 'مثال', 'اقتباس', + 'ملخص', 'انظر أيضاً', 'تحذير']} + + for term, eng_key in zip(translations.get(lang_dir.stem, []), english): + content = re.sub(rf'!!! *{term}', f'!!! {eng_key}', content, flags=re.IGNORECASE) + content = re.sub(r'!!! *"', '!!! Example "', content, flags=re.IGNORECASE) return content @staticmethod def update_iframe(content): """Update the 'allow' attribute of iframe if it does not contain the specific English permissions.""" - english_permissions = \ - 'accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share' - pattern = re.compile(f'allow="(?!{re.escape(english_permissions)}).+?"') - return pattern.sub(f'allow="{english_permissions}"', content) + english = 'accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share' + pattern = re.compile(f'allow="(?!{re.escape(english)}).+?"') + return pattern.sub(f'allow="{english}"', content) def link_replacer(self, match, parent_dir, lang_dir, use_abs_link=False): """Replace broken links with corresponding links in the /en/ directory.""" @@ -91,10 +127,9 @@ class MarkdownLinkFixer: if self.update_links: content = self.md_link_regex.sub(lambda m: self.link_replacer(m, md_file_path.parent, lang_dir), content) - if self.update_frontmatter: - content = self.replace_front_matter(content) - - if self.update_iframes: + if self.update_text: + content = self.replace_front_matter(content, lang_dir) + content = self.replace_admonitions(content, lang_dir) content = self.update_iframe(content) with open(md_file_path, 'w', encoding='utf-8') as file: @@ -109,12 +144,12 @@ class MarkdownLinkFixer: def run(self): """Run the link fixing and front matter updating process for each language-specific directory.""" for subdir in self.base_dir.iterdir(): - if subdir.is_dir() and re.match(r'^\w\w$', subdir.name) and subdir.name != 'en': + if subdir.is_dir() and re.match(r'^\w\w$', subdir.name): self.process_language_directory(subdir) if __name__ == '__main__': # Set the path to your MkDocs 'docs' directory here docs_dir = str(Path(__file__).parent.resolve()) - fixer = MarkdownLinkFixer(docs_dir, update_links=True, update_frontmatter=True, update_iframes=True) + fixer = MarkdownLinkFixer(docs_dir, update_links=True, update_text=True) fixer.run() diff --git a/docs/zh/datasets/index.md b/docs/zh/datasets/index.md index d063e880af..8f60acad61 100644 --- a/docs/zh/datasets/index.md +++ b/docs/zh/datasets/index.md @@ -8,7 +8,7 @@ keywords: 计算机视觉, 数据集, Ultralytics, YOLO, 对象检测, 实例分 Ultralytics 支持多种数据集,方便开展计算机视觉任务,诸如检测、实例分割、姿态估计、分类和多对象跟踪。以下是主要 Ultralytics 数据集的列表,以及每个计算机视觉任务及其相应数据集的概述。 -!!! note +!!! Note Ultralytics 团队正在努力将文档翻译成多种语言。目前,本页面上的链接可能会直接指向英文文档页面,因为我们正在扩展多语言文档支持。感谢您的耐心等待 🙏! @@ -104,7 +104,7 @@ Ultralytics 支持多种数据集,方便开展计算机视觉任务,诸如 ### 优化和压缩数据集的示例代码 -!!! example "优化和压缩数据集" +!!! Example "优化和压缩数据集" === "Python" diff --git a/docs/zh/models/index.md b/docs/zh/models/index.md index 1735e41641..fd0eb449a2 100644 --- a/docs/zh/models/index.md +++ b/docs/zh/models/index.md @@ -8,7 +8,7 @@ keywords: Ultralytics, 文档, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, RT-DETR, 欢迎来到 Ultralytics 的模型文档!我们支持多种模型,每种模型都针对特定任务进行了优化,如[对象检测](/../tasks/detect.md)、[实例分割](/../tasks/segment.md)、[图像分类](/../tasks/classify.md)、[姿态估计](/../tasks/pose.md)和[多对象追踪](/../modes/track.md)。如果您有兴趣将您的模型架构贡献给 Ultralytics,请查看我们的[贡献指南](/../help/contributing.md)。 -!!! note +!!! Note Ultralytics 团队正忙于将文档翻译成多种语言。本页面上的链接目前可能会导向英文文档页面,因为我们正在努力扩展多语言文档支持。感谢您的耐心等待 🙏! @@ -41,7 +41,7 @@ keywords: Ultralytics, 文档, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, RT-DETR, ## 入门:使用示例 -!!! example "" +!!! Example "示例" === "Python" diff --git a/docs/zh/modes/benchmark.md b/docs/zh/modes/benchmark.md index 4219a315e5..53a14e5391 100644 --- a/docs/zh/modes/benchmark.md +++ b/docs/zh/modes/benchmark.md @@ -41,7 +41,7 @@ keywords: Ultralytics, YOLOv8, 基准测试, 速度分析, 准确性分析, mAP5 在所有支持的导出格式上运行YOLOv8n基准测试,包括ONNX、TensorRT等。更多导出参数的完整列表请见下方的参数部分。 -!!! 示例 "" +!!! Example "示例" === "Python" diff --git a/docs/zh/modes/export.md b/docs/zh/modes/export.md index 857fc50d74..dadb1f1944 100644 --- a/docs/zh/modes/export.md +++ b/docs/zh/modes/export.md @@ -39,7 +39,7 @@ keywords: YOLO, YOLOv8, Ultralytics, 模型导出, ONNX, TensorRT, CoreML, Tenso - **优化推理:** 导出的模型针对更快的推理时间进行优化。 - **教学视频:** 提供深入指导和教学,确保流畅的导出体验。 -!!! 提示 "提示" +!!! Tip "提示" * 导出到 ONNX 或 OpenVINO,以实现高达 3 倍的 CPU 加速。 * 导出到 TensorRT,以实现高达 5 倍的 GPU 加速。 @@ -48,7 +48,7 @@ keywords: YOLO, YOLOv8, Ultralytics, 模型导出, ONNX, TensorRT, CoreML, Tenso 将 YOLOv8n 模型导出为 ONNX 或 TensorRT 等不同格式。查看下面的参数部分,了解完整的导出参数列表。 -!!! 示例 "" +!!! Example "示例" === "Python" diff --git a/docs/zh/modes/predict.md b/docs/zh/modes/predict.md index c9642ba17d..5614ffee54 100644 --- a/docs/zh/modes/predict.md +++ b/docs/zh/modes/predict.md @@ -50,7 +50,7 @@ YOLOv8 的预测模式被设计为强大且多功能,包括以下特性: Ultralytics YOLO 模型在进行推理时返回一个 Python `Results` 对象列表,或者当传入 `stream=True` 时,返回一个内存高效的 Python `Results` 对象生成器: -!!! 示例 "预测" +!!! Example "预测" === "使用 `stream=False` 返回列表" ```python @@ -92,7 +92,7 @@ Ultralytics YOLO 模型在进行推理时返回一个 Python `Results` 对象列 YOLOv8 可以处理推理输入的不同类型,如下表所示。来源包括静态图像、视频流和各种数据格式。表格还表示了每种来源是否可以在流式模式下使用,使用参数 `stream=True` ✅。流式模式对于处理视频或实时流非常有利,因为它创建了结果的生成器,而不是将所有帧加载到内存。 -!!! 提示 "提示" +!!! Tip "提示" 使用 `stream=True` 处理长视频或大型数据集来高效地管理内存。当 `stream=False` 时,所有帧或数据点的结果都将存储在内存中,这可能很快导致内存不足错误。相对地,`stream=True` 使用生成器,只保留当前帧或数据点的结果在内存中,显著减少了内存消耗,防止内存不足问题。 @@ -115,7 +115,7 @@ YOLOv8 可以处理推理输入的不同类型,如下表所示。来源包括 下面为每种来源类型使用代码的示例: -!!! 示例 "预测来源" +!!! Example "预测来源" === "图像" 对图像文件进行推理。 @@ -327,7 +327,7 @@ YOLOv8 可以处理推理输入的不同类型,如下表所示。来源包括 `model.predict()` 在推理时接受多个参数,可以用来覆盖默认值: -!!! 示例 +!!! Example ```python from ultralytics import YOLO @@ -373,11 +373,20 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/ ### 图像 -以下表格包含有效的Ultralytics图像格式。 - -| 图像后缀名 | 示例预测命令 | 参考链接 | | - -----------------|-----------------------------------------|-------------------------------------------------------------------------------| | .bmp | `yolo predict source=image.bmp` | [Microsoft BMP文件格式](https://en.wikipedia.org/wiki/BMP_file_format) | | .dng | `yolo predict source=image.dng` | [Adobe DNG](https://www.adobe.com/products/photoshop/extend.displayTab2.html) | | .jpeg | `yolo predict source=image.jpeg` | [JPEG](https://en.wikipedia.org/wiki/JPEG) | | .jpg | `yolo predict source=image.jpg` | [JPEG](https://en.wikipedia.org/wiki/JPEG) | | .mpo | `yolo predict source=image.mpo` | [多图像对象](https://fileinfo.com/extension/mpo) | | .png | `yolo predict source=image.png` | [便携式网络图形](https://en.wikipedia.org/wiki/PNG) | | .tif | `yolo predict source=image.tif` | [标签图像文件格式](https://en.wikipedia.org/wiki/TIFF) | | .tiff | `yolo predict source=image.tiff` | [标签图像文件格式](https://en.wikipedia.org/wiki/TIFF) | | .webp | `yolo predict source=image.webp` | [WebP](https://en.wikipedia.org/wiki/WebP) | | .pfm | `yolo predict source=image.pfm` | [便携式浮点图](https://en.wikipedia.org/wiki/Netpbm#File_formats) | +下表包含了Ultralytics支持的有效图像格式。 + +| 图像后缀 | 示例预测命令 | 参考链接 | +|-------|----------------------------------|-------------------------------------------------------------------------------| +| .bmp | `yolo predict source=image.bmp` | [Microsoft BMP文件格式](https://en.wikipedia.org/wiki/BMP_file_format) | +| .dng | `yolo predict source=image.dng` | [Adobe DNG](https://www.adobe.com/products/photoshop/extend.displayTab2.html) | +| .jpeg | `yolo predict source=image.jpeg` | [JPEG](https://en.wikipedia.org/wiki/JPEG) | +| .jpg | `yolo predict source=image.jpg` | [JPEG](https://en.wikipedia.org/wiki/JPEG) | +| .mpo | `yolo predict source=image.mpo` | [多图像对象](https://fileinfo.com/extension/mpo) | +| .png | `yolo predict source=image.png` | [便携式网络图形](https://en.wikipedia.org/wiki/PNG) | +| .tif | `yolo predict source=image.tif` | [标签图像文件格式](https://en.wikipedia.org/wiki/TIFF) | +| .tiff | `yolo predict source=image.tiff` | [标签图像文件格式](https://en.wikipedia.org/wiki/TIFF) | +| .webp | `yolo predict source=image.webp` | [WebP](https://en.wikipedia.org/wiki/WebP) | +| .pfm | `yolo predict source=image.pfm` | [便携式浮点映射](https://en.wikipedia.org/wiki/Netpbm#File_formats) | ### 视频 @@ -402,7 +411,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/ 所有Ultralytics的`predict()`调用都将返回一个`Results`对象列表: -!!! 示例 "结果" +!!! Example "结果" ```python from ultralytics import YOLO @@ -454,7 +463,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/ `Boxes`对象可用于索引、操作和转换边界框到不同格式。 -!!! 示例 "边界框(Boxes)" +!!! Example "边界框(Boxes)" ```python from ultralytics import YOLO @@ -465,14 +474,12 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/ # 在图片上运行推理 results = model('bus.jpg') -# results列表 - # 查看结果 for r in results: print(r.boxes) # 打印包含检测边界框的Boxes对象 ``` -以下是`Boxes`类方法和属性的表格,包括它们的名称、类型和描述: +以下是`Boxes`类方法和属性的表格,包括它们的名称、类型和description: | 名称 | 类型 | 描述 | |-----------|---------------------|-------------------------| @@ -494,7 +501,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/ `Masks`对象可用于索引、操作和将掩码转换为分段。 -!!! 示例 "掩码(Masks)" +!!! Example "掩码(Masks)" ```python from ultralytics import YOLO @@ -510,7 +517,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/ print(r.masks) # 打印包含检测到的实例掩码的Masks对象 ``` -以下是`Masks`类方法和属性的表格,包括它们的名称、类型和描述: +以下是`Masks`类方法和属性的表格,包括它们的名称、类型和description: | 名称 | 类型 | 描述 | |-----------|---------------------|----------------------| @@ -527,7 +534,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/ `Keypoints` 对象可以用于索引、操作和规范化坐标。 -!!! 示例 "关键点" +!!! Example "关键点" ```python from ultralytics import YOLO @@ -543,7 +550,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/ print(r.keypoints) # 打印包含检测到的关键点的Keypoints对象 ``` -以下是`Keypoints`类方法和属性的表格,包括它们的名称、类型和描述: +以下是`Keypoints`类方法和属性的表格,包括它们的名称、类型和description: | 名称 | 类型 | 描述 | |-----------|--------------------|---------------------------| @@ -561,7 +568,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/ `Probs` 对象可以用于索引,获取分类的 `top1` 和 `top5` 索引和分数。 -!!! 示例 "概率" +!!! Example "概率" ```python from ultralytics import YOLO @@ -596,7 +603,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/ 您可以使用`Result`对象的`plot()`方法来可视化预测结果。它会将`Results`对象中包含的所有预测类型(框、掩码、关键点、概率等)绘制到一个numpy数组上,然后可以显示或保存。 -!!! 示例 "绘制" +!!! Example "绘制" ```python from PIL import Image @@ -640,7 +647,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/ 在多线程应用中使用YOLO模型时,重要的是为每个线程实例化单独的模型对象,或使用线程本地存储来防止冲突: -!!! 示例 "线程安全推理" +!!! Example "线程安全推理" 在每个线程内实例化单个模型以实现线程安全的推理: ```python @@ -664,7 +671,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/ 以下是使用OpenCV(`cv2`)和YOLOv8在视频帧上运行推理的Python脚本。此脚本假设您已经安装了必要的包(`opencv-python`和`ultralytics`)。 -!!! 示例 "流媒体for循环" +!!! Example "流媒体for循环" ```python import cv2 diff --git a/docs/zh/modes/track.md b/docs/zh/modes/track.md index 9409079de1..95e67454f1 100644 --- a/docs/zh/modes/track.md +++ b/docs/zh/modes/track.md @@ -58,7 +58,7 @@ Ultralytics YOLO支持以下追踪算法。可以通过传递相关的YAML配置 要在视频流中运行追踪器,请使用已训练的检测、分割或姿态模型,例如YOLOv8n、YOLOv8n-seg和YOLOv8n-pose。 -!!! 示例 "" +!!! Example "示例" === "Python" @@ -97,7 +97,7 @@ Ultralytics YOLO支持以下追踪算法。可以通过传递相关的YAML配置 追踪配置与预测模式共享一些属性,如`conf`、`iou`和`show`。有关进一步配置,请参见[预测](https://docs.ultralytics.com/modes/predict/)模型页面。 -!!! 示例 "" +!!! Example "示例" === "Python" @@ -120,7 +120,7 @@ Ultralytics YOLO支持以下追踪算法。可以通过传递相关的YAML配置 Ultralytics还允许您使用修改后的追踪器配置文件。要执行此操作,只需从[ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers)中复制一个追踪器配置文件(例如,`custom_tracker.yaml`)并根据您的需求修改任何配置(除了`tracker_type`)。 -!!! 示例 "" +!!! Example "示例" === "Python" @@ -147,7 +147,7 @@ Ultralytics还允许您使用修改后的追踪器配置文件。要执行此操 这是一个使用OpenCV(`cv2`)和YOLOv8在视频帧上运行物体追踪的Python脚本。此脚本假设您已经安装了必要的包(`opencv-python`和`ultralytics`)。参数`persist=True`告诉追踪器当前的图像或帧是序列中的下一个,并且期望在当前图像中从上一个图像中获得追踪路径。 -!!! 示例 "带追踪功能的流循环" +!!! Example "带追踪功能的流循环" ```python import cv2 @@ -195,7 +195,7 @@ Ultralytics还允许您使用修改后的追踪器配置文件。要执行此操 在以下示例中,我们演示了如何利用YOLOv8的追踪功能在多个视频帧上绘制检测物体的移动。这个脚本涉及打开视频文件、逐帧读取,并使用YOLO模型识别并追踪各种物体。通过保留检测到的边界框的中心点并连接它们,我们可以绘制表示跟踪物体路径的线条。 -!!! 示例 "在多个视频帧上绘制追踪路径" +!!! Example "在多个视频帧上绘制追踪路径" ```python from collections import defaultdict @@ -271,7 +271,3 @@ Ultralytics还允许您使用修改后的追踪器配置文件。要执行此操 在`threading.Thread`中参数`daemon=True`表示,这些线程会在主程序结束时关闭。然后我们用`start()`来开始线程,并使用`join()`来使主线程等待,直到两个追踪线程都结束。 最后,在所有线程完成任务后,使用`cv2.destroyAllWindows()`关闭显示结果的窗口。 - -!!! 示例 "带追踪功能的流循环" - - ```pyth diff --git a/docs/zh/modes/train.md b/docs/zh/modes/train.md index ffe06ea039..f9c8c3c0b8 100644 --- a/docs/zh/modes/train.md +++ b/docs/zh/modes/train.md @@ -49,7 +49,7 @@ keywords: Ultralytics, YOLOv8, YOLO, 目标检测, 训练模式, 自定义数据 在COCO128数据集上训练YOLOv8n模型100个时期,图像大小为640。可以使用`device`参数指定训练设备。如果没有传递参数,并且有可用的GPU,则将使用GPU `device=0`,否则将使用`device=cpu`。有关完整列表的训练参数,请参见下面的参数部分。 -!!! 示例 "单GPU和CPU训练示例" +!!! Example "单GPU和CPU训练示例" 设备将自动确定。如果有可用的GPU,那么将使用它,否则将在CPU上开始训练。 @@ -84,7 +84,7 @@ keywords: Ultralytics, YOLOv8, YOLO, 目标检测, 训练模式, 自定义数据 多GPU训练通过在多个GPU上分布训练负载,实现对可用硬件资源的更有效利用。无论是通过Python API还是命令行界面,都可以使用此功能。 若要启用多GPU训练,请指定您希望使用的GPU设备ID。 -!!! 示例 "多GPU训练示例" +!!! Example "多GPU训练示例" 要使用2个GPU进行训练,请使用CUDA设备0和1,使用以下命令。根据需要扩展到更多GPU。 @@ -113,7 +113,7 @@ keywords: Ultralytics, YOLOv8, YOLO, 目标检测, 训练模式, 自定义数据 要在Apple M1和M2芯片上启用训练,您应该在启动训练过程时将设备指定为'mps'。以下是Python和命令行中如何做到这点的示例: -!!! 示例 "MPS训练示例" +!!! Example "MPS训练示例" === "Python" @@ -146,7 +146,7 @@ keywords: Ultralytics, YOLOv8, YOLO, 目标检测, 训练模式, 自定义数据 下面是使用Python和命令行恢复中断训练的示例: -!!! 示例 "恢复训练示例" +!!! Example "恢复训练示例" === "Python" @@ -236,7 +236,7 @@ YOLO模型的训练设置是指用于对数据集进行模型训练的各种超 使用Comet: -!!! 示例 "" +!!! Example "示例" === "Python" ```python @@ -254,7 +254,7 @@ YOLO模型的训练设置是指用于对数据集进行模型训练的各种超 使用ClearML: -!!! 示例 "" +!!! Example "示例" === "Python" ```python @@ -272,7 +272,7 @@ YOLO模型的训练设置是指用于对数据集进行模型训练的各种超 在[Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb)中使用TensorBoard: -!!! 示例 "" +!!! Example "示例" === "CLI" ```bash @@ -282,7 +282,7 @@ YOLO模型的训练设置是指用于对数据集进行模型训练的各种超 在本地使用TensorBoard,运行下面的命令并在 http://localhost:6006/ 查看结果。 -!!! 示例 "" +!!! Example "示例" === "CLI" ```bash diff --git a/docs/zh/modes/val.md b/docs/zh/modes/val.md index 7230acad50..21129fb10c 100644 --- a/docs/zh/modes/val.md +++ b/docs/zh/modes/val.md @@ -30,7 +30,7 @@ keywords: Ultralytics, YOLO 文档, YOLOv8, 验证, 模型评估, 超参数, 准 - **CLI 和 Python API:** 根据您的验证偏好选择命令行界面或 Python API。 - **数据兼容性:** 与训练阶段使用的数据集以及自定义数据集无缝协作。 -!!! tip "提示" +!!! Tip "提示" * YOLOv8 模型会自动记住其训练设置,因此您可以很容易地仅使用 `yolo val model=yolov8n.pt` 或 `model('yolov8n.pt').val()` 在原始数据集上并以相同图像大小验证模型。 @@ -38,7 +38,7 @@ keywords: Ultralytics, YOLO 文档, YOLOv8, 验证, 模型评估, 超参数, 准 在 COCO128 数据集上验证训练过的 YOLOv8n 模型的准确性。由于 `model` 保留了其训练的 `data` 和参数作为模型属性,因此无需传递任何参数。有关完整的导出参数列表,请参阅下面的参数部分。 -!!! example "" +!!! Example "示例" === "Python" diff --git a/docs/zh/quickstart.md b/docs/zh/quickstart.md index abc53377b9..68bc8658c2 100644 --- a/docs/zh/quickstart.md +++ b/docs/zh/quickstart.md @@ -8,7 +8,7 @@ keywords: Ultralytics安装,pip安装Ultralytics,Docker安装Ultralytics,U Ultralytics提供了多种安装方法,包括pip、conda和Docker。通过`ultralytics`pip包安装最新稳定版的YOLOv8,或者克隆[Ultralytics GitHub仓库](https://github.com/ultralytics/ultralytics)以获取最新版本。Docker可用于在隔离容器中执行包,避免本地安装。 -!!! 示例 "安装" +!!! Example "安装" === "Pip安装(推荐)" 使用pip安装`ultralytics`包,或通过运行`pip install -U ultralytics`更新现有安装。访问Python包索引(PyPI)了解更多关于`ultralytics`包的详细信息:[https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/)。 @@ -129,7 +129,7 @@ Ultralytics提供了多种安装方法,包括pip、conda和Docker。通过`ult Watch: Ultralytics YOLO Quick Start Guide

-!!! 提示 "提示" +!!! Tip "提示" PyTorch的要求因操作系统和CUDA需要而异,因此建议首先根据[https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally)上的指南安装PyTorch。 @@ -141,7 +141,7 @@ Ultralytics提供了多种安装方法,包括pip、conda和Docker。通过`ult Ultralytics命令行界面(CLI)允许您通过简单的单行命令使用,无需Python环境。CLI不需要自定义或Python代码。您可以直接从终端使用`yolo`命令运行所有任务。查看[CLI指南](/../usage/cli.md),了解更多关于从命令行使用YOLOv8的信息。 -!!! 示例 +!!! Example === "语法" @@ -195,7 +195,7 @@ Ultralytics命令行界面(CLI)允许您通过简单的单行命令使用, yolo cfg ``` -!!! 警告 "警告" +!!! Warning "警告" 参数必须以`arg=val`对的形式传递,用等号`=`分隔,并用空格` `分隔对。不要使用`--`参数前缀或逗号`,`分隔参数。 @@ -211,7 +211,7 @@ YOLOv8的Python接口允许无缝集成进您的Python项目,轻松加载、 例如,用户可以加载一个模型,训练它,在验证集上评估性能,甚至只需几行代码就可以将其导出到ONNX格式。查看[Python指南](/../usage/python.md),了解更多关于在Python项目中使用YOLOv8的信息。 -!!! 示例 +!!! Example ```python from ultralytics import YOLO @@ -245,7 +245,7 @@ Ultralytics库提供了一个强大的设置管理系统,允许您精细控制 若要了解当前设置的配置情况,您可以直接查看: -!!! 示例 "查看设置" +!!! Example "查看设置" === "Python" 您可以使用Python查看设置。首先从`ultralytics`模块导入`settings`对象。使用以下命令打印和返回设置: @@ -269,7 +269,7 @@ Ultralytics库提供了一个强大的设置管理系统,允许您精细控制 Ultralytics允许用户轻松修改他们的设置。更改可以通过以下方式执行: -!!! 示例 "更新设置" +!!! Example "更新设置" === "Python" 在Python环境中,调用`settings`对象上的`update`方法来更改您的设置: diff --git a/docs/zh/tasks/classify.md b/docs/zh/tasks/classify.md index 5d6b24361d..f440ad18dd 100644 --- a/docs/zh/tasks/classify.md +++ b/docs/zh/tasks/classify.md @@ -12,7 +12,7 @@ keywords: Ultralytics, YOLOv8, 图像分类, 预训练模型, YOLOv8n-cls, 训 图像分类器的输出是单个类别标签和一个置信度分数。当您只需要知道一幅图像属于哪个类别、而不需要知道该类别对象的位置或它们的确切形状时,图像分类非常有用。 -!!! tip "提示" +!!! Tip "提示" YOLOv8分类模型使用`-cls`后缀,即`yolov8n-cls.pt`,并预先训练在[ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml)上。 @@ -39,7 +39,7 @@ keywords: Ultralytics, YOLOv8, 图像分类, 预训练模型, YOLOv8n-cls, 训 在MNIST160数据集上训练YOLOv8n-cls模型100个时期,图像尺寸为64。有关可用参数的完整列表,请参见[配置](/../usage/cfg.md)页面。 -!!! example "" +!!! Example "示例" === "Python" @@ -76,7 +76,7 @@ YOLO分类数据集的格式详情请参见[数据集指南](/../datasets/classi 在MNIST160数据集上验证训练好的YOLOv8n-cls模型准确性。不需要传递任何参数,因为`model`保留了它的训练`data`和参数作为模型属性。 -!!! example "" +!!! Example "示例" === "Python" @@ -103,7 +103,7 @@ YOLO分类数据集的格式详情请参见[数据集指南](/../datasets/classi 使用训练过的YOLOv8n-cls模型对图像进行预测。 -!!! example "" +!!! Example "示例" === "Python" @@ -130,7 +130,7 @@ YOLO分类数据集的格式详情请参见[数据集指南](/../datasets/classi 将YOLOv8n-cls模型导出为其他格式,如ONNX、CoreML等。 -!!! example "" +!!! Example "示例" === "Python" diff --git a/docs/zh/tasks/detect.md b/docs/zh/tasks/detect.md index 6d016f2a7c..52c230844a 100644 --- a/docs/zh/tasks/detect.md +++ b/docs/zh/tasks/detect.md @@ -23,7 +23,7 @@ keywords: YOLOv8, Ultralytics, 目标检测, 预训练模型, 训练, 验证, 观看:使用预训练的Ultralytics YOLOv8模型进行目标检测。

-!!! tip "提示" +!!! Tip "提示" YOLOv8 Detect 模型是默认的 YOLOv8 模型,即 `yolov8n.pt` ,并在 [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) 数据集上进行了预训练。 @@ -50,7 +50,7 @@ keywords: YOLOv8, Ultralytics, 目标检测, 预训练模型, 训练, 验证, 在COCO128数据集上使用图像尺寸640将YOLOv8n训练100个epochs。要查看可用参数的完整列表,请参阅 [配置](/../usage/cfg.md) 页面。 -!!! example "" +!!! Example "示例" === "Python" @@ -86,7 +86,7 @@ YOLO检测数据集格式可以在 [数据集指南](/../datasets/detect/index.m 在COCO128数据集上验证训练好的YOLOv8n模型准确性。无需传递参数,`model` 作为模型属性保留其训练的 `data` 和参数。 -!!! example "" +!!! Example "示例" === "Python" @@ -115,7 +115,7 @@ YOLO检测数据集格式可以在 [数据集指南](/../datasets/detect/index.m 使用训练好的YOLOv8n模型在图像上进行预测。 -!!! example "" +!!! Example "示例" === "Python" @@ -142,7 +142,7 @@ YOLO检测数据集格式可以在 [数据集指南](/../datasets/detect/index.m 将YOLOv8n模型导出为ONNX、CoreML等不同格式。 -!!! example "" +!!! Example "示例" === "Python" diff --git a/docs/zh/tasks/pose.md b/docs/zh/tasks/pose.md index e87bd93a32..6ad6890726 100644 --- a/docs/zh/tasks/pose.md +++ b/docs/zh/tasks/pose.md @@ -1,7 +1,7 @@ --- -评论:真 -描述:学习如何使用Ultralytics YOLOv8进行姿态估计任务。找到预训练模型,学习如何训练、验证、预测以及导出你自己的模型。 -关键词:Ultralytics, YOLO, YOLOv8, 姿态估计, 关键点检测, 物体检测, 预训练模型, 机器学习, 人工智能 +comments: true +description: 学习如何使用Ultralytics YOLOv8进行姿态估计任务。找到预训练模型,学习如何训练、验证、预测以及导出你自己的模型。 +keywords: Ultralytics, YOLO, YOLOv8, 姿态估计, 关键点检测, 物体检测, 预训练模型, 机器学习, 人工智能 --- # 姿态估计 @@ -23,7 +23,7 @@ 观看:使用Ultralytics YOLOv8进行姿态估计。

-!!! tip "提示" +!!! Tip "提示" YOLOv8 _姿态_ 模型使用 `-pose` 后缀,例如 `yolov8n-pose.pt`。这些模型在 [COCO关键点](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) 数据集上进行了训练,并且适用于各种姿态估计任务。 @@ -51,7 +51,7 @@ 在COCO128姿态数据集上训练一个YOLOv8姿态模型。 -!!! example "" +!!! Example "示例" === "Python" @@ -87,7 +87,7 @@ YOLO姿态数据集格式可详细找到在[数据集指南](/../datasets/pose/i 在COCO128姿态数据集上验证训练好的YOLOv8n姿态模型的准确性。没有参数需要传递,因为`模型`保存了其训练`数据`和参数作为模型属性。 -!!! example "" +!!! Example "示例" === "Python" @@ -116,7 +116,7 @@ YOLO姿态数据集格式可详细找到在[数据集指南](/../datasets/pose/i 使用训练好的YOLOv8n姿态模型在图片上运行预测。 -!!! example "" +!!! Example "示例" === "Python" @@ -143,7 +143,7 @@ YOLO姿态数据集格式可详细找到在[数据集指南](/../datasets/pose/i 将YOLOv8n姿态模型导出为ONNX、CoreML等不同格式。 -!!! example "" +!!! Example "示例" === "Python" diff --git a/docs/zh/tasks/segment.md b/docs/zh/tasks/segment.md index 55aebdb958..246ef58904 100644 --- a/docs/zh/tasks/segment.md +++ b/docs/zh/tasks/segment.md @@ -23,7 +23,7 @@ keywords: yolov8, 实例分割, Ultralytics, COCO数据集, 图像分割, 物体 观看: 在Python中使用预训练的Ultralytics YOLOv8模型运行分割。

-!!! tip "提示" +!!! Tip "提示" YOLOv8分割模型使用`-seg`后缀,即`yolov8n-seg.pt`,并在[COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)上进行预训练。 @@ -50,7 +50,7 @@ keywords: yolov8, 实例分割, Ultralytics, COCO数据集, 图像分割, 物体 在COCO128-seg数据集上以640的图像尺寸训练YOLOv8n-seg模型共100个周期。想了解更多可用的参数,请查阅[配置](/../usage/cfg.md)页面。 -!!! example "" +!!! Example "示例" === "Python" @@ -86,7 +86,7 @@ keywords: yolov8, 实例分割, Ultralytics, COCO数据集, 图像分割, 物体 在COCO128-seg数据集上验证已训练的YOLOv8n-seg模型的准确性。不需要传递任何参数,因为`model`保留了其训练的`data`和作为模型属性的设置。 -!!! example "" +!!! Example "示例" === "Python" @@ -119,7 +119,7 @@ keywords: yolov8, 实例分割, Ultralytics, COCO数据集, 图像分割, 物体 使用已训练的YOLOv8n-seg模型在图像上进行预测。 -!!! example "" +!!! Example "示例" === "Python" @@ -146,7 +146,7 @@ keywords: yolov8, 实例分割, Ultralytics, COCO数据集, 图像分割, 物体 将YOLOv8n-seg模型导出为ONNX、CoreML等不同格式。 -!!! example "" +!!! Example "示例" === "Python"