You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
 
 
 

6.1 KiB

comments description keywords
true Explore la amplia gama de modelos de la familia YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS y RT-DETR soportados por Ultralytics. Comienza con ejemplos para el uso tanto de CLI como de Python. Ultralytics, documentación, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, RT-DETR, modelos, arquitecturas, Python, CLI

Modelos soportados por Ultralytics

¡Bienvenido a la documentación de modelos de Ultralytics! Ofrecemos soporte para una amplia gama de modelos, cada uno adaptado a tareas específicas como detección de objetos, segmentación de instancias, clasificación de imágenes, estimación de posturas, y seguimiento de múltiples objetos. Si estás interesado en contribuir con tu arquitectura de modelo a Ultralytics, consulta nuestra Guía de Contribución.

!!! Note "Nota"

🚧 Estamos trabajando arduamente para mejorar nuestra documentación en varios idiomas actualmente en construcción. ¡Gracias por tu paciencia! 🙏

Modelos destacados

Aquí están algunos de los modelos clave soportados:

  1. YOLOv3: La tercera iteración de la familia de modelos YOLO, original de Joseph Redmon, conocida por su capacidad de detección de objetos en tiempo real eficientemente.
  2. YOLOv4: Una actualización nativa de darknet para YOLOv3, lanzada por Alexey Bochkovskiy en 2020.
  3. YOLOv5: Una versión mejorada de la arquitectura YOLO por Ultralytics, ofreciendo un mejor rendimiento y compromiso de velocidad comparado con versiones anteriores.
  4. YOLOv6: Lanzado por Meituan en 2022, y utilizado en muchos de los robots de entrega autónomos de la compañía.
  5. YOLOv7: Modelos YOLO actualizados lanzados en 2022 por los autores de YOLOv4.
  6. YOLOv8 NUEVO 🚀: La última versión de la familia YOLO, con capacidades mejoradas como segmentación de instancias, estimación de posturas/puntos clave y clasificación.
  7. Modelo Segment Anything (SAM): Modelo Segment Anything (SAM) de Meta.
  8. Mobile Segment Anything Model (MobileSAM): MobileSAM para aplicaciones móviles, por la Universidad de Kyung Hee.
  9. Fast Segment Anything Model (FastSAM): FastSAM por el Grupo de Análisis de Imagen y Video, Instituto de Automatización, Academia China de Ciencias.
  10. YOLO-NAS: Modelos YOLO de Búsqueda de Arquitectura Neural (NAS).
  11. Transformadores de Detección en Tiempo Real (RT-DETR): Modelos de Transformador de Detección en Tiempo Real (RT-DETR) de Baidu's PaddlePaddle.



Mira: Ejecuta modelos YOLO de Ultralytics en solo unas pocas líneas de código.

Empezando: Ejemplos de Uso

Este ejemplo proporciona ejemplos simples de entrenamiento e inferencia YOLO. Para la documentación completa de estos y otros modos, consulta las páginas de documentación de Predict, Train, Val y Export.

Nota que el siguiente ejemplo es para los modelos YOLOv8 Detect para detección de objetos. Para tareas adicionales soportadas, consulta la documentación de Segment, Classify y Pose.

!!! Example "Ejemplo"

=== "Python"

    Los modelos pre-entrenados `*.pt` de PyTorch así como los archivos de configuración `*.yaml` se pueden pasar a las clases `YOLO()`, `SAM()`, `NAS()` y `RTDETR()` para crear una instancia de modelo en Python:

    ```python
    from ultralytics import YOLO

    # Cargar un modelo YOLOv8n preentrenado en COCO
    model = YOLO('yolov8n.pt')

    # Mostrar información del modelo (opcional)
    model.info()

    # Entrenar el modelo en el conjunto de datos de ejemplo COCO8 durante 100 épocas
    results = model.train(data='coco8.yaml', epochs=100, imgsz=640)

    # Ejecutar inferencia con el modelo YOLOv8n en la imagen 'bus.jpg'
    results = model('path/to/bus.jpg')
    ```

=== "CLI"

    Los comandos CLI están disponibles para ejecutar directamente los modelos:

    ```bash
    # Cargar un modelo YOLOv8n preentrenado en COCO y entrenarlo en el conjunto de datos de ejemplo COCO8 durante 100 épocas
    yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640

    # Cargar un modelo YOLOv8n preentrenado en COCO y ejecutar inferencia en la imagen 'bus.jpg'
    yolo predict model=yolov8n.pt source=path/to/bus.jpg
    ```

Contribuir con Nuevos Modelos

¿Interesado en contribuir con tu modelo a Ultralytics? ¡Genial! Siempre estamos abiertos a expandir nuestro portafolio de modelos.

  1. Haz un Fork del Repositorio: Comienza haciendo un fork del repositorio de GitHub de Ultralytics.

  2. Clona tu Fork: Clona tu fork a tu máquina local y crea una nueva rama para trabajar.

  3. Implementa tu Modelo: Añade tu modelo siguiendo los estándares de codificación y directrices proporcionadas en nuestra Guía de Contribución.

  4. Prueba Rigurosamente: Asegúrate de probar tu modelo rigurosamente, tanto de forma aislada como parte del proceso.

  5. Crea un Pull Request: Una vez que estés satisfecho con tu modelo, crea un pull request al repositorio principal para revisión.

  6. Revisión de Código y Fusión: Después de la revisión, si tu modelo cumple con nuestros criterios, será fusionado al repositorio principal.

Para pasos detallados, consulta nuestra Guía de Contribución.