You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
 
 
 

5.8 KiB

comments description keywords
true Explora la amplia gama de modelos de la familia YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS y RT-DETR compatibles con Ultralytics. Comienza con ejemplos de uso tanto para CLI como para Python. Ultralytics, documentación, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, RT-DETR, modelos, arquitecturas, Python, CLI

Modelos soportados por Ultralytics

¡Bienvenido a la documentación de modelos de Ultralytics! Ofrecemos soporte para una amplia gama de modelos, cada uno adaptado a tareas específicas como detección de objetos, segmentación de instancias, clasificación de imágenes, estimación de postura y seguimiento de múltiples objetos. Si estás interesado en contribuir con tu arquitectura de modelo a Ultralytics, consulta nuestra Guía de Contribución.

!!! note

🚧 Nuestra documentación en varios idiomas está actualmente en construcción y estamos trabajando arduamente para mejorarla. ¡Gracias por tu paciencia! 🙏

Modelos Destacados

Aquí tienes algunos de los modelos clave soportados:

  1. YOLOv3: La tercera iteración de la familia de modelos YOLO, originalmente creada por Joseph Redmon, conocida por su capacidad de detección de objetos en tiempo real de manera eficiente.
  2. YOLOv4: Una actualización para la red oscura de YOLOv3, lanzada por Alexey Bochkovskiy en 2020.
  3. YOLOv5: Una versión mejorada de la arquitectura YOLO por Ultralytics, que ofrece mejores compensaciones de rendimiento y velocidad en comparación con versiones anteriores.
  4. YOLOv6: Lanzado por Meituan en 2022, y utilizado en muchos de los robots autónomos de entrega de la compañía.
  5. YOLOv7: Modelos YOLO actualizados lanzados en 2022 por los autores de YOLOv4.
  6. YOLOv8: La última versión de la familia YOLO, que presenta capacidades mejoradas como segmentación de instancias, estimación de postura/puntos clave y clasificación.
  7. Modelo de Segmentación de Cualquier Cosa (SAM): El Modelo de Segmentación de Cualquier Cosa (SAM) de Meta.
  8. Modelo de Segmentación de Cualquier Cosa Móvil (MobileSAM): MobileSAM para aplicaciones móviles, por la Universidad Kyung Hee.
  9. Modelo de Segmentación de Cualquier Cosa Rápida (FastSAM): FastSAM del Grupo de Análisis de Imágenes y Video, Instituto de Automatización, Academia China de Ciencias.
  10. YOLO-NAS: Modelos de Búsqueda de Arquitectura Neural de YOLO (NAS).
  11. Transformadores de Detección en Tiempo Real (RT-DETR): Modelos de Transformadores de Detección en Tiempo Real (RT-DETR) de Baidu PaddlePaddle.



Mira: Ejecuta modelos YOLO de Ultralytics en solo unas pocas líneas de código.

Comenzando: Ejemplos de Uso

!!! example ""

=== "Python"

    Los modelos preentrenados en PyTorch `*.pt` así como los archivos de configuración `*.yaml` pueden pasarse a las clases `YOLO()`, `SAM()`, `NAS()` y `RTDETR()` para crear una instancia de modelo en Python:

    ```python
    from ultralytics import YOLO

    # Cargar un modelo YOLOv8n preentrenado en COCO
    modelo = YOLO('yolov8n.pt')

    # Mostrar información del modelo (opcional)
    modelo.info()

    # Entrenar el modelo en el conjunto de datos de ejemplo COCO8 durante 100 épocas
    resultados = modelo.train(data='coco8.yaml', epochs=100, imgsz=640)

    # Ejecutar inferencia con el modelo YOLOv8n en la imagen 'bus.jpg'
    resultados = modelo('path/to/bus.jpg')
    ```

=== "CLI"

    Comandos CLI están disponibles para ejecutar directamente los modelos:

    ```bash
    # Cargar un modelo YOLOv8n preentrenado en COCO y entrenarlo en el conjunto de datos de ejemplo COCO8 durante 100 épocas
    yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640

    # Cargar un modelo YOLOv8n preentrenado en COCO y ejecutar inferencia en la imagen 'bus.jpg'
    yolo predict model=yolov8n.pt source=path/to/bus.jpg
    ```

Contribuyendo con Nuevos Modelos

¿Interesado en contribuir con tu modelo a Ultralytics? ¡Genial! Siempre estamos abiertos a expandir nuestro portafolio de modelos.

  1. Haz un Fork del Repositorio: Comienza haciendo un fork del repositorio de GitHub de Ultralytics.

  2. Clona tu Fork: Clona tu fork en tu máquina local y crea una nueva rama para trabajar.

  3. Implementa tu Modelo: Añade tu modelo siguiendo los estándares y guías de codificación proporcionados en nuestra Guía de Contribución.

  4. Prueba a Fondo: Asegúrate de probar tu modelo rigurosamente, tanto de manera aislada como parte del pipeline.

  5. Crea un Pull Request: Una vez que estés satisfecho con tu modelo, crea un pull request al repositorio principal para su revisión.

  6. Revisión de Código y Fusión: Después de la revisión, si tu modelo cumple con nuestros criterios, se fusionará en el repositorio principal.

Consulta nuestra Guía de Contribución para los pasos detallados.