5.8 KiB
comments | description | keywords |
---|---|---|
true | Explora la amplia gama de modelos de la familia YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS y RT-DETR compatibles con Ultralytics. Comienza con ejemplos de uso tanto para CLI como para Python. | Ultralytics, documentación, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, RT-DETR, modelos, arquitecturas, Python, CLI |
Modelos soportados por Ultralytics
¡Bienvenido a la documentación de modelos de Ultralytics! Ofrecemos soporte para una amplia gama de modelos, cada uno adaptado a tareas específicas como detección de objetos, segmentación de instancias, clasificación de imágenes, estimación de postura y seguimiento de múltiples objetos. Si estás interesado en contribuir con tu arquitectura de modelo a Ultralytics, consulta nuestra Guía de Contribución.
!!! note
🚧 Nuestra documentación en varios idiomas está actualmente en construcción y estamos trabajando arduamente para mejorarla. ¡Gracias por tu paciencia! 🙏
Modelos Destacados
Aquí tienes algunos de los modelos clave soportados:
- YOLOv3: La tercera iteración de la familia de modelos YOLO, originalmente creada por Joseph Redmon, conocida por su capacidad de detección de objetos en tiempo real de manera eficiente.
- YOLOv4: Una actualización para la red oscura de YOLOv3, lanzada por Alexey Bochkovskiy en 2020.
- YOLOv5: Una versión mejorada de la arquitectura YOLO por Ultralytics, que ofrece mejores compensaciones de rendimiento y velocidad en comparación con versiones anteriores.
- YOLOv6: Lanzado por Meituan en 2022, y utilizado en muchos de los robots autónomos de entrega de la compañía.
- YOLOv7: Modelos YOLO actualizados lanzados en 2022 por los autores de YOLOv4.
- YOLOv8: La última versión de la familia YOLO, que presenta capacidades mejoradas como segmentación de instancias, estimación de postura/puntos clave y clasificación.
- Modelo de Segmentación de Cualquier Cosa (SAM): El Modelo de Segmentación de Cualquier Cosa (SAM) de Meta.
- Modelo de Segmentación de Cualquier Cosa Móvil (MobileSAM): MobileSAM para aplicaciones móviles, por la Universidad Kyung Hee.
- Modelo de Segmentación de Cualquier Cosa Rápida (FastSAM): FastSAM del Grupo de Análisis de Imágenes y Video, Instituto de Automatización, Academia China de Ciencias.
- YOLO-NAS: Modelos de Búsqueda de Arquitectura Neural de YOLO (NAS).
- Transformadores de Detección en Tiempo Real (RT-DETR): Modelos de Transformadores de Detección en Tiempo Real (RT-DETR) de Baidu PaddlePaddle.
Mira: Ejecuta modelos YOLO de Ultralytics en solo unas pocas líneas de código.
Comenzando: Ejemplos de Uso
!!! example ""
=== "Python"
Los modelos preentrenados en PyTorch `*.pt` así como los archivos de configuración `*.yaml` pueden pasarse a las clases `YOLO()`, `SAM()`, `NAS()` y `RTDETR()` para crear una instancia de modelo en Python:
```python
from ultralytics import YOLO
# Cargar un modelo YOLOv8n preentrenado en COCO
modelo = YOLO('yolov8n.pt')
# Mostrar información del modelo (opcional)
modelo.info()
# Entrenar el modelo en el conjunto de datos de ejemplo COCO8 durante 100 épocas
resultados = modelo.train(data='coco8.yaml', epochs=100, imgsz=640)
# Ejecutar inferencia con el modelo YOLOv8n en la imagen 'bus.jpg'
resultados = modelo('path/to/bus.jpg')
```
=== "CLI"
Comandos CLI están disponibles para ejecutar directamente los modelos:
```bash
# Cargar un modelo YOLOv8n preentrenado en COCO y entrenarlo en el conjunto de datos de ejemplo COCO8 durante 100 épocas
yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640
# Cargar un modelo YOLOv8n preentrenado en COCO y ejecutar inferencia en la imagen 'bus.jpg'
yolo predict model=yolov8n.pt source=path/to/bus.jpg
```
Contribuyendo con Nuevos Modelos
¿Interesado en contribuir con tu modelo a Ultralytics? ¡Genial! Siempre estamos abiertos a expandir nuestro portafolio de modelos.
-
Haz un Fork del Repositorio: Comienza haciendo un fork del repositorio de GitHub de Ultralytics.
-
Clona tu Fork: Clona tu fork en tu máquina local y crea una nueva rama para trabajar.
-
Implementa tu Modelo: Añade tu modelo siguiendo los estándares y guías de codificación proporcionados en nuestra Guía de Contribución.
-
Prueba a Fondo: Asegúrate de probar tu modelo rigurosamente, tanto de manera aislada como parte del pipeline.
-
Crea un Pull Request: Una vez que estés satisfecho con tu modelo, crea un pull request al repositorio principal para su revisión.
-
Revisión de Código y Fusión: Después de la revisión, si tu modelo cumple con nuestros criterios, se fusionará en el repositorio principal.
Consulta nuestra Guía de Contribución para los pasos detallados.