Clear Sky Science · es

CTRNet: un modelo de aprendizaje profundo ligero y eficiente para la identificación de la roseta en maíz de campo

· Volver al índice

Por qué importa detectar una hoja oculta

En un maizal veraniego, algunos de los insectos más dañinos atacan directamente el “corazón” de la planta: la espiral apretada de hojas en la parte superior, denominada roseta. Estos insectos son pequeños, el objetivo que atacan lo es aún más, y los agricultores con frecuencia deben rociar grandes extensiones por si acaso. Este estudio presenta un nuevo sistema de visión por computador, CTRNet, diseñado para localizar con fiabilidad pequeñas rosetas de maíz en campos reales y desordenados, de modo que el seguimiento del cultivo y el uso de pesticidas puedan ser mucho más precisos y menos derrochadores.

El desafío de ver un objetivo pequeño en un campo grande

Para el control de plagas es crucial saber exactamente dónde está la roseta, porque es el lugar principal donde las orugas ponen huevos y se alimentan, reduciendo la fotosíntesis y el rendimiento. Pero en los campos reales las rosetas son difíciles de ver: aparecen pequeñas en las imágenes, a menudo quedan ocultas por hojas solapadas y se muestran sobre fondos llenos de malas hierbas, tierra y sombras. Los enfoques anteriores dependían de inspecciones visuales humanas o de trucos simples de imagen basados en color y textura. Estos métodos funcionaban solo en escenas limpias y controladas y fallaban rápidamente cuando cambiaba la iluminación, las hojas se solapaban o aparecían múltiples problemas en la planta simultáneamente.

El aprendizaje profundo entra en el terreno

En los últimos años, los detectores basados en aprendizaje profundo, especialmente los de la familia YOLO, han mejorado mucho la capacidad de las máquinas para localizar objetos en imágenes en tiempo real. Varias versiones se han adaptado a cultivos y hojas, pero los modelos estándar siguen teniendo problemas con objetivos muy pequeños como las rosetas de maíz y con los cambios constantes de luz y disposición de las hojas en exteriores. A menudo pierden detalles finos cuando las imágenes se comprimen a través de la red y pueden distraerse con fondos muy cargados. Por eso los autores partieron de un modelo moderno YOLO11 y rediseñaron partes clave de la red para capturar mejor estructuras pequeñas, compartir información entre escalas de imagen e ignorar patrones de fondo irrelevantes.

Figure 1
Figure 1.

Qué hace diferente a CTRNet

El propuesto CTRNet (Contextual and Texture‑enhanced Representation Network) mantiene la rapidez y el tamaño compacto de YOLO11, pero añade varios módulos especializados. Un módulo fomenta que diferentes capas de la red intercambien información, de modo que el contexto amplio y el detalle fino se refuercen mutuamente incluso cuando las rosetas están parcialmente ocultas. Otro módulo está afinado tanto para patrones gruesos y de cambio lento como para detalles finos de alta frecuencia, ayudando al sistema a preservar bordes y texturas que señalan el centro de la roseta. Una etapa de fusión con compuertas combina después señales de múltiples escalas mientras atenúa características redundantes o ruidosas. Finalmente, un mecanismo de atención reconfigura las características entrantes de la imagen para corregir zonas brillantes, sombras y fondos complejos antes de que puedan confundir al detector.

Poniendo el sistema a prueba

Para entrenar y evaluar CTRNet, el equipo reunió un conjunto de datos de 2.816 imágenes procedentes tanto de fuentes públicas como de sus propios muestreos de campo, abarcando etapas de crecimiento desde plántulas hasta plantas maduras. Las fotos capturaron la vista y la altura típicas de la cámara de un robot agrícola, bajo una amplia gama de condiciones lumínicas y disposiciones del campo. En comparaciones directas con varias variantes de YOLO y un detector basado en transformadores, CTRNet alcanzó la mayor precisión para identificar rosetas, elevando una métrica estándar de detección (mAP@0.5) del 81,6 % al 84,7 % mientras utilizaba de hecho menos parámetros de modelo que la referencia. Las comparaciones visuales mostraron que CTRNet se centraba más estrechamente en la región real de la roseta y generaba menos falsos reflejos en hojas o tierra circundantes, especialmente en escenas con poca luz, luz solar intensa o fuerte oclusión.

Figure 2
Figure 2.

Suficientemente rápido para robots entre surcos

Además de la precisión, los autores probaron si CTRNet podía ejecutarse en un ordenador de borde (edge‑AI) pequeño similar al que llevaría un robot de campo. En un dispositivo NVIDIA Jetson Orin Nano, el modelo mantuvo tasas de fotogramas en tiempo real, especialmente cuando se combinó con un motor de inferencia optimizado y aritmética de media precisión. Esto significa que CTRNet puede guiar de forma realista pulverizadores o robots de reconocimiento que deben reaccionar rápidamente mientras se desplazan por las filas de cultivo, en lugar de depender de análisis offline lentos.

Qué supone para un control de plagas más inteligente

En términos simples, CTRNet proporciona a las máquinas una “vista” más nítida de una parte diminuta pero importante de la planta de maíz. Al detectar rosetas de manera fiable a pesar de sombras, reflejos y el desorden de las hojas, permite un seguimiento más dirigido del daño por plagas y una aplicación de pesticidas más precisa. El trabajo demuestra que modelos de aprendizaje profundo ligeros y bien diseñados no solo pueden igualar sino superar a sistemas más pesados en velocidad y precisión, abriendo camino a herramientas de protección de cultivos más inteligentes y menos derrochadoras y, potencialmente, a sistemas similares para otros cultivos y enfermedades.

Cita: Tian, X., Zhang, J. & Li, Y. CTRNet: a lightweight and efficient deep learning model for field maize whorl identification. Sci Rep 16, 10570 (2026). https://doi.org/10.1038/s41598-026-45727-3

Palabras clave: detección de plagas en maíz, visión por computador para cultivos, agricultura de precisión, aprendizaje profundo ligero, robótica de campo