Clear Sky Science · fr
CTRNet : un modèle d’apprentissage profond léger et efficace pour l’identification des rosettes du maïs en champ
Pourquoi repérer une feuille cachée compte
Dans un champ de maïs en été, certains des insectes les plus destructeurs vont directement au « cœur » de la plante : la spirale serrée de feuilles au sommet, appelée rosette. Ces ravageurs sont petits, la cible qu’ils attaquent est encore plus petite, et les agriculteurs doivent souvent pulvériser de larges surfaces au cas où. Cette étude présente un nouveau système de vision par ordinateur, CTRNet, conçu pour détecter de façon fiable les petites rosettes de maïs dans des champs réels encombrés, afin de rendre la surveillance des cultures et l’utilisation des pesticides bien plus précises et moins gaspillantes.
Le défi de voir une petite cible dans un grand champ
Pour la lutte antiparasitaire, il est crucial de connaître exactement où se trouve la rosette, car c’est le principal endroit où les chenilles pondent et se nourrissent, réduisant la photosynthèse et le rendement. Mais en conditions réelles, les rosettes sont difficiles à voir : elles paraissent petites sur les images, sont souvent cachées par des feuilles qui se chevauchent et apparaissent sur des arrière‑plans encombrés d’adventices, de sol et d’ombres. Les approches antérieures reposaient soit sur l’inspection visuelle par des humains, soit sur des astuces d’image simples basées sur la couleur et la texture. Ces méthodes fonctionnaient seulement dans des scènes propres et contrôlées et échouaient rapidement lorsque l’éclairage changeait, que les feuilles se superposaient ou que plusieurs problèmes de plante apparaissaient simultanément.
L’apprentissage profond entre en jeu sur le terrain
Ces dernières années, les détecteurs d’apprentissage profond, en particulier ceux de la famille YOLO, ont grandement amélioré la capacité des machines à repérer des objets en temps réel. Plusieurs versions ont été adaptées aux cultures et aux feuilles, mais les modèles standards peinent encore avec des cibles très petites comme les rosettes de maïs, ainsi qu’avec les variations constantes de lumière et d’agencement des feuilles en extérieur. Ils perdent souvent des détails fins lorsque les images sont compressées dans le réseau et peuvent être distraits par des arrière‑plans encombrés. Les auteurs s’appuient donc sur un modèle moderne YOLO11 et repensent des parties clés du réseau pour mieux capturer les petites structures, partager l’information entre les échelles d’image et ignorer les motifs d’arrière‑plan non pertinents.

Ce qui distingue CTRNet
Le CTRNet proposé (Contextual and Texture‑enhanced Representation Network) conserve la vitesse et la compacité de YOLO11, mais ajoute plusieurs modules spécialisés. Un module favorise l’échange d’information entre différentes couches du réseau, de sorte que le contexte large et les détails fins se renforcent mutuellement même lorsque les rosettes sont partiellement cachées. Un autre module est conçu à la fois pour les motifs grossiers, lents à varier, et pour les détails fins à haute fréquence, aidant le système à préserver les contours et les textures qui marquent le centre de la rosette. Une étape de fusion à portes combine ensuite les signaux à plusieurs échelles tout en atténuant les caractéristiques redondantes ou bruyantes. Enfin, un mécanisme d’attention redessine les caractéristiques entrantes de l’image pour corriger les taches lumineuses, les ombres et les arrière‑plans complexes avant qu’ils ne puissent tromper le détecteur.
Mettre le système à l’épreuve
Pour entraîner et tester CTRNet, l’équipe a constitué un jeu de données de 2 816 images provenant de sources publiques et de leurs propres relevés sur le terrain, couvrant des stades de croissance allant des semis aux plantes matures. Les photos reproduisaient la vue et la hauteur typiques d’une caméra de robot agricole, sous une grande variété de conditions lumineuses et d’agencements de parcelles. En comparaisons directes avec plusieurs variantes de YOLO et un détecteur basé sur des transformers, CTRNet a obtenu la meilleure précision pour l’identification des rosettes, faisant passer un score de détection standard (mAP@0.5) de 81,6 % à 84,7 % tout en utilisant en réalité moins de paramètres que la base de référence. Les comparaisons visuelles ont montré que CTRNet se concentrait plus précisément sur la vraie région de la rosette et produisait moins de fausses mises en évidence sur les feuilles ou le sol environnants, notamment en faible luminosité, en plein soleil ou dans des scènes fortement occultées.

Assez rapide pour les robots dans les rangs
Au‑delà de la précision, les auteurs ont testé si CTRNet pouvait fonctionner sur un petit ordinateur Edge‑AI similaire à ce qu’emporterait un robot de terrain. Sur un dispositif NVIDIA Jetson Orin Nano, le modèle a conservé des débits images en temps réel, en particulier lorsqu’il était associé à un moteur d’inférence optimisé et à l’arithmétique demi‑précision. Cela signifie que CTRNet peut, de manière réaliste, guider des pulvérisateurs ou des robots d’inspection qui doivent réagir rapidement en parcourant les rangs de cultures, plutôt que de dépendre d’analyses lentes hors ligne.
Ce que cela signifie pour une lutte antiparasitaire plus intelligente
En termes simples, CTRNet donne aux machines des « yeux » plus précis pour une partie minuscule mais importante de la plante de maïs. En repérant de façon fiable les rosettes malgré les ombres, l’éblouissement et l’encombrement foliaire, il permet une surveillance plus ciblée des dégâts dus aux ravageurs et une application plus précise des pesticides. Ce travail montre que des modèles d’apprentissage profond légers et bien conçus peuvent non seulement égaler mais surpasser des systèmes plus lourds en vitesse et en précision, ouvrant la voie à des outils de protection des cultures plus intelligents et moins gaspilleurs et, potentiellement, à des systèmes similaires pour d’autres cultures et maladies.
Citation: Tian, X., Zhang, J. & Li, Y. CTRNet: a lightweight and efficient deep learning model for field maize whorl identification. Sci Rep 16, 10570 (2026). https://doi.org/10.1038/s41598-026-45727-3
Mots-clés: détection des ravageurs du maïs, vision par ordinateur pour les cultures, agriculture de précision, apprentissage profond léger, robotique agricole