Clear Sky Science · pl

CTRNet: lekki i wydajny model uczenia głębokiego do identyfikacji rozety liści kukurydzy w polu

· Powrót do spisu

Dlaczego zauważenie ukrytego liścia ma znaczenie

Na letnim polu kukurydzy jedne z najbardziej niszczycielskich owadów atakują „serce” rośliny — ciasne skręcenie liści u jej szczytu zwane rozetą. Te szkodniki są małe, cel, który atakują, jest jeszcze mniejszy, a rolnicy często muszą opryskiwać duże obszary „na wszelki wypadek”. W tym badaniu przedstawiono nowy system widzenia komputerowego, CTRNet, zaprojektowany tak, by wiarygodnie wykrywać drobne rozety kukurydzy w złożonych, polowych warunkach, dzięki czemu monitorowanie upraw i stosowanie pestycydów może stać się znacznie precyzyjniejsze i mniej marnotrawne.

Wyzwanie: dostrzec mały cel na dużym polu

W zwalczaniu szkodników kluczowe jest dokładne zlokalizowanie rozety, ponieważ to główne miejsce, gdzie gąsienice składają jaja i żerują, ograniczając fotosyntezę i plon. Jednak w rzeczywistych polach rozety trudno zauważyć: na zdjęciach wyglądają na małe, często są zasłonięte przez nachodzące na siebie liście i pojawiają się na tle pełnym chwastów, gleby i cieni. Wcześniejsze podejścia opierały się albo na ręcznej inspekcji, albo na prostych sztuczkach obrazowych bazujących na kolorze i fakturze. Metody te działały tylko w czystych, kontrolowanych scenach i szybko zawodziły przy zmianach oświetlenia, nakładaniu się liści lub gdy występowały liczne problemy roślinne jednocześnie.

Uczenie głębokie wkracza na pole

W ostatnich latach detektory oparte na uczeniu głębokim, szczególnie z rodziny YOLO, znacznie poprawiły możliwości maszyn w wykrywaniu obiektów na obrazach w czasie rzeczywistym. Kilka wersji zostało zaadaptowanych do analiz upraw i liści, ale standardowe modele wciąż mają problemy z bardzo małymi celami, takimi jak rozety kukurydzy, oraz ze zmiennością światła i ułożenia liści na zewnątrz. Często tracą drobne detale, gdy obrazy są stopniowo kompresowane przez sieć, i rozpraszają się na skutek zagraconych teł. Autorzy budują więc na nowoczesnym modelu YOLO11 i przeprojektowują kluczowe elementy sieci, aby lepiej wychwytywać małe struktury, wymieniać informacje między skalami obrazu i ignorować nieistotne wzory tła.

Figure 1
Figure 1.

Co wyróżnia CTRNet

Proponowany CTRNet (Contextual and Texture‑enhanced Representation Network) zachowuje szybkość i kompaktowy rozmiar YOLO11, ale dodaje kilka wyspecjalizowanych modułów. Jeden moduł zachęca różne warstwy sieci do wymiany informacji, tak aby szeroki kontekst i drobne detale wzajemnie się wzmacniały, nawet gdy rozety są częściowo zasłonięte. Inny moduł jest dostrojony zarówno do grubych, wolno zmieniających się wzorców, jak i do drobnych, wysokoczęstotliwościowych detali, co pomaga zachować krawędzie i tekstury wyznaczające środek rozety. Etap bramkowego fuzjonowania łączy sygnały z wielu skal, jednocześnie tłumiąc redundantne lub zaszumione cechy. Wreszcie mechanizm uwagi kształtuje wchodzące cechy obrazu tak, by jasne plamy, cienie i złożone tła zostały skorygowane, zanim zaczną mylić detektor.

Weryfikacja systemu

Aby wyszkolić i przetestować CTRNet, zespół zebrał zbiór 2 816 obrazów pochodzących zarówno ze źródeł publicznych, jak i własnych badań terenowych, obejmujących fazy wzrostu od siewek po rośliny dojrzałe. Fotografie oddawały widok i wysokość typowe dla kamery robota rolniczego, w szerokim zakresie warunków oświetleniowych i układów pól. W bezpośrednich porównaniach z kilkoma wariantami YOLO i detektorem opartym na transformerach, CTRNet osiągnął najwyższą dokładność w identyfikacji rozet, zwiększając standardowy wynik detekcji (mAP@0.5) z 81,6% do 84,7% przy jednoczesnym użyciu mniejszej liczby parametrów modelu niż w bazowym rozwiązaniu. Porównania wizualne wykazały, że CTRNet skupiał się ściślej na faktycznym obszarze rozety i generował mniej fałszywych wyróżnień na sąsiednich liściach czy glebie, szczególnie w warunkach słabego światła, ostrym nasłonecznieniu lub przy silnym zasłonięciu.

Figure 2
Figure 2.

Dostatecznie szybki dla robotów w międzyrzędziach

Ponad samą dokładność autorzy sprawdzili, czy CTRNet może działać na małym komputerze edge‑AI podobnym do tego, który mógłby zabrać robot polowy. Na urządzeniu NVIDIA Jetson Orin Nano model utrzymywał prędkości klatkowania w czasie rzeczywistym, zwłaszcza w połączeniu z zoptymalizowanym silnikiem inferencyjnym i arytmetyką o połowie precyzji. Oznacza to, że CTRNet może realnie kierować opryskiwaczami lub robotami zwiadowczymi, które muszą szybko reagować podczas poruszania się w międzyrzędziach, zamiast polegać na wolnej analizie offline.

Co to oznacza dla mądrzejszej ochrony przed szkodnikami

W skrócie, CTRNet daje maszynom ostrzejsze „oko” na małą, ale ważną część rośliny kukurydzy. Dzięki niezawodnemu wykrywaniu rozet pomimo cieni, odblasków i zakłóceń z liści umożliwia precyzyjniejsze monitorowanie uszkodzeń przez szkodniki i bardziej celowe stosowanie pestycydów. Praca pokazuje, że starannie zaprojektowane, lekkie modele deep‑learningowe mogą nie tylko dorównać, ale i przewyższyć cięższe systemy pod względem szybkości i dokładności, otwierając drogę do bardziej inteligentnych, mniej marnotrawnych narzędzi ochrony upraw i, potencjalnie, podobnych systemów dla innych roślin i chorób.

Cytowanie: Tian, X., Zhang, J. & Li, Y. CTRNet: a lightweight and efficient deep learning model for field maize whorl identification. Sci Rep 16, 10570 (2026). https://doi.org/10.1038/s41598-026-45727-3

Słowa kluczowe: wykrywanie szkodników kukurydzy, wizja komputerowa w uprawach, rolnictwo precyzyjne, lekki deep learning, robotyka polowa