Clear Sky Science · pl

AsynDBT: asynchroniczne rozproszone strojeni dwuwarstwowe dla efektywnego uczenia w kontekście z dużymi modelami językowymi

· Powrót do spisu

Dlaczego lepsze prompt’y mają znaczenie dla codziennej AI

Duże modele językowe napędzają teraz chatboty, wyszukiwarki i asystentów pisania, z których wiele osób korzysta na co dzień. Jednak otrzymywanie użytecznych odpowiedzi wciąż w dużej mierze zależy od tego, jak formułujemy pytania i jakie przykłady pokazujemy modelowi. W artykule przedstawiono nowy sposób automatycznego udoskonalania tych promptów i przykładów na wielu urządzeniach, przy jednoczesnym zachowaniu prywatności danych każdego użytkownika. Efekt to system AI, który uczy się odpowiadać dokładniej i wydajniej, zwłaszcza w wyspecjalizowanych zadaniach, takich jak konserwacja sieci telekomunikacyjnych.

Nauczanie AI przez pokazywanie, nie przez retrening

Zamiast ciągłego przeuczania gigantycznych modeli AI, rosnący trend polega na „nauczaniu w chwili” przez dostarczenie kilku starannie dobranych przykładów w promptcie — proces znany jako uczenie w kontekście. Na przykład, aby sklasyfikować recenzje filmowe jako pozytywne lub negatywne, można pokazać modelowi mały zbiór oznakowanych przykładów, a następnie poprosić go o oznaczenie nowej recenzji. Problem w tym, że wybór przykładów i dokładne sformułowanie instrukcji mogą znacząco wpłynąć na wydajność modelu. Ręczne znalezienie dobrych kombinacji jest powolne i kosztowne, a udostępnianie surowych danych między organizacjami często bywa niemożliwe ze względu na przepisy dotyczące prywatności.

Współpraca bez udostępniania prywatnych danych

Aby obejść bariery związane z dzieleniem się danymi, autorzy bazują na uczeniu federowanym — konfiguracji, w której wiele oddzielnych urządzeń lub organizacji przechowuje dane lokalnie, ale współpracuje za pośrednictwem centralnego serwera. Każdy uczestnik — na przykład stacja bazowa w sieci telekomunikacyjnej lub serwer firmowy — komunikuje się z tym samym modelem językowym w chmurze, ale nigdy nie przesyła surowego tekstu. Zamiast tego odsyła jedynie sygnały zwrotne o tym, jak dobrze działają różne prompt’y i wybory przykładów. Nowy algorytm zwany AsynDBT (asynchroniczne rozproszone strojenie dwuwarstwowe) koordynuje tych uczestników, tak by wspólnie ulepszać wspólną strategię promptowania, przy jednoczesnym poszanowaniu prywatności i radzeniu sobie z wolnymi lub zawodnymi połączeniami sieciowymi.

Figure 1
Figure 1.

Optymalizacja zarówno pytania, jak i przykładów

Kluczową ideą artykułu jest traktowanie projektowania promptów jako problemu optymalizacji dwuwarstwowej. Na dolnej warstwie system modyfikuje krótkie fragmenty dołączane do instrukcji zadania — drobne zmiany sformułowań, które mogą skłonić model do lepszego rozumowania. Na warstwie górnej decyduje, które oznakowane przykłady uwzględnić jako demonstracje. Te dwie warstwy oddziałują na siebie: różne zbiory przykładów wymagają różnych korekt promptów i odwrotnie. AsynDBT formalizuje tę zależność matematycznie i stosuje wydajną metodę przybliżeniową, dzięki czemu każdy uczestnik może stopniowo aktualizować swoje lokalne wybory, podczas gdy serwer centralny utrzymuje spójny globalny obraz decyzji dolnej warstwy.

Radzenie sobie z wolnymi urządzeniami i złośliwymi uczestnikami

W rzeczywistych sieciach niektóre urządzenia odpowiadają późno lub znikają, tworząc „opóźnione” węzły, które mogą zablokować standardowe zsynchronizowane trenowanie. AsynDBT działa asynchronicznie: serwer aktualizuje swoje zmienne za każdym razem, gdy zgłosi się podzbiór uczestników, bez czekania na wszystkich. Metoda chroni też przed uczestnikami, którzy mogą wysyłać wprowadzające w błąd aktualizacje, celowo lub przez pomyłkę. Poprzez łączenie technik regularizacyjnych z odpornymi regułami agregacji, algorytm zmniejsza wpływ zmanipulowanych lub niskiej jakości wyborów przykładów na strategię globalną, pomagając systemowi zachować stabilność i niezawodność nawet w warunkach ataku.

Figure 2
Figure 2.

Udowodnione korzyści na zadaniach językowych i telekomunikacyjnych

Naukowcy przetestowali AsynDBT na sześciu problemach klasyfikacji tekstu, w tym na wymagającym zbiorze danych sieci 5G, gdzie model musiał ocenić, czy wyspecjalizowane terminy techniczne są powiązane, używając jedynie fragmentów standardów telekomunikacyjnych jako kontekstu. W porównaniu z szeregiem istniejących metod promptowania i wyboru przykładów, nowe podejście osiągnęło najlepszą lub drugą najlepszą dokładność na niemal wszystkich zadaniach. W zadaniu 5G w szczególności poprawiło dokładność o około dziesięć punktów procentowych względem najsilniejszej bazy porównawczej. Równocześnie asynchroniczna konstrukcja skróciła czas trenowania o około 40 procent w porównaniu z podobną scentralizowaną metodą, która nie rozdziela pracy.

Co to oznacza dla przyszłych narzędzi AI

Dla osób nietechnicznych najważniejszy wniosek jest taki, że lepsze prompt’y i inteligentniejsze wybory przykładów mogą zauważalnie poprawić zachowanie systemów AI — bez zmiany bazowego modelu. AsynDBT oferuje zautomatyzowany, chroniący prywatność sposób osiągania tego na wielu współpracujących urządzeniach, dostarczając dokładniejsze i wydajniejsze narzędzia językowe dla dziedzin takich jak eksploatacja sieci telekomunikacyjnych, obsługa klienta i inne specjalistyczne obszary. Patrząc w przyszłość, autorzy planują połączyć swoje ramy z wyszukiwaniem wiedzy opartym na grafach, aby prompt’y mogły również korzystać z aktualnych informacji faktycznych, co dodatkowo zmniejszy halucynacje i uczyni asystentów AI bardziej godnymi zaufania w sytuacjach o wysokiej stawce.

Cytowanie: Ma, H., Dou, S., Liu, Y. et al. AsynDBT: asynchronous distributed bilevel tuning for efficient in-context learning with large language models. Sci Rep 16, 9381 (2026). https://doi.org/10.1038/s41598-026-39582-5

Słowa kluczowe: uczenie w kontekście, optymalizacja promptów, uczenie federowane, duże modele językowe, Sztuczna inteligencja zachowująca prywatność