Clear Sky Science · it

AsynDBT: sintonizzazione bilevel distribuita asincrona per un apprendimento in-contesto efficiente con grandi modelli linguistici

· Torna all'indice

Perché prompt più intelligenti sono importanti per l’IA quotidiana

I grandi modelli linguistici alimentano oggi chatbot, motori di ricerca e assistenti di scrittura che molte persone usano ogni giorno. Tuttavia, ottenere risposte utili dipende ancora molto da come formuliamo le domande e dagli esempi che mostriamo al modello. Questo articolo presenta un nuovo metodo per perfezionare automaticamente quei prompt ed esempi su molti dispositivi, mantenendo private le informazioni di ciascun utente. Il risultato è un sistema di IA che impara a rispondere in modo più accurato ed efficiente, soprattutto in compiti specialistici come la manutenzione delle reti di telecomunicazione.

Insegnare all’IA mostrando esempi, senza riaddestrare

Invece di riaddestrare continuamente modelli giganteschi, una tendenza crescente è di istruirli “sul momento” fornendo pochi esempi scelti con cura nel prompt — un processo noto come apprendimento in-contesto. Per esempio, per classificare recensioni di film come positive o negative, si potrebbe mostrare al modello un piccolo insieme di esempi etichettati e poi chiedergli di etichettare una nuova recensione. Il problema è che la scelta degli esempi e la formulazione esatta delle istruzioni possono cambiare drasticamente le prestazioni del modello. Trovare buone combinazioni manualmente è lento e costoso, e condividere dati grezzi tra organizzazioni spesso non è possibile per vincoli di privacy.

Cooperare senza condividere dati privati

Per aggirare le barriere alla condivisione dei dati, gli autori si basano sul federated learning, una configurazione in cui molti dispositivi o organizzazioni mantengono i propri dati localmente ma collaborano tramite un server centrale. Ogni nodo — per esempio, una stazione base di telecomunicazione o un server aziendale — interagisce con lo stesso modello linguistico cloud, ma non carica mai il testo grezzo. Invece, invia soltanto segnali di feedback su quanto bene funzionano diversi prompt e scelte di esempi. Un nuovo algoritmo chiamato AsynDBT (asynchronous distributed bilevel tuning) coordina questi nodi in modo che migliorino congiuntamente una strategia di prompting condivisa, rispettando la privacy e gestendo connessioni di rete lente o poco affidabili.

Figure 1
Figura 1.

Ottimizzare sia la domanda che gli esempi

Un’idea chiave dell’articolo è trattare la progettazione del prompt come un problema di ottimizzazione a due livelli. Al livello inferiore, il sistema modifica brevi frammenti che vengono aggiunti all’istruzione del compito — piccole variazioni di formulazione che possono indirizzare il modello verso un ragionamento migliore. Al livello superiore, decide quali esempi etichettati includere come dimostrazioni. Questi due livelli interagiscono: insiemi diversi di esempi richiedono aggiustamenti diversi del prompt, e viceversa. AsynDBT formalizza matematicamente questa relazione e usa un metodo di approssimazione efficiente in modo che ogni nodo possa aggiornare gradualmente le proprie scelte locali mentre un server centrale mantiene una visione globale coerente delle decisioni del livello inferiore.

Gestire dispositivi lenti e partecipanti maligni

Nelle reti reali, alcuni dispositivi rispondono in ritardo o si disconnettono, creando “stragglers” che possono bloccare l’addestramento sincronizzato standard. AsynDBT lavora invece in modo asincrono: il server aggiorna le sue variabili ogni volta che un sottoinsieme di nodi invia risultati, senza aspettare tutti. Il metodo protegge anche contro nodi che potrebbero inviare aggiornamenti fuorvianti, intenzionalmente o per errore. Integrando tecniche di regolarizzazione con regole di aggregazione robuste, l’algoritmo riduce l’impatto di selezioni di esempi avvelenate o di bassa qualità sulla strategia globale, aiutando il sistema complessivo a rimanere stabile e affidabile anche sotto attacco.

Figure 2
Figura 2.

Benefici dimostrati su compiti linguistici e telecom

I ricercatori hanno testato AsynDBT su sei problemi di classificazione testuale, inclusi dati impegnativi di reti 5G in cui il modello doveva giudicare se termini tecnici specializzati fossero correlati, usando solo frammenti di standard di telecomunicazione come contesto. Rispetto a una serie di metodi esistenti di prompting e selezione degli esempi, il nuovo approccio ha ottenuto la migliore o la seconda migliore accuratezza in quasi tutti i compiti. Sul task 5G in particolare, ha migliorato l’accuratezza di circa dieci punti percentuali rispetto al baseline più forte. Allo stesso tempo, il design asincrono ha ridotto il tempo di addestramento di circa il 40 percento rispetto a un metodo centralizzato simile che non distribuisce il lavoro.

Cosa significa per i futuri strumenti di IA

Per i non esperti, la conclusione è che prompt migliori e scelte più intelligenti degli esempi possono migliorare in modo significativo il comportamento dei sistemi di IA — senza modificare il modello sottostante. AsynDBT offre un modo automatico e che preserva la privacy per farlo su molti dispositivi collaborativi, producendo strumenti linguistici più accurati ed efficienti per domini come operazioni di telecomunicazione, assistenza clienti e altri campi specialistici. Guardando avanti, gli autori prevedono di combinare il loro framework con il recupero di conoscenza basato su grafi in modo che i prompt possano anche attingere a informazioni fattuali aggiornate, riducendo ulteriormente le allucinazioni e rendendo gli assistenti di IA più affidabili in contesti ad alto rischio.

Citazione: Ma, H., Dou, S., Liu, Y. et al. AsynDBT: asynchronous distributed bilevel tuning for efficient in-context learning with large language models. Sci Rep 16, 9381 (2026). https://doi.org/10.1038/s41598-026-39582-5

Parole chiave: apprendimento in-contesto, ottimizzazione dei prompt, federated learning, grandi modelli linguistici, IA che preserva la privacy