Clear Sky Science · pl

Połączenie grafu wiedzy i dużego modelu językowego dla rekomendacji wiedzy awaryjnej w tunelach gazowych

· Powrót do spisu

Dlaczego inteligentniejsze zabezpieczenia tuneli mają znaczenie

Tunele gazowe są kluczowymi arteriami dla energii i transportu, ale gdy coś idzie nie tak pod ziemią, ratownicy mają zaledwie minuty na działanie. Wiedza, której potrzebują — raporty z wcześniejszych wypadków, instrukcje techniczne i plany awaryjne — zwykle jest rozproszona w wielu dokumentach i trudna do przeszukania pod presją czasu. Artykuł przedstawia nowy sposób automatycznego zbierania, organizowania i dostarczania tej ukrytej wiedzy ratownikom, wykorzystując połączenie zaawansowanych modeli językowych i sieciowych map wiedzy. Cel jest prosty: przekształcić chaotyczne teksty w jasne, wiarygodne wskazówki w czasie kryzysu.

Przekształcanie rozproszonych dokumentów w powiązaną wiedzę

Zespoły ratownicze polegają na mieszance informacji: wytycznych rządowych, raportów inżynieryjnych, wewnętrznych analiz wypadków i innych. Autorzy najpierw gromadzą takie źródła w niestandardowy zbiór danych skoncentrowany na incydentach w tunelach gazowych. Zamiast prosić ekspertów o ręczne kodowanie reguł czy projektowanie sztywnych klasyfikacji, wykorzystują duży model językowy (LLM) jako inteligentnego czytelnika. Przy starannie dobranych poleceniach LLM przeszukuje teksty, identyfikuje kluczowe elementy (takie jak urządzenia, lokalizacje, zagrożenia i działania) oraz powiązania między nimi, a następnie wyraża każde ustalenie jako prosty fakt w trzech częściach. Te fakty stają się węzłami i połączeniami w grafie wiedzy — swego rodzaju mapie pokazującej, jak pojęcia związane z awariami w tunelach są powiązane.

Figure 1
Figure 1.

Jak system odnajduje właściwe fakty w kilka sekund

Kiedy ratownicy zadają pytanie — na przykład jak przywrócić przepływ powietrza po nagłym uwolnieniu gazu — system robi więcej niż dopasowanie słów kluczowych. Najpierw wykrywa ważne terminy w pytaniu i przekształca zarówno pytanie, jak i każdy fakt w grafie w wektory liczbowe, które uchwytują znaczenie, a nie tylko sformułowanie. Przy użyciu szybkiego wyszukiwania podobieństwa wyciąga najbardziej istotne fragmenty grafu. Drugi etap następnie porządkuje te kandydackie fakty tak, aby te zawierające dokładne dopasowania do terminów użytkownika znalazły się na szczycie. Ograniczając końcowy zestaw do przystępnej liczby wysoce relewantnych faktów, system może zarówno szybko odpowiadać, jak i mieścić się w ograniczeniach pamięci modelu językowego.

Nauczanie modelu odpowiadania z "nóżką na ziemi"

Gdy zostanie odnaleziony właściwy fragment grafu wiedzy, jest on tłumaczony z powrotem na krótkie, czytelne opisy i podawany do LLM wraz z pytaniem użytkownika. Takie ustawienie, często nazywane generowaniem wspomaganym wyszukiwaniem (retrieval-augmented generation), działa jak przekazanie modelowi skoncentrowanego briefu przed wypowiedzią. Model nie jest ponownie trenowany ani dostrajany; pozostaje „zamrożony” i jest jedynie kierowany przez aktualne, możliwe do zweryfikowania fakty. Pomaga to ograniczyć dobrze znany problem „halucynacji”, gdy modele językowe pewnie wymyślają szczegóły. W tym podejściu odpowiedź modelu osadzona jest w udokumentowanych procedurach i wcześniejszych przypadkach pochodzących z grafu, a źródła te można później sprawdzić dla przejrzystości.

Figure 2
Figure 2.

Testowanie podejścia

Aby sprawdzić, czy metoda rzeczywiście pomaga w sytuacjach awaryjnych, autorzy stworzyli 50 realistycznych przypadków pytań i odpowiedzi obejmujących typowe kryzysy w tunelach: nagromadzenie gazu, pożary, awarie wentylacji, uwięzieni pracownicy i inne. Porównali swój system z kilkoma silnymi modelami językowymi, w tym powszechnie stosowanym modelem komercyjnym, zarówno za pomocą automatycznych miar dopasowania tekstu, jak i ocen ludzkich. Specjaliści z branży i badacze oceniali każdą odpowiedź pod kątem trafności, kompletności, klarowności logicznej i szybkości. System wspierany grafem nie tylko lepiej odwzorowywał decyzje z rzeczywistych przypadków, ale także generował bardziej szczegółowe i logicznie uporządkowane kroki niż modele działające samodzielnie. Chociaż odpowiedź zajmowała nieco więcej czasu, eksperci uznali ten kompromis za wart zachodu w sytuacjach dużego ryzyka, gdzie właściwe kroki są ważniejsze niż oszczędność sekundy czy dwóch.

Co to oznacza dla bezpieczeństwa tuneli w praktyce

Dla osób niebędących specjalistami kluczowy wniosek jest taki, że badanie pokazuje, jak sztuczna inteligencja może wyjść poza ogólne porady i stać się niezawodnym asystentem w bardzo specyficznych, niebezpiecznych warunkach. Poprzez połączenie grafu wiedzy z modelem językowym autorzy stworzyli system, który czyta i organizuje duże ilości materiałów technicznych, a następnie dostarcza ugruntowane, krok po kroku rekomendacje w razie wypadku w tunelu gazowym. Choć podejście wciąż zależy od zakresu dostępnych danych i mogłoby zostać dopracowane pod kątem szybszej, interaktywnej pracy, wskazuje na przyszłe narzędzia ratunkowe, które będą jednocześnie inteligentne i wyjaśnialne — pomagając decydentom działać szybciej i pewniej, gdy chodzi o życie ludzi.

Cytowanie: Xu, N., Chen, X., Luo, J. et al. Knowledge graph–large language model fusion approach for emergency knowledge recommendation in gas tunnels. Sci Rep 16, 11438 (2026). https://doi.org/10.1038/s41598-026-39204-0

Słowa kluczowe: bezpieczeństwo tuneli gazowych, wsparcie decyzji w sytuacjach awaryjnych, graf wiedzy, duże modele językowe, generowanie wspomagane wyszukiwaniem