Santorini, Święty Graal sejsmologii i sztuczna inteligencja – co je łączy?
W kolejnym odcinku podcastu popularnonaukowego GEOGADKA rozmawiamy z prof. dr hab. inż. Beatą Orlecką-Sikorą – sejsmolog, kierownik Zakładu Sejsmologii IGF PAN – o trzęsieniach ziemi w Grecji i badaniach prowadzonych przez naszych naukowców.
Dagmara Bożek: Od końca stycznia obserwujemy wstrząsy w rejonie Santorini. Są one dość nietypowe – trwają długo i mają podobną magnitudę. Dlaczego tak się dzieje?
Prof. dr hab. inż. Beata Orlecka-Sikora: Rzeczywiście, jest to chyba najbardziej energetyczny “swarm” rejestrowany do tej pory na danym obszarze. Nietypowość tego rodzaju aktywności sejsmicznej polega na tym, że w ciągu krótkiego czasu, jednego dnia, pojawia się kilkaset wstrząsów. W ciągu dwóch tygodni zarejestrowano ponad 3000 wstrząsów. To jest ogromna liczba! Te wstrząsy są nietypowe również w swojej formie, ponieważ ich wielkość jest bardzo podobna. Są zlokalizowane blisko siebie i częstość ich występowania jest bardzo intensywna.
D.B.: Użyła Pani określenia “swarm”, czyli rój. Na czym polegają wstrząsy rojowe?
B.O.S.: W sejsmologii tak nazywamy wstrząsy, które pojawiają się w bardzo specyficznych warunkach, na przykład na skutek migracji fluidów we wnętrzu Ziemi takich jak magma czy inne gazy. W krótkim czasie i w bardzo dużej liczbie wszystkie zjawiska są bardzo podobne, jeśli chodzi o wielkość i czasami na końcu takiego roju pojawia się duży wstrząs. Nie jest to jednak typowe, nie ma takiej powtarzalnej sekwencji jaką obserwujemy zazwyczaj, że najpierw występuje duże zjawisko, a później pojawiają się wstrząsy następcze, które są coraz mniejsze i zanikają w czasie.
D.B.: Skoro o czasie mowa, to ile takie zjawisko może trwać? Mieliśmy dwa-trzy tygodnie takich wstrząsów. Czy może to być nawet rok?
B.O.S.: Trudno to przewidzieć, bo sejsmiczność rojowa może trwać bardzo krótko, na przykład kilka dni, ale może też trwać miesiącami. Zależy również, jakie ma podłoże – może być wywołana migracją fluidów czy konkretną aktywnością człowieka jak na przykład wypełnianie zbiorników retencyjnych wodą. Jeśli w takim rezerwuarze będzie wysoki poziom wody, a w pobliżu są uskoki tektoniczne, to może wystąpić aktywność, która będzie się utrzymywała tak długo, jak długo utrzymamy wysoki poziom wody w zbiorniku. Dlatego trudno określić czas trwania takiej sejsmiczności, choć wiemy, że będzie ona ograniczona – krótka lub przedłużająca się. Jeżeli chodzi o Grecję, to mamy aktywność od 27 stycznia, przy czym jej impet trochę się wytracił. Mimo to trwa, ale nie wiemy, czy znowu osiągnie wyższy poziom, czy powoli będzie się wygaszać.
D.B.: Mówi się, że w sejsmologii Świętym Graalem jest precyzyjne prognozowanie trzęsień ziemi. Czy w przypadku wstrząsów rojowych naukowcy są w stanie przewidzieć, że zbliża się silny wstrząs i poinformować lokalną ludność z odpowiednim wyprzedzeniem o zagrożeniu?
B.O.S.: Rzeczywiście, to marzenie każdego sejsmologa. Z jednej strony to fascynujący problem, ale z drugiej dość depresyjny, ponieważ mimo zaawansowanej technologii nie jesteśmy na razie w stanie go rozwiązać. Przewidywanie trzęsień ziemi wymaga podania dokładnej lokalizacji, czasu i wielkości zjawiska. Na obecnym etapie badań nie jesteśmy w stanie tego zrobić. Dlatego w sejsmologii istnieje podejście związane z podawaniem prawdopodobieństwa wystąpienia trzęsienia ziemi o określonej wielkości w danym regionie i założonym czasie. I to jest tzw. earthquake forecasting. Mamy tutaj dwa podejścia. Jedno jest związane z określaniem prawdopodobieństwa niezależnych zjawisk sejsmicznych w formie tak zwanej probabilistycznej analizy zagrożenia sejsmicznego, którą rozwijamy w sejsmologii od ponad 60 lat. To jest chyba najbardziej skuteczna metoda, jeśli chodzi o budowanie na obszarach sejsmicznych, ponieważ pozwala określić, z jakim prawdopodobieństwem pojawi się zjawisko sejsmiczne o konkretnej magnitudzie czy przewyższającej zadaną wartość. Wtedy korzystamy ze specjalnych równań – jeśli dany wstrząs pojawi się w konkretnym regionie, to drgania gruntu będą na takim poziomie. I wtedy na podstawie podanych wartości dostosowuje się całą infrastrukturę na powierzchni, tak żeby przetrwała drgania o konkretnej wielkości. To jest metoda, która jest stosowana do budowy obiektów krytycznych. Świetnie się sprawdza, natomiast to są zazwyczaj analizy długoterminowe – wiemy na przykład, że w ciągu 100 lat w jakimś obszarze wystąpią trzęsienia ziemi o magnitudzie większej niż 7 z prawdopodobieństwem na przykład 0,01. Tak wygląda wynik.
Drugą metodę rzadko się stosuje, ale jest ona wykorzystywana w obszarach sejsmicznych. Jest to operacyjne przewidywanie trzęsień ziemi. Najczęściej bazuje na specjalnym modelu ETAS. Zakłada on, że każdy wstrząs, trzęsienie ziemi, które się pojawia, może samo pobudzić inny uskok do trzęsienia. Czyli każdy z tych wstrząsów, które się pojawiają, może produkować swoje wstrząsy następcze. Na bazie tego modelu określa się prawdopodobieństwo pojawienia się zjawisk sejsmicznych o zadanej magnitudzie. W ten sposób radzimy sobie z krótkoterminową prognozą występowania trzęsień ziemi. W Zakładzie Sejsmologii IGF PAN zauważyliśmy coś jeszcze. Oprócz tych standardowych metod, o których mówiłam, okazało się, że gdy trochę inaczej popatrzyliśmy na proces sejsmiczny, nie skupiając się na samych parametrach trzęsień ziemi, tylko na ich różnicach, czyli popatrzyliśmy na dynamikę tego procesu, okazało się, że w pewnej sytuacji przed dużym wstrząsem proces sejsmiczny zaczyna być bardzo regularny. Zaproponowaliśmy metodę wykorzystującą współczynnik regularności sejsmicznej i zaobserwowaliśmy, że wzrasta on przed dużymi wstrząsami. Jesteśmy teraz na etapie dokładnej analizy, jak długo trzeba czekać po zaobserwowaniu tej regularności w procesie do momentu wystąpienia trzęsienia ziemi. Tego jeszcze nie wiemy, ale na przykład już wiemy, że jest to zależne od mechaniki, typu uskoku, głębokości. Wiemy już więcej, niż na etapie pojawienia się swarmu w rejonie Santorini, ale to dopiero początek badań. Natomiast jesteśmy bardzo podekscytowani, ponieważ tę regularność procesu zaobserwowaliśmy prawie przed każdym badanym silnym wstrząsem. W przypadku Santorini też nam się to udało. Każdy silny wstrząs został poprzedzony tą regularnością procesu. Przekładamy to na matematyczny parametr, który nam określa zmienność procesu, więc jak występuje regularność, to ta zmienność procesu wynosi zero. Gdyby mnie sklonowano, to różnica pomiędzy mną a moim klonem wyniosłaby zero. Tak więc im jedno trzęsienie ziemi jest bardziej podobne do drugiego, tym proces jest bardziej regularny.
D.B.: Czy to oznacza, że gdyby ta metoda się sprawdziła, to byliby Państwo w stanie z wyprzedzeniem godzinowym przewidzieć, że zdarzenie będzie miało miejsce?
B.O.S.: Jeszcze dokładnie nie wiemy, w jakim czasie ten duży wstrząs pojawi się po zaobserwowaniu regularyzacji procesu, ale w przypadku Santorini i tak dużej aktywności sejsmicznej oraz magnitud maksymalnych rzędu 5, bo o takich mówimy, byliśmy w stanie zaobserwować tę regularność około 2–3 dni przed dużym wstrząsem. Nasze badania pokazały, że w przypadku dużych trzęsień ziemi o magnitudzie około 8, to jest od 2 do 3 lat. Etap przejścia z procesu regularnego do chaotycznego zajmuje około 3 lat w przypadku dużego trzęsienia ziemi. Ten parametr i jeszcze jeden, który nam mówi o dynamice deformacji, a który zdefiniowaliśmy, żeby określić, w której fazie przygotowawczej trzęsienia ziemi jesteśmy, zastosowaliśmy również do procesów sejsmicznych, które są indukowane przez człowieka. I to się świetnie sprawdza. Może to być bardzo duża pomoc w implementowaniu różnych technologii, które mają służyć człowiekowi. Ale na razie to dopiero początki naszych badań, kwestia ostatniego półrocza.
D.B.: To bardzo ciekawe, o czym Pani mówi. Czy na tę wspomnianą metodę wpadli Państwo przy okazji bieżącej sytuacji sejsmicznej w rejonie Santorini?
B.O.S.: W 2015 roku prowadziliśmy europejski projekt SHEER, którego zadaniem było określenie wpływu eksploatacji gazu z łupków na środowisko. Celem było opracowanie rekomendacji dla firm dotyczących ochrony środowiska podczas planowanej eksploatacji. Wiemy, że to się skończyło tak, że w Polsce zrezygnowano z eksploatacji, ale byliśmy wtedy jedynym krajem, który zaproponował pole testowe na Pomorzu. Prowadziliśmy tam monitoring i testowaliśmy różne metody wpływu na środowisko. Pracowaliśmy nad metodą, która pozwoliłaby ocenić, czy następuje rozwój takich ścieżek sejsmicznych, które mogą być rodzajem tunelu czy miejscem, gdzie fluidy migrują. To jest o tyle niebezpieczne, że jeśli mamy gdzieś w odległości duży uskok, to te fluidy migrujące pomiędzy pęknięciami wywołanymi mniejszymi wstrząsami na skutek hydroszczelinowania mogą spowodować, że fluidy dostaną się w okolice dużego uskoku. On ma już swoje naprężenia, więc zmniejszą jego wytrzymałość i mogą wygenerować duży wstrząs. Zresztą taka sytuacja miała miejsce w Korei. To było to słynne trzęsienie Pohang o magnitudzie 5,5. Wtedy zastanawialiśmy się, jak wykorzystać materiał sejsmiczny, informacje o wstrząsach, żeby analizować, czy takie ścieżki się rozwijają, czy nie. Jak popatrzymy na wstrząsy, to są one opisywane różnymi parametrami, które reprezentują różne skale. Na przykład, jeśli mówimy o lokalizacji, to mówimy o metrach, kilometrach. Jeśli mówimy o magnitudzie, to tutaj nie mamy jednostki. Jeśli interesuje nas moment sejsmiczny, to jest to niuton razy metr. Każdy parametr sejsmiczny ma zupełnie inną skalę i one są trudne do porównania. Dlatego profesor Stanisław Lasocki wymyślił bardzo sprytną transformację, żeby przejść ze skali jakiegoś parametru do skali prawdopodobieństwa, czyli do reprezentacji danego parametru poprzez prawdopodobieństwo. I wtedy wszystkie parametry mają taką samą skalę od zera do jeden. Wtedy po takiej transformacji mamy wszystkie parametry w tej samej skali i możemy je porównywać.
Stąd pojawił się nowy sposób porównania wstrząsów. Zaczęły się badania różnych parametrów w różnych konfiguracjach. Pierwsza z analiz takiego dużego wstrząsu – takiego, jakie miały miejsce w Meksyku – pokazała, że to właśnie nie wartości parametrów, a różnice pomiędzy parametrami dały pewien sygnał przed dużym wstrząsem.
Rozpoczęliśmy badania. Profesor ze swoim studentem ponownie znaleźli ten sygnał dla drugiego trzęsienia ziemi. Zastosujmy analogię – kiedy się widzi pierwszy raz żyrafę, to reakcja jest taka, że takie zwierzę nie może istnieć. Gdy się widzi ją drugi raz, to człowiek już nie jest tego taki pewny. A gdy żyraf jest bardzo dużo, to wiemy, że... ten sygnał jest. Wtedy profesor Lasocki zaproponował, żeby złożyć projekt MAESTRO, który będzie skoncentrowany na poszukiwaniu struktury w tym parametrze regularyzacji procesu sejsmicznego i odpowiedzi na pytanie, kiedy on się pojawia, w jakich warunkach, z jakim wyprzedzeniem przed dużym wstrząsem.
Początkowe badania wskazywały, że jest to tylko parametr, który pojawia się przy dużych trzęsieniach ziemi, przy wstrząsach o magnitudzie 4–4,5 i wyższej. Pierwsze badania profesora i jego studenta pokazały, że rzeczywiście rozpatrywanie małych wstrząsów nic nie przynosi, obraz jest bardzo chaotyczny.
Ale gdy już zobaczyliśmy te kilka “żyraf” wśród zwierząt, to zespół się powiększył, a prace zintensyfikowały. Zaczęło się od interpretacji fizycznej, skąd się ta regularyzacja procesu bierze. Wspomniałam o tym drugim parametrze – ja też przy okazji projektu SHEER dowiodłam, że w przypadku antropogenicznej sejsmiczności mamy taką sytuację, że obserwujemy przyspieszenie deformacji przed dużym wstrząsem. Ten proces przyspieszonej deformacji ma swoje źródło w tzw. subkrytycznym pękaniu, czyli pękaniu materiału, zanim osiągnie krytyczną wartość i dojdzie do dużego trzęsienia ziemi. Udowodniliśmy to, nawet opublikowaliśmy dwie prace i wykorzystaliśmy tę wiedzę w tym zagadnieniu.
Okazało się, że jesteśmy w stanie, bazując na tych dwóch parametrach, w wielu przypadkach określić, na jakim etapie przygotowawczym jest strefa sejsmogeniczna przed dużym trzęsieniem ziemi. Później, gdy już bardzo szczegółowo się przyjrzeliśmy, to okazało się, że nie ma ograniczenia magnitudy.
D.B.: Jak rozumiem, te odstępy pomiędzy wstrząsami przy tych małych magnitudach są dość krótkie. Jak wygląda zależność czasowa względem najsilniejszego wstrząsu? Jeżeli wstrząs ma magnitudę 7–8, to możemy mówić, że jest to kilka lat. Jeżeli są to wstrząsy rojowe, to parę dni, a jeżeli wstrząsy wywołane działalnością człowieka, które mogą mieć magnitudę około 5, to jest to kwestia kilku godzin.
B.O.S.: To zależy. Wśród danych górniczych z kopalni Rudna mamy strefę sejsmogeniczną, gdzie proces przygotowawczy trwa 3 lata, a magnituda wynosi 3. To bardzo zależy od warunków geologiczno-tektonicznych. Bardzo ważne jest uświadomić sobie, że gdy mówimy o regularnościach procesu, to nie mówimy, że są małe, blisko siebie i krótko w czasie. Mówimy, że są identyczne, ale nie wiemy, czy są blisko siebie, czy oddalone; czy są małe, czy są duże. Ważne, że są takie same. I to jest właśnie ten parametr. Od strony geomechanicznej mamy takie wytłumaczenie, że rzeczywiście, jak się popatrzy na geologię i tektonikę stref sejsmogenicznych, to bardzo często widać uskoki zlokalizowane stosunkowo blisko siebie w strefie sejsmogenicznej i mają one bardzo podobną długość.
Oprócz tego, patrząc na relacje pomiędzy naprężeniem a odkształceniem, też jesteśmy w stanie wytłumaczyć, że taki proces regularyzacji deformacji może mieć miejsce. Natomiast wydaje nam się po analizach, że ten brak regularyzacji jest związany z tworzeniem się tzw. strefy spękań przy końcach uskoku. Jeśli uskok się napręża, to wiadomo, że największe naprężenia są zawsze na końcach. Stąd w fazie przed ostatecznym pęknięciem uskoku zaczynają gromadzić się pęknięcia – małe, chaotyczne i duże, regularne. One są wszystkie w czasie tak zdesynchronizowane, że wartość tego parametru wzrasta, czyli mamy większe zróżnicowanie w procesie sejsmicznym. Kiedyś przeczytałam takie pytanie, czy natura jest chaotyczna, czy jest regularna? Otóż jest i regularna, i chaotyczna.
D.B.: Wspomniała Pani, że podczas prowadzonych badań wykorzystywaliście sztuczną inteligencję. Czy te wszystkie zdarzenia, które gromadzicie, będziecie chcieli przeanalizować przy użyciu takiej technologii, żeby wykazać pewną regularność?
B.O.S.: Już to zrobiliśmy. Problem polega na tym, że badania modeli sztucznej inteligencji wymagają mnóstwa danych. Już tłumaczę, jak wygląda sytuacja z naszymi danymi rzeczywistymi. Na początku, jak się pojawia katalog, trzeba go przeanalizować, policzyć wszystkie parametry. Następnie te parametry są dopracowywane latami, więc żeby stworzyć dobry katalog do analizy, choć nie bez błędów, bo to jest normalne, to naprawdę trwa. W związku z tym w efekcie końcowym mamy niedużo zbiorów danych. Nawet jeśli mówimy o 100, to ciągle dla sztucznej inteligencji jest mało, bo tam potrzeba setek tysięcy. Nawiązaliśmy współpracę m.in. z GFZ w Poczdamie. Pomyślałam, że być może warto byłoby sprawdzić, czy nasze parametry w taki sam sposób zachowują się w syntetycznych katalogach, które są generowane przez wspomniany model ETAS, który jest w sejsmologii standardem. I okazało się, że rzeczywiście zachowują się w sposób bardzo podobny, co daje nam znakomitą szansę, jeśli chodzi o sztuczną inteligencję. Możemy wykorzystać model ETAS dla danego obszaru i wygenerować dla niego dowolną liczbę syntetycznych katalogów. W związku z tym możemy nauczyć sztuczną sieć, żeby identyfikowała to minimum dla wybranego obszaru. Aktualnie tym się zajmujemy – tworzymy sztuczne katalogi. Co tydzień spotykamy się z zespołem z ARTIQ – Centrum Doskonałości Sztucznej Inteligencji na Akademii Górniczo-Hutniczej – i przygotowujemy się do pierwszych testów. A jeśli chodzi o współpracę, to dodam, że uniwersalny charakter zachowania tego parametru dla ogromnego zakresu skali magnitud rzeczywiście wzbudził zainteresowanie środowiska naukowego. Rozpoczęliśmy współpracę z partnerami z różnych stron świata, włączając Niemcy, Francję, Japonię, Chiny, Nową Zelandię, Włochy. Mam nadzieję, że coś z tego wyjdzie. Złożyliśmy projekty i działamy!
D.B.: Trzymamy kciuki za Państwa dalsze plany badawcze i mamy nadzieję, że Pani profesor nas odwiedzi z kolejnym ciekawym tematem, żeby podzielić się z naszymi słuchaczami wynikami swoich badań. Bardzo dziękuję za rozmowę!