Integracja różnych obrazów satelitarnych wyostrza nasz obraz aktywności na Ziemi (op-ed)

Zdjęcia wykonane przez Europejską Agencję Kosmiczną

Zdjęcia wykonane przez satelitę Sentinel-1 Europejskiej Agencji Kosmicznej 19 marca 2019 r. pokazują zasięg powodzi (zaznaczony na czerwono) wokół Beira w Mozambiku po tym, jak cyklon Idai wylądował. (Źródło zdjęcia: ESA)





Amanda Ziemann jest naukowcem zajmującym się teledetekcją w Narodowe Laboratorium Los Alamos w Nowym Meksyku. Napisała ten artykuł na guesswhozoo.com Głosy ekspertów: op-ed i spostrzeżenia .

Możliwość dokładnego wykrywania zmian na powierzchni Ziemi za pomocą zdjęć satelitarnych może pomóc we wszystkim od: badania nad zmianami klimatu i rolnictwa do wzorców migracji ludzi i nierozprzestrzeniania broni jądrowej. Jednak do niedawna nie można było elastycznie integrować obrazów z wielu typów czujników — na przykład tych, które pokazują zmiany powierzchni (takie jak nowe konstrukcje budowlane) w porównaniu z tymi, które pokazują zmiany materiałów (takich jak woda w piasek). Teraz, dzięki nowej możliwości algorytmicznej, możemy — a dzięki temu uzyskujemy częstszy i bardziej pełny obraz tego, co dzieje się w terenie.

W Los Alamos National Laboratory opracowaliśmy elastyczne podejście matematyczne do identyfikowania zmian w parach obrazów satelitarnych zebranych z różnych modalności satelitarnych lub typów czujników wykorzystujących różne technologie wykrywania, co pozwala na szybszą i pełniejszą analizę. Łatwo założyć, że wszystkie zdjęcia satelitarne są takie same, a zatem ich porównywanie jest proste. Ale rzeczywistość jest zupełnie inna. Setki różnych czujników obrazowania krążą teraz wokół Ziemi i prawie wszystkie robią zdjęcia ziemi w inny sposób niż pozostałe.



Quiz satelitarny: Jak dobrze wiesz, co krąży wokół Ziemi?

Weźmy na przykład wielospektralne czujniki obrazowania. Są to jedne z najczęstszych rodzajów czujników i dają nam obrazy, o których większość z nas myśli, gdy słyszymy „obrazy satelitarne”. Czujniki obrazowania wielospektralnego są podobne pod tym względem, że mogą przechwytywać informacje o kolorze poza tym, co widzi ludzkie oko, dzięki czemu są niezwykle wrażliwe na zmiany materiału. Na przykład mogą wyraźnie uchwycić trawiaste pole, które kilka tygodni później zostaje zastąpione sztuczną murawą.

Jednak sposób, w jaki wychwytują te zmiany, różni się znacznie w zależności od czujnika wielospektralnego. Na przykład jeden może mierzyć cztery różne kolory światła, podczas gdy inny mierzy sześć. Każdy czujnik może inaczej mierzyć kolor czerwony.



Dodaj do tego fakt, że czujniki obrazowania wielospektralnego nie są jedyną metodą obrazowania satelitarnego. Istnieje również radar z syntetyczną aperturą (SAR), który rejestruje obrazy radarowe struktury powierzchni Ziemi w doskonałej rozdzielczości przestrzennej. Te obrazy SAR są wrażliwe na zmiany powierzchni lub deformacje i są powszechnie wykorzystywane do zastosowań takich jak monitorowanie wulkanów i energia geotermalna. Po raz kolejny mamy więc czujnik obrazowania, który przechwytuje informacje w zupełnie inny sposób niż inne.

To nie lada wyzwanie przy porównywaniu tych zdjęć. Kiedy sygnały pochodzą z dwóch różnych technik teledetekcji, tradycyjne podejścia do wykrywania zmian zawodzą, ponieważ leżąca u ich podstaw matematyka i fizyka nie mają już sensu. Ale można tam uzyskać informacje, ponieważ wszystkie te czujniki obrazują te same sceny, tylko na różne sposoby. Jak więc spojrzeć na wszystkie te obrazy — obrazy wielospektralne uchwycone przez różnego rodzaju czujniki i obrazy SAR — w sposób, który automatycznie identyfikuje zmiany w czasie?

Nasze podejście matematyczne umożliwia to, tworząc strukturę, która nie tylko porównuje obrazy z różnych modalności wykrywania, ale także skutecznie „normalizuje” różne typy obrazów — wszystko przy zachowaniu oryginalnych informacji o sygnale.



Ale najważniejszą korzyścią płynącą z tej integracji obrazu jest to, że jesteśmy w stanie zobaczyć zmiany w odstępie kilku minut. Wcześniej czas, jaki upłynął między zdjęciami zrobionymi przez ten sam czujnik, mógł trwać dni lub tygodnie. Ale możliwość integracji obrazów z różnych modalności oznacza, że ​​jesteśmy w stanie szybciej wykorzystać dane z większej liczby czujników, a tym samym szybciej dostrzec zmiany, co pozwala na bardziej rygorystyczną analizę.

Związane z: 10 najlepszych widoków Ziemi z kosmosu

Po lewej stronie znajduje się mapa wykrywania zmian budowy stadionu SoFi w Los Angeles w ciągu trzech lat, pochodząca z Sentinel-1 SAR (radar z syntetyczną aperturą) i Sentinel-2 z obrazowania wielospektralnego. Po prawej stronie znajduje się wierna barwa Sentinel-2 przedstawiająca ten sam obszar. Czarne znaki na mapie wykrywania zmian pokazują nietypowe zmiany; szary wskazuje na częste zmiany; a biały ilustruje trwałe anomalie. Sentinel-1 i Sentinel-2 to satelity do obserwacji Ziemi obsługiwane przez Europejską Agencję Kosmiczną.

Po lewej stronie znajduje się mapa wykrywania zmian budowy stadionu SoFi w Los Angeles w ciągu trzech lat, pochodząca z Sentinel-1 SAR (radar z syntetyczną aperturą) i Sentinel-2 z obrazowania wielospektralnego. Po prawej stronie znajduje się wierna barwa Sentinel-2 przedstawiająca ten sam obszar. Czarne znaki na mapie wykrywania zmian pokazują nietypowe zmiany; szary wskazuje na częste zmiany; a biały ilustruje trwałe anomalie. Sentinel-1 i Sentinel-2 to satelity do obserwacji Ziemi obsługiwane przez Europejską Agencję Kosmiczną.(Źródło zdjęcia: LANL (po lewej), ESA (po prawej))

Aby przetestować naszą metodę, przyjrzeliśmy się zdjęciom budowy nowego stadionu SoFi w Los Angeles, które rozpoczęły się w 2016 roku. Zaczęliśmy od porównania obrazów wielospektralnych z różnych czujników multispektralnych, a także obrazów SAR w tym samym zakresie dat, aby sprawdzić, które modalności odebrał, które zmiany. Na przykład w jednym przypadku wymieniono dach budynku obok stadionu, zmieniając go z beżowego na biały w ciągu kilku miesięcy. Czujniki obrazowania wielospektralnego wykryły tę zmianę, ponieważ była ona związana z kolorem i materiałem. SAR jednak nie, tak jak się spodziewaliśmy. Jednak SAR był bardzo czuły na odkształcenia powierzchni spowodowane poruszającymi się stosami brudu, podczas gdy obrazy wielospektralne nie.

Kiedy zintegrowaliśmy obrazy przy użyciu naszej nowej możliwości algorytmicznej, byliśmy w stanie zobaczyć obie zmiany — powierzchnię i materiał — znacznie szybciej, niż gdybyśmy skupili się na jednym pojedynczym satelicie. Nigdy wcześniej nie robiono tego na dużą skalę, co sygnalizuje potencjalną fundamentalną zmianę w sposobie analizy zdjęć satelitarnych.

Udało nam się również zademonstrować, jak zmiany można wykrywać znacznie szybciej niż wcześniej. W jednym przypadku byliśmy w stanie porównać różne obrazy wielospektralne zebrane w odstępie zaledwie 12 minut. W rzeczywistości było tak szybko, że byliśmy w stanie wykryć samolot przelatujący przez scenę.

Ponieważ teledetekcja kosmiczna staje się coraz bardziej dostępna — szczególnie przy wybuchowym użyciu sześciany oraz małe satelity zarówno w sektorze rządowym, jak i komercyjnym – dostępnych będzie więcej zdjęć satelitarnych. Teoretycznie to dobra wiadomość, ponieważ oznacza to więcej danych do obszernej analizy. W praktyce jednak analiza ta jest kwestionowana przez przytłaczającą ilość danych, różnorodność konstrukcji czujników i modalności oraz chaotyczny charakter repozytoriów obrazów dla różnych dostawców satelitów. Co więcej, gdy analitycy obrazów są zalewani tą falą obrazów, najważniejsze jest opracowanie automatycznych algorytmów wykrywania, które „wiedzą, gdzie szukać”.

To nowe podejście do wykrywania zmian nie rozwiąże wszystkich tych wyzwań, ale pomoże zoptymalizować mocne strony różnych modalności satelitów – i zapewni nam większą jasność co do zmieniającego się krajobrazu naszego świata w tym procesie.

Śledź nas na Twitterze @Spacedotcom lub Facebooku.

Śledź wszystkie tematy i debaty Expert Voices — i weź udział w dyskusji — na Facebooku i Twitterze. Wyrażone poglądy są poglądami autora i niekoniecznie odzwierciedlają poglądy wydawcy.