Christoph Straub, Javier Gonzalez, Rudolf Seitz, Bettina Felten, Ragasree Polepally, Peter Schauer und Nicole Schmeitzner
BeechSAT – Geschädigte Buchen mit Fernerkundungsdaten kartieren – LWF aktuell 128

LWF-Projekt sucht nach Möglichkeiten, absterbende Buchen mittels Luft- und Satellitenbildern automatisiert zu erfassen

Witterungsextreme wie Trockenperioden und das Auftreten von Extremtemperaturen in den letzten Jahren sind eine große Belastung für unsere Wälder. Im Jahr 2019 wurden insbesondere im Norden Bayerns zunehmende Schäden an Rotbuchen festgestellt. Die Fernerkundung kann dabei helfen, einen Überblick über das Ausmaß von Waldschäden zu bekommen.
Vor diesem Hintergrund wurden im Forschungsprojekt BeechSAT untersucht, ob und wie moderne Fernerkundungstechnologien und Auswerteverfahren aus dem Bereich des maschinellen Lernens automatisiert geschädigte und abgestorbene Buchen detektieren können.

Karte von Bayern in Grün- und Weißtönen, mit Detail-AusschnittenZoombild vorhanden

Abb. 1: Geografische Lage der Untersuchungsgebiete Waldbrunn und Ebrach. Im Hintergrund ist eine Laub-/Nadelholzkarte dargestellt. (Grafik: LWF)

In der forstlichen Praxis besteht aktuell der dringende Wunsch, möglichst automatisiert geschädigte Bäumen und Waldbestände räumlich zu erfassen und zu beobachen. Vor diesem Hintergrund wurde im August 2019 an der Bayerischen Landesanstalt für Wald und Forstwirtschaft (LWF) das Foschungsprojekt "BeechSAT" gestartet.

Neben dem Einsatz von Luftbildaufnahmen sollte dabei insbesondere auch die Verwendbarkeit satellitengestützter Sensoren zur Schaddetektion getestet werden. Dabei lag der Schwerpunkt auf der Erfassung geschädigter hauptständiger Buchen. BeechSAT wurde als Kooperationsprojekt der LWF (Abteilungen: Informationstechnologie, Boden und Klima sowie Waldbau und Bergwald) mit der Firma IABG mbH durchgeführt und vom Bayerischen Staatsministerium für Ernährung, Landwirtschaft und Forsten finanziert.

Im Fokus der Untersuchungen lagen zwei Gebiete in Unter- und Oberfranken: Die Fläche mit der Bezeichnung Waldbrunn (Größe: 125 km²) liegt im Südwesten der Stadt Würzburg und beinhaltet den Irtenberger und den Guttenberger Wald. Die Fläche Ebrach (Größe: 50 km²) beinhaltet Ausschnitte vom Bürgerwald, Ebracher Forst und vom Koppenwinder Forst.

Abbildung 1 zeigt die Lage beider Untersuchungsgebiete mit der Laub-/Nadelholzkarte im Hintergrund. Ein wichtiges Kriterium für die Auswahl der Flächen war die unterschiedliche Dichte und Verteilung der geschädigten Buchen in den beiden Waldgebieten. So kommen in der Fläche Waldbrunn großflächigere Schäden vor, d.h. es sind neben einzelnen Bäumen auch größere zusammenhängende Baumgruppen betroffen, wohingegen die Schäden in Ebrach zum Aufnahmezeitpunkt eher kleinflächig bzw. einzelbaumweise auftreten.

Auswahl von Luft- und Satellitenbilddaten

Zu Beginn des Forschungsprojekts BeechSAT wurden am 28. August 2019 Luftbildbefliegungen für beide Projektgebiete durchgeführt. Ziel war hierbei die Erzeugung stereoskopischer Luftbilder mit hoher räumlicher Auflösung. Diese Daten wurden im weiteren Projektverlauf als Referenzdatensatz zum Training der Klassifikationsalgorithmen sowie zur Validierung der Satellitenbilddaten benötigt. Auf Grundlage der Luftbilddaten wurden an der LWF True-Orthophotos mit einer Bodenauflösung von 0,20 m berechnet.

Im Vergleich zu klassischen Orthophotos werden Baumpositionen in True-Orthophotos lagegenauer abgebildet (Straub & Seitz 2019). Parallel zur Luftbildbefliegung wurden Bilddaten unterschiedlicher Satellitensysteme beschafft. Schließlich standen für die Untersuchungen in BeechSAT folgende Datensätze zur Verfügung:
  • Luftbilddaten (28.8.2019): 4 Spetralbänder mit 0,20 m Bodenauflösung
  • WorldView-3 (30.8.2019: 8 Spektralbänder mit 1,20 m und ein panchromatisches Band mit 0,30 m Bodenauflösung
  • SkySat (3.–4.9.2019): 4 Spektralbänder mit 1,10 m und ein panchromatisches Band mit 0,80 m Bodenauflösung
  • PlanetScope Dove (3.9.2019): 4 Spektralbänder mit 3 m Bodenauflösung
  • RapidEye (3.9.2019): 5 Spektralbänder mit 5 m Bodenauflösung
  • Sentinel-2 (4.9.2019): 13 Spektralbänder mit 10 m, 20 m oder 60 m Bodenauflösung
Die genannten Satellitensysteme unterscheiden sich hinsichtlich ihrer räumlichen, spektralen, radiometrischen und zeitlichen Auflösung sowie hinsichtlich der Kosten für die zur Verfügung stehenden Datenprodukte. Auf der Basis dieser Daten konnten die Vor- und Nachteile unterschiedlicher Luft- und Satellitenbilddaten verglichen werden. Nur die Sentinel-2 Daten des Erdbeobachtungsprogramms Copernicus der EU stehen kostenfrei zur Verfügung.

Maschinelles Lernen zur Detektion geschädigter Bäume

Eine zentrale Forschungsfrage von BeechSAT war, inwieweit die Erfassung geschädigter Baumkronen in den Fernerkundungsdaten automatisiert erfolgen kann und welche Genauigkeiten hierbei erreicht werden können. Zu diesem Zweck wurden verschiedene Ansätze aus dem Bereich des maschinellen Lernens getestet.

Im Besonderen wurden Methoden des überwachten Lernens eingesetzt, d.h. im vorliegenden Fall wurde ein Verfahren zur semi-automatischen Klassifizierung geschädigter und vitaler Bäume in den Bilddaten vorab mit einem manuell erstellten Lerndatensatz »trainiert«. Deshalb wird der Lerndatensatz auch oft als Trainingsdatensatz bezeichnet. Bei der vorliegenden Fragestellung handelt es sich bei den Trainingsdaten um Bildbeispiele mit vitalen und geschädigten Baumkronen. Zum Einsatz kamen mehrere Methoden (s. Kasten).
Maschinelles Lernen
Im Projekt BeechSAT wurden mehrere Methoden des überwachten Lernens eingesetzt, unter anderem klassische Verfahren, aber auch Verfahren des Deep Learning:

Klassische Verfahren des maschinellen Lernens: Random Forest (Breiman 2001), Support Vector Machine (Cortes & Vapnik 1995) und künstliche neuronale Netze (Ripley 1996)

Deep Learning: Hierbei handelt es sich um einen Teilbereich des maschinellen Lernens, welcher derzeit als die fortgeschrittenste Anwendung von künstlichen neuronalen Netzen angesehen wird (Segl et al. 2018). Bei der Verarbeitung von Bilddaten kommen insbesondere Varianten des Convolutional Neural Network (LeCun et al. 2015) zum Einsatz.

Diese eignen sich in besonderem Maße, um Muster und Objekte in Bildern zu identifizieren. Im Unterschied zu den klassischen Verfahren des maschinellen Lernens werden beim Deep Learning in der Regel sehr viel größere Lerndatensätze eingesetzt. Aufgrund der rechenintensiven Trainingsphase wird entsprechend leistungsfähige Hardware benötigt.

Die räumliche Auflösung der Bilddaten ist besonders wichtig

Collage aus zwei mal vier Fotos: oben echte Fotos, rot gefärbt, in unterschiedlichen Auflösungen, darunter transkibiert als SkizzeZoombild vorhanden

Abb. 2: Ausschnitt der Untersuchungsfläche Waldbrunn: Luftbild-Satellitenbilddaten (oben) und das Ergebnis der semi-automatischen Klassifizierung (unten) (Grafik: LWF)

Die Ergebnisse des Forschungsprojekts BeechSAT zeigen, dass eine automatisierte Erfassung geschädigter und abgestorbener Bäumen mit Hilfe von Fernerkundungsdaten grundsätzlich möglich ist. Abbildung 2 zeigt beispielhaft das Ergebnis einer semi-automatischen Klassifizierung basierend auf Luftbilddaten und verschiedenen Satellitenbilddaten (SkySAT, RapidEye und Sentinel-2) für einen kleinen Ausschnitt der Untersuchungsfläche Waldbrunn.

Die oberen Abbildungen zeigen jeweils Color-Infrarot (CIR)-Darstellungen der Fernerkundungsdatensätze. Abgestorbene Bäume können in den CIR-Bildern anhand von grün-bläulichen bis weißlich-grauen Farbtönen identifiziert werden, wohingegen vitale Baumkronen unterschiedliche Rottöne aufweisen (Ahrens et al. 2004). Die untere Abbildungsreihe zeigt das jeweils zugehörige Ergebnis einer semi-automatischen Bildklassifizierung. In roter Farbe sind die identifizierten abgestorbenen Baumkronen bzw. Baumgruppen dargestellt.

Die manuelle Erstellung der Trainingsdaten für die überwachte Bildklassifizierung ist der zeitaufwändigste Arbeitsschritt bei dieser Vorgehensweise. Die erzielbare Genauigkeit ist abhängig von der Qualität der Eingangsdaten, d.h. von der Repräsentativität der Trainingsdaten sowie vom Informationsgehalt der Fernerkundungsdaten. Der Informationsgehalt der Bilddaten muss vorab von einem erfahrenen Fernerkundungs-Interpreten begutachtet werden, um zu prüfen, welche Klassen in den vorliegenden Daten potenziell getrennt werden können.

Sofern durchführbar oder verfügbar, können Felddaten die Auswahl der Trainingsdaten erleichtern. Um Hinweise zur Baumart zu bekommen, können im Bayerischen Staatswald die Einzelbaummessungen an den Stichprobenkreisen einer Betriebsinventur unterstützend eingesetzt werden. Hierbei ist aber zu beachten, dass die manuelle Angleichung der Stammpositionen aus der Feldmessung an die räumliche Lage der Baumkronen in den Orthobilddaten einen beträchtlichen Arbeitsaufwand bedeuten kann.

Der Informationsgehalt der Fernerkundungsdaten ist besonders abhängig von der räumlichen Auflösung der Bilddaten. Dies soll Tabelle 1 verdeutlichen. Hier wurden Auswertungsmöglichkeiten für eine visuelle Bildinterpretation und für eine semi-automatische Bildklassifizierung getrennt für Einzelbäume und Baumgruppen für die im Projekt BeechSAT eingesetzten Fernerkundungsdaten beurteilt.
Tabelle 1: Beurteilung der Auswertungsmöglichkeiten für die in BeechSAT eingesetzten Fernerkundungsdaten

++ sehr gut / + gut / – bedingt möglich / -- nicht möglich / () Tendenz zur nächst schlechteren Kategorie

Sensor (räumliche Auflösung)Einzelbaum (visuelle Bildinterpretation/ semi-automatische Bildklassifizierung)Baumgruppen (visuelle Bildinterpretation/ semi-automatische Bildklassifizierung)Bemerkung
Luftbild (0,2 m)++/++++/++Sehr gute Erkennbarkeit von Einzelbäumen,
Baumkronenstrukturen sind erkennbar
WorldView-3 (0,3 m)+/+++/+Gute Erkennbarkeit von Baumgruppen,
Erkennbarkeit von Einzelbäumen,
Baumkronenstrukturen teilweise erkennbar
SkySat (0,8 m)+/(+)++/+Gute Erkennbarkeit von Baumgruppen,
teilweise Erkennbarkeit von Einzelbäumen,
Keine Baumkronenstrukturen erkennbar
PlanetScope (3 m)--/--+/(–)Nur Baumgruppen erkennbar
RapidEye (5 m)--/--+/(–)Nur Baumgruppen erkennbar
Sentinel-2 (10 m)--/--+/(–)Nur große Baumgruppen erkennbar
Luftbilddaten mit der höchsten räumlichen Auflösung der eingesetzten Bilddaten bieten die besten Möglichkeiten zur Erkennung von geschädigten und abgestorbenen Bäumen. In Luftbildern sind Baumkronenstrukturen und somit auch die Schadmerkmale »Entlaubung« und »Kronentotholz« gut erkennbar. Im Idealfall erfolgt die Erfassung manuell über eine stereoskopische Luftbildinterpretation. Auch bei der automatisierten Auswertung wurden in BeechSAT auf Grundlage der mit dem Digitalen Oberflächenmodell (DOM) orthorektifizierten Luftbilddaten (tDOP) die höchsten Genauigkeiten erzielt.

Bezogen auf die Satellitenbilddaten konnten mit den hochaufgelösten Sensoren WorldView-3 und SkySat die besten Ergebnisse erzielt werden. Die sehr hohe räumliche Auflösung des panchromatischen Kanals (0,3 m) von WorldView-3 kommt der Auflösung der Luftbilddaten (0,2 m) sehr nahe. Dadurch könnten in den WorldView-3 Bildern Trainingsdaten für hauptständige, abgestorbene Bäume erfasst werden, wenn man diese analog zu den Luftbilddaten mit dem DOM orthorektifiziert.

Bei allen anderen untersuchten Satellitenbilddaten (SkySat, PlanetScope, RapidEye und Sentinel-2) musste zur Erstellung der Trainingsdaten zusätzlich auf die Luftbilder zurückgegriffen werden. Lediglich in den SkySat-Daten sind einzelne Bäume noch teilweise erkennbar. Störend waren hierbei allerdings relativ starke Verkippungen der Baumkronen in den vorliegenden Bilddaten, die durch eine Schrägsicht des Sensors während der Aufname verursacht wurden. Bei PlanetScope, RapidEye und Sentinel-2 können einzelne Baumkronen nicht mehr identifiziert werden. Hier können geschädigte Bäume auch visuell nicht mehr zuverlässig von ähnlich gefärbten Bodenbereichen getrennt werden.

Demnach werden nach aktuellem Stand für die Sensoren SkySat, PlanetScope, RapidEye und Sentinel-2 zusätzlich Luftbildaufnahmen zur sicheren Trainingsdatengewinnung benötigt. In weiterführenden Projekten ist zu prüfen, ob es möglich ist, nur für Teilbereiche eines Untersuchungsgebiets Luftbildaufnahmen durchzuführen, mit dem Ziel unterschiedliche Topografien, Altersklassen und Schadmerkmale repräsentativ abzubilden, um dann die dort erstellten Trainingsdaten auf flächig vorliegende Satellitenbilddaten zu übertragen.

Bei der automatisierten Erfassung geschädigter und abgestorbener Bäume ist anzumerken, dass eine zuverlässige Unterscheidung von abgestorbenen Laubbaumkronen und abgestorbenen Nadelbaumkronen derzeit noch nicht gewährleistet werden kann. Eine Differenzierung der Schadbäume in Laub- und Nadelhölzer müsste derzeit nachträglich manuell anhand von Luftbildern erfolgen. Gegebenenfalls könnte die Nutzung von Texturmerkmalen aus Luftbildern zu einer automatisierten Trennung beitragen. Dieser Fragestellung werden wir in zukünftigen Studien wie zum Beispiel IpsSAT nachgehen .

Mit Deep Learning bessere Genauigkeiten

Zwei Baumkronen: links Buche ohne Laub, rechts Eiche mit LaubZoombild vorhanden

Abb. 3: Bereits im Oktober hat die durch Trockenheit stark gestresste Buche ihr Laub vorzeitig abgeworfen, während die Eiche (rechts) noch voll belaubt war. (Foto: S. Thierfelder)

Im Vergleich zu den in BeechSAT getesteten klassischen Verfahren des maschinellen Lernens (Random Forest, Support Vector Machine und künstliche neuronale Netze) konnten mit den Deep Learning-Methoden etwas bessere Genauigkeiten erzielt werden. Der Unterschied war für die hochaufgelösten Luftbilddaten am größten, was plausibel erscheint, da die eingesetzten Deep Learning-Methoden Strukturen bzw. Texturen und »Kanten« in den Daten »lernen« und deshalb von einer hohen räumlichen Auflösung der Bilddaten profitieren können.

Dennoch ist der Einsatz von Deep Learning von Fall zu Fall abzuwägen, insbesondere aufgrund der Notwendigkeit, dass – im Vergleich zu herkömmlichen Methoden – ein größerer Trainingsdatensatz benötigt wird. Wenn dieser allerdings ausreichend groß und divers genug ist, wäre der Einsatz von Deep Learning zu empfehlen.

Ferner kann derzeit noch nicht davon ausgegangen werden, dass der in BeechSAT verwendete Trainingsdatensatz ausreicht, um die aktuell erstellten Klassifikationsmodelle ohne erneutes Training auf andere Untersuchungsgebiete übertragen zu können. Um dies zu ermöglichen, müssten weitere Projektfflächen mit zusätzlichen Fernerkundungsdaten einbezogen werden. Sofern es zukünftig gelingt, ein übertragbares Deep Learning-Modell auf der Grundlage eines erweiterten Trainingsdatensatzes zu erstellen, wäre bei der Anwendung in neuen Gebieten theoretisch kein erneutes Training mehr nötig.

Ausblick: Erfassung von Borkenkäferschäden an Fichte

Die bisherigen Entwicklungen von BeechSAT sind von großer Relevanz für eine mögliche Erfassung abgestorbener bzw. absterbender Laubbäume auf einer größeren Fläche sowie für das sich nun anschließende Forschungsprojekt IpsSAT. IpsSAT untersucht Möglichkeiten zur automatisierten Erfassung von Borkenkäferschäden an Fichte. Hierbei wird das Ziel verfolgt, rotbraun und grau verfärbte Fichtenkonen mit den Fernerkundungsdaten zu identifizieren. Auch hier werden Luftbilddaten sowie die Satellitensysteme WorldView-3, SkySat, PlanetScope, RapidEye und Sentinel-2 auf ihre Eignung zur Schaddetektion geprüft. Die aktuell vorliegenden automatisierten Klassifikationsverfahren von BeechSAT sind bereits eine sehr gute Grundlage und sollen nun für die Fragestellungen in IpsSAT angepasst und weiterentwickelt werden.

Zusammenfassung

Die Trockenheit und Hitze der vergangenen Jahre haben auch an Rotbuchen starke Schäden verursacht. Um zukünftig das Schadausmaß besser erfassen und beobachten zu können, wurde im Foschungsprojekt BeechSAT untersucht, ob und wie genau abgestorbene Buchen in Luft- und Satellitenbildern automatisiert detektiert werden können.

Zum Einsatz kamen hierfür sowohl klassische Verfahren des maschinellen Lernens als auch fortgeschrittenere Methoden wie Deep Learning. Zum Training der Algorithmen wurde manuell ein umfangreicher Trainingsdatensatz erstellt. BeechSAT konnte zeigen, dass eine automatisierte Erfassung abgestorbener Bäume mit Fernerkundungsdaten grundsätzlich möglich ist. Dabei zeigte sich, dass die räumliche Auflösung der Bilddaten sowohl für eine visuelle Bildinterpretation als auch für eine semi-automatische Auswertung besonders wichtig ist.

Luftbilddaten mit der höchsten räumlichen Auflösung bieten die besten Möglichkeiten zur Erkennung von geschädigten Bäumen. Der Vergleich der getesteten maschinellen Lernverfahren zeigte, dass mit Deep Learning etwas bessere Genauigkeiten erzielt werden konnten. Bei einer automatisierten Auswertung ist derzeit noch keine zuverlässige Unterscheidung von abgestorbenen Laubbäumen und abgestorbenen Nadelbäumen möglich.

Literatur

  • Ahrens, W.; Brockamp, U.; Pisoke, T. (2004): Zur Erfassung von Waldstrukturen im Luftbild. Waldschutzgebiete Baden-Württemberg, Band 5, Forstliche Versuchs- und Forschungsanstalt Baden-Württemberg, 56 S.
  • Breiman, L. (2001): Random Forests. Machine Learning, 45, S. 5–32
  • Cortes, C.; Vapnik, V. (1995): Support Vector Networks. Machine Learning, 20, S. 273–297
  • LeCun, Y.; Bengio, Y.; Hinton, G. (2015): Deep learning. Nature, 521, S. 436–444
  • Ripley, B.D. (1996): Pattern Recognition and Neural Networks. Cambridge University Press
  • Segl, K.; Bohn, N.; Chabrillat, S.; Neumann, C.; Roessner, S.; Ward, K.; Wolanin, D. (2018): Maschinelles Lernen bei der Auswertung von Fernerkundungsdaten. System Erde, GFZ-Journal, 8(1), S. 18–25
  • Straub, C.; Seitz, R. (2019): Lagegenaue Erfassung von Bäumen aus dem Flugzeug. LWF aktuell 122, S. 47–49

Beitrag zum Ausdrucken

Weiterführende Informationen

Autoren