Wenn Datenmengen weiter wachsen, kontinuierlich aktualisieren, verschiedene Strukturen haben und unvollständig sind, dann kommen wir in Bereiche, die mit traditionellen Mitteln des Datenmanagements nicht mehr effizient lösbar sind. Deshalb fördert das BMBF im Forschungsprojekt BigGIS die Entwicklung innovativer und praxistauglicher Lösungsansätze.

BigGIS – Nutzen ziehen aus der wachsenden GeodatenflutUnter dem Begriff Big Data entwickelt sich aktuell ein neuer Forschungs- und Geschäftszweig, der sich mit Lösungen zu Fragestellungen einer neuen Dimension an Daten beschäftigt. Üblicherweise spricht man dabei von den 3 „V´s“ (Volume, Variety, Velocity) und manchmal auch von den 4 „V´s“ (zusätzlich Veracity), die die Dimension und Komplexität dieser Daten ausmachen.

In jüngerer Zeit wird auch von GIS-Architekturen erwartet, dass sie rapide anwachsende Datenmengen im Tera- bis Petabytebereich an Archivdaten und aktuellen Fernerkundungsdaten zusammen mit vielfältigen Geodaten, historischen und aktuellen Sensordaten (Zeitreihendaten) und Meldungen von Bürgern integrieren und zeitnah nutzbar machen. Weitere Quellen großer Mengen an georeferenzierten Daten sind immer preisgünstigere und vielfältigere Sensordaten jeder Art, Trajektorien von Mobiltelefonen bzw. allgemeiner GPS-Geräte inkl. PKW/LKW, Fernerkundungsergebnisse von Drohnen etc. oder auch Simulationsergebnisse, z. B. globaler Klimarechenmodelle. Anwendungsfelder solcher Spatial Big Data sind vielfältig. Sie umfassen beispielsweise die Präzisionslandwirtschaft, Smart Cities, Industrie 4.0, aber auch den Katastrophenschutz (Frühwarnung und Recovery im Katastrophenfall).

Dabei sollen zukünftige GIS nicht ausschließlich Abfragen auf vergangenen Informationen ermöglichen, sondern ebenfalls die Prognose zukünftiger Entwicklungen und Probleme erlauben. So können dann beispielsweise Sensorwerte und deren Abhängigkeiten erkannt und entsprechend vorausschauend agiert werden. Bedingt wird diese Entwicklung durch die zunehmende Verbreitung kostengünstiger vernetzter Sensoren, wie beispielsweise mobile Sensorik bis hin zu einfachen Mobiltelefonen, mit denen die Öffentlichkeit direkt und unkompliziert Daten beitragen kann, sowie durch die zunehmende Wichtigkeit noch unstrukturierter Daten in Form von Fernerkundungsdaten. Zudem gewinnen bodengestützte Fernerkundungssensoren, sowie bildgebende Systeme mehr und mehr an Bedeutung.

Durch diese Entwicklungen stehen Geoinformationssysteme vor Herausforderungen in allen vier Big Data Dimensionen:

  • Volume: Der Umfang der gespeicherten Daten wächst in den Tera- und Petabyte-Bereich, gerade wenn man die zeitlichen Entwicklungen mit betrachtet oder auch (Geo) Social Media nutzt. Diese neue Dimension der Datenmengen kann Cluster-Rechenansätze erforderlich machen oder auch die Realisierung weiterer Verarbeitungsschritte direkt in der Datenbank.
  • Variety: Sensor- und unstrukturierte Daten sind neue Datenarten, die innovative Analyse-, Interpolations-, Prognose- und Visualisierungstechniken erforderlich machen.
  • Velocity: Durch ständig eintreffende Sensordaten zusammen mit der Erwartung und im Einsatzfall auch der Notwendigkeit, immer die aktuellen Daten integriert zu haben, muss das Design der bisher auf Stapelverarbeitungsprozessen basierenden GIS grundlegend überdacht und angepasst werden. Nur so lassen sich Analysen und Handlungsempfehlungen in (Nah-) Echtzeit realisieren.
  • Veracity: Die Integration der von Bürgern oder Bilderfassungsgeräten (insbesondere bspw. bei Nebel, bei Nacht usw.) angelieferten und automatisch verarbeiteten  unstrukturierten Daten führt dazu, dass Analysen nicht mehr unter der Annahme der vollständigen Korrektheit der Input-Daten durchgeführt werden können.

Als Experte für Fragen des Geodatenmanagements von großen Datenmengen stellt sich Disy natürlich diesen Herausforderungen. Disy ist Mitglied des BigGIS Projektkonsortiums, das im Frühjahr 2015 vom Bundesministerium für Bildung und Forschung (BMBF) den Zuschlag für das Forschungsprojekt „BigGIS  – Prädiktive und präskriptive Geoinformationssysteme basierend auf hochdimensionalen geotemporalen Datenstrukturen“ erhalten hat. Diesem  Konsortium gehören 11 Partner aus renommierten Forschungseinrichtungen (Forschungszentrum Informatik am Karlsruher Institut für Technologie: Prof. Studer, Prof. Setzer, Prof. Nickel; Universität Konstanz: Prof. Keim; Hochschule Karlsruhe: Prof. Nimis), großen und innovativen Fachbehörden (LUBW, THW, Stadt Karlsruhe) sowie in ihren Kompetenzfeldern exzellente Wirtschaftspartner (Fernerkundung: EFTAS, Big Data Datenbanken: EXASOL, Geodateninfrastrukturen: Disy) an.

Projektziele und Anwendungszenarien

Ziel des Vorhabens ist die Erforschung, prototypische Umsetzung und Evaluierung von Techniken, Modellen und Methoden, die in vielfältigen Anwendungsfällen Entscheidungen auf Basis von großen Mengen an zeitlich-strukturierten Geodaten aus vielfältigen Quellen (insbesondere Fernerkundung, Crowdsourcing und dem Social Web, aber auch aus Legacy-Systemen zur Geodatenverarbeitung) unterstützen.

Mit dem zu schaffenden System soll die integrierte Verwaltung, Analyse und Visualisierung von zeitlichen und räumlichen, strukturierten und unstrukturierten Daten verbessert bzw. überhaupt erst möglich gemacht werden. Auf Basis dieser Daten sollen deskriptive, prädiktive und präskriptive Analysen unterstützt werden. Die Entwicklungsarbeiten orientieren sich an drei konkreten Anwendungsszenarien:

  • Katastrophenschutz: Entscheidungsunterstützung bei komplexen Schadenslagen am Beispiel von Schadgas-Situationen. Der Fokus liegt auf dem Nutzbarmachen großer Datenmengen in Nah-Echtzeit (Velocity).
  • Umwelt: Umweltmanagement am Beispiel des Monitorings invasiver Tier- und Pflanzenarten mit Auswirkung auf die menschliche Gesundheit (wie z. B. Eichen-Prozessionsspinner, Asiatische Tigermücke und Beifußblättrige Ambrosie). Der Fokus liegt auf dem Nutzbarmachen großer unstrukturierter Datenmengen aus der Fernerkundung (Variety und Volume).
  • Smart City und Gesundheit: Die Beobachtung der Gesundheit von Menschen in Städten am Beispiel der Umwelteinflüsse Feinstaub und Temperatur. Die besondere Herausforderung liegt in den vielfältigen zur Verfügung stehenden Daten (Variety) und der Integration der von Bürgern gesammelten Daten unbekannter Präzision und Zuverlässigkeit (Veracity).

Das Projekt ist inzwischen offiziell gestartet und wird uns die nächsten Jahre begleiten. Wir freuen uns dabei zu sein, wenn die nächsten Meilensteine im Bereich des Geodatenmanagements gelegt werden. Über Teilergebnisse und Fortschritte informieren wir Sie natürlich gerne weiterhin über diesen Newsletter.

Übersicht über die vier Big Data Dimensionen Das Projektkonsortium des vom BMBF geförderten Forschungsprojektes BigGIS mit ihren jeweiligen Schwerpunkten und dem Zusammenwirken der Projektpartner in der Analytics-Pipeline

Übersicht über die Vielseitigkeit der eingehenden DatenDie Mitglieder des BigGIS Projektkonsortiums beim Kick-off-Meeting

Weitere Informationen:

www.pt-it.pt-dlr.de/de/3138.php

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahren Sie mehr darüber, wie Ihre Kommentardaten verarbeitet werden .