KI und Geodaten in Österreich: Der praxisnahe Einstieg 2025
GeoAI verbindet raumbezogene Daten mit Methoden der künstlichen Intelligenz. In Österreich ist der Nutzen besonders greifbar: Von alpinen Risiken über Verkehrsfluss bis Energieplanung – überall entstehen Fragen, die im Raum beantwortet werden. Dieser Einstieg zeigt, wie du mit offenen Daten, QGIS und Python in wenigen Tagen einen funktionierenden Prototypen baust – verständlich, rechtssicher und auf Deutsch.
Warum jetzt? Österreichische Rahmenbedingungen
Österreich verfügt über eine hohe Datenqualität, lebendige Open-Data-Portale und starke Forschung. Die Kombination aus städtischen und alpinen Räumen erzeugt vielfältige Use-Cases. Dazu kommt eine deutschsprachige Verwaltungskultur: Dokumente, Metadaten und Fachbegriffe liegen meist auf Deutsch vor. Wer diese Sprachebene in der Datenverarbeitung berücksichtigt, spart Zeit und reduziert Missverständnisse – etwa bei Adressen, Flurnamen oder Katastralgemeinden.
Datenquellen: Schnell zu relevanten Geodaten
Für den Start genügt eine kleine, aber saubere Auswahl:
- data.gv.at: zentrales Portal für Open Government Data; viele Gemeinden (z. B. Wien, Linz) veröffentlichen Geodaten mit klaren Lizenzen.
- OpenStreetMap: sehr detaillierte Vektordaten für Wege, Gebäude, POIs; ideal für Basiskarten und Feature-Engineering.
- Copernicus/Sentinel: Satellitenbilder für Landbedeckung, Vegetation und Veränderungsanalysen; frei verfügbar, regelmäßig aktualisiert.
- basemap.at: verlässliche Grundkarten; praktisch für Visualisierungen und erste Plausibilitätschecks.
Achte auf Lizenztexte und mögliche Nutzungsbeschränkungen. Auch wenn vieles offen ist, gelten Namensnennungen oder spezielle Klauseln. Für produktive Services lohnt eine Übersicht im Projekt-Wiki, auf Deutsch, mit Quellen, Versionen und Stand.
Toolset: QGIS, Python und ein schlankes Modell
QGIS eignet sich für den visuellen Einstieg: Daten sichten, Layer kombinieren, Koordinatensysteme prüfen. Anschließend kannst du mit Python weiterarbeiten: GeoPandas für Vektoren, Rasterio für Raster, scikit-learn oder ein leichtes Deep-Learning-Framework für Modelle. Wichtig ist, Prozesse skriptbar aufzusetzen, um später reproduzierbar zu sein – das spart Zeit, wenn Kolleginnen und Kollegen Ergebnisse nachstellen oder erweitern möchten.
Workflows, die funktionieren
Starte klein und iterativ:
- Ziel definieren: klare Frage, messbare Metrik, geografischer Ausschnitt (Bezirk, Gemeinde).
- Datenaufnahme: wenige, hochwertige Quellen statt vieler unsauberer. Metadaten auf Deutsch notieren.
- Vorverarbeitung: Vereinheitliche CRS (z. B. EPSG:4326 für Web, 3857 für Kacheln). Entferne Ausreißer, prüfe zeitliche Stimmigkeit.
- Feature Engineering: aus Geometrien sinnvolle Variablen ableiten, z. B. Distanz zu Haltestellen, Hangneigung, Höhenlage.
- Modell: Beginne mit einem linearen oder baumbasierten Verfahren; Deep Learning lohnt sich, wenn Bilddaten zentral sind.
- Evaluation: F1-Score, IoU oder RMSE – je nach Aufgabe. Dokumentiere deutschsprachig, damit Stakeholder folgen können.
Beispiel: Hitzeinseln im Sommer identifizieren
Viele österreichische Städte erleben an Hitzetagen deutliche Temperaturunterschiede. Ziel: Zellen mit erhöhtem Risiko lokalisieren, um Begrünung zu priorisieren. Wir kombinieren Sentinel-Oberflächentemperaturen, Landbedeckung, Gebäude- und Straßendichten. In QGIS prüfen wir Layer, schneiden auf den Zielbezirk zu und exportieren Rasterkacheln. Mit Python aggregieren wir Variablen pro 100-Meter-Zelle und trainieren ein Modell, das „Hotspots“ markiert. Ergebnis ist eine priorisierte Karte – ein erster, aussagekräftiger Prototyp.
Deutsche Sprache als Feature
Verwaltungsdokumente, Verkehrsmeldungen oder Bürgerfeedback liegen auf Deutsch vor. Ein leichtes Sprachmodell hilft, Texte zu klassifizieren oder Orte zu erkennen. Beispiel: Meldungen zu „Schlaglöchern“ oder „Überflutungen“ werden geokodiert und mit OSM verbunden. Achte auf österreichische Varianten und Abkürzungen: „KG“, „BH“, „B“ für Bundesstraßen. Schon einfache NER-Regeln und Wortlisten auf Deutsch bringen große Qualitätssprünge.
Datenschutz und Governance
GeoAI berührt oft personenbezogene Daten – etwa Bewegungsmuster oder Adressbezüge. Halte dich an die DSGVO: Datensparsamkeit, klare Zwecke, kurze Speicherfristen, Pseudonymisierung. Für Prototypen genügen oft vollständig anonymisierte Daten. Lege ein knappes, deutschsprachiges Datenverzeichnis an, das Quelle, Zweck, Rechtsgrundlage und Löschfristen aufführt. So wird aus einem Technikprojekt ein verantwortungsvolles Produkt.
Qualität sichern
Geo-spezifische Fehler schleichen sich leicht ein: falsche Projektion, unpassendes Resampling, inkonsistente Zeitstempel. Eine Checkliste hilft:
- CRS-Konsistenz prüfen und dokumentieren.
- Zeitschnitt festhalten: Welche Woche/Monat, wann gemessen?
- Referenz gegen Basiskarten: Passen Umrisse und Straßen?
- Stichprobe im Feld oder über hochauflösende Orthofotos validieren.
Vom Prototyp zu Mehrwert
Wenn Stakeholder den Nutzen sehen, wird aus dem schnellen Prototyp ein iteratives Produkt. Automatisiere ETL-Schritte, füge Logs und einfache Dashboards hinzu. Für Österreich eignen sich kleine, präzise Modelle, die in Verwaltungen und KMU schnell Fuß fassen. Das Ziel ist nicht „State of the Art“, sondern „Fit for Purpose“ – nachvollziehbar, pflegbar, deutschsprachig erklärt.