Technologien & Methoden

Maschinelles Lernen (ML) & Deep Learning

1 | Kurz gesagt

Maschinelles Lernen bezeichnet Algorithmen, die aus Beispieldaten Regeln ableiten – statt hart einprogrammiert zu werden. Deep Learning ist eine besonders leistungs­fähige Unterkategorie mit vielen Schichten („deep“) künstlicher Neuronen.

2 | Typische Verfahren

KategorieAlgorithmenWasserwirtschaftliche Aufgaben
Überwachtes LernenLineare / logistische Regression, Random‑Forest, Gradient‑BoostingLeckage‑Erkennung, Pumpen­ausfall­prognose
Zeitreihen‑ModelleLSTM‑Netz, GRU, ProphetLast‑ & Verbrauchs­vorhersage, Niederschlags­abfluss
Unüberwachtes LernenK‑Means, DBSCAN, AutoencoderAnomalie‑Detektion, Clusterung von Betriebs­zuständen
Deep LearningCNN (Bilder), Transformer (Sequenzen)Kamera‑gestützte Schmutzfracht­analyse, Spektral­sonden‑Auswertung

3 | Daten‑Pipeline in fünf Schritten

  1. Erfassen – Sensor‑, SCADA‑ & Labor­daten konsolidieren
  2. Bereinigen – Ausreißer & Lücken behandeln
  3. Feature‑Engineering – Hydraulische Kennzahlen, saisonale Flags, Lag‑Features
  4. Trainieren – Cross‑Validation, Hyperparameter‑Tuning
  5. Deployen & Re‑Training – Docker / Kubernetes oder Edge‑Device; Monitoring der Modell­güte

4 | Praxisbeispiel

Im EU‑Projekt Digital Water City sagt ein ML‑Modell kombinierte Regen­überläufe (CSO) in Berlin bis zu zwei Stunden vor Eintritt voraus. Betreiber drosseln Zuläufe, verringern Mischwasser­einleitungen und sparen Reinigungs­kosten. digital-water.citydigital-water.city

5 | Schnell‑Check

  • Liegen ≥ 24 Monate durchgängige Prozessdaten vor?
  • Existiert ein anonymisierter Test­datensatz zur Validierung?
  • Ist ein Roll‑back‑Plan definiert, falls das Modell ausfällt?

6 | Häufige Stolpersteine

  • Daten‑Bias: Wartungs­berichte fehlen, obwohl Pumpen defekt waren.
  • Überanpassung: Modell glänzt im Labor, versagt in Hitzesommern.
  • Schlechte Übergabe: IT übernimmt Modell, aber Betrieb kennt keine Kennzahlen.

Digitale Zwillinge

1 | Definition

Ein digitaler Zwilling ist ein virtuelles, laufend synchronisiertes Abbild einer Anlage, eines Netzes oder sogar einzelner Bauwerke. Sensor­daten fließen in das Simulations­modell, das umgekehrt Optimierungs‑ und Steuerungs­vorschläge zurückgibt.

2 | Zwilling‑Typen

TypSchwerpunktBeispiel‑KPI
Prozess‑ZwillingBiologie & Chemie in KläranlagenkWh / kg N entfernt
Hydraulik‑ZwillingDruck & Durchfluss in Netzenl/s Leckage‑Rate
Asset‑ZwillingZustand einzelner PumpwerkeMTBF, OPEX pro Jahr

3 | Implementierung (4‑Phasen‑Modell)

  1. Datenaufnahme – Bauwerks‑ & Prozess­daten digitalisieren
  2. Modell­kalibrierung – Historische Messungen zum Abgleich nutzen
  3. Echtzeit‑Kopplung – SCADA‑Schnittstelle, MQTT oder OPC UA
  4. Optimierung & Kontrolle – Was‑wäre‑wenn‑Szenarien, automatisierte Stellbefehle

4 | Praxisbeispiel

Bei EWE Wasser in Cuxhaven spart ein Echtzeit‑Prozess­zwilling jährlich rund 150 000 € an Energie (≈ 1 Mio. kWh) durch adaptive Belüftungs­steuerung. Das Modell wurde gemeinsam mit Xylem entwickelt und läuft auf einer hybriden Cloud‑Edge‑Architektur. Xylem

5 | Tool‑Landscape (Auswahl)

  • Xylem Vue powered by GoAigua – SaaS‑Plattform für Netz‑ & Anlagen‑Zwillinge
  • AquaSuite (Royal HaskoningDHV) – KI‑basierte Prozess­steuerung
  • Open‑Source: EPANET, DWA‑WorkBench plus Python‑Schnittstellen

Predictive Analytics

1 | Konzept

Predictive Analytics nutzt historische & Live‑Daten, um Wahrscheinlichkeiten für künftige Ereignisse oder Trends zu berechnen. Ergebnis sind Klick‑fertige Prognosen (z. B. „Pumpe 3 fällt in 19 Tagen mit 78 % Wahrscheinlichkeit aus.“).

2 | Typische Anwendungsfelder

FeldDatengrundlageMöglicher Nutzen
Pumpen‑/Motor‑AusfallVibrations‑ & StromdatenWartung 2‑4 Wochen früher, weniger Not‑Einsätze
AblaufqualitätOnline‑Sensoren, WetterdatenVermeidung von Grenzwert­verletzungen
Strompreis‑OptimierungBörsen­daten + LastprofilBetrieb last‑ & preis­orientiert schieben

3 | Praxisbeispiel

Im BMBF‑Verbund KAbit koppeln Forscher:innen Online‑Gas‑ und Prozess­messungen mit prädiktiven ML‑Modellen, um Lachgas‑ und Methan‑Emissionen im Belebungs­becken zu minimieren und gleichzeitig Energie zu sparen. Ruhrverbandfona.de

4 | Technische Zutaten

  • Zeitreihen‑Datenbank (InfluxDB, TimescaleDB)
  • Feature‑Store (Redis, Feast)
  • AutoML‑Service für Hyperparameter‑Tuning
  • Dashboard‑Tool (Grafana, Power BI)

5 | Best Practice

  • Rolling‑Window‑Validierung statt starrer Test‑/Train‑Splits
  • Prognose­horizont an Prozess­trägheit anpassen (Sekunden bis Tage)
  • Alarm‑Schwellen gemeinsam mit Betrieb definieren

IoT‑ & Edge‑Sensorik

1 | Grundidee

IoT‑Sensoren sind vernetzte, oft batteriebetriebene Mess­knoten. „Edge Computing“ bedeutet, dass erste Analysen direkt auf dem Sensor‑Gateway laufen – Daten­flut und Latenz sinken.

2 | Typische Messgrößen & Protokolle

MessgrößeTypische SensorenFunk‑/Netz‑Protokolle
Druck & DurchflussUltraschall, elektromagnetischNB‑IoT, LoRaWAN
Wasser­qualitätSpektrometer, Ion‑selektive Elektroden4G/LTE, MQTT
Niederschlag, PegelRadar, Ultraschall, Kamera5G, Edge‑AI‑Module

3 | Praxisbeispiel

Das TU‑Dresden‑Projekt KIWA verknüpft Kameras, Pegel‑ und Wetter­sensoren mit edge‑basierten ML‑Modellen, um Hoch­wasser 60–90 Minuten früher zu melden und Alarm­ketten automatisch zu starten. TU Dresden

4 | Architektur‑Skizze

  1. Sensor­layer – LoRaWAN‑Nodes, Batterielaufzeit > 5 Jahre
  2. Edge‑Gateway – Nvidia Jetson / Raspberry Pi, lokales ML‑Inferencing
  3. Backhaul – 4G/5G oder Glasfaser ins Rechenzentrum
  4. Cloud/SCADA – Langzeit‑Storage, Visualisierung, Alarmierung

5 | Tipps für die Praxis

  • Antenne & Gehäuse an lokale Funkabdeckung anpassen
  • Energie­budget (Solar vs. Netzspannung) früh klären
  • OTA‑Update‑Fähigkeit einplanen

Datenmanagement & Big Data

1 | Warum ein Daten‑Backbone?

Ohne saubere, greifbare Daten bleiben KI‑Modelle Spielzeug. Ein Big‑Data‑fester Unterbau sammelt, sichert und strukturiert Rohdaten – egal ob aus SCADA, Labor oder IoT‑Feld­bus.

2 | Schichten­modell

LayerAufgabeTools & Standards
IngestionDaten aufnehmen, streamenOPC UA, MQTT, Kafka
StorageRoh‑ & Aggregat­daten speichernData Lake (S3, HDFS) + Time‑Series‑DB
ProcessingETL/ELT, Feature‑EngineeringSpark, Flink, dbt
GovernanceQualität, Sicherheit, MetadatenISO 27001, FAIR‑Prinzipien
AccessDashboards, ML‑APIGrafana, Power BI, Feast

3 | Praxisbeispiel

Im Rahmen von Digital Water City baut die Berliner Wasser­betriebe einen zentralen Data‑Lake auf, der IoT‑Sensorik, Labor­daten und Spatio‑Daten integriert und als Basis für mehrere ML‑Services dient. digital-water.city

4 | Förderprogramme & Standards

  • BMBF „Digital GreenTech“ – unterstützt daten­getriebene Umwelt­technik‑Projekte, Schwerpunkt Wasser.
  • EU‑Cloud‑Regelwerk (GDPR, Data Act) beachten
  • DVGW‑Arbeitsblatt W 1100 für IT‑Security

5 | Quick‑Wins

  • Time‑Series‑DB neben dem bestehenden SQL‑Server aufsetzen
  • Change‑Data‑Capture nutzen, um SCADA‑Änderungen automatisch zu replizieren
  • Data‑Catalog (z. B. Open Meta‑Data) für schnelle Suche nach Messpunkten

Weiter zu › Anwendungsfälle
Dort zeigen wir, wie Sie die hier vorgestellten Technologien in Pumpwerken, Kläranlagen und Leit­netz­zentralen konkret einsetzen.