Ziel des Workshops ist eine praktische Einführung in Apache Flink. Der Fokus liegt auf der Überwindung von Einstiegshürden. Konzepte und praxisnahe Beispiele werden gleichermaßen erarbeitet.
Abgrenzung zu klassischen Extract-Transform-Load (ETC) -Prozessen
Parallel-Stream Verarbeitung
Semantiken: Zeit, Zustand und Konsistenz
Hello World mit Apache Flink
Die Einrichtung Ihrer Entwicklungsumgebung
Einbettung in Java-Projekte (Apache Maven)
Die Architektur von Apache Flink
Daten-Transfers
Event-Time Verarbeitung
Zustandsverwaltung: Checkpoints, Savepoints und Recovery
Jobs im Detail
Die DataStream API
Time-Based und Window Operators
Anbindung externer Systeme
Filesystem
Apache Kafka
Machine Learning mit Flink ML
Classification
Clustering
Feature Engineering
Betrieb:
Kurzeinführung für Entwickler
Best Praticies für Cluster: Docker oder Standalone?
Dauer/zeitlicher Ablauf:
2 Tage
Zielgruppe:
Software-Entwickler (Java) und Data-Scientists, die Apache Flink für Pipeline-Processing und Predictive Analytics verwenden möchten.
Die Teilnehmer sollten über gute Programmierkenntnisse in Java, Erfahrung im Umgang mit einer IDE (z.B. IntelliJ, Eclipse) und Grundkenntnisse Datentransformationen und Machine Learning verfügen.
Wir setzen Analyse-Cookies ein, um Ihre Zufriedenheit bei der Nutzung unserer Webseite zu verbessern.
Diese Cookies werden nicht automatisiert gesetzt.
Wenn Sie mit dem Einsatz dieser Cookies einverstanden sind, klicken Sie bitte auf Akzeptieren.
Weitere Informationen finden Sie hier.