Apache Spark ist ein Framework zur verteilten Verarbeitung großer Datenmengen. In diesem Seminar lernen Sie die Funktionsweise sowie die zugrundeliegenden Konzepte von Spark kennen und bekommen einen Überblick über die wichtigsten Spark-Komponenten und die Architektur einer Spark-Applikation. In praktischen Übungen wenden Sie das Erlernte an und schreiben Ihre ersten eigenen Spark-Jobs in Python. Unter anderem verwenden Sie dabei Spark Core (das grundlegende Framework für die parallele Verarbeitung in Spark) und analysieren Daten mit Spark SQL. Weiterhin lernen Sie die wichtigsten Konfigurationen für die Ausführung von Spark Jobs auf einem lokalen System oder in einem Hadoop / YARN Cluster k
- Sie kennen Apache Spark und die zugehörigen Komponenten. - Sie haben in Übungen erste Erfahrungen im Umgang mit der Spark-Programmierung in Python gemacht. - Sie kennen den Aufbau einer Spark-Applikation und die wichtigsten Konfigurationsparameter. - Sie sind in der Lage, Ihre ersten Spark-Lösungen zu entwickeln.
Teilnahmevoraussetzungen:
Teilnahme an den Seminaren Python Programmierung (P-PYTH-01) und Hadoop Grundlagen (HADOOP-01) oder gleichwertige Kenntnisse
Zielgruppe:
Anwendungsentwickler, Data Engineers, Data Scientists, Systemintegratoren, IT-Architekten, IT-Consultants
Wir setzen Analyse-Cookies ein, um Ihre Zufriedenheit bei der Nutzung unserer Webseite zu verbessern.
Diese Cookies werden nicht automatisiert gesetzt.
Wenn Sie mit dem Einsatz dieser Cookies einverstanden sind, klicken Sie bitte auf Akzeptieren.
Weitere Informationen finden Sie hier.