In diesem Seminar erhalten Sie einen Einblick in die wichtigsten Komponenten des Hadoop-Ökosystems. Sie bekommen eine Einführung in die zentralen Hadoop-Komponenten HDFS, YARN und MapReduce. Darauf aufbauend lernen Sie weitere wichtige Dienste aus dem Hadoop-Umfeld kennen. Dazu zählen Hive, Spark, HBase, Kafka und ZooKeeper. Viele praktische Übungen vertiefen das Gelernte.
- Einführung in das Hadoop-Ökosystem - Überblick über Cloudera und den Cloudera Manager - HDFS, YARN und MapReduce - Hive und der Hive Metastore - Dateiformate (z.B. Parquet, Avro und ORC) - Spark und Spark SQL - ZooKeeper - HBase - Sqoop - Kafka
Ziele/Bildungsabschluss:
- Sie bekommen einen Überblick über die wichtigsten Hadoop Komponenten. - Sie haben in Übungen erste Erfahrungen mit Hadoop gesammelt. - Sie können abschätzen, welche Probleme mit Hadoop gelöst werden können. - Sie sind in der Lage, eine Hadoop-Umgebung zu benutzen.
Teilnahmevoraussetzungen:
Teilnahme am Seminar Unix/Linux Grundlagen für Einsteiger (BS-01) oder vergleichbare Kenntnisse.
Zielgruppe:
Anwendungsentwickler, Administratoren, Systemintegratoren, IT-Architekten, IT-Consultants, Data Engineers, Data Scientists
Wir setzen Analyse-Cookies ein, um Ihre Zufriedenheit bei der Nutzung unserer Webseite zu verbessern.
Diese Cookies werden nicht automatisiert gesetzt.
Wenn Sie mit dem Einsatz dieser Cookies einverstanden sind, klicken Sie bitte auf Akzeptieren.
Weitere Informationen finden Sie hier.