Seminare
Seminare

Apache Spark Workshop mit Übungen und ChatGPT-Unterstützung

Seminar - GFU Cyrus AG

Das Hauptziel dieses Workshops ist es, den Teilnehmenden die Fertigkeiten zu vermitteln, um Apache Spark für fortgeschrittene Datenverarbeitungsaufgaben und das Training von Machine-Learning-Modellen effizient zu nutzen. Durch die Integration von ChatGPT bieten wir zusätzliche Hilfestellungen, um die Entwicklung und Feinabstimmung von Spark-Anwendungen zu erleichtern, wobei ein Schwerpunkt auf der Verbesserung der Performance und Skalierbarkeit liegt. ChatGPT dient als interaktives Werkzeug, das theoretische Konzepte praktisch veranschaulicht und so zu einem tieferen Verständnis und praktischer Anwendungskompetenz in Apache Spark beiträgt.
Termin Ort Preis*
firmenintern auf Anfrage auf Anfrage
*Alle Preise verstehen sich inkl. MwSt.

Detaillierte Informationen zum Seminar

Inhalte:
  • Einführung in Apache Spark
    • Vorstellung von Apache Spark als leistungsfähige Big-Data-Verarbeitungsplattform
    • Diskussion über die Vorteile von Apache Spark gegenüber anderen Big-Data-Verarbeitungswerkzeugen
    • Überblick über die Architektur von Apache Spark und wie es auf einem Cluster ausgeführt wird

  • Installation von Apache Spark
    • Anleitung zur Installation von Apache Spark auf einem lokalen Rechner
    • Demonstration der Installation von Apache Spark auf einer Cluster-Umgebung

  • Erste Schritte mit Apache Spark
    • Vorstellung von Spark-Shell und wie es verwendet wird
    • Verwendung von SparkSQL zur Datenanalyse
    • Verwendung von Spark DataFrames
    • Übung: Verwendung von Spark-Shell und SparkSQL für Datenanalyse mit Kundendaten
    • ChatGPT-Einsatz
      :
      • Anleitung
        : Bereitstellung von Schritt-für-Schritt-Anleitungen zur Nutzung der Spark-Shell und SparkSQL für die Datenanalyse.
      • Beispielabfragen
        : Generierung von Beispiel-SQL-Abfragen und Filtern, um Einblicke in die Kundendaten zu erhalten.
      • Verständnishilfe
        : Erklärungen zu komplexen Abfragen und deren Auswirkungen auf die Datenanalyse.

    • Verwendung von Spark-Shell und SparkSQL, um Kundendaten wie Vertragsdetails, Abrechnungsinformationen, Kundensupport-Interaktionen usw. zu analysieren.
    • Ausführung von grundlegenden Abfragen und Filtern, um Erkenntnisse über die Daten zu gewinnen.

  • Fortgeschrittene Spark-Konzepte
    • Vorstellung von RDDs (Resilient Distributed Datasets)
    • Vorstellung von Transformationen und Aktionen auf RDDs
    • Einführung in Spark Streaming
    • Einführung in Machine Learning mit Spark MLlib
    • Übung: Erstellung von RDDs und Durchführung von Transformationen und Aktionen auf Kundendaten für Machine Learning
    • Erstellung von RDDs aus Kundendaten
    • Durchführung von Transformationen und Aktionen auf den RDDs zur Vorverarbeitung der Daten für Machine Learning
    • Verwendung von MLlib für Machine-Learning-Modelltraining auf den vorverarbeiteten Daten

  • Spark in der Praxis
    • Best Practices für Spark-Entwicklung, einschließlich der Erstellung effizienter und skalierbarer Spark-Anwendungen
    • Fehlerbehebung und Optimierung von Spark-Anwendungen
    • Verwendung von Spark auf AWS, Azure und Google Cloud
    • Übung: Erstellung einer Spark-Anwendung für Machine Learning zur Vorhersage von Kundenabwanderung auf einer Cluster-Umgebung
    • Erstellung einer voll funktionsfähigen Spark-Anwendung zur Vorhersage von Kundenabwanderung auf einer Cluster-Umgebung
    • Optimierung der Anwendung für die effiziente Verarbeitung großer Kundendatenmengen
    • Durchführung von Machine-Learning-Vorhersagen auf den Kundendaten und Analyse der Vorhersageergebnisse





Am Ende des Workshops haben die Teilnehmenden eine solide Kenntnis von Apache Spark und Machine Learning mit Spark MLlib erworben. Sie haben auch eine voll funktionsfähige Spark-Anwendung erstellt, die in der Lage ist, Kundenabwanderung vorherzusagen. Die Teilnehmenden sind nun in der Lage, ihre neuen Fähigkeiten in der Praxis anzuwenden und die Vorteile von Apache Spark bei der Verarbeitung großer Datenmengen zu nutzen.

Zielgruppe:

 Der Workshop ist ideal für:

  • Datenwissenschaftler:innen und Analysten, die ihre Fähigkeiten in der Verarbeitung großer Datenmengen mit Apache Spark verbessern möchten
  • Softwareentwickler:innen, die mit Apache Spark arbeiten und ihre Kenntnisse in der Entwicklung von Spark-Anwendungen vertiefen möchten
  • Data Engineers, die für die Implementierung und Wartung von Spark-Clustern verantwortlich sind
  • Business-Profis, die Machine-Learning-Modelle für ihre Unternehmen implementieren möchten
Seminarkennung:
S2864
Nach unten
Nach oben
Wir setzen Analyse-Cookies ein, um Ihre Zufriedenheit bei der Nutzung unserer Webseite zu verbessern. Diese Cookies werden nicht automatisiert gesetzt. Wenn Sie mit dem Einsatz dieser Cookies einverstanden sind, klicken Sie bitte auf Akzeptieren. Weitere Informationen finden Sie hier.
Akzeptieren Nicht akzeptieren









Um Spam abzuwehren, geben Sie bitte die Buchstaben auf dem Bild in das Textfeld ein:

captcha



Bei der Verarbeitung Ihrer personenbezogenen Daten im Zusammenhang mit der Kontaktfunktion beachten wir die gesetzlichen Bestimmungen. Unsere ausführlichen Datenschutzinformationen finden Sie hier. Bei der Kontakt-Funktion erhobene Daten werden nur an den jeweiligen Anbieter weitergeleitet und sind nötig, damit der Anbieter auf Ihr Anliegen reagieren kann.







Um Spam abzuwehren, geben Sie bitte die Buchstaben auf dem Bild in das Textfeld ein:

captcha