Seminare
Seminare

CEPH - Scale-Out-Storage-Cluster / Software Defined Storage (Advanced Administration)

Seminar - GFU Cyrus AG

Dieses Seminar bietet einen sehr detaillierten Einblick in Enterprise-Klasse des Software Defined Storage mit CEPH unter Linux. Es werden die Konfiguration, Administration, sowie praktische Einsatzszenarien beleuchtet. Hinzu kommen etliche konkrete Praxisszenarien, Designfragen, detaillierte Betrachtungen und Beispiele zum Design von Crushmaps, zur optimalen Datenverteilung im Cluster, des Erasure Codings und dem damit realisierbaren Storage-Tiering (Hot-/Cold-Storage), Setup eines Rados-Gateways für eine eigene Cloud-Storage-Lösung a la 'Dropbox' oder 'Google drive', sowie zahlreiche weitere Praxisbeispiele, Best Practices, Debugging, Troubleshooting-Tipps und vieles mehr
Termin Ort Preis*
firmenintern auf Anfrage auf Anfrage
*Alle Preise verstehen sich inkl. MwSt.

Detaillierte Informationen zum Seminar

Inhalte:
  • Ceph-Grundlagen
    • Eine Einführung in Software Defined Storage (Vor- und Nachteile)
    • Die Entwicklung der Ceph-Geschichte
    • RADOS als Objektspeicher und Kern von Ceph
    • Client-Schnittstellen:
      • Das Ceph Block Device / RADOS Block Device (RBD)
      • CephFS als POSIX-kompatibles Dateisystem
      • Das Ceph Object Gateway / RADOS Gateway (RBD) für HTTPS

    • Ceph & Enterprise Linux-Distributionen (RHEL, SLES, Ubuntu)

  • Die RADOS-Architektur
  • Kernkomponenten eines RADOS-Clusters
    • Object Storage Daemon (OSD)
    • Monitoring Server (MON)
    • Metadaten-Server (MDS)

  • Das Deployment- und Management-Framework „cephadm“
    • „ceph-mgr“ als Management-Komponente
    • „cephadm“ als CLI-Werkzeug
    • Das Ceph Dashboard als grafische Oberfläche

  • CEPH-Setup 
    • Empfehlungen zur Hardware eines Ceph-Clusters in Abhängigkeit vom Usecase
    • Art und Wesen des Ceph-Deployments: Container oder Pakete?
    • Von RADOS und Clients benötigte Komponenten: Systemvorbereitungen
      • Docker / CRI-o
      • NTPd / Chrony

    • Deployment eines Drei-Knoten-Clusters mit „cephadm“ und „ceph“ (Ceph 17 (“Quincy”) inkl. diverser praktischer Übungen)
    • Detaillierte Übersicht über Einstellungen in „ceph.conf“
    • Authentifizierung mit CephX:
      • Grundlegende Funktionalität
      • Anlegen zusätzlicher Nutzer
      • Integration von Ceph in bestehende Security-/Compliance-Konzepte


  • Ceph-Administration
    • Detaillierte Analyse eines Ceph-Clusters und seines Zustandes
    • Die interne RADOS-Struktur: Placement Groups & Pools
      • Pools anlegen & entfernen
      • Konfiguration des Replikationslevels
      • Anbindung von externen Diensten wie Kubernetes oder OpenStack
      • Recovery-Traffic steuern: Throttling & Beschleunigung
      • Replikation und Erasure Coding in Ceph

    • Wartungsaufgaben: 
      • Recovery von Monitoring-Servern
      • Hinzufügen und Entfernen von OSD-Diensten

    • Snapshots über die verschiedenen Front-Ends
    • Storage Tiers: Hot & Cold Storage in Ceph (mögliche Konzepte)

  • Troubleshooting & Debugging
    • Recovery ausgefallener OSDs und wiederherstellen eines konsistenten Zustandes
    • Recovery verlorener Placement Groups:
      • Status-Analyse vorhandener PGs
      • Mögliche Vorgehensweisen für verschiedene Problemfälle

    • CRUSH steuern: Per Textdatei oder Kommandozeile
    • Disaster Recovery Konzepte für Ceph
    • Backup-Ansätze für Ceph

  • Verbindung verschiedener Dienste mit Ceph
    • Ceph & Libvirt/KVM/Qemu
      • Konfiguration einer Qemu-VM für die Nutzung mit Ceph

    • Ceph & OpenStack
      • Deployment-Empfehlungen
      • Anbindung an Cinder
      • Anbindung an Glance

    • Ceph & Kubernetes
      • Anbindung als externer Cluster
      • Anbindung mittels Rook

    • Ceph & VMware
      • Mögliche Ansätze der Integration in ESXi / vCenter

    • Das Ceph Object Gateway / RADOS Gateway (RGW)
      • Konfiguration der S3-Schnittstelle des Dienstes
      • Anbindung von Client-Anwendungen
      • Replikation zwischen RGW-Instanzen


  • Performance
  • Vorhandene Werkzeuge zur Performance-Messung
  • Tuning-Möglichkeiten auf der Hardware- und Systemebene
  • Tuning für RADOS
  • Caching-Optionen der Clients




Zielgruppe:
Administratoren und Systembetreuer:innen, die CEPH - Storage Cluster einrichten und professionell administrieren möchten.

Sehr gute Vorkenntnisse in den Bereichen Linux-System- und Netzwerk-Administration sollten vorhanden sein, ebenso Vorkenntnisse im Bereich HA-Clustering. Die Teilnehmenden sollten zuvor das Seminar CEPH - Scale-Out-Cluster / Software Defined Storage (Basic  Administration) besucht haben oder einen vergleichbaren Kenntnisstand aufweisen.
Seminarkennung:
S1788
Nach unten
Nach oben
Wir setzen Analyse-Cookies ein, um Ihre Zufriedenheit bei der Nutzung unserer Webseite zu verbessern. Diese Cookies werden nicht automatisiert gesetzt. Wenn Sie mit dem Einsatz dieser Cookies einverstanden sind, klicken Sie bitte auf Akzeptieren. Weitere Informationen finden Sie hier.
Akzeptieren Nicht akzeptieren









Um Spam abzuwehren, geben Sie bitte die Buchstaben auf dem Bild in das Textfeld ein:

captcha



Bei der Verarbeitung Ihrer personenbezogenen Daten im Zusammenhang mit der Kontaktfunktion beachten wir die gesetzlichen Bestimmungen. Unsere ausführlichen Datenschutzinformationen finden Sie hier. Bei der Kontakt-Funktion erhobene Daten werden nur an den jeweiligen Anbieter weitergeleitet und sind nötig, damit der Anbieter auf Ihr Anliegen reagieren kann.







Um Spam abzuwehren, geben Sie bitte die Buchstaben auf dem Bild in das Textfeld ein:

captcha