CEPH - Scale-Out-Storage-Cluster / Software Defined Storage (Advanced Administration)

Total time
Location
At location, Online
Starting date and place

CEPH - Scale-Out-Storage-Cluster / Software Defined Storage (Advanced Administration)

GFU Cyrus AG
Logo GFU Cyrus AG
Provider rating: starstarstarstarstar_border 7.9 GFU Cyrus AG has an average rating of 7.9 (out of 13 reviews)

Need more information? Get more details on the site of the provider.

Starting dates and places
placeKöln
2 Mar 2026 until 5 Mar 2026
check_circle Starting date guaranteed
computer Online: Zoom
2 Mar 2026 until 5 Mar 2026
check_circle Starting date guaranteed
placeKöln
4 May 2026 until 7 May 2026
computer Online: Zoom
4 May 2026 until 7 May 2026
placeKöln
6 Jul 2026 until 9 Jul 2026
computer Online: Zoom
6 Jul 2026 until 9 Jul 2026
placeKöln
7 Sep 2026 until 10 Sep 2026
computer Online: Zoom
7 Sep 2026 until 10 Sep 2026
placeKöln
2 Nov 2026 until 5 Nov 2026
computer Online: Zoom
2 Nov 2026 until 5 Nov 2026
Description

Schulungen der Extraklasse ✔ Durchführungsgarantie ✔ Trainer aus der Praxis ✔ Kostenfreies Storno ✔ 3=2 Kostenfreie Teilnahme für den Dritten ✔ Persönliche Lernumgebung ✔ Kleine Lerngruppen

Seminarziel

Dieses Seminar bietet einen sehr detaillierten Einblick in Enterprise-Klasse des "Software Defined Storage" mit CEPH unter Linux. Es werden die Konfiguration, Administration, sowie praktische Einsatzszenarien beleuchtet. Hinzu kommen etliche konkrete Praxisszenarien, Designfragen, detaillierte Betrachtungen und Beispiele zum Design von Crushmaps, zur optimalen Datenverteilung im Cluster, des Erasure Codings und dem damit realisierbaren Storage-Tiering (Hot-/Cold-Storage), Setup eines Rados-Gateways für eine eigene Cloud-Storage-Lösung a la 'Dropbox' oder 'Google drive', sowie zahlreiche weitere Praxisbeispiele, Best Practices, Debugging, Troubleshooting-Tipps und vieles mehr

Inha…

Read the complete description

Frequently asked questions

There are no frequently asked questions yet. If you have any more questions or need help, contact our customer service.

Schulungen der Extraklasse ✔ Durchführungsgarantie ✔ Trainer aus der Praxis ✔ Kostenfreies Storno ✔ 3=2 Kostenfreie Teilnahme für den Dritten ✔ Persönliche Lernumgebung ✔ Kleine Lerngruppen

Seminarziel

Dieses Seminar bietet einen sehr detaillierten Einblick in Enterprise-Klasse des "Software Defined Storage" mit CEPH unter Linux. Es werden die Konfiguration, Administration, sowie praktische Einsatzszenarien beleuchtet. Hinzu kommen etliche konkrete Praxisszenarien, Designfragen, detaillierte Betrachtungen und Beispiele zum Design von Crushmaps, zur optimalen Datenverteilung im Cluster, des Erasure Codings und dem damit realisierbaren Storage-Tiering (Hot-/Cold-Storage), Setup eines Rados-Gateways für eine eigene Cloud-Storage-Lösung a la 'Dropbox' oder 'Google drive', sowie zahlreiche weitere Praxisbeispiele, Best Practices, Debugging, Troubleshooting-Tipps und vieles mehr

Inhalt

  • Ceph-Grundlagen
    • Eine Einführung in Software Defined Storage (Vor- und Nachteile)
    • Die Entwicklung der Ceph-Geschichte
    • RADOS als Objektspeicher und Kern von Ceph
    • Client-Schnittstellen:
      • Das Ceph Block Device / RADOS Block Device (RBD)
      • CephFS als POSIX-kompatibles Dateisystem
      • Das Ceph Object Gateway / RADOS Gateway (RBD) für HTTPS
    • Ceph & Enterprise Linux-Distributionen (RHEL, SLES, Ubuntu)
  • Die RADOS-Architektur
  • Kernkomponenten eines RADOS-Clusters
    • Object Storage Daemon (OSD)
    • Monitoring Server (MON)
    • Metadaten-Server (MDS)
  • Das Deployment- und Management-Framework „cephadm“
    • „ceph-mgr“ als Management-Komponente
    • „cephadm“ als CLI-Werkzeug
    • Das Ceph Dashboard als grafische Oberfläche
  • CEPH-Setup 
    • Empfehlungen zur Hardware eines Ceph-Clusters in Abhängigkeit vom Usecase
    • Art und Wesen des Ceph-Deployments: Container oder Pakete?
    • Von RADOS und Clients benötigte Komponenten: Systemvorbereitungen
      • Docker / CRI-o
      • NTPd / Chrony
    • Deployment eines Drei-Knoten-Clusters mit „cephadm“ und „ceph“ (Ceph 17 (“Quincy”) inkl. diverser praktischer Übungen)
    • Detaillierte Übersicht über Einstellungen in „ceph.conf“
    • Authentifizierung mit CephX:
      • Grundlegende Funktionalität
      • Anlegen zusätzlicher Nutzer
      • Integration von Ceph in bestehende Security-/Compliance-Konzepte
  • Ceph-Administration
    • Detaillierte Analyse eines Ceph-Clusters und seines Zustandes
    • Die interne RADOS-Struktur: Placement Groups & Pools
      • Pools anlegen & entfernen
      • Konfiguration des Replikationslevels
      • Anbindung von externen Diensten wie Kubernetes oder OpenStack
      • Recovery-Traffic steuern: Throttling & Beschleunigung
      • Replikation und Erasure Coding in Ceph
    • Wartungsaufgaben: 
      • Recovery von Monitoring-Servern
      • Hinzufügen und Entfernen von OSD-Diensten
    • Snapshots über die verschiedenen Front-Ends
    • Storage Tiers: Hot & Cold Storage in Ceph (mögliche Konzepte)
  • Troubleshooting & Debugging
    • Recovery ausgefallener OSDs und wiederherstellen eines konsistenten Zustandes
    • Recovery verlorener Placement Groups:
      • Status-Analyse vorhandener PGs
      • Mögliche Vorgehensweisen für verschiedene Problemfälle
    • CRUSH steuern: Per Textdatei oder Kommandozeile
    • Disaster Recovery Konzepte für Ceph
    • Backup-Ansätze für Ceph
  • Verbindung verschiedener Dienste mit Ceph
    • Ceph & Libvirt/KVM/Qemu
      • Konfiguration einer Qemu-VM für die Nutzung mit Ceph
    • Ceph & OpenStack
      • Deployment-Empfehlungen
      • Anbindung an Cinder
      • Anbindung an Glance
    • Ceph & Kubernetes
      • Anbindung als externer Cluster
      • Anbindung mittels Rook
    • Ceph & VMware
      • Mögliche Ansätze der Integration in ESXi / vCenter
    • Das Ceph Object Gateway / RADOS Gateway (RGW)
      • Konfiguration der S3-Schnittstelle des Dienstes
      • Anbindung von Client-Anwendungen
      • Replikation zwischen RGW-Instanzen
  • Performance
  • Vorhandene Werkzeuge zur Performance-Messung
  • Tuning-Möglichkeiten auf der Hardware- und Systemebene
  • Tuning für RADOS
  • Caching-Optionen der Clients

There are no reviews yet.
Share your review
Do you have experience with this course? Submit your review and help other people make the right choice. As a thank you for your effort we will donate $1.- to Stichting Edukans.

There are no frequently asked questions yet. If you have any more questions or need help, contact our customer service.