CEPH - Scale-Out-Storage-Cluster / Software Defined Storage (Basic Administration)

Total time
Location
At location, Online
Starting date and place

CEPH - Scale-Out-Storage-Cluster / Software Defined Storage (Basic Administration)

GFU Cyrus AG
Logo GFU Cyrus AG
Provider rating: starstarstarstarstar_border 7.9 GFU Cyrus AG has an average rating of 7.9 (out of 13 reviews)

Need more information? Get more details on the site of the provider.

Starting dates and places
placeKöln
2 Mar 2026 until 4 Mar 2026
computer Online: Zoom
2 Mar 2026 until 4 Mar 2026
placeKöln
4 May 2026 until 6 May 2026
computer Online: Zoom
4 May 2026 until 6 May 2026
placeKöln
6 Jul 2026 until 8 Jul 2026
computer Online: Zoom
6 Jul 2026 until 8 Jul 2026
placeKöln
7 Sep 2026 until 9 Sep 2026
computer Online: Zoom
7 Sep 2026 until 9 Sep 2026
placeKöln
2 Nov 2026 until 4 Nov 2026
computer Online: Zoom
2 Nov 2026 until 4 Nov 2026
Description

Schulungen der Extraklasse ✔ Durchführungsgarantie ✔ Trainer aus der Praxis ✔ Kostenfreies Storno ✔ 3=2 Kostenfreie Teilnahme für den Dritten ✔ Persönliche Lernumgebung ✔ Kleine Lerngruppen

Seminarziel

Dieses Seminar bietet einen grundlegenden, fundierten Einblick in Enterprise-Klasse des "Software Defined Storage" mit CEPH unter Linux. Es werden die Konfiguration, Administration, sowie ausgewählte praktische Einsatzszenarien beleuchtet.

Inhalt

  • Ceph-Grundlagen
    • Eine Einführung in Software Defined Storage (Vor- und Nachteile)
    • Die Entwicklung der Ceph-Geschichte
    • RADOS als Objektspeicher und Kern von Ceph
    • Client-Schnittstellen:
      • Das Ceph Block Device / RADOS Block Device (RBD)
      • CephFS als POSIX-kompatibles Dateisystem
      • Das Ceph Object Gateway / RADOS Gateway (RBD) für HTTPS
    • Ceph & Enterprise Linux-Distributionen (RHEL, SLES, Ubuntu)
  • Die RADOS-Architektur
    • Kernkomponenten eine…

Read the complete description

Frequently asked questions

There are no frequently asked questions yet. If you have any more questions or need help, contact our customer service.

Schulungen der Extraklasse ✔ Durchführungsgarantie ✔ Trainer aus der Praxis ✔ Kostenfreies Storno ✔ 3=2 Kostenfreie Teilnahme für den Dritten ✔ Persönliche Lernumgebung ✔ Kleine Lerngruppen

Seminarziel

Dieses Seminar bietet einen grundlegenden, fundierten Einblick in Enterprise-Klasse des "Software Defined Storage" mit CEPH unter Linux. Es werden die Konfiguration, Administration, sowie ausgewählte praktische Einsatzszenarien beleuchtet.

Inhalt

  • Ceph-Grundlagen
    • Eine Einführung in Software Defined Storage (Vor- und Nachteile)
    • Die Entwicklung der Ceph-Geschichte
    • RADOS als Objektspeicher und Kern von Ceph
    • Client-Schnittstellen:
      • Das Ceph Block Device / RADOS Block Device (RBD)
      • CephFS als POSIX-kompatibles Dateisystem
      • Das Ceph Object Gateway / RADOS Gateway (RBD) für HTTPS
    • Ceph & Enterprise Linux-Distributionen (RHEL, SLES, Ubuntu)
  • Die RADOS-Architektur
    • Kernkomponenten eines RADOS-Clusters
      • Object Storage Daemon (OSD)
      • Monitoring Server (MON)
      • Metadaten-Server (MDS)
    • Das Deployment- und Management-Framework „cephadm“
      • „ceph-mgr“ als Management-Komponente
      • „cephadm“ als CLI-Werkzeug
      • Das Ceph Dashboard als grafische Oberfläche
  • CEPH-Setup 
    • Empfehlungen zur Hardware eines Ceph-Clusters in Abhängigkeit vom Usecase
    • Art und Wesen des Ceph-Deployments: Container oder Pakete?
    • Von RADOS und Clients benötigte Komponenten: Systemvorbereitungen
      • Docker / CRI-o
      • NTPd / Chrony
    • Deployment eines Drei-Knoten-Clusters mit „cephadm“ und „ceph“ (Ceph 17 (“Quincy”) inkl. diverser praktischer Übungen)
    • Grundlegende Einstellungen in „ceph.conf“
    • Kurzeinführung in die Authentifizierung mittels „CephX“
    • Beispielhafte Konfiguration von „rbd“ und „cephfs“ als Client
  • Ceph-Administration
    • Grundlegende Analyse eines Ceph-Clusters und seines Zustandes
    • Die interne RADOS-Struktur: Placement Groups & Pools
      • Pools anlegen, entfernen, konfigurieren (Replikationslevel)
      • Location Awareness per CRUSH-Algorithmus
    • Wartungsaufgaben: 
      • Recovery von Monitoring-Servern
      • Hinzufügen und Entfernen von OSD-Diensten
    • Snapshots über die verschiedenen Front-Ends
  • Gängige Einsatzszenarien:
    • Ceph als Storage für OpenStack und Kubernetes
    • Ceph als Backend für NFS und Samba
    • Ceph als HA-Storage für ESXi/vSphere mittels iSCSI



Einen aufbauenden Kurs finden Sie hier: 
CEPH - Scale-Out-Cluster / Software Defined Storage (Advanced Administration)

There are no reviews yet.
Share your review
Do you have experience with this course? Submit your review and help other people make the right choice. As a thank you for your effort we will donate $1.- to Stichting Edukans.

There are no frequently asked questions yet. If you have any more questions or need help, contact our customer service.