Version [4736]
Dies ist eine alte Version von ProxmoxCephCluster erstellt von WojciechLisiewicz am 2025-02-19 22:46:56.
Inhaltsverzeichnis des Artikels
A. Ziel
B. Prozedur kurz zusammenge...
C. Auswahl / Konzeption Har...
D. Installation Proxmox auf...
E. Netzwerk-Config
1. Aufteilung des Netzwerkv...
a. Ceph INTERNAL
b. Ceph PUBLIC
c. virtual guest traffic
d. VM live-migration traffic
e. corosync traffic
2. Konfiguration des SDN
a. Struktur
3. Schritt für Schritt
a. Netzwerkvorbereitung für...
b. VLAN Problem auf dem Swi...
B. Prozedur kurz zusammenge...
C. Auswahl / Konzeption Har...
D. Installation Proxmox auf...
E. Netzwerk-Config
1. Aufteilung des Netzwerkv...
a. Ceph INTERNAL
b. Ceph PUBLIC
c. virtual guest traffic
d. VM live-migration traffic
e. corosync traffic
2. Konfiguration des SDN
a. Struktur
3. Schritt für Schritt
a. Netzwerkvorbereitung für...
b. VLAN Problem auf dem Swi...
Proxmox-Cluster mit Ceph
eine integrierte Lösung für Rechenzentrum ohne single Point of failure
A. Ziel
Ziel der Lösung ist
- Cluster
- Proxmox mit - am Ende - high availability für virtuelle Maschinen und Container
- also es gibt keinen single point of failure
- es werden nicht nur die VM und LXC beliebig verschiebbar, sondern auch weitere Komponenten per Software abgebildet:
- das Netzwerk (SDN und damit Verschiebbarkeit eines Routers oder von Maschinen mit Verbindungen in das LAN, die DMZ oder sonstige verbundene Netzwerke)
- Storage, also Speicherplatz für alle Maschinen und Daten, der sich von den Node´s unabhängig macht, was mit Ceph möglich ist
- die gesamte Lösung wird nicht nur einmal für das gesamte Rechenzentrum umgesetzt, sondern für zwei, o dass mit einer einfachen Replikation unter Ceph praktisch die Rechenzentren als Duplikate füreinander dienen können - und bei Ausfall eines Clusters praktisch verzögerungsfreie Umschaltung auf den zweiten Cluster möglich ist
B. Prozedur kurz zusammengefasst:
Folgende Schritte werden hier zusammengefasst:
- Auswahl, Dimensionierung und hardwareseitige Konzeption des Clusters
- Installation Proxmox auf jedem Node
C. Auswahl / Konzeption Hardware
Folgendes beachten:
- da Ceph allein schon Rechenleistung nimmt, sind leistungsfähige Nodes über kurz oder lang unersetzlich; bei 6 OSD braucht man schon 8 Kerne - also kleine Geräte mit 8 Kernen müssen sich noch im Betrieb bewähren und werden sicher nie allzu viele Maschinen beherbergen können;
- Netzwerke müssen schnell und redundant sein; ich will es versuchen mit 2x 10 Gb und 4x 1 Gb je Node das Netzwerk (per SDN) umzusetzen;
D. Installation Proxmox auf den Nodes
Die Installation ist zunächst normal - einige Klippen sollte man aber beachten:
- bei Installationsproblemen mit alter Grafik hilft die verlinkte Information
E. Netzwerk-Config
1. Aufteilung des Netzwerkverlehrs bei einem Ceph-Cluster
Ein Cluster hängt maßgeblich vom Netzwerk ab. Wir brauchen bei CEPH - gem. Doku von Proxmox - im Zweifel folgende, parallele Netzwerke in der Konfiguration:
Ein Cluster hängt maßgeblich vom Netzwerk ab. Wir brauchen bei CEPH - gem. Doku von Proxmox - im Zweifel folgende, parallele Netzwerke in der Konfiguration:
- sehr schnelles Netzwerk (25+ Gbps) => Ceph INTERNAL
- schnelles Netzwerk (10+ Gpbs) => Ceph PUBLIC
- mit Ceph PUBLIC kann auch verbunden werden virtual guest traffic und VM live-migration traffic
=> aber mit alternativer Lösung auch getrennt sinnvoll?
- normales Netzwerk (1 Gbps) exklusiv für corosync (Kommunikation im Cluster);
- Netzwerk corosync 1 = 10.10.1.0/24 über einen separaten Switch (keinerlei Verbindung mit anderen Netzwerken); immer über ersten NIC der gesteckten Netzwerkkarte
- Netzwerk corosync 2 = 10.10.2.0/24 über den normalen Switch für ganzes Netzwerk auf anderem VLAN (?) als Management aber auf der Netzwerkkarte mit Management (Karte onboard)
2. Konfiguration des SDN
Software Defined Network ist in Proxmox ab V.8.1 standardmäßig aktiv. Es müsste die Konfiguration der Netzwerke wohl erleichtern. Hier werden die essenziellen Informationen gesammelt.
Software Defined Network ist in Proxmox ab V.8.1 standardmäßig aktiv. Es müsste die Konfiguration der Netzwerke wohl erleichtern. Hier werden die essenziellen Informationen gesammelt.
zone <==== vnet <==== subnet
- Zone = Bestimmung der Möglichkeiten / Techniken für Netzwerke. Getrennter Bereich für Netzwerke
- VNet = virtuelles Netzwerk in einer zone
- Subnet = IP range, also wie immer
Sobald ein VNet definiert wurde (unter "datacenter" => "SDN"), dann ist es in jedem node lokal sichtbar - als eine normale Linux bridge und jede VM oder jeder Container kann an diese angebunden werden.
(1) NIC 1 onboard
Da hier auch schon Management und Internet für die nodes läuft, sollte diese Schnittstelle über VLAN laufen. Also:
- VLAN auf eno1 als eno1.11 erstellen (ohne IP oder Gateway)
- auf dem VLAN eno1.11 die Bridge vmbr1 einrichten
- vmbr1 bekommt IP 10.99.1.node
(2) NIC 1 auf PCIe Netzwerkkarte
Hier wird nur eine normale Bridge erstellt - direkt auf dem NIC:
- auf ens1 wird vmbr2 erstellt
- sie bekommt IP 10.99.2.node
Diese Seite wurde noch nicht kommentiert.