Hallo zusammen, ich betreibe mein IPS System in einem Docker auf einem QNAP NAS - soweit so gut. Ich möchte nun auf einem Raspi PI5 mit einer NVME SSD eine Art „failover“ Station bauen.
Mein Vorgehen wäre nun folgendes, dass ich ein Skript auf dem RASPI Schreibe, was sich die Daten vom NAS holt - am liebsten ein RSYNC, so dass ich so gut wie keine Verluste habe, wenn das NAS ausfällt.
Einen automatischen Failover zum Raspi brauche ich nicht… Soll nur für den Notfall sein.
Wie würdet ihr das ganze technisch lösen? Kann ich die Lizenz einfach rüber auf den RASPI transferieren - wenn dann läuft ja nur eine Umgebung… Entweder NAS oder RASPI.
Das würde mich auch interessieren, glaube aber dass es nicht so einfach out oft the box möglich sein wird.
Z.b. wird ja schon die IP von Symcon eine andere sein, so dass man die Config nicht einfach spiegeln kann. Im Moment habe ich daher Symcon in zwei Dockersystemen (auf zwei verschiedenen Rechnern). Beide sind spezifisch konfiguriert aber nur einer läuft als Produktionssystem. Aber - alle Änderungen im Produktivsystem muss ich im „Backup“ händisch nachhalten…
Vor einigen Jahren hatte ich den Fall das meine Synology den Dienst eingestellt hatte und dort lief IPS im Docker. Ich habe aber täglich mit meinem QNAP ein Backup der wichtigsten Sachen vom Synology gemacht. Docker auf QNAP eingerichtet, IPS Backup in ein Verzeichnis für die Volumes kopiert und gestartet. Ich kann mich nicht an Probleme erinnern. Nach wenigen Minuten lief auch Zigbee2MQTT auf dem QNAP.
Man kann den Notfall ja mal simulieren. Gerät 1 vom Netzwerk trennen und Gerät 2 mit Backup starten.
Danke! Stichwort zigbee. Bei mir funktioniert das so nicht, da ich im Moment den internen Symcon MQTT Broker benutze und dann in allen externen Systemen die IP anpassen müsste. (Workround externer Broker schon in Arbeit - aber auch hier: dann wird das mein Single Point of failure)
Ich habe es noch radikaler gemacht. Ich habe der QNAP einfach die IP der kaputten Synology gegeben. Nach Ersatz der Synology hatte ich es dann wieder rückgängig gemacht.
Also ich habe mal mit chatgpt folgendes Script erzeugt:
#!/bin/bash
# === KONFIGURATION ===
CONTAINER_NAME="mein-container" # Docker-Container-Name
SOURCE_PATH="/share/Daten" # Ordner auf dem NAS
PI_USER="pi" # Benutzer auf Raspberry Pi
PI_IP="192.168.1.100" # IP-Adresse des Pi
PI_PATH="/home/pi/nas-backup" # Zielpfad auf dem Pi
EMAIL="dein.name@beispiel.de" # Empfänger für Fehlerbenachrichtigung
SUBJECT="❌ Sync-Fehler NAS → Pi"
LOGFILE="/share/logs/sync_to_pi.log"
# === START LOGGING ===
echo "===== $(date '+%Y-%m-%d %H:%M:%S') =====" >> "$LOGFILE"
# === STOPPE DOCKER CONTAINER ===
echo "[INFO] Stoppe Docker-Container $CONTAINER_NAME" >> "$LOGFILE"
docker stop "$CONTAINER_NAME" >> "$LOGFILE" 2>&1
# === FÜHRE RSYNC DURCH ===
echo "[INFO] Starte Daten-Sync zu Raspberry Pi..." >> "$LOGFILE"
rsync -avz -e ssh "$SOURCE_PATH"/ "$PI_USER@$PI_IP:$PI_PATH" >> "$LOGFILE" 2>&1
RSYNC_EXIT=$?
# === STARTE DOCKER CONTAINER WIEDER ===
echo "[INFO] Starte Docker-Container $CONTAINER_NAME wieder" >> "$LOGFILE"
docker start "$CONTAINER_NAME" >> "$LOGFILE" 2>&1
# === PRÜFE AUF SYNC-FEHLER ===
if [ $RSYNC_EXIT -ne 0 ]; then
echo "[ERROR] Sync fehlgeschlagen! Sende E-Mail an $EMAIL." >> "$LOGFILE"
echo -e "Betreff: $SUBJECT\n\nDer Sync vom NAS zum Raspberry Pi ist fehlgeschlagen.\nDatum: $(date)\nFehlercode: $RSYNC_EXIT\nSiehe Logfile: $LOGFILE" | /usr/sbin/sendmail "$EMAIL"
else
echo "[INFO] Sync erfolgreich abgeschlossen." >> "$LOGFILE"
fi
echo "" >> "$LOGFILE"
Das ganze dann per Cron auf dem NAS eingebunden.
Ausprobiert habe ich es noch nicht - werde ich heute Abend mal versuchen.
So wird jede Nacht automatisiert vom QNAP zum Raspi der Data Ordner von IPS kopiert bzw. synchronisiert. Das würde mir ausreichen. Ein Tag Verlust könnte ich mit leben.
Ein Realtime-Sync ist m.W. nach nicht möglich oder?
Ich finde meine Beschreibung im Forum nicht. In kurz mein Ansatz.
Zwei PI mit Symcon, einer läuft aktiv, der andere ist „nur“ vollständig installiert und NFS über QNAP.
Auf den NFS Share rsynce ich alle 10 Minuten die Daten von Symcon und hole sie danach auf den zweiten PI. Ich hatte noch nie Probleme mit „offenen Dateien“, alle Wechsel haben immer funktioniert.
Durch diesen Weg habe ich weitgehend immer einen zweiten PI mit vollständiger Installation.
Fällt der erste aus, konfiguriere ich den zweiten um, also IP und Smycon Start und alles läuft wieder.
Ergänzend erstelle ich Snapshots auf der QNAP, wodurch dann auch noch ältere Versionen bei Bedarf zugänglich sind.
Moin Frad,
meintest Du mich? Ich hatte mal einen Raspberry 2 aber für mich als Speedfreak war er niedlich aber nicht mehr. Mein aktives System läuft im Docker auf meiner Synology. Die Synology selbst macht jede Nacht 2 Kopien:
einfache 1:1 Kopie von alle Dockerdaten in ein anderes Verzeichnis. Falls ich mal ein bißchen Mist baue komme ich so schon an Daten vom Vortag.
Backup der letzten 14 Tage von IPS und Zigbee falls ich mal großen Mist baue und es erst nach ein paar Tagen merke. Nur IPS und Zigbee weil sich bei den anderen Dockern nicht oft was ändert.
Mein QNAP wacht einmal in der Woche auf um macht ein Bakup der wichtigen Synology Daten. Einmal pro Woche ist mir hier auch genug weil sich bei IPS/Z2M aktuell nicht mehr so viel ändert.
Falls die Synology jetzt mal wieder ausfällt hat das QNAP schon alle Daten. Wenn ich Langeweile habe mache ich von Hand ein Backup auf eine externe 2.5´´ Platte was ich mal wieder machen sollte.
Also ich mache es umgedreht, weil ich für IPS dedizierte Hardware wollte… will sagen mein Haupt IPS läuft auf einem Pi im Container, die Container-Daten werden täglich auf mein NAS repliziert. Sollte mein PI ausfallen kann ich entweder mit neuem PI und den Daten von der alten SSD, dem Backup vom NAS oder mit einem neuen Container und alten Daten auf dem NAS übernehmen… in aufsteigendem Aufwand. Man kann natürlich auch ein Hot-Standbye erzwingen, live syncen etc. aber das war mir too much.