Welche Platform für Umzug

Meine Erfahrung: IPS auf Windows 10 Pro seit 2018 völlig problemlos, absolut pflegeleicht, Zeitaufwand incl. IPS-Updates vielleicht 10 Minuten im Jahr.

Keine Tricks, keine „hundert Stellen an denen geschraubt wurde“, es ist eine einfache Standardinstallation out of the box.

1 „Gefällt mir“

…man sollte auch einen anderen Aspekt berücksichtigen: wer kommt mit dem System zurecht wenn ich mal ausfalle? Ich selbst habe 2 Systeme laufen, zuhause auf dem NAS im Docker, im Wohnmobil auf einem Pi 4 mit SSD (ohne SD Karte) verbunden mit dem Sync Modul … aus meiner Sicht absolut pflegeleicht … aber wenn ich mal ausfalle sieht das schlecht aus, da wäre vielleicht eine Windows Maschine die bessere Wahl???
Gruß Michael

1 „Gefällt mir“

Generell spielen die persönlichen Erfahrungen eine Rolle für was man sich entscheidet :wink:.

Ich denke egal welches System man nutzt, wenn der/die Macher/-in ausfällt wird es für die Partner immer schwer sein, einfach zurecht zukommen.

Ich dokumentiert aus diesem Grund wichtige Themen und lege diese einfach aufrufbar in einem Familien Cloudspeicher ab.

Hallo in die Runde,
Ich nutze persöhnlich einen RADXA Rockpi 4B mit EMMC (Onboard),
als OS nutze ich armbian, da dieses sich immer aktuell hält (Symcon support bei updates),
aktuell im Premium-support ist der Rock5C, der 4b ist community maintained.

Das ding hat mehr als genug Power, langweilt sich eher, und verbraucht richtig wenig Strom !
und vergleichsweise Günstig

Vorteile gegenüber Raspberry:
Onboard EMMC (wegen der Schreibzklen) und gleichzeitig SDCard (für die Backups/mit BTRFS Schnapshots)
Deswegen habe ich sämtlich Raspberry verbannt, da diese, egal mit welchen „guten und teuren“ SD-Karten immer nach einer zeit abgeschmirt sind, ich vor der Unterverteilung in der Abseite einen Monitor anschließen musste und dann per komandozeile im Notfallmodus das Filesystem reparieren musste.

Der Raspberry und auch das CM Modul 4/5 können nicht gleichzeitig EMMC und SD-Card!

Vorteile gegenüber der Symbox:
offenes OS,
SSH zugang, Netzwerkkarte mit mehreren IP-Adressen bzw bei mir VLAN tags,
port 80 → https:/ redirekt mit apache2 oder HAProxy
USB für z.B. Elatako enocean usb gateway, USB SML leser, etc.
multible schnittstellen über rs232 nachrüstbar

Theoretisch hat der Rock auch 3 RS232 schnittstellen am GPIO, das CM5 sogar 10.

Habe auch schon angefangen, ein Baseboard für das CM5 in Hutschienengröße zu entwickeln, ist aber ein längeres Projekt und nur nebenbei möglich.

Jetzt erstmal Integrator/OEM werden.

Gruß aus Norddeutschland

Bis zu dem Satz fand ich es noch gut. Aber Speicherkarte gut oder schlecht ist keine Empfehlung, der man folgen sollte.
Gerne für Testsysteme oder wenig Schreiblastige aber generell sollte man sich genau überlegen, wo man diese heute noch einsetzt.

LG

Stand vor 2 Jahren vor derselben Frage. Und habe mir dann bei Amazon einen MiniPC für 200€ bestellt und Proxmox drauf installiert. Jetzt läuft IPS unter Proxmox und in einem zweiten VM habe ich noch HomeAssistant installiert.
Ich finde eine virtualisierte Umgebung super, da ich so die gesamte IPS Umgebung / VM einfach wegsichern kann. Sollte die Hardware ausfallen, wäre ich sehr schnell auf einer neuen Hardware wieder lauffähig.

1 „Gefällt mir“

Natürlich sollte man sich Gedanken machen für welches System man das einsetzt.
Für kleine Wohnungen/Häuser sehe ich da kein Problem mehr.
Ja, Speicherkarten haben eine schlechtere Qualität der Flash-Speicher als SSDs.
Ich habe mehrere Systeme auf Pis am Laufen und setze dabei seit Jahren auf SanDisk. Die Speicherkarte hat bislang die Laufzeit des Systems immer überlebt.
Wenn man nach 5 Jahren auf ein neueres Betriebssystem wechseln macht man das sinnvollerweise natürlich auch auf eine neue Karte.
Hierbei sollte man eine relativ große Karte verwenden, da die Daten dann nicht immer auf die gleichen Speicherzellen geschrieben werden. Symcon ist auch so optimiert, dass nicht unnötig geschrieben wird.

Bislang habe ich noch nie Probleme damit gehabt und spare mir beim Stromverbrauch den zusätzlichen Speicher.

Wie gesagt ist auch mit Sicherheit nicht für jedes System geeignet und ein Backup sollte natürlich immer vorhanden sein, egal welches Speichermedium.

Ein paar No-Name Speicherkarten hatten bei mir schon einen Ausfall aber von den hochwertigen bislang nur eine kleine 8GB Karte von meiner Dashcam, auf der jahrelang massiv rumgeschrubbt wurde (das ist vollkommen legitim) .

Für ein System mit > 1000 Variablen die geloggt werden würde ich dann auch eher auf einen besseren Speicher gehen.

1 „Gefällt mir“

Guter Hinweis mit den erstellen von Backups! Werde mich dann demnächst dann auch mal mit Proxmox beschäftigen. Wie ist das dann eigentlich bei mehreren VM auf einem System? Bekommen die alle die gleiche IP, oder wie wird das gelöst?

Grüße André

Jede VM hat grundsätzlich erstmal einen eigenen simulierten Netzwerkadapter mit eigener IP-Adresse.
Du kannst aber bei Bedarf auch diese Einstellung sehr dezidiert konfigurieren und nach deinen Vorstellungen einrichten (z.B. DHCP an / statische Adresse / anderes Subnet / etc.).

1 „Gefällt mir“

Wenn man den Ressourcenbedarf eines Debian Linux-Containers mit darauf installierten Symcon mit der einer Fat Win 11 Installation mit Symcon vergleicht, kommt jeder jahrzehntelange Windows-Fan dann doch ins grübeln … :joy: Mein Tip wär ja auch Proxmox. Meine Abneigung gegen Linux und Konsole habe ich auch erst nach 52 Jahren abgelegt … Kann’s verstehen.

1 „Gefällt mir“

Guten Morgen, ich finde die Lösung mit der VM Interessant. Hab ich das richtig verstanden das eine VM wie Proxmox quasi als Betriebssystem funktioniert ?? Darauf dann einfach das Symcon installieren ? Wie verhält es sich mit Drittanbieter Software ? Ich habe geschaut was sonst nocht auf dem XP rumrödelt, da ist das ServiceCenter von Resol und ein Toll von AE um den Wechselrichter auszulesen, auf beides greife ich über Umwege mit IPS zu.

Eine interessante Diskussion, auf welche ich aus eigenem Anlass aufmerksam wurde.

Ich betreibe IPS seit 2009, auf einem Windows Server, allerdings nicht für soviele Dinge: etwas Markisen- und Rolladen-Steuerung mit allem drumherum (Wind, regen, Sonne), und etwas Lichtsteuerung - war zufrieden damit.
Mittlerweile habe ich den Windows-Server (noch 32 Bit) als virtuellen Client auf einem physischen Ubuntu-Server + weitere Windows Server, nicht nur für IPS, auch für Musik, Storage und anderes.
Als ich vor Jahren dann IPS ugraden wollte, musste ich festellen, dass 64Bit ein Muss ist, ich wollte aber keine Windows Server-Lizenz mehr kaufen.
Also stehe ich immer noch auf dem alten IPS, Stand ca. 2016, und es arbeitet brav - vieles kann es natürlich nicht, weil es so alt ist.

Nun habe ich letztes Jahr das Ziel gefasst, unsere WP (Wärmepumpe) besser überwachen zu können.
IPS fällt aus, da keine neue Server-Lizenz.
Ubuntu fällt aus (dachte ich), da ich einen Silex-USB-Server sowie Remote 1-Wire in Betrieb habe (Server steht im Keller, und da bleibt er auch).

Also hab ich mal Home-Assistant probiert, und ja, Wärmepunpe-Überwachung geht, nach anfänglichen Irrungen und Wirrungen sogar gut.
Aber ich werde dennoch nicht richtig warm mit dem Ding - genausowenig wie mit Homematic, übrigens - wohingegen ich im IPS als Entwickler recht gut zuhause bin.

Also hingesetzt und mal nachgedacht, und wieder viele Stunden Versuche gemacht.

Resultat:

  • Ich werde IPS ugraden und auf Ubuntu installieren/ betreiben.
  • Ohne Docker - macht alles nur noch komplexer, und ich will das Ding nicht hochskalieren usw.
  • Remote-USB und Remote-1-Wire mache ich via einen Rasperry, entweder Zero oder 4 (auf 4 habe ich das mal getestet).
  • Front/End auf iPad / iPhone muss auch her, wegen Frau und Akzeptanz.
  • Zigbee will ich dann auch dranhängen (hab ich jetzt an Hue Bridge)
  • Langfristig werde ich vielleicht zwei Mini-Computer mit Linux nehmen, als Cluster - man hat ja sonst nichts zu tun.

Und warum weg von Windows, wo ich doch auch beruflich in der Windows Welt zuhause bin?

Nun, im Geschäftsumfeld ist es egal - die Firma bezahlt ja die dauernd notwendigen (erzwungenen) Updates und damit verbundenen Kosten und Aufwände.
Privat geht mir das komplett gegen den Strich - in meinem Haus betimme ich, wann ich etwas ersetze, und sonst niemand …
Und: meine Erfahrungen mit dem Ubuntu seit 2018 sind gut - stabiler Betrieb.
Windows Server boote ich auch im Geschäft jede Woche - ansonst klemmts irgendwann.

Wen es noch interessiert: vom Windows Client gehe ich via PikVM als KVM auf den Ubuntu-Server im Keller, da habe ich sogar Zugang zum BIOS.
Auf die Raspi gehe ich mit XRDP.

1 „Gefällt mir“

Ich verstehe nicht, warum du einen öffenbar sehr veralteten Windows Server (2008?) betreibst? Also warum die Server-Version und längst auf ein normales Windows Home oder Pro umgezogen?

Wie ich schrieb - ich betreibe zuhause eine grössere Umgebung: mehrere PCs/NBs, einen Ubuntu-Host auf Low-Power-HW, mehrere virtuelle Server mit DCs, DNS, DHCP, Applikationen und Datenbanken, Steuerungen, NAS-Backup, dazu natürlich auch eine Firewall - es ist Hobby und Beruf gemischt.
C/S-Applikationen auf einem Windows Client zu betreiben käme mir nie in den Sinn, obwohl man das ja immer kann - allerdings habe ich auch sw, die nur auf Win-Servern installiert werden kann.
Und: ja es sind alte Server, aber sie laufen genausogut wie die 2022er, keinesfalls langsamer, das kann ich Dir versichern - abgesehen davon, das sie nur 32Bit sind, natürlich … aber wer braucht schon wirklich 64Bit - von den Ressourcen her kaum jemand, es sei denn, man will die Zukunft der Welt berechnen :slight_smile: - aber das wäre ein anderes Thema.
Jedenfalls, meine Umgebung läuft gut, schlank, schnell, und habe ich keine Lust, neue Windows-Lizenzen zu kaufen, um danach dasselbe zu haben wie vorher.
Ich habe zwar die letzen 30 Jahre meines IT Berufslebens mit Windows verbracht - lieben tue ich sie deswegen aber nicht, und schenken tue ich denen auch nichts :slight_smile:

Genau dafür benötige ich 64 bit und 128 GB, allerdings unter Ubuntu. :wink:
Über Windows Pro mit IPS kann ich nur Positives berichten, aber jeder Jeck ist anders.

Guten Morgen,

Bin etwas verwundert über deine Aussagen wenn du in der IT arbeitest :thinking:. Wir betreiben in der Firma eine große heterogene VMware Umgebung mit mehreren 100 Servern sowohl Windows (Server ab 2022 als Datacenterlizenz) und auch etliche Linux Server. Wir booten weder die Linux noch die Windows Server regelmäßig, nur bei Updates oder geplanten Umstellungen und haben das Problem welches du beschreibst nicht :wink:.

Aus Sicherheitsgründen solltest du im Eigeninteresse auch die privaten Systeme aktuell halten, den das schwächste Glied in der Umgebung ist das Einfallstor / die Schwachstelle. Die Serverlizenz kann man(n) sich privat sparen da reichen auch Windows Workstation Lizenzen und du kannst Workstation mit mehreren CPUs und Arbeitsspeicher >128 GB betreiben, wobei ich im privaten Umfeld keine Applikationen kenne die diese Power benötigt.

Soll keine Kritik sein, vielmehr ein Denkanstoß :blush::wink:

Guten Tag

Eigentlich befinden wir uns ja OT.
Doch doch, ich arbeite in einer IT, und das seit weit über 30 Jahren - heute ebenfalls mit Hunderten von Servern, grossen VMware-Hosts, Storage Systemen, gespiegelt, an weltweit 6 Standorten, alle natürlich verbunden via VPN. Wir sind also auch gross - haha.
Auf der Hälfte der Server laufen DBMS und, nebst SAP, andere grössere Applikationen - und ja, manche Server laufen in Probleme, irgendwann nach 4-6 Wochen, wenn man sie nicht regelmässig neu bootet. Sporadische Probleme, mal hier, mal da - also das was man am liebsten hat.

Dass dies bei Euch nicht nötig ist, stelle ich aber nicht in Abrede - jede Umgebung ist anders, und wichtig ist, dass man auf seine eigenen Erfahrungen reagiert; unsere Erfahrungen sind wie geschildert, und darum handbaben wir das so.

Was deine Ausführungen zum Update aus Sicherheitsgründen angeht, also das stelle ich aber entschieden in Abrede - etwas salopp gesagt: Sicherheit durch Update, das ist reinstes Marketing-Gerede.
Falls Du wie ich mit SW-Entwicklung zu tun hast, weisst Du, dass pro 10 Korrekturen auch eine gewisse Menge an neuen Problemen Einzug hält - das ist so und lässt sich nicht verhindern.
Und der Unteschied zwischen den alten und den neuen Problemen? Die Neuen kennt man noch nicht.
Und wenn neue Server-OS echte neue Funktionalitäten beinhalten, kann man getrost davon ausgehen, dass da noch eine ganze Menge neuer, noch unbekannter Fehler inklusive Sicherheitslücken drauf lauern, endlich in Erscheinung treten zu können, den grossen Auftritt zu haben - Fehler und Lücken, welche manchmal grösser sind als alles je zuvor - nur eben, noch unbekannt.

Und wenn man dazu - wie hier in meinem privaten Umfeld - dann noch die neuen Funktionen gar nicht benötigt … kauft man Risiko ohne Gewinn.

Anstatt Risiko ohne Gewinn bevorzuge ich den Einsatz von gehärteten Servern, was heisst, Stillegung und Entfernung (!) aller nicht benötigten Funktionen des Servers - und davon gibt es mehr als benötigte.

Diese Strategie hat sich bewährt, nicht nur bei mir, es gibt weltweit beste Erfahrungen damit - aber, und das ist auch wahr, eine neue Generation von OS zu härten ist enorm aufwendig - und darum ist das Härten von Servern gerade in der Geschäftswelt - leider - etwas aus der Mode gekommen.

Die Gründe dazu sehe ich vor allem in der fehlender Zeit dafür, aber auch im mangelnden Wissen - denn man muss dafür tiefe Kentnisse aller (nötigen und unnötigen) Server-Funktionen wie auch der jeweiligen Applikationen haben. Und auch etwas Mut.
Ich bin aber nach wie vor von dieser Methode überzeugt.

Und danke für den Hinweis zu Windows Workstation, aber wie ich ursprünglich ausführte, will ich mir vom Hersteller nicht diktieren lassen, wann ich mein System wechseln muss, und darum werde ich nie mehr eine Windows Lizenz zu Serverzwecken kaufen - egal wie man die Lizenz nun nennt.

Aber auch da gilt für mich: jeder wie er es will.

So wie du sagst, obliegt die Entscheidung der jeweiligen IT-Abteilung und jedes Update direkt bei Erscheinen zu installieren, ist in solchen Umgebungen auch nicht ohne weiteres Möglich. Ein Update auf z.B. Server 2025 wird aktuell niemand in einer Live-Umgebung durchführen, maximal in einer Testumgebung erste Tests durchführen.

Eine Härtung der Systeme gehört immer noch zum Standard auch bei uns, es werden generell nur Dienste und Einstellungen aktiviert welche auf dem jeweiligen System benötigt werden. Ist auch ratsam dies zu machen, mir ist auch bekannt das es andere RZs gibt in welchen immer alles installiert und aktiviert wird, es könnte nachher ja mal ein Dienst benötigt werden :woozy_face: der dann mühsammmmmmmmmmm nach installiert werden müsste. Die wissen oft nicht was Sie damit für ein zusätzliches Risiko schaffen.

Erste Wahl ist bei uns immer noch Linux, auch SAP läuft unter dieser Umgebung aus Sicherheitsgründen :wink:

Der normales User wird vermutlich bei seinem Windows das „auto“-Update aktiv haben und von daher häufig nur beschränkt mitbekommen wenn ein Update von Microsoft im Hintergrund installiert wurde.

Der Gedanke mit der Windows Workstation Lizenz war nur dahingehend, dass dir darüber Lizenzgebühren sparen / diese reduzieren kannst im Vergleich zu einer Serverlizenz z.B. Standard 2022. Aber wie du sagst, jeder muss es selbst wissen, wie er es haben möchte.