Habe gerade wegen eines anderen Problems gesehen, dass mein Archiv 12 GB hat.
Wie handhabt ihr das mit euren Variablen?
lg
Habe gerade wegen eines anderen Problems gesehen, dass mein Archiv 12 GB hat.
Wie handhabt ihr das mit euren Variablen?
lg
Falls notwendig, die Platte vergrößern
Ist doch egal. Bei ein paar Variablen habe ich die Verdichtung aktiviert. Aber das meiste archiviere ich, weil ich die Daten aufheben möchte.
Hehehe, Nein, das ist nicht das Problem. Nur das Backup dauert dann sehr lange und ist sehr groß.
Ich schließe daraus, dieser Wert ist nicht unüblich?
lg
Aso, auch das juckt mich nicht. Wobei ich nach etwa 4 Jahren „nur“ 4,5GB habe bei 248 geloggten Variablen.
Symcon bringt doch einen Mechanismus mit, wie die Daten ausgedünnt werden können. Nehmen wir doch beispielsweise aus Deinem Screenshot die PI CPU Auslastung. Bei 348MB kannst Du da wahrscheinlich bis ins Jahr 2015 rückwirkend nachsehen .
Ich würde einfach darüber nachdenken welche Daten auch nach Jahren interessant und welche nach vier Wochen oder zwei Tagen schon obsolet sind. Und dann die automatische Ausdünnung entsprechend einrichten.
So handhabe ich das jedenfalls.
=== Ooops, du meinst Variable und nicht das Log. Falsch verstanden, aber ich lasse es trotzdem stehen ===
Bei mir war die Loggröße auch etwas aus dem Ruder gelaufen, deshalb habe ich unter den Spezialoptionen den Schalter LogfileVerbose auf AUS geschaltet, das hat einen enormen Effekt gehabt. Und lange vorher schon VariableWatch auf AUS.
Nun ist das Log sehr übersichtlich, ohne den ganzen Overhead.
Variablen: 2237 steht bei mir
Ich hab das zum Anlass genommen, das mal bei einigen Variablen einzustellen. Bei mir hat sich das um 1GB verkleinert. Das Gewicht vom Pelletofen ist merkwürdig, aber nicht mehr als ein Monat
Schaut mal in den db Order. Dort kann man einfach alte Jahre „raus“ schieben und woanders hinlegen, wenn man optimieren möchte ohne die Daten zu löschen. Ansonsten ist die DB Größe ja nicht so relevant. Wir haben Archive mit mehr als > 100 GB
paresy
Du kannst doch bei jeder Variablen verdichten
Einige Quellen (z.B. Zigbee) liefern sehr häufig und dann belegen die Änderungen halt viel Platz.
Ich habe ne 512er SSD im Einsatz nur für iPS. Spaßhalber hatte ich mal etwas reduziert aber warum.
Naja, was willst du mit Temperatur, Luftfeuchte oder ähnlichen Werten im Sekundentakt der letzen 15 Jahre .
Das Thema hatten wir mal mit Bernhard.
Ich hatte es für manche Zwecke schon benötigt.
Meine Heizkurve hatte sich mal verändert und das war ein guter Hinweis vor einem Ausfall. Ich konnte das gut daran Rekonstruieren
Aber prinzipiell hast Du Recht. Typisch Jäger und Sammler.
Innerhalb eines Jahres werden die mit hoher Frequenz geloggten Variablen ausgedünnt.
Ansonsten lösche den ganzen alten Krams in unregelmäßigen Abständen.
Was interessiert die Tageszeitung von gestern ? oder wie oft hats du tatsächlich schon nachgesehen welche Temperature es am 11.11.2011 hatte ?
Auswertung von Langzeitverläufen ist in IPS sowieso net so prikelnd. Entweder mußt mit Aggregationnen arbeiten, das ist dann ein Mittelwert der alles verschmiert und wohl hübsch anzusehen ist aber wenig Aussage hat. Oder du läufts schnell an die Speichergrenze beim extrachieren der Rohwerte außm Archiv.
Wenns es tatsächlich langfrsitig haben willst würd ich eher ein spezialisiertes Tool verwenden und IPS lean&clean halten.
YM2C
bb