Archiv: Größe 12 GB

Habe gerade wegen eines anderen Problems gesehen, dass mein Archiv 12 GB hat.

Wie handhabt ihr das mit euren Variablen?

lg

Falls notwendig, die Platte vergrößern :smiley:
Ist doch egal. Bei ein paar Variablen habe ich die Verdichtung aktiviert. Aber das meiste archiviere ich, weil ich die Daten aufheben möchte.

Hehehe, Nein, das ist nicht das Problem. Nur das Backup dauert dann sehr lange und ist sehr groß.
Ich schließe daraus, dieser Wert ist nicht unüblich?

lg

Aso, auch das juckt mich nicht. Wobei ich nach etwa 4 Jahren „nur“ 4,5GB habe bei 248 geloggten Variablen.

1 „Gefällt mir“

Symcon bringt doch einen Mechanismus mit, wie die Daten ausgedünnt werden können. Nehmen wir doch beispielsweise aus Deinem Screenshot die PI CPU Auslastung. Bei 348MB kannst Du da wahrscheinlich bis ins Jahr 2015 rückwirkend nachsehen :smiley:.

Ich würde einfach darüber nachdenken welche Daten auch nach Jahren interessant und welche nach vier Wochen oder zwei Tagen schon obsolet sind. Und dann die automatische Ausdünnung entsprechend einrichten.

So handhabe ich das jedenfalls.

2 „Gefällt mir“

=== Ooops, du meinst Variable und nicht das Log. Falsch verstanden, aber ich lasse es trotzdem stehen ===

Bei mir war die Loggröße auch etwas aus dem Ruder gelaufen, deshalb habe ich unter den Spezialoptionen den Schalter LogfileVerbose auf AUS geschaltet, das hat einen enormen Effekt gehabt. Und lange vorher schon VariableWatch auf AUS.

Nun ist das Log sehr übersichtlich, ohne den ganzen Overhead.

1 „Gefällt mir“

Variablen: 2237 steht bei mir :slight_smile:

Ich hab das zum Anlass genommen, das mal bei einigen Variablen einzustellen. Bei mir hat sich das um 1GB verkleinert. Das Gewicht vom Pelletofen ist merkwürdig, aber nicht mehr als ein Monat :smiley:

Schaut mal in den db Order. Dort kann man einfach alte Jahre „raus“ schieben und woanders hinlegen, wenn man optimieren möchte ohne die Daten zu löschen. Ansonsten ist die DB Größe ja nicht so relevant. Wir haben Archive mit mehr als > 100 GB :wink:

paresy

1 „Gefällt mir“

Du kannst doch bei jeder Variablen verdichten
grafik

Einige Quellen (z.B. Zigbee) liefern sehr häufig und dann belegen die Änderungen halt viel Platz.

Ich habe ne 512er SSD im Einsatz nur für iPS. Spaßhalber hatte ich mal etwas reduziert aber warum. :smiley:

Naja, was willst du mit Temperatur, Luftfeuchte oder ähnlichen Werten im Sekundentakt der letzen 15 Jahre :open_mouth: .

1 „Gefällt mir“

Das Thema hatten wir mal mit Bernhard. :smiley:
Ich hatte es für manche Zwecke schon benötigt.
Meine Heizkurve hatte sich mal verändert und das war ein guter Hinweis vor einem Ausfall. Ich konnte das gut daran Rekonstruieren

Aber prinzipiell hast Du Recht. Typisch Jäger und Sammler.

1 „Gefällt mir“

Innerhalb eines Jahres werden die mit hoher Frequenz geloggten Variablen ausgedünnt.
Ansonsten lösche den ganzen alten Krams in unregelmäßigen Abständen.

Was interessiert die Tageszeitung von gestern ? oder wie oft hats du tatsächlich schon nachgesehen welche Temperature es am 11.11.2011 hatte ?
Auswertung von Langzeitverläufen ist in IPS sowieso net so prikelnd. Entweder mußt mit Aggregationnen arbeiten, das ist dann ein Mittelwert der alles verschmiert und wohl hübsch anzusehen ist aber wenig Aussage hat. Oder du läufts schnell an die Speichergrenze beim extrachieren der Rohwerte außm Archiv.

Wenns es tatsächlich langfrsitig haben willst würd ich eher ein spezialisiertes Tool verwenden und IPS lean&clean halten.

YM2C
bb

3 „Gefällt mir“