RS DB-Analyzer

Installiert und läuft. Super Teil.

Vielen Dank für Deine Arbeit auch in anderen Projekten.

Wolfgang & Euch allen schon mal Danke für euer Feedback.

voraussichtlich morgen wirds ein Update geben.

Neues Feature ist ein dynamisches Datenhandling: man kann zu jeder Variable einstellen, wie lange die geloggten Daten vorgehalten werden sollen. Nach diesen Einstellungen werden alle Daten, die älter als der eingestellte Zeitraum sind, automatisch täglich gelöscht.

Ebenso kann man via WFE das Logging der Variable ein- und Ausschalten sowie manuell alle Daten der Var droppen.

hier ein paar (unfertige) Screenshots:

Hab gerade den Analyzer installiert, obwohl ich noch nicht sooo viele Daten aufzeichne, aber das wird sich sicher sehr bald ändern :D.
Mit diesem Tool bin ich jedenfalls gewappnet.

Läuft super, Danke! Ziemlich professionelle Umsetzung!

Grüße,
Carsten

Grandios, das sieht schon jetzt klasse aus. Da ist Weihnachten dieses Jahr wohl einen Monat früher. :wink:

Grüße
galleto

Hi @ll,

habe heute die version 2.0 online gestellt.

Changelog:

2012-11-23 V2.0Fixes
* Umstellung Datumsangaben auf engl. Schreibweise (Spalten First- und Last Record), um Sorter-Funktion sicher zu stellen

[b]Features

[/b] * weitere Farbcodierung eingefügt: maroon ->
kennzeichnet im Objektbaum existente Variablen mit geloggten Daten in der DB,
deren Logging aber deaktiviert wurde

* Einführung Variablen-Steckbrief:
    * dyn. Datenmanagement: es können pro Variable Zeiträume für Datenvorhaltung definiert werden
        (Kombination aus Anzahl und Unit [d=>Tage, w=>Wochen, m=>Monate, y=>Jahre). Täglich werden dann alle Daten, die
        ausserhalb dieser Zeiträume liegen, gelöscht.
    * Ein- und Ausschalten des Datenloggings der Variable
    * drop all Data
    
* Erweiterung der Statistiken:
    *WFE-Tabelle: Sparkline-BarGraph mit tägl. Datenzuwachs in Spalte VarName(letzte 7Tage)
    *Variablen-Steckbrief: Longterm (Datenzuwachs pro Monat, letzte 18 Monate) + Short-Term (Datenzuwachs täglich, letzte 30 Tage)

wesentliche Neuerung ist das oben schon angekündigte Datenmanagement via WFE. Bilder dazu 3 Posts über diesem :wink:

in der WFE-Tabelle ist noch ein 7-Tage Sparkline dazu gekommen:

die HTML-Formatierung mach mir noch Sorgen, hier ist sicher noch Feinjustage notwendig.
Ansonsten:

DL via Projekt-HP: http://www.raketenschnecke.net/2012/11/20/rs-db-analyzer/

have Fun!

Herzlichen Dank für das Update!

Eine Frage dazu:

wer die V1.0 schon installiert hat, kann ein Update vornehmen. Sicherheitshalber sollten aber vor dem Update alle Objekte unterhalb der Variable “Core/Logging-Übersicht (js)” gelöscht werden.

Okay, aber wie startet man dann das Update? :confused:

Grüße
galleto

du warst zu schnell, zu dem Zeitpunkt hatte ich den text noch nicht fertig :smiley:

Zitat:

Update von V1.0

wer die V1.0 schon installiert hat, kann ein Update vornehmen. Sicherheitshalber sollten aber vor dem Update alle Objekte unterhalb der Variable “Core/Logging-Übersicht (js)” gelöscht werden.

Die Aktivierung des Projektes erfolgt über das einmalige manuelle Starten des Scripts “DB Cleaner”

Das ist ja mal ganz grosses Kino. Absolut geniale Funktion und optisch toll umgesetzt. :cool:

Ähm, nee, das aktiviert die per Update eingespielte Version. Meine Frage sollte sein: Wie aktiviere ich den Update-Prozess? Bin nicht so fit, was den Project Exporter anbelangt…

Hab jetzt das Skript „Config/RS DB Analyser“ ausgetauscht und gestartet. Lief fehlerfrei durch, aber so richtig hat das Ergebnis (für mich) nicht hingehauen. Wahrscheinlich lag es daran, dass ich den Inhaltswechsler vorher woanders eingebunden und das übergeordnete TabPane deaktiviert hatte.

Also alles gelöscht und nochmal, jetzt passt es.

Vielen, vielen Dank!

Grüße
galleto

Hi galleto,

stimmt, das ist ein guter Punkt: das „wie update ich“ hab ich komplett vergessen. Liegt daran, dass das Arbeiten mit dem Exporter für mich so selbstverständlich geworden ist wie StrgC+StrV.

hier mal ein Zitat von der PE-Seite (ich bau das gleich noch ein):

Workflow (Update eines bestehenden Projektes)
Voraussetzungen: ein bestehendes Zielprojekt im Zielsystem sowie ein gültiges Installationsprotokoll der letzten Installation/des letzten Updates
Projekt-Autor erstellt im Quellsystem mit Hilfe des Project Exporters ein (neues) Export-Script
Das Export-Script wird an den User des Zielsystems weiter gegeben
User kopiert den Inhalt des Export-Scripts in das vorherige Export-Script (von der letzten Installation/Update)
das Export-Script wird ggf. konfiguriert (Angabe der WFC-ID, optionale Kopier-Parameter)
Ausführung des Export-Scripts im Zielsystem -> Quellprojekt wird im Zielsystem angelegt
Kontrolle des Installationsprotokolls (befindet im Script-Meldefenster und im Instalationsprotokoll), ggf. manuelle Nachrabeiten
fertig

:eek: funktioniert das etwa bei dir??

:D:D:D

kleines Update zu meinen Aktionen der Datenhygiene:
ich hab nun meine Variablen größtenteils mit Vorhalte-Zeiträumen gepflegt. Das ist schon recht mühselig, da man genau überlegen sollte, was man mit den daten anfangen will. Blöd ist, wenn einem das erst nach dem Löschen bewusst wird :smiley: .

Nun denn, der „finale DB-Cleaninglauf“ ist eben durchgelaufen, in Summe hab ich jetzt „nur“ noch 9,6 Mio Datensätze. Als ich mit dem DB-Analyzer anfing, waren es noch 13,8 Mio. Also ca. 30% reduziert. Wahnsinn, hätte ich nicht gedacht (vor allem deswegen nicht, weil ich schon einige Lösch-Scripte täglich laufen ließ - ok, dass einige nicht funktionierten, steht auf nem anderen Blatt :rolleyes: mit dem RS DB Analyzer habe ich das jetzt auf jeden Fall im Blick).

funktioniert das etwa bei dir??

Dachtest Du etwas anders? :stuck_out_tongue:

Hammerteil Andreas.

Durfte ja in der Entwicklungsphase bereits testen :eek: und mittlerweile ist meine Datenbank auch bereits um 10% an Datensätzen erleichtert :).

Habe ein kleines Problem wenn ich zu große Datensätze löschen will bekomme ich eine Fehlermeldung
im Var-Inventory Refresh script.

wenn ich dann von Hand ausführe geht der Fehler weg

kannst du mal die fehlermeldung posten?

kann ich leider nicht mehr :frowning: denn habe jetzt alle Datensätze gelöscht, der Fehler ist erst gekommen ab ca 100.000 Datensätzen wenn es weniger ist klappt alles ohne Probleme

so habe noch ein großen Datensatz gefunden den ich löschen kann:D

hm, da kann ich nur spekulieren: dein Server ist etwas schwachbrüstig und braucht für die Löschung länger als die eingestellte max. Script-laufzeit.

Wenn du eine Initial-Bereinigung erfolgreich hinter dir hast (und Vorhaltezeiten gepflegt hast) kommt das eh nicht mehr vor (weil ja täglich geringere Mengen zum Löschen anfallen).

Solltest du nochmal vor dem Problem stehen kannst du die Scriptlaufzeit hochsetzen (Script „read DB“).

aber im Logfile müsste ein Hinweis zu deinem Problem stehen :wink:

Habe mir schon sowas gedacht aber kein Problem ich bin jetzt durch mit löschen, aber Hut ab für das Programm frag mich immer wie man so was zusammen schreiben kann :smiley: