Google Cloud SQL : Wäre das etwas für IPS ??

Google Cloud SQL - Google Code

Warum hinterlegst Du nicht gleich noch eine iTAN-Liste bei Google?

Ich persönlich glaube ja, dass Google nicht an Euren Daten interessiert ist - und auch nicht an der iTAN Liste.
Die Jungs haben besseres zu tun.

Der Service hört sich doch gut an.
Bitte Testen mit Rückmeldung hier ins Forum.

Na dann kann man auch die Microsft SQL Server Lösung für die Cloud ins Auge fassen.

Aber ehrlich gesagt sind die Datenbestände so klein, das lohnt doch gar nicht das in die Cloud zu schieben und dann besteht ja noch die Gefahr, dass der Zugang zum Internet mal weg ist und dann läuft ggf. die Steuerung nicht mehr. Mal abgesehen davon, dass der Zugriff auf eine DB im Netz bzw. auf der lokalen Maschine bedeutend schneller ist. Das wäre mir alles zu joker.

mws

:eek:klasse idee… mit response-times im Sekundenbereich. Aber dann brauch ich mich nicht mehr über lahmende HM-SEC_DIR’s wundern und schieb’s auf die Cloud.:confused::rolleyes: Über völlig unnötige Abhängigkeiten zur Provider-Anbindung mach ich mir dann besser auch keine Gedanken mehr (erst dann wenn sich meine Wohnungstür nicht mehr öffen lässt).

Wer arbeitet heute noch mit TAN-Listen ?
Ich habe so ein kleines Gerätchen. Da stecke ich meine Cipkarte ein. Das liest dann den Balkencode vom Bildschirm ein und generiert mir eine Konto- und betragsbezogene Tan, die ich man. nach Kontrolle von Empfangskonto und Betrag eingebe.
Läuft bei mir seit fast 2 Jahren und ist nach meiner Erfahrung die einfachste und sicherste Methode.

Noch besser find ich SMS TAN.
Ich bekomme bei jeder Überweisung eine SMS mit der dafür gültigen TAN geschickt. Finde das sehr praktisch und sicher.

greez
bb

SMS-Verfahren ist auch praktikabel und sicher, vor allem, wenn man oft an anderen Rechners sitzt.
Bei mir ist das anders, da ich meistens zu Hause bin.

Wie Facebook & … nur Nächstenliebe :smiley:

Gruß
Bruno

Sicher ist in unseren Zeiten immer relativ! Trojaner ändert Rufnummer für mTANs | heise Security

Ja, hast schon recht.
Jedes Sicherheitsverfahren ist nur relativ und zeitlich bedingt sicher.
Es gibt immer eine Hintertür.

Hallo zusammen,

eine ähnliche Diskussion hatten wir ja schon beim Graphenrendern mit dem Tool von Meike. Ich frage mich immer, warum ich Daten durch die Welt schicken soll, wenn ich das genau so gut lokal mit einer Graphenlibrary oder in diesem Fall mit einer Datenbank machen kann. Es geht hier nicht mal so sehr um das diskutierte Sicherheitsrisiko, sondern viel mehr um Zuverlässighkeit. Ich sehe folgende Probleme bei der Nutzung von Cloudservices:

[ul]

[li]Ohne Internet oder Ausfall dessen keine Funktion
[/li][li]Der Cloudanbieter muss immer verfügbar sein (SLA ?)
[/li][li]Wenn der Cloudanbieter seine Schnittstelle ändert, muss ich nachbessern
[/li][li]Wenn der Cloudanbieter den Service nicht mehr anbietet oder kostenpflichtig macht, was dann ?
[/li][li]Die Laufzeiten werden i.d.R. immer schlechter als bei einer lokalen Lösung sein
[/li][li]Ich verliere die Hoheit über meine Daten (was das auch immer bedeutet)
[/li][li]Dann gibts da noch den Google Account/Cookies von all dem Zeug
[/li][li]Es wird unnötiger Internet Traffic erzeugt (z.B. bei einer UMTS-Verbindung)
[/li][li]Das Sicherheitsproblem wird hier ja schon allgemein diskutiert
[/li][/ul]

In diesem Fall würde ich eine MySQL, Postgres oder wenn es einfacher sein soll eine SQLite nehmen. Wenn man hier nicht denn Zwang hat (neue Funktionen oder Sicherheitsprobleme-> nur am Internet) auf eine neue Version zu gehen, laufen die bis zum zum Nimmerleinstag und man muss sich um nichts kümmern.

Bei der Sicherheit von SCADA-Systemen haben sich schon sehr große Firmen blaue Flecken geholt.

Gruss
Bernd

100% ACK!

(da es keine 10 Zeichen waren, durfte ich es ohne diesen Satz nicht absenden …)

Hi
Jetzt haben alle gesagt warums nicht gut ist, übrigens auch meien Meinung.
Vieleicht kann aber BestEx kurz anschneiden was er sich denn davon positives erwarten würde.

gruß aus dem fernen Malaysia
bb

Meine Datenbank ist jetzt so um die 3 GB groß und kein Ende abzusehen.

Ich werte die historischen Daten in verschiedene Richtungen aus und bin immer sehr zufrieden wenn ich merke das ich die ganze Historie noch habe.

IPS ist ein realtime System das ohne merkliche Verzögerung (geringe Latenzzeit ist für den WAF wichtig) auf events reagiert. Meine historischen Auswertungen sind sehr Rechenintensiv und ich hätte kein Problem wenn die auch mal längere Laufzeiten benötigen.

Das scheinen auf den ersten Blick divergierende Anforderungen zu sein.

Wenn es jetzt eine Schnittstelle zur Cloud SQL gäbe und ich mich entscheiden kann welche Daten ich realtime benötige und in der IPS Datenbank lasse und welche ich in die Wolke lege hätte ich wieder eine flotte und schlanke Event- Steuerung (IPS mit lokaler IPS Datenbank) und ein adäquates Tool für rechenintensive Langzeitauswertungen (IPS mit Cloud Datenbank)

Mein Backup wäre auch schneller :slight_smile:

Front End immer IPS :slight_smile: oder bei Bedarf eine der Chart Engines

Viel Spass weiterhin in Malaysia, ich geniesse den Indian Summer in Berlin

Ich hatte vor 5 Jahren auch noch privat einen Server für Exchange, einen für Sharepoint, einen für Speicher einen für Backup´s und Workstations für meine Frau und mich.

Kein Spass aber die Stromrechnung wurde irgendwann mal so hoch (und der Aufwand sich in jedem Thema im Detail auszukennen war auch eine herausforderung, in dieser Phase hat sich meine Einstellung zur Qualität der Microsoft Produkte grundlegend verändert) das mir das zu teuer wurde.

Ohne es zu begründen … aus meiner privaten Sicht geht kein Weg an der Cloud vorbei. Das ist nur eine Frage der Zeit. Alle Deine Punkte sind richtig. Die Herausforderung ist aus meiner Sicht jedoch nicht die Cloud deswegen abzulehnen sondern Mittel und Wege zu finden diese negativ Merkmale abzumildern… wer das kann und beherrscht kommt in den Genuss der Vorteile für einen vielleicht akzeptablen Preis :slight_smile: und je früher man damit anfängt um so einfacher wird es

Danke dir für deine Argumente.

Also das Hauptproblem, die größe der Datenbank, ist wohl noch ein IPS hausgemachtes. Das wird in Zukunft voraussichtlich noch viel User hart treffen.
IPS bietet nämlich zzt. noch keinen vernünftigen weg die Datenbank wieder aufzuräumen und damit auf einer handelbaren Größe zu halten.
vgl. auch die diversen Threads bzg. der Abschaffung der RRD Unterstützung.

Es ist ja total sinnlos von zb.minutenfeines Temp-Logging über mehrere Jahre aufzubewahren. Da reichen Stunden oder Tagesmittelwerte vollkommen aus.

Irgednwann (eher sehr bald) wird da was von ISP kommen müssen denn sonst werden viele User genau vor dem Problem stehen das du jetzt ansprichst.

Die GByte irgendwohin zu verlagern halte ich aber nicht für sinnvoll, das Problem gehört an der Wurzel gelöst.

gruß
bb

Da hast Du schon recht. Ich bin da vielleicht ein Sonderfall. Ich versuche meine Software Optimierung über Back testing zu validieren und da helfen halt die Sekunden Daten

Vielleicht wäre es ja eine Möglichkeit ein Tool zu entwicklen, was Details auslagert (wohin mir egal) und ältere Daten nur noch als Mittelwerte speichert z.B. und die Details aus der IPS-eigenen DB löscht… ???

ich hoffe, ich fache jetzt die Erwartungshaltung und damit den Druck auf den Hersteller nicht all zu sehr an, aber zum IPS V2.4 Rollout in IPS-City haben wir über das Thema Backup und Auslagerung von historischen Dateien sehr intensiv diskutiert. Ich war ziemlich erstaunt wie weit die Gedanken hier gingen. Ob sich daraus eine Aktivität für kommende Versionen ableiten lässt kann ich nicht sagen…
Vielleicht ist es ganz sinnvoll hier noch etwas abzuwarten - evtl. ist eine Onboard-Lösung zu erwarten.