Ich hab mir eine integer Variable definiert, die Sekunden enthält. Ich hab mir das ~UnixTimestampTime Profil für die Anzeige genommen, da ich es gernee im Format HH:MM:SS im Webfront sehen würde. Das funktioniert auch, aber sobald die Variable einen Wert größer 0 (10) enthält, schaut die Anzeige so aus: 01:00:10. Wo kommt die Stunde her? Wenn ich 3600 Sekunden als Wert nehme, dann kommt 02:00:00. Also eine Stunde zu viel. Hängt das mit der Zeitzone zusammen? Die passt eigentlich.
Edit: Wenn ich -3600 eingeben, dann bekomme ich 00:00.00. Da muss wo eine Stunde zu viel sein.
Hm, es geht mir eigentlich um die Anzeige im Webfront. Daher hab ich das Profil gewählt.Und 10 Sekunden sind durchaus eine formal korrekte Zeit. 10 Sekunden nach Mitternacht schaut das auch so aus: 00:00:10
Das Verhalten ist so völlig korrekt. Das Profil bezieht sich eben auf den UNIX-Timestamp und stellt keine Formatierung von Sekunden in andere Formate da. Die UNIX-Zeit 0 ist als 01.01.1970 00:00:00 UTC definiert.
Dementsprechend ist 3600 der 01.01.1970 01:00:00 UTC, was der 01.01.1970 02:00:00 UTC+1 ist. Also alles richtig.
Wenn du relative Zeiten formatieren willst, solltest du einen anderen Weg gehen.