WWW Reader liest nur "Müll"

Hallo zusammen,
mein WWW Reader liest nur noch, ja wie soll ichs beschreiben, „Müll“:

TXT: 29.05.2025, 10:14:09 | https://www.radio-bamberg.de/blitzer-verkehr/ | <US>�<BS><NUL><NUL><NUL><NUL><NUL><NUL><ETX>���r���(����)�w��<EOT>E�<ETB>IԲgI����n��7{�<SUB><ENQ>H�$,�`<ETX>�.�֎�1<DC1>'N�D���s"�<GS>��y�SW��(���

Das jetzt hier nur Auschnittsweise. Aber eben nicht mehr die html Inhalte. Wo liegt hier das Problem?
Und abgesehen davon, ich habe die Instanz „WWW Reader“, neu hinzufügen könnte ich den „WWW Ausleser“ und zusätzlich gibt es noch den HTTP Client. Wie/Was ist den hier der Unterschied?

gruß

Bist du dir sicher, dass du HTML willst und nicht eher die Ausgabe z.B. hiervon?

https://www.radio-bamberg.de/cache/playlists/all-channels.json

ja ich will das Html. Ich extrahiere dann die Verkehrsmeldungen und schicke mir die per Prowl aufs Handy. Das ganze hat ja vor ein paar Tagen wunderbar funktioniert…

IP-Symcon Update gemacht und seit dem geht es nicht mehr?

könnte ca. zusammen fallen, ja.

$ curl https://www.radio-bamberg.de/blitzer-verkehr/          
Warning: Binary output can mess up your terminal. Use "--output -" to tell 
Warning: curl to output it to your terminal anyway, or consider "--output 
Warning: <FILE>" to save to a file.

Ich glaube da ist bei denen was neues :wink:

paresy

Davon bin ich ausgegangen… nur Frage 1: woher kommt jetzt die Fehlermeldung?
2. Ist das Absicht um eine externe Anfrage zu stören und wie kann ich das umgehen?
3. Ich bin davon ausgegangen dass sich der WWW Reader der externen Seite gegenüber wie ein Browser verhält und der Html ausgewertet wird. Ist dem nicht so?

Vieleicht könnt ihr meine Ahnungslosigkeit etwas erhellen…

gruß

Ist halt gzip komprimiert.
Aber warum wird das sowohl mit curl, Symcon & Co nicht automatisch erkannt?
So geht es:

$url = 'https://www.radio-bamberg.de/blitzer-verkehr/';
$d = gzdecode(file_get_contents($url));
echo $d;
1 „Gefällt mir“

Es gibt mittlerweile viele Seiten die z.B. von Cloudflare vor DDOS Attacken geschützt werden. Die blockieren genau solche Anfragen.
Teilweise verständlich aber für uns meist eher nervig.

Wobei mir wundert dass curl es im Terminal auch betrifft - auch wenn ich meinen Browser Agent gut setzen :confused:

paresy

Ok danke euch. Dann lese ich es halt mit einem Skript aus. Ist ja auch kein Problem. Kann ich das dann auch irgendwie an den Text Parser übergeben? Ich glaube nicht oder?
Sonst muss ich das halt mit php lösen.

Also du könntest das Skript mit einem Hook verbinden und den WWW Reader darauf zeigen lassen :wink:

paresy

1 „Gefällt mir“

@paresy könnt ihr den WWW Reader (und ggf. auch die Sys_GetURL oder so ähnlich) nicht reparieren, dass die auch GZIP korrekt verarbeiten?

Tut er, aber die Webseite macht irgendwas so, dass curl (welches wir intern nutzen) dies nicht korrekt verarbeiten kann. Ich vermute, dass dies bewusst gemacht wird.

paresy

Gibt dazu ein Bugreport von curl. Wo auch erklärt wird das die Ursache die Website ist, weil sie gzip sendet auch wenn es nicht angefordert wurde.
Lösung wäre imho immer den --compressed Parameter zu setzen.

Michael

1 „Gefällt mir“

Das funktioniert. Und ich hab wieder was gelernt :slight_smile: