Das jetzt hier nur Auschnittsweise. Aber eben nicht mehr die html Inhalte. Wo liegt hier das Problem?
Und abgesehen davon, ich habe die Instanz „WWW Reader“, neu hinzufügen könnte ich den „WWW Ausleser“ und zusätzlich gibt es noch den HTTP Client. Wie/Was ist den hier der Unterschied?
ja ich will das Html. Ich extrahiere dann die Verkehrsmeldungen und schicke mir die per Prowl aufs Handy. Das ganze hat ja vor ein paar Tagen wunderbar funktioniert…
$ curl https://www.radio-bamberg.de/blitzer-verkehr/
Warning: Binary output can mess up your terminal. Use "--output -" to tell
Warning: curl to output it to your terminal anyway, or consider "--output
Warning: <FILE>" to save to a file.
Davon bin ich ausgegangen… nur Frage 1: woher kommt jetzt die Fehlermeldung?
2. Ist das Absicht um eine externe Anfrage zu stören und wie kann ich das umgehen?
3. Ich bin davon ausgegangen dass sich der WWW Reader der externen Seite gegenüber wie ein Browser verhält und der Html ausgewertet wird. Ist dem nicht so?
Vieleicht könnt ihr meine Ahnungslosigkeit etwas erhellen…
Es gibt mittlerweile viele Seiten die z.B. von Cloudflare vor DDOS Attacken geschützt werden. Die blockieren genau solche Anfragen.
Teilweise verständlich aber für uns meist eher nervig.
Ok danke euch. Dann lese ich es halt mit einem Skript aus. Ist ja auch kein Problem. Kann ich das dann auch irgendwie an den Text Parser übergeben? Ich glaube nicht oder?
Sonst muss ich das halt mit php lösen.
Tut er, aber die Webseite macht irgendwas so, dass curl (welches wir intern nutzen) dies nicht korrekt verarbeiten kann. Ich vermute, dass dies bewusst gemacht wird.
Gibt dazu ein Bugreport von curl. Wo auch erklärt wird das die Ursache die Website ist, weil sie gzip sendet auch wenn es nicht angefordert wurde.
Lösung wäre imho immer den --compressed Parameter zu setzen.