…hab folgendes Problem.
Ich möchte eine Facebook-Xbox-Website parsen. Habe mir eine READER-Instanz angelegt und den entsprechenden Text-Parser.
Leider funzt das auslesen der Website nur alle 5-6 mal. Mal bekomme ich die Daten, mal nicht. Mir hat jemand gesagt das könne was mit dem Timeout von
dem Facebookserver zu tun haben.
Mit dem normalen Browser habe ich die Möglichkeit mit der rechten Maustaste " SEITE SPEICHERN UNTER…" zu wählen und die Seite lokal auf dem PC zu speichern. Wenn ich diese dann mit dem READER auslese bekomme ich alle Daten und das jedes mal.
Gibt es die Möglichkeit per PHP-Befehl die Seite vor dem Abfragen einmal zu Speichern damit ich sie dann Auswerten kann mit dem READER und PARSER?!
Danke für die fixe Antwort. Das hab ich schon probiert!!
Dann wird aber nicht die eigentliche Seite ausgelesen, sondern ich bekomme das hier ( ist nur ein Auszug! ):
…sp; Du benutzt einen inkompatiblen Webbrowser.Leider sind wir nicht cool genug, um deinen Browser zu unterstützen. Bitte verwende einen der folgenden Browser:Mozilla FirefoxSafariMicrosoft Internet ExplorerFacebook …
Ich hätte aber gerne den Quellcode den ich mit SEITE SPEICHERN UNTER… in Firefox oder Internet Explorer bekomme… schauste hier !!!
Scheint wohl eher ein IPS-PHP-Problem zu sein oder!?
Es muss doch möglich sein die Webseite irgendwie auf dem Rechner speichern zu können!!?
Das „Problem“ ist, das dort eine Browserweiche verwendet wird, die (dem Betreiber) unbekannte Browser ablehnt. Man kann das umgehen, indem man im Header als Useragent-Namen einen dieser Browser mitgibt. Zum Download empfielt sich die Nutzung des curl-Moduls.
wget arbeitet genauso aber als Standalone-Programm und braucht auch die Angabe so eines Useragent-Namens, um die Seiten dieser Webpage abzuziehen.