Webseiten auf die eigene Festplatte spiegeln
#1
Wer eine gute Webseite mit vielen Informationen gefunden hat, möchte vielleicht sicherstellen, daß diese nicht "verschwinden" - Server schaltet ab, Seite wird umprogrammiert und dergleichen.

Dafür gibt es Website-Grabber.

Meine Wahl ist WinHTTrack - Schau mal hier http://www.httrack.com/

Gefunden übrigens auf der unter http://www.opensourcecd.de - und dort gibt es noch viele interessante Programme.
GMT

Mehr als 90 Datenbanken - und Platz für noch mehr...  Wink
[Bild: dfsdb_info_banner_400_55.png]
Zitieren
#2
Das Programm kann ich auch wirklich nur empfehlen. Ich nutze es schon seit einigen Jahren. Außerdem ist es kostenlos und auf deutsch (für einige Einstellungen nicht unpraktisch :wink: ).
Die aktuelle Japan-DB gibt es unter www.Fussball-in-Japan.de zum Download.
Zitieren
#3
n1ce :!:

vielen dank!
Zitieren
#4
Danke für den ausgezeichneten Tipp!
Dies erspart mir einige Ängste und Bauchschmerzen. denn meine Lieblings-Webside mit einer Fülle von Daten war für ca . vier Wochen nicht mehr zu erreichen und ich befürchtete schon das Schlimmste. Jetzt nachdem sie wieder im Netz ist und nach der Spiegelung kann sie meinetwegen im Nirwana verschwinden.
Zitieren
#5
Nur eins muß man bedenken: Suchfunktionen z.B., die mit Programmen auf dem Server laufen, funktionieren in der gespiegelten Variante nicht.
GMT

Mehr als 90 Datenbanken - und Platz für noch mehr...  Wink
[Bild: dfsdb_info_banner_400_55.png]
Zitieren
#6
Hallo GMT,

nutze das Programm auch. Ist gut. Mal ne Frage an den Experten: Gibt es so einen HTTP Sauger auch für Foren, also den Inhalt des Forums? Oder kann ich HTTrack auch dafür nutzen.

Wenn du nach der Geburtstagsfeier Zeit findest ... Vielleicht kannst du mir helfen.

Mylow
Zitieren
#7
Also probiert habe ich das nicht - kann mir allerdings auch nicht vorstellen, daß das problemlos funktioniert:

Grund: Das Forum hier z.B. ist mit PHP programmiert. Das siehst Du z.B. in der aktuellen Adreßzeile - da steht irgendwo ".php"
Also laufen da Routinen auf dem Server ab, die nicht einfach mitkopiert werden können. Und selbst wenn Du einige kopieren kannst, laufen sie auf Standard-Windows nicht.
GMT

Mehr als 90 Datenbanken - und Platz für noch mehr...  Wink
[Bild: dfsdb_info_banner_400_55.png]
Zitieren
#8
Und des weiteren laufen solche Foren mit SQL-Datenbanken, an die man von außen nicht heran kommt.
Zitieren
#9
ich hätte da auch noch nen tipp zu so nem Grabber ....

Getleft
Zitieren
#10
Zitat:Hallo GMT,

nutze das Programm auch. Ist gut. Mal ne Frage an den Experten: Gibt es so einen HTTP Sauger auch für Foren, also den Inhalt des Forums? Oder kann ich HTTrack auch dafür nutzen.
Mylow

You can use curl (curl.haxx.se) to download a series of Web pages with contiguous filenames. For example

Zitat:curl http://www.foo.com/page[1-10].htm -O

downloads all pages from page1.htm to page10.htm and saves everything under its own name.

You can also do the following trick if pages are implemented as directories:

Zitat:curl http://www.foo.com/[1-10]/page -o #1

This saves each page as a file named 1.htm to 10.htm, if you're not particular about the name conventions.

Read the curl manual to know more. Combine this and wget and you can download almost any page, including those dynamically generated and protected by passwords/cookies.
Zitieren


Möglicherweise verwandte Themen…
Thema Verfasser Antworten Ansichten Letzter Beitrag
  Links unter "Interessante Webseiten zum Thema Fußball" unter vmLOGIC Martin 1 10.685 06.11.2012, 21:13
Letzter Beitrag: vmLOGIC



Benutzer, die gerade dieses Thema anschauen: 1 Gast/Gäste