Komplette Webseite speichern?
User | Beitrag |
---|---|
Raventhird |
06.08.2004 - 19:18 Uhr
Mal ne dumme Frage: Ist es nicht irgendwie möglich (und erlaubt), eine komplette Webseite zu speichern inkl. aller Links innerhalb dieser Seite ? Einzelne Seiten kann man doch auch speichern zum Offline-Gebrauch. Und wie groß wird das, wenn ich zb (übertriebenes Beispiel:) allmusic.com oder sagen wir: plattentests.de auf meiner Festplatte haben will ? |
ToxSick |
06.08.2004 - 20:06 Uhr
ja, die möglichkeit gibts. dafür nimmt man am besten ein progamm, wie zb WEBSPIDER. wie groß das wird hängt vom inhalt der seite ab. seiten die musik o.ä. zum download anbieten, werden natürlich happiger, weil diese musikdateien mit geladen werden. webspider hat aber einen dateifilter, bei dem man sachen mit bestimmter dateiendung ausklammern kann. bitte darauf achten, wieviele ebenen man einstell, sonst werden verlinkte seiten auch noch bis zu einer gewissen tiefe mit runtergeladen! hab sowas noch nicht oft probiert, aber bis jetzt hats immer geklappt. ich weiß allerdings nicht, was passiert, wenn man versucht, seiten mit verschlüsseltem inhalt runterzuladen. gibt wahrscheinlich ne fehlermeldung, oder dieser inhalt wird einfach ausgelassen.beispiel für die größe: wenn du selfHTML.org kennst, die komplette seite nimmt auf meiner platte 24MB ein. viel erfolg! ach ja, das ganze nennt sich offline browsen ;) |
ToxSick |
06.08.2004 - 20:08 Uhr
scheiß spruch obendrauf:es gibt keine dummen fragen, nur dumme antworten. ich hoffe meine war keine ;)) |
blu3m4x |
06.08.2004 - 20:22 Uhr
das runterladen von websites ist vollkommen erlaubt. was denkst du denn was du machst wenn du www.plattentests.de eingibst. wenn dein rechner die nicht runterladen dürfte dann könntest du sie auch nicht angucken. und somit ist das komplette saugen einer homepage aufeinmal natürlich auch nicht verboten. das problem bei der sache ist das du nur das saugen kannst was du siehst. sprich sobalt es "dynamisch" wird (php,cgi....) macht das speichern null sinn weil das ja von einem server interpretiert werden muss (datenbanken...ect..). und da fast jede größere website sowas behinhaltet is das nich wirklich sinnvoll. bei kompendien wie das oben genannte selfhtml welche extra so angelegt sind das man sie auch offline benutzen kann ist es möglich aber mir fallen spontan auch keine weiteren beispiele ein. |
ToxSick |
06.08.2004 - 20:35 Uhr
stimmt natürlich. es macht keinen sinn seiten zu ziehen, deren inhalt permanent aktualisiert wird. aber die testarchive von plattentests müssten doch gehen. genauso das forum zu dem zeitpunkt an dem der download gestartet wird. oder bin ich da jetzt aufm falschen pferd? |
ToxSick |
06.08.2004 - 21:18 Uhr
ok, kleiner eigentest. Plattentests (sprich php-dokumente) kann man zwar runterladen, aber diese werden dann auch als .php gespeichert und werden als reine textdokumente interpretiert. es ist allerdings möglich, bei einem erstellten webspiderprojekt, in den optionen dateiendungen zu bestimmen, die dann in .html umbenannt werden. die seiten lassen sich dann ganz normal mit dem standardbrowser betrachten.fraglich bleibt natürlich, ob es sich lohnt, daten runterzuladen, die ständig aktualisiert werden. aber das testarchiv würden ja sinn machen (wozu auch immer das gebraucht wird). schnell gehts aber nicht unbedingt (hab nach ner 1/4std abgebrochen, fertig bis dahin 5% und 22,5MB). |
Raventhird |
07.08.2004 - 10:26 Uhr
Welches Programm verwendest du ? Dieses Webspider ? Die ständige Aktualisierung ist mir relativ egal, es geht mir einfach darum, ein paar Seiten mit Musikreviews auf dem PC zu haben, quasi als eine Art "Recherchelexikon". 5%/22MB ? Das heisst: Insgesamt 440 MB ? Würde schön auf eine CD passen. |
granlab |
07.08.2004 - 12:26 Uhr
mit dem adobe writher funzt das auch |
@Raventhird |
08.09.2009 - 16:07 Uhr
Alle Links der Seite ? Also auch alle, die hier irgendwann mal im Forum gepostet wurden ? Dann dürftest du auf geschätzte 34,86 Terabyte (+/-2) kommen . |
hmm |
08.09.2009 - 16:12 Uhr
wusste garnicht, dass links so groß sind... |
aber |
08.09.2009 - 16:19 Uhr
es ist ja auch verboten. dabei sollte man sich nämlich nicht erwischen lassen. |
@hmm |
08.09.2009 - 16:20 Uhr
Es sollen ja nicht nur die Linx sondern die kompletten verlinkten Seiten gespeichert werden. |
|
08.09.2009 - 17:26 Uhr
es ist ja auch verboten. dabei sollte man sich nämlich nicht erwischen lassen.pfff, für 5 Jahren war das alles noch anders! |
Korrektur |
08.09.2009 - 17:27 Uhr
vor 5 Jahren |
ziemlicher eksperte |
08.09.2009 - 17:44 Uhr
das interessiert doch den fuchs was vor 5 jahren war. |
Seite: 1
Zurück zur Übersicht
Hinterlasse uns eine Nachricht, warum Du diesen Post melden möchtest.
Einmal am Tag per Mail benachrichtigt werden über neue Beiträge in diesem Thread
Teile uns Deine E-Mail-Adresse mit, damit wir Dich über neue Posts in diesem Thread benachrichtigen können.