Grafiken im Browsercache
polemi
11.10.2009 - 17:50
Liebe Freunde der guten Musik.
Ich habe folgendes Problem. Ich möchte auch einer Seite (http://www.uni-mannheim.de/mateo/camenahist/bornitz5/jpg/s049.html) ganz viele Bilder durchklicken (so 200 Stück) und diese danach alle in eine PDF zusammenfügen.
Da es ja blöd ist, alles einzeln auf der Festplatte zu speichern, hab ich mich gefragt, ob es wohl möglich ist die (bereits gespeicherten) Dateien nach einem flotten Durchklicken einfach irgendwo in einem "temporary internet files" Ordner aufzusammeln und dann in PDF zusammenzufügen.
ALLERDINGS: Wo sind die temporären Kopien der Graphiken zu finden? Nutze Firefox 3.01 und Windows XP.
Bitte helft mir!! Danke
polemi
11.10.2009 - 17:50
..meinte "AUF einer Seite"
Hmmm
11.10.2009 - 17:56
Könnte klappen, allerdings sagt niemand, dass die Dateien dann auch wirklich da sind. Der Pfad ist: %USERPROFILE%\Lokale Einstellungen\Anwendungsdaten\Mozilla\Firefox\Profiles\
Die Dateinamen sind allerdings kryptisch. Jetzt müsstest du noch nach Größe sortieren und die Datein kopieren, die in etwa die Dateigröße der Musterdatei haben. Problem: die Reihenfolge!
Alternativ: wget ( http://de.wikipedia.org/wiki/Wget ) (o.ä. Programm für Windows) mit Option recursive verwenden.
da probieren
11.10.2009 - 17:57
C:\Documents and Settings\%USERNAME%\Local Settings\Application Data\Mozilla\Firefox\Profiles\%PROFIL%\Cache
Hmmm
11.10.2009 - 17:59
Pfad ist: %USERPROFILE%\\Lokale Einstellungen\\Anwendungsdaten\\Mozilla\\Firefox\\Profiles\\
dann auf das Profil klicken und dann auf Cache.
Hmmm
11.10.2009 - 18:01
Wenn du willst kann ich dir auch ein PDF mit allen Grafiken erzeugen.
Egbörde
11.10.2009 - 18:05
Im IE gehts einfacher:
Systemsteuerung - Internetoptionen - [TAB] Allgemein - Browserverlauf_Einstellungen - Dateien anzeigen | et voila
Wenn Du vorher den Cache leer machst, hast du nur die inhalte drin
Hmmm
11.10.2009 - 18:29
Weil es für mich nur ein, zwei Kommandos waren, hier mal das pdf: http://sharebee.com/d141d4d0.
polemi
11.10.2009 - 20:16
hey hmmm. vielen lieben Dank.
sag mal, was für Programme und "Kommandos" hast du denn selbst dafür genutzt, dass das so problemlos ging.
ich habe mir mal das wget angeschaut. es sieht für mich als Laien aber eher ziemlich kompliziert aus. Da auf der betreffenden Webseite aber noch eine ganze Menge Texte zu finden sind, die ich gerne als als JPG und dann PDF auf meinem Rechner haben möchte, kannst du mir da vielleicht helfen.
Ich muss ja eigentlich nicht wissen, wie das Programm funktioniert, sondern bräuchte ja eigentlich nur dein Kommando, oder? Da die anderen Texte ja alle ein derselben Art und Weise und Verzeichnisstruktur auf dem Server liegen, dürfte ich das doch dann ohne Probleme auch für die anderen Texte hinkriegen, oder?
Wär toll, wenn du mir helfen könntest..
Polemi
Hmmm
11.10.2009 - 20:28
Es wird dir vermutlich nicht helfen, wenn ich dir beschreibe, wie ich das Problem gelöst habe, da ich Linux verwende. Die Befehle waren aber wie folgt:
1. Herunterladen der Dateien:
for i in `seq 1 135`; do zahl=`printf "%03d" $i`; wget "http://www.uni-mannheim.de/mateo/camenahist/bornitz5/jpg/borni"$zahl".jpg"; done;
2. Umwandlung in ein PDF:
convert *.jpg out.pdf
Du kannst mir auch einfach die ganzen URLs sagen und ich generiere dir die PDFs.
Hinterlasse uns eine Nachricht, warum Du diesen Post melden möchtest.
Teile uns Deine E-Mail-Adresse mit, damit wir Dich über neue Posts in diesem Thread benachrichtigen können.