HoHoHoHo
Ich suche ein Programm mit dem man von Internetseiten Bilder vollautomatisch speichern kann. Also ich meine wenn ich auf einer ISeite bin wo jetzt z.B. 10 Bilder dargestellt sind dass ich die alle auf einmal speichern kann.
Am besten wäre ein Freeware Programm
Grüsse Brutschi
Seite 1 von 1
Bilder Von Homepages Saugen Programm gesucht
#1
geschrieben 25. Dezember 2004 - 19:47
Anzeige
#2 _max_
geschrieben 25. Dezember 2004 - 22:35
Vielleicht verstehe ich Dich jetzt falsch, aber alle Seiten auf denen Du surfst werden doch temporär gespeichert, als in einem Temp-Ordner. Dort sind dann auch alle Bilder drin.
Wenn Du Firefox als Browser nutzt, gibt es für diesen ein Plugin, mit dem man ein Bild mit einem Klick speichert. Weiß leider nicht, wo ich das Plugin her habe. Es heißt Super DragAndGo, habs für den aktuellen Firefox da - fals Interesse, PM. Eigentlich ist das Plugin für eine Tabbrowsing-Option gemacht aber das mit den Bildern funzt dadurch einwandfrei.
Wenn Du Firefox als Browser nutzt, gibt es für diesen ein Plugin, mit dem man ein Bild mit einem Klick speichert. Weiß leider nicht, wo ich das Plugin her habe. Es heißt Super DragAndGo, habs für den aktuellen Firefox da - fals Interesse, PM. Eigentlich ist das Plugin für eine Tabbrowsing-Option gemacht aber das mit den Bildern funzt dadurch einwandfrei.
#3
geschrieben 26. Dezember 2004 - 10:57
#4
geschrieben 26. Dezember 2004 - 13:21
Danke max und xylen.
Aber ich benutze den Internetexplorer.
@max.
Das mit dem Temp Ordner stimmt zwar aber es nicht so einfach.
In dem Temp Ordner mit den Internetbildern funktioniert die Vorschau nicht und man müsste alle Bilder ausprobieren. Das ist dann doch zu aufwändig.
Aber ich benutze den Internetexplorer.
@max.
Das mit dem Temp Ordner stimmt zwar aber es nicht so einfach.
In dem Temp Ordner mit den Internetbildern funktioniert die Vorschau nicht und man müsste alle Bilder ausprobieren. Das ist dann doch zu aufwändig.
#5
geschrieben 26. Dezember 2004 - 15:56
Ich mach das immer mit HTTrack.
Is freeware, und funzt bei mir eigentlich immer.
Is freeware, und funzt bei mir eigentlich immer.
#6
geschrieben 26. Dezember 2004 - 16:12
Zitat (D-W-F-P: 26.12.2004, 16:56)
Ich mach das immer mit HTTrack.
http://www.httrack.com/
Das Programm ist allerdings dazu gedacht, eine Webseite _komplett_ offline anschauen zu können. Dementsprechend werden nicht nur die Bilder, sondern auch alle HTML-Dokumente und anderen Dateien die die Seite verwendet mitgespeichert!
#7 _needcoffee_
geschrieben 28. Dezember 2004 - 10:35
das müsste auch mit der parse-funktion von leechget funzen.
Thema verteilen:
Seite 1 von 1