WinFuture-Forum.de: Seite "runterladen" - WinFuture-Forum.de

Zum Inhalt wechseln

Nachrichten zum Thema: Software
Seite 1 von 1

Seite "runterladen" Inklusive Bildern


#1 Mitglied ist offline   t1mo 

  • Gruppe: aktive Mitglieder
  • Beiträge: 65
  • Beigetreten: 13. Februar 05
  • Reputation: 0

geschrieben 01. Juni 2006 - 07:17

Genau, wollt fragen ob das möglich is die Seite zu speichern mit sämtlichen Medien die direkt verfügabr sind auf der Seite, so dass ich alles auf dem PC hab. Ich glaube diese Funktion heisst "Seite Offline verfügabar machen" aber das bringts nich. GetRight sollte angeblich auch funktionieren aber damit komm ich nicht klar. :/
0

Anzeige



#2 Mitglied ist offline   Elren Luthien 

  • Gruppe: aktive Mitglieder
  • Beiträge: 3.981
  • Beigetreten: 20. September 04
  • Reputation: 6
  • Geschlecht:Männlich
  • Wohnort:Zürich/Schweiz

geschrieben 01. Juni 2006 - 07:26

http://www.httrack.com/

So much for dreams we see but never care to know
Your heart makes me feel
Your heart makes me moan
For always and ever, I'll never let go..."

Elrens Blog Elren auf Last.fm Elren bei SysProfile
0

#3 Mitglied ist offline   t1mo 

  • Gruppe: aktive Mitglieder
  • Beiträge: 65
  • Beigetreten: 13. Februar 05
  • Reputation: 0

geschrieben 01. Juni 2006 - 07:35

Ok das Programm ist nicht schlecht, aber gibt es die Möglichkeit damit auch Verlinkte Bilder zu laden ?
Ich bekomm natürlich nur die Thumbnails
0

#4 Mitglied ist offline   DNA 

  • Gruppe: aktive Mitglieder
  • Beiträge: 73
  • Beigetreten: 31. Mai 06
  • Reputation: 0
  • Geschlecht:Männlich
  • Wohnort:Duisburg

geschrieben 01. Juni 2006 - 08:35

Mit FlashGet müsste es gehen, ein rechte Maustaste im Text und "alles laden mit Flashget", müsste eigentlich klappen!

http://www.flashget.com/

Dieser Beitrag wurde von DNA bearbeitet: 01. Juni 2006 - 08:36

########################### System Information ###########################
Windows XP Professional 5.1 Service Pack 2 (Build 2600)
Processor info: AMD Athlon™ XP 2500+ (1832MHz)
Memory Available to Windows: 785.904 KB
0

#5 Mitglied ist offline   Henning 

  • Gruppe: aktive Mitglieder
  • Beiträge: 238
  • Beigetreten: 22. März 04
  • Reputation: 0
  • Geschlecht:Männlich

geschrieben 01. Juni 2006 - 10:36

BackStreet Browser

oder

Teleport Pro
0

#6 Mitglied ist offline   Internetkopfgeldjäger 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.718
  • Beigetreten: 29. Januar 04
  • Reputation: 1
  • Geschlecht:Männlich
  • Interessen::-)

geschrieben 01. Juni 2006 - 12:41

Hallo,

wget kann recursiv downloaden.
wget ist ein Unics Tool,
ist aber auch bereits auf Microsoft Windows portiert worden. ;(

Habe da auch eine Variante
mit bunter GUI zum klicken gefunden:
WinWget, OpenSource Download Manager

WinWget ist OpenSource und lässt sich
kostenlos und legal downloaden. :o


Gruß, Internetkopfgeldjäger
0

#7 Mitglied ist offline   moglibix 

  • Gruppe: Mitglieder
  • Beiträge: 2
  • Beigetreten: 01. Juni 06
  • Reputation: 0

geschrieben 01. Juni 2006 - 15:07

hallo

für meine Diplomarbeit will ich webseiten analysieren und bräuchte diese offline für die analyse. Es geht um die websites von werbeagenturen, die allesamt flash oder sonstige animationen drinnen haben. Mit httrack gehts gar nicht und mit content Saver bekomme ich jetzt zumindest die flash eingangsseiten, aber alle weiteren verlinkten Seiten erhalte ich nur leer. nun hab ich gelesen, dass xml und flash gar nicht im offlienreader zu speichern gehen. stimmt das? dann könnte ich ja meine bemühungen aufgeben.
es geht zum beispiel um die seite www.jvm.de

Grüße
moglibix
0

#8 Mitglied ist offline   Desh 

  • Gruppe: aktive Mitglieder
  • Beiträge: 84
  • Beigetreten: 31. Mai 06
  • Reputation: 0

geschrieben 01. Juni 2006 - 15:33

klappt etwa nicht -> datei -> seite speicehrn unter?
0

#9 Mitglied ist offline   Internetkopfgeldjäger 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.718
  • Beigetreten: 29. Januar 04
  • Reputation: 1
  • Geschlecht:Männlich
  • Interessen::-)

geschrieben 01. Juni 2006 - 17:33

Beitrag anzeigenZitat (moglibix: 01.06.2006, 16:07)

hallo

für meine Diplomarbeit will ich webseiten analysieren und bräuchte diese offline für die analyse. Es geht um die websites von werbeagenturen, die allesamt flash oder sonstige animationen drinnen haben. Mit httrack gehts gar nicht und mit content Saver bekomme ich jetzt zumindest die flash eingangsseiten, aber alle weiteren verlinkten Seiten erhalte ich nur leer. nun hab ich gelesen, dass xml und flash gar nicht im offlienreader zu speichern gehen. stimmt das? dann könnte ich ja meine bemühungen aufgeben.
es geht zum beispiel um die seite www.jvm.de

Grüße
moglibix


Wenn man es downloaden kann,
kann man es auch speichern.
Wenn aber der Server wiederspenstig ist,
aktiv mit Weichen arbeitet,
kriegst Du nur das, was der Server Dir rausrücken will.
Der hier:
Apache/1.3.22 Server at www.jvm.de Port 80

rückt nun mal nicht einfach alles so raus.
Für mich ist da mit nativen Programmen
ganz genau gar kein Content vohanden,
aber das ist doch vollkommen normal,
für eine Werbeagentur, oder?

Lies mal:
http://www.woodshed....alog-robot.html :)

Wenn von Deinem oben angegebenen Beispiel etwas haben willst,
dann kannst du dich ja mal mit user-agent Strings
vertraut machen. ;)

Mir persönlich ist sowas zu blöd
wenn die nur null Content, also nix, nada, zu bieten haben,
finde ich das einfach schlicht uninteressant,
und eine Sekunde später bin ich wieder weg. :)


Gruß, Internetkopfgeldjäger


Update:
Mann, oh, mann warum tue ich mir das bloß an?
Also,
wenn man mal schnell in den Quelltext der Seite schaut,
sieht man im Quelltext die Urls mit Session IDs der Quellen.
Alles fürchterlich albern, aber das schlimmste ist das dies alberne Zeug
das dahinter steckt, den ganzen Aufwand nicht wert ist.
Natürlich lässt sich das Flash File dann mit Session ID auch downloaden,
anders könnte es der Adobe/Macromedia Flashabspieler auch nicht ausführen,
wenn es nicht zuvor gedownloadet worden wäre,
wenn der Server einen installierten Adobe/Macromedia Flashabspieler
beim Clienten mittels der pimitiven Weiche erkennt.
Fazit: viel Script und Null Content.

Der ganze Mist müsste aber auch im Browsercache zu finden sein,
sofern ein Adobe/Macromedia Flashabspieler installiert ist.
Wohl gemerkt nur das "Markenprodukt" von Adobe/Macromedia,
weil die Scripte zu doof sind, um andere Flashplayer,
wie z.B. Gnash oder swfplayer zu erkennen.

Die Seite ist auf jeden fall optimal darauf getrimmt,
das sie nur von den wenigsten gesehen werden muß.
Ist echt eine Top-Werbeagentur! ;D

Dieser Beitrag wurde von Internetkopfgeldjäger bearbeitet: 01. Juni 2006 - 18:23

0

#10 Mitglied ist offline   moglibix 

  • Gruppe: Mitglieder
  • Beiträge: 2
  • Beigetreten: 01. Juni 06
  • Reputation: 0

geschrieben 02. Juni 2006 - 22:12

hmmm...

-also rechtsklick mit getflash geht definitiv nicht.

-die unterhaltung zwischen robot und webdesigner ist lustig (und erschreckend!werden dei echt nicht gelistet in goolge und Co?), aber was ist denn nun mein fazit:

"... Der ganze Mist müsste aber auch im Browsercache zu finden sein,
sofern ein Adobe/Macromedia Flashabspieler installiert ist.
Wohl gemerkt nur das "Markenprodukt" von Adobe/Macromedia,
weil die Scripte zu doof sind, um andere Flashplayer,
wie z.B. Gnash oder swfplayer zu erkennen...."


also könnte ich irgendwie kompliziert über einen flashplayer an die seiten kommen - habe sie dann aber im zweifel auch nicht als nette datei offline archiviert liegen.
Kann es sein, dass es für einen normal pc-affinen verwender zu kompliziert werden würde? hört sich für mich zumindest so an. Ich glaube ich mach es mir fast einfacher, wenn ich versuche das Bildschirmsignal abzunehmen an eine Kamera und die Seiten während ich sie systematisch absurfe als dv speichere.

Auf jeden fall vielen dank dass ihr euch damit beschäftigt habt!
0

#11 Mitglied ist offline   Internetkopfgeldjäger 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.718
  • Beigetreten: 29. Januar 04
  • Reputation: 1
  • Geschlecht:Männlich
  • Interessen::-)

geschrieben 04. Juni 2006 - 16:04

Beitrag anzeigenZitat (moglibix: 02.06.2006, 23:12)

...also könnte ich irgendwie kompliziert über einen flashplayer an die seiten kommen - habe sie dann aber im zweifel auch nicht als nette datei offline archiviert liegen.
Kann es sein, dass es für einen normal pc-affinen verwender zu kompliziert werden würde? hört sich für mich zumindest so an. Ich glaube ich mach es mir fast einfacher, wenn ich versuche das Bildschirmsignal abzunehmen an eine Kamera und die Seiten während ich sie systematisch absurfe als dv speichere.

Auf jeden fall vielen dank dass ihr euch damit beschäftigt habt!



Hallo,

nicht wirklich komplizert,
aber unglaublich umständlich
und in keinem Verhältnis zum Aufwand stehend. :)

Man kann das Flash File durchaus einzeln laden,
aber es wird vom Server nach dem Clienten geguckt
und eine Session ID erstellt.
Je nachdem wie wurstelig die jeweilige Werbeagentur
das gestaltet hat,
kann Dich eine einzelne Agentur beliebig lange aufhalten.

Wenn der Server (bzw. die Scripte die da laufen)
zu erkennen glauben, das der Client kein Flash kann,
wird nur ein ein Werbelink für das orginal Adobe/Macromedia
Produkt ausgeliefert.
Ist ein bißchen stupide, weil Adobe/Macromedia
nur für wenige Betriebssysteme tatsächlich
auch wirklich ein passendes Markenprodukt hat.

Eigentlich wäre es eine tolle Idee, dies
"Werbung möglichest unzugänglich gestalten"
mal zu dokumentieren.

Finde es natürlich prima, das die Werbung
von den Werbefuzzis so schön schlecht,
oder genauer: gar nicht funktioniert. :)


Gruß, Internetkopfgeldjäger
0

Thema verteilen:


Seite 1 von 1

1 Besucher lesen dieses Thema
Mitglieder: 0, Gäste: 1, unsichtbare Mitglieder: 0