WinFuture-Forum.de: Httrack Wesite Copier. Brauche Hilfe Beim Runterladen - WinFuture-Forum.de

Zum Inhalt wechseln

Nachrichten zum Thema: Software
Seite 1 von 1

Httrack Wesite Copier. Brauche Hilfe Beim Runterladen


#1 Mitglied ist offline   Ler-Khun 

  • Gruppe: aktive Mitglieder
  • Beiträge: 2.952
  • Beigetreten: 16. Dezember 06
  • Reputation: 232
  • Geschlecht:unbekannt
  • Wohnort:Hätte schlimmer kommen können

geschrieben 03. August 2009 - 02:24

Ich möchte gerne diese Seite runterladen.
Es geht mir nur um die Karte im GoogleMaps Style. Versuche es seit 2 Tagen jedoch erfolglos.

Was muss ich beachten oder besser noch, wie müssen die Einstellungen bei HTTrack Wesite Copier ausschauen?
Habe schon div. Einstellungen versucht.
U.a. robot.txt ignorieren, erlaubt dass Links zu externen Seiten verfolgt werden dürfen und auch viele andere Optionen von denen ich die Bedeutung nicht kenne.
Aber alles ohne Erfolg.
Lang genug habe ich,denke ich mal, auch laufen lassen.
!,2 GB haben sich mittlerweile angehäuft.
Alle Möglichen Sachen innerhalb der Seite sowie Verlinkete Inhalte von anderen Seiten sind da, jedoch die Map nicht! -Grr Diese wird erst nachgeladen sobald ich on gehe.


Ich habe es mal ganz simple versucht die Option "Seite speichern unter.." vom FF gewählt.
Hier wird die Map zumindest gecachet. -Wie das meiste Andere leider auch, wenn man diese Möglichkeit wählt. Denn da runterladen mit'm FF ist ja kein echtes Spiegeln.
Wie auch immer.
Wenn ich die Sachen jetzt aus'm Cache ziehe und in den Ordner mit den Downloaddateien packe, ist die Karte zum Teil da.
Jedoch nur als Teilausschnitt und "Standbild" ohne Interaktionsmöglichkeiten. :huh: -Moar.
Ich bin echt langsam am verzweifeln.
Bitte helft mir.

Dieser Beitrag wurde von Ler-Khun bearbeitet: 03. August 2009 - 02:26

Es ist nicht alles Chrome was glänzt. Firefox -Der bessere Browser
0

Anzeige



#2 Mitglied ist offline   Ler-Khun 

  • Gruppe: aktive Mitglieder
  • Beiträge: 2.952
  • Beigetreten: 16. Dezember 06
  • Reputation: 232
  • Geschlecht:unbekannt
  • Wohnort:Hätte schlimmer kommen können

geschrieben 06. August 2009 - 13:06

Weiß wirklich keiner Rat oder will eher keiner helfen da das Thema zu heikel ist?
Es ist nicht alles Chrome was glänzt. Firefox -Der bessere Browser
0

#3 Mitglied ist offline   Ler-Khun 

  • Gruppe: aktive Mitglieder
  • Beiträge: 2.952
  • Beigetreten: 16. Dezember 06
  • Reputation: 232
  • Geschlecht:unbekannt
  • Wohnort:Hätte schlimmer kommen können

geschrieben 10. August 2009 - 17:57

Brauche immer noch Hilfe. ;)
Es ist nicht alles Chrome was glänzt. Firefox -Der bessere Browser
0

#4 Mitglied ist offline   Dommix 

  • Gruppe: aktive Mitglieder
  • Beiträge: 65
  • Beigetreten: 06. August 09
  • Reputation: 0
  • Geschlecht:Männlich

geschrieben 12. August 2009 - 08:41

Habe es noch nie ausprobiert, aber vielleicht funktioniert es einfach nicht, d.h. es gibt garkeine Lösung? :S
0

#5 Mitglied ist offline   def 

  • Gruppe: aktive Mitglieder
  • Beiträge: 429
  • Beigetreten: 19. Dezember 06
  • Reputation: 7
  • Geschlecht:Männlich

geschrieben 12. August 2009 - 19:31

Beitrag anzeigenZitat (Dommix: 12.08.2009, 09:41)

Habe es noch nie ausprobiert, aber vielleicht funktioniert es einfach nicht, d.h. es gibt garkeine Lösung? :S

Naja, möglich sein wird es schon irgendwie; immerhin wird der Inhalt ja auch an den Browser übertragen, um ihn anzuzeigen, und alles, was auf dem eigenen Computer ist, lässt sich auch dauerhaft speichern.
Technisch ist das Problem halt, dass die Seite Ajax benutzt, genauer gesagt das Framework Prototype, wie ich zufällig beim Überfliegen des Quellcodes entdeckt habe.
Zum einen ist mir kein Webcrawler (HTTrack ist nur einer von mehreren) bekannt, der mit Ajax-Seiten klarkommt. Normalerweise erwarten Crawler, dass eine vollständige HTML-Seite übermittelt wird; bei AJAX werden hingegen nur die neuen Daten dynamisch nachgeladen und an einer bestimmte Stelle ins Dokument eingefügt. Der Programmierer des Crawlers müsste diese Logik also erstmal programmieren. Das ist nicht unbedingt trivial, denn im Gegensatz zu HTML-Links, bei denen man im Quellcode quasi eine unveränderliche Menge an Links hat, könnten AJAX-Reqests grundsätzlich auch dynamisch erzeugt werden, d.h. der Crawler müsste irgendwie alle denkbaren Programmabläufe nachvollziehen.
Zum anderen müsste man den Quellcode durchkucken und feststellen, ob nicht eventuell ein bestimmter Teil der "Logik", nach der die Inhalte nachgeladen werden, auf dem Server liegt. Diesen Teil müsste man dann ggf. selbst gedanklich ergänzen und z.B. in JavaScript nachprogrammieren.
Aber wer hat schon Lust und Zeit und die Fähigkeiten, den ganzen Quellcode der genannten GTA4-Map-Seite genauer zu untersuchen? Wenn man das täte, könnte man sicher irgendwie ein kleines (oder auch nicht so kleines) Programm schreiben, das die Map nach und nach runterlädt und in navigierbarer Form abspeichert. Aber ich habe weder die Lust (oder besser gesagt das Durchhaltevermögen) noch die Zeit noch die Fähigkeiten (mangels Fähigkeiten bräuchte ich auch sehr viel Zeit), sonst würd ich mich vielleicht sogar mal daransetzen, und sei es nur als nette Herausforderung.

Sorry...
def

Dieser Beitrag wurde von def bearbeitet: 12. August 2009 - 19:32

Eingefügtes Bild
0

#6 Mitglied ist offline   Ler-Khun 

  • Gruppe: aktive Mitglieder
  • Beiträge: 2.952
  • Beigetreten: 16. Dezember 06
  • Reputation: 232
  • Geschlecht:unbekannt
  • Wohnort:Hätte schlimmer kommen können

geschrieben 13. August 2009 - 20:36

Hi,

danke für die Antwort und recht ausführliche Erklärung.
Schon Ok. Ich erwarte von niemandem dass er/sie sich für mich hinsetzt und 'n Programm schreibt.

Aber mir ist da grade eine Idee gekommen wie es dennoch vllt. funktionieren könnte...
Wie ich oben bereits ansatzweise schrieb, funktioniert es mit Firefox und Seite Speichern unter
ja z.T.
Ich habe mir letztens mal die Mühe gemacht sämtliche Sachen die man auf der Map einblenden lassen kann, einzelnd in den div. Zoomstufen die zur Verfügung stehen, anzeigen zu lassen, so dass halt alle nötigen Daten gesaugt und gecacht werden
Es ist danach alles offline(Trennung vom Netzt) nutzbar. Jedoch nicht mehr nach der Leerung des Caches.
Und den lösche ich in regelmäßigen Abständen und werde es auch weiterhin tuen.

Meine Überlegung ist jetzt, dass ich mir die doch recht große Mühe noch einmal mache und auf dem eben beschrieben Wege noch einmal "lade" und danach den Cache in einen Firefox Portabel kopiere.
So müsste es doch funktionieren oder?
Oder ist es nicht möglich den Inhalt hinterher darstellen zu lassen, da der Portable ja kein Flash, Shockwave, Java, etc kann.
Ich weiß ja nicht was man/die Seite alles braucht um dargestellt zu werden.... -.-
Oder ist das irrelevant da hier auf die lokal installierten Sachen zurückgegriffen wird?

Dieser Beitrag wurde von Ler-Khun bearbeitet: 14. August 2009 - 00:06

Es ist nicht alles Chrome was glänzt. Firefox -Der bessere Browser
0

Thema verteilen:


Seite 1 von 1

1 Besucher lesen dieses Thema
Mitglieder: 0, Gäste: 1, unsichtbare Mitglieder: 0