WinFuture-Forum.de: Alle Html-seiten Einer Website Auflisten Lassen - WinFuture-Forum.de

Zum Inhalt wechseln

Nachrichten zum Thema: Entwicklung
Seite 1 von 1

Alle Html-seiten Einer Website Auflisten Lassen


#1 Mitglied ist offline   redskin 

  • Gruppe: Mitglieder
  • Beiträge: 10
  • Beigetreten: 25. März 05
  • Reputation: 0

geschrieben 16. Mai 2005 - 16:50

Hi!

Ich würde gerne ALLE html-seiten der Website http://www.janatris.de/ auflisten lassen.

Also jetzt nicht nur alle Seiten die auf der Startpage verlnkt sind sondern alle die auf dem Server gehosted werden. Ist das möglich?

Danke!
0

Anzeige



#2 Mitglied ist offline   Floele 

  • Gruppe: aktive Mitglieder
  • Beiträge: 919
  • Beigetreten: 22. Juni 04
  • Reputation: 0

geschrieben 16. Mai 2005 - 17:39

Wenn du damit jetzt alle HTML Dateien die sich in dem Hauptverzeichnis deines Servers und dessen Unterordnern befinden, dann ja.
0

#3 Mitglied ist offline   Meatwad 

  • Gruppe: aktive Mitglieder
  • Beiträge: 784
  • Beigetreten: 07. August 04
  • Reputation: 0
  • Geschlecht:Männlich
  • Wohnort:Bad Vilbel
  • Interessen:Computer, Inliner, Chatten...

geschrieben 16. Mai 2005 - 17:54

mit PHP geht das, wenn, wie floele gesagt hat, in deinem verzeichnis ist
I am away to look for my self. If I am back before I return keep me here. | Mein Server
0

#4 Mitglied ist offline   redskin 

  • Gruppe: Mitglieder
  • Beiträge: 10
  • Beigetreten: 25. März 05
  • Reputation: 0

geschrieben 16. Mai 2005 - 20:48

ja es ist aber nicht mein server ...
0

#5 Mitglied ist offline   AV 

  • Gruppe: aktive Mitglieder
  • Beiträge: 659
  • Beigetreten: 10. Juni 03
  • Reputation: 0
  • Geschlecht:Männlich

geschrieben 17. Mai 2005 - 00:07

ich weis nicht genau, obs funktioniert, aber mit flashGet gibts auch nen site-editor oder explorer, kA wie sich das ding schimpft, da kann man sich durch die seite klicken. Vllt hilfts, weis nicht genau, wie detailiert du die seite brauchst
0

#6 Mitglied ist offline   SciFi 

  • Gruppe: Mitglieder
  • Beiträge: 4
  • Beigetreten: 14. April 05
  • Reputation: 0

geschrieben 17. Mai 2005 - 01:08

mit wget kannst du das hinkriegen. du kannst aber nur verlinkte seiten saugen oder seiten, die mit directory listing gesehen werden können. sonst weiss das proggy ja nicht, welche pages up sind.

syntax:
wget -r http://bla.ch/verz/ für mit directory listing

wget -m url ist für mirroring - also eine 1:1 kopie der page lokal ablegen. somit würden auch alle links gezogen.

http://download.freenet.de/archiv_w/wget_f...ndows_6649.html ich denke das sollte funzen.

hier die man page von wget mit allen parametern:
http://www.electrict...e/manpage/wget/
0

#7 Mitglied ist offline   Meatwad 

  • Gruppe: aktive Mitglieder
  • Beiträge: 784
  • Beigetreten: 07. August 04
  • Reputation: 0
  • Geschlecht:Männlich
  • Wohnort:Bad Vilbel
  • Interessen:Computer, Inliner, Chatten...

geschrieben 17. Mai 2005 - 12:22

hast du PHP support auf deinem server?
I am away to look for my self. If I am back before I return keep me here. | Mein Server
0

#8 Mitglied ist offline   Witi 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.942
  • Beigetreten: 13. Dezember 04
  • Reputation: 43
  • Geschlecht:Männlich
  • Wohnort:Kingsvillage
  • Interessen:Frickeln

geschrieben 17. Mai 2005 - 12:45

loool...
bist wohl zu schlecht das rätsel ohne zu pfuschen zu lösen, was?!? ;)
Das ist echt nicht so schwer. Ich hab alles in zwei Tagen gelöst
0

Thema verteilen:


Seite 1 von 1

1 Besucher lesen dieses Thema
Mitglieder: 0, Gäste: 1, unsichtbare Mitglieder: 0