WinFuture-Forum.de: Webseite 1:1 Kopieren - WinFuture-Forum.de

Zum Inhalt wechseln

Nachrichten zum Thema: Entwicklung
Seite 1 von 1

Webseite 1:1 Kopieren


#1 Mitglied ist offline   Ghosthacker 

  • Gruppe: aktive Mitglieder
  • Beiträge: 150
  • Beigetreten: 08. September 07
  • Reputation: 0

geschrieben 16. Juni 2010 - 22:51

Hallo Leutz,

bitte nicht gleich über mich herfallen wegen legal und illegal etc.

Ich suche eine Möglichkeit, eine im Firefox-Browserfenster angeziegte Webseite 1:1 zu kopieren.

Hierbei sollen automatisch alle Bilder, Texte etc. mit kopiert werden und möglichst in einer html Datei gespeichert werden um diese dann mit einem html Editor verändern und bearbeiten zu können.

Gibt es so ein Webseiten"Grabber" Tool etc. ?

Danke Leutz
0

Anzeige



#2 Mitglied ist offline   Taxidriver05 

  • Gruppe: aktive Mitglieder
  • Beiträge: 2.609
  • Beigetreten: 14. Mai 09
  • Reputation: 43
  • Geschlecht:Männlich
  • Wohnort:Schkopau - OT Ermlitz
  • Interessen:- Ausgehen,
    - Sport (am liebsten an der frischen Luft),
    - Musik (machen und hören),
    - Grafik- und Webdesign,
    - gut Essen,
    - an PCs basteln (für den schnellen Euro ;-)),
    uvm.

geschrieben 16. Juni 2010 - 23:08

Wie wäre es damit, einfach den Quelltext zu kopieren? :angry:
BORN STUPID? TRY AGAIN!

"Himmlische Ruhe und tödliche Stille haben dieselbe Phonzahl."
My Music
0

#3 Mitglied ist offline   MezzoX 

  • Gruppe: aktive Mitglieder
  • Beiträge: 382
  • Beigetreten: 14. Februar 08
  • Reputation: 1
  • Geschlecht:Männlich

geschrieben 16. Juni 2010 - 23:11

Hast 2 Möglichkeiten, entweder gehst du im Browser auf Speichern und wählst "HTML mit Bildern" / "Website komplett" aus oder nimmst nen Website downloader wie httrack. ist eigentlich mehr ein Offline Browser, aber kannst dadurch auch einstellen, bis zu welcher Linktiefe die Seite gespeichert werden soll.

Dieser Beitrag wurde von MezzoX bearbeitet: 16. Juni 2010 - 23:12

0

#4 Mitglied ist offline   Taxidriver05 

  • Gruppe: aktive Mitglieder
  • Beiträge: 2.609
  • Beigetreten: 14. Mai 09
  • Reputation: 43
  • Geschlecht:Männlich
  • Wohnort:Schkopau - OT Ermlitz
  • Interessen:- Ausgehen,
    - Sport (am liebsten an der frischen Luft),
    - Musik (machen und hören),
    - Grafik- und Webdesign,
    - gut Essen,
    - an PCs basteln (für den schnellen Euro ;-)),
    uvm.

geschrieben 16. Juni 2010 - 23:20

Beitrag anzeigenZitat (MezzoX: 17.06.2010, 00:11)

Hast 2 Möglichkeiten, entweder gehst du im Browser auf Speichern und wählst "HTML mit Bildern" / "Website komplett" aus oder nimmst nen Website downloader wie httrack. ist eigentlich mehr ein Offline Browser, aber kannst dadurch auch einstellen, bis zu welcher Linktiefe die Seite gespeichert werden soll.


Dumm nur, wenn da ne Datenbank dran hängt...
Weil die wird es wohl kaum mit speichern...
BORN STUPID? TRY AGAIN!

"Himmlische Ruhe und tödliche Stille haben dieselbe Phonzahl."
My Music
0

#5 Mitglied ist offline   MezzoX 

  • Gruppe: aktive Mitglieder
  • Beiträge: 382
  • Beigetreten: 14. Februar 08
  • Reputation: 1
  • Geschlecht:Männlich

geschrieben 16. Juni 2010 - 23:54

von Datenbank war nie die Rede, aber egal^^
er will doch einfach nur ne Webseite 1:1 speichern und sie danach mit nem HTML Editor bearbeiten.
Dein Quelltext kopieren Tip, bringt ihm noch weniger.
0

#6 Mitglied ist offline   Taxidriver05 

  • Gruppe: aktive Mitglieder
  • Beiträge: 2.609
  • Beigetreten: 14. Mai 09
  • Reputation: 43
  • Geschlecht:Männlich
  • Wohnort:Schkopau - OT Ermlitz
  • Interessen:- Ausgehen,
    - Sport (am liebsten an der frischen Luft),
    - Musik (machen und hören),
    - Grafik- und Webdesign,
    - gut Essen,
    - an PCs basteln (für den schnellen Euro ;-)),
    uvm.

geschrieben 17. Juni 2010 - 00:10

Nun...

Ob eine Datenbank seitens der Webseite mit im Spiel ist, war dem ersten Post leider nicht genau zu entnehmen...

Wieso bringt ihm der Quelltext-Tip nix?

Wenn er diesen in einem Texteditor einfügt und die Datei als *.htm(l) speichert, dann hat er natürlich auch die Seite...
Allerdings muss ich Dir recht geben, dass da dein Vorschlag schon etwas praktikabler ist.
BORN STUPID? TRY AGAIN!

"Himmlische Ruhe und tödliche Stille haben dieselbe Phonzahl."
My Music
0

#7 Mitglied ist offline   [Elite-|-Killer] 

  • Gruppe: aktive Mitglieder
  • Beiträge: 762
  • Beigetreten: 02. Oktober 05
  • Reputation: 0
  • Geschlecht:Männlich
  • Wohnort:Passau

geschrieben 17. Juni 2010 - 00:12

Beitrag anzeigenZitat (Taxidriver05: 17.06.2010, 00:20)

Dumm nur, wenn da ne Datenbank dran hängt...
Weil die wird es wohl kaum mit speichern...

Wenn man nur das Frontend will ist das ja auch egal...
0

#8 Mitglied ist offline   Django2 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.331
  • Beigetreten: 09. Dezember 08
  • Reputation: 9
  • Geschlecht:Männlich

geschrieben 17. Juni 2010 - 05:33

Wget kann das, hier mal ein Beispiel:
Wget gibts soweit ich weiss auch für Windows, auf die KDE GUI Kwebget wird man halt verzichten müssen.

Dieser Beitrag wurde von Django2 bearbeitet: 17. Juni 2010 - 05:34

0

Thema verteilen:


Seite 1 von 1

1 Besucher lesen dieses Thema
Mitglieder: 0, Gäste: 1, unsichtbare Mitglieder: 0