WinFuture-Forum.de: Hilfe: Datein verschwunden, 2 x Win10, ungünstige Konfiguration, Daten - WinFuture-Forum.de

Zum Inhalt wechseln

Windows 10: Alle News, der Download sowie zahlreiche Screenshots und Videos zum neuen Betriebssystem von Microsoft. Jetzt im WinFuture Windows 10 - Special informieren!
  • 2 Seiten +
  • 1
  • 2

Hilfe: Datein verschwunden, 2 x Win10, ungünstige Konfiguration, Daten Recovery müsste mMn möglich sein, aber Recovery bisher erfolglos

#16 Mitglied ist offline   Fensterputzer20 

  • Gruppe: Mitglieder
  • Beiträge: 9
  • Beigetreten: 07. Juni 20
  • Reputation: 0

geschrieben 19. Juni 2020 - 13:06

Ich danke für die Beteiligung. Aktueller Stand: es werden jetzt alle vorhandenen Daten (von HDD1) auf eine externe 12TB kopiert. Dabei fiel mir auf, dass von der betroffenen HDD1 6TB ich "nur" 4,05 TB zu kopieren habe, da ich die Ordner "System Volume Information" und "Recycle.bin" auslasse. [Vielleicht kann mir hier noch ein Kenner helfen, vielleicht daß verschwundene Material zu finden (mit Originalnamen etc.)]

Im zweiten Schritt werde ich mal mit Recuva versuchen einen Deepscan sämtlicher findbaren Datein zu machen und diese zu recovern. Ich erhoffe mir dabei, dass bei diesem Recover-Schritt die OriginalDateinamen wieder auftauchen (im Gegensatz zu undelete)

Also, wenn mir jemand bezüglich der Thematik Recovery mit Recuva, Deepscan und Originaldateinamen helfen könnte, das wäre toll.

Beitrag anzeigenZitat (Mondragor: 10. Juni 2020 - 08:43)

Es gibt verschiedene Raid-Level, wobei in der Regel bei wenigen zugreifenden Systemen ich am ehesten Raid5 mit hotspare empfehlen würde. Natürlich muss man sich auch da reinfuchsen und Geld kostet es ohnehin, aber die Frage ist halt immer, was es kostet, wenn alle Daten weg sind oder Daten unwiderruflich weg sind. Manchmal reicht ja schon ein ausgefallener Festplattencontroller, während die physikalische Festplatte ansonsten heile ist, und du kannst für 1 TB mal eben 800 € für die professionelle wiederherstellung berappen. Für diesen Betrag kann man sich auch ein Raidsystem mit 20-40 TB hinstellen und da fragt sich, wovon man mehr hat.

Das schaue ich mir mal an. (verstehe ich korrekt, dass es ein NAS System am LAN ist, konfiguriert als RAID5?) Für einen Link zu einem empfohlenen Produkt etc. wäre ich dankbar.

Beitrag anzeigenZitat (Mondragor: 10. Juni 2020 - 08:43)

Bei Raidsystemen ist es nämlich so, dass auch mal 1 oder sogar 2 Festplatten physikalisch ausfallen können, ohne dass die Daten futsch sind und ob Du das dann als Datenziel oder Backupziel nutzt oder sogar größer dimensionierst und 2 Raids aufbaustm von denen eines Datenziel und eines Backupziel ist, ist ja dann noch immer eine Entscheidungsfreiheit, aber es gibt viele Möglichkeiten, wie man es besser machen kann. Sieh es als Chance.Grüße,Christian

Danke, der Grund warum ich mich solange davor winden konnte ist einfach. Mir ist bisher noch keine eigene HDD physisch defekt in die Hände gekommen. Aber bevor mir dann mal tatsächlich so etwas passiert auf dem Level, wo ich jetzt bin (>16TB), sollte man mal.
Denn bevor ich mich monatelang mit sortieren und priorisieren befasse, was auch ein sehr guter Tip ist, investiere ich wohl doch eher in eine sichere Lösung.

Beitrag anzeigenZitat (joe13: 10. Juni 2020 - 09:53)

Hi,für ein brauchbares Backup der Daten brauchst Du weder ein NAS noch ein hier empfohlenes RAID-System.Es genügt schlichtwegs eine ausreichend große Festplatte, die nur zu Sicherungszwecken angeschlossen und danach wieder zur Seite gelegt wird.Ein NAS, welches ständig am System angeschlossen bleibt ist kein Backup, da es im schlimmsten Fall dieselben Datenfehler zeigt wie die Originalplatte.Ein RAID brauchts vorwiegend als schnellen Ersatz bei Hardware-Ausfällen auf Servern.

Ja, richtig. Ich denke das Missverständnis hier entsteht bei der Datenmenge. Um 10-16TB zu sichern (und zukünftig noch mehr), macht sich etwas großes wie NAS schon ganz brauchbar.

Dieser Beitrag wurde von Fensterputzer20 bearbeitet: 19. Juni 2020 - 13:06

0

Anzeige



#17 Mitglied ist offline   joe13 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.809
  • Beigetreten: 10. September 09
  • Reputation: 123

geschrieben 19. Juni 2020 - 16:16

Eine Backup-Platte mit 1..3 GB tut's genauso und läßt sich leicht zum Schutz abklemmen.
Wenn ein unerwarteter Fehler aufgetreten ist, frage ich mich immer, welche Fehler erwartet wurden...
1

#18 Mitglied ist offline   Fensterputzer20 

  • Gruppe: Mitglieder
  • Beiträge: 9
  • Beigetreten: 07. Juni 20
  • Reputation: 0

geschrieben 20. Juni 2020 - 10:46

Beitrag anzeigenZitat (joe13: 19. Juni 2020 - 16:16)

Eine Backup-Platte mit 1..3 GB tut's genauso und läßt sich leicht zum Schutz abklemmen.

Ich verstehe Deinen Tip bezügl. externer HDD. Die Tips der anderen zu Lösungen, welche live eine sicherung durchführen ist auch nachvollziehbar. Was ich nicht verstehe ist, wie ich 10-16 TB mit einer externen "Backup-Platte mit 1..3 GB" handlen soll.

Sonst noch jemand ein Tip zu Recuva oder ein empfohlenes Produkt für gutes NAS RAID5, welches zu meiner Situation passt?

Dieser Beitrag wurde von Fensterputzer20 bearbeitet: 20. Juni 2020 - 10:48

0

#19 Mitglied ist offline   Sarek 

  • Gruppe: aktive Mitglieder
  • Beiträge: 759
  • Beigetreten: 16. April 18
  • Reputation: 245
  • Geschlecht:Männlich

geschrieben 20. Juni 2020 - 11:39

Beitrag anzeigenZitat (Fensterputzer20: 20. Juni 2020 - 10:46)

Sonst noch jemand ein Tip zu Recuva oder ein empfohlenes Produkt für gutes NAS RAID5, welches zu meiner Situation passt?


Ein bestimmtes NAS kann ich jetzt nicht empfehlen, aber zumindest zwei Hersteller, die du dir mal anschauen könntest. Das erste wäre Synology und das zweite ist Zyxel. Letzteres habe ich im 2-Bay-Einsatz und bin damit sehr zufrieden.


Aber wie Joe13 und andere schon schrieben, würde ich das NAS alleine nicht als Backup sehen!

So habe ich meine Backuplösung gefunden:

Ich habe meine Audiodateien, Fotos und Videoschnittdaten auf einem weiteren NAS (gespiegelt) UND auf einer externen USB HDD gesichert. Das NAS dient als Netzwerk-Arbeitslaufwerk (welches auch nicht immer an ist) und die USB-HDD liegt "isoliert" von Strom und PC im Schrank. Im "Dauerbetrieb" ist das NAS eigentlich nur, wenn ich Videoprojekte mit Archivmaterial erstelle, oder es absehbar ist, dass in der Woche/dem Monat viel mit Videos gearbeitet wird (ständiger Wechsel zwischen Audio und Video ->Crossmedia<-).

Bei Audio "parke" ich die Files (da deutlich kleiner) erstmal als Backup im Onedrive.
Videos und Fotos werden nach der richtigen Benennung der Dateien als Kopie auf das NAS geschoben und lokal am PC gespeichert (wo auch das Projekt abgearbeitet wird). Ist das fertig, wandert die Session auch auf das NAS, die Kopie auf der HDD am PC bleibt, bis genügend Daten zusammengekommen sind, um sie auf die USB-HDD zu verschieben. Das ist meistens dann der Fall, wenn der HDD-Speicher im PC knapp wird :D

Kurz noch erklärt, wieso ich lieber das NAS anschalte und nicht die USB-HDD anhänge:
Ich habe zwei Schnitt-PCs im Netzwerk und gelegentlich sind wir auch zu zweit an einem größeren Projekt. Da ist die USB-HDD immer hin und her stecken nicht die beste Lösung...

Ob das (oder eine abgewandelte Strategie) auch eine Lösung für dich sein könnte? Das musst du wissen :)


Das tut jetzt nichts zur eigentlichen Sache:
Was du (wegen der großen Dateimenge) auch mal ausprobieren könntest: Die *.mov Dateien in das h.264 Format zu bringen. Ich kenne das *.mov Format bei der Spiegelreflex nur zu gut und bin immer froh, wenn ich bei gleichbleibender Auflösung und Bitrate das File von 100 MB *.mov in 40 MB *.mp4 (h.264) umwandeln kann. Bei mehreren GB Datenmenge macht das schon ganz schön was aus :D

Aber das nur als unbedeutende Nebensache, die mal erwähnt werden wollte :D
_________________________
Arbeitstier 1: i5 9400f (6x2,9 GHz), 32 GB RAM, 512 GB SSD, 2 TB HDD, 1.44 MB FDD
Arbeitstier 2: Xeon E3 1230 V3 (4x3,0 GHz), 16 GB RAM, 512 GB SSD, 2 TB HDD
Arbeitstier 3: Intel Xeon E5450 (4x3 GHz), 16 GB DDR3, 120 GB SSD, 500 GB HDD
Arbeitstier 4: T61 mit T9500 (2x2,6 GHz), 8 GB RAM, 120 GB SSD


Alle mit Windows 10
1

#20 Mitglied ist offline   joe13 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.809
  • Beigetreten: 10. September 09
  • Reputation: 123

geschrieben 20. Juni 2020 - 14:08

Beitrag anzeigenZitat (Fensterputzer20: 20. Juni 2020 - 10:46)

.. wie ich 10-16 TB mit einer externen "Backup-Platte mit 1..3 GB" handlen soll.

Punkt für Dich.

Gemeint sind eher TB in ausreichender Größe. Notfalls auf 2 Einzelplatten verteilt ;-)

Dieser Beitrag wurde von joe13 bearbeitet: 20. Juni 2020 - 14:11

Wenn ein unerwarteter Fehler aufgetreten ist, frage ich mich immer, welche Fehler erwartet wurden...
1

#21 Mitglied ist offline   Fensterputzer20 

  • Gruppe: Mitglieder
  • Beiträge: 9
  • Beigetreten: 07. Juni 20
  • Reputation: 0

geschrieben 23. Juni 2020 - 02:01

Ich hinterlasse die Lösung:
1. BEVOR man jegliche Schritte erledigt -> gesamte betroffene HDD bzw. Partition als Disk-Image extrahieren [diesen Tip habe ich leider nicht erhalten bzw. übersehen]
2. Die gesamte HDD/Partition, welche nun ein Diskimage ist, einem Deepscan unterziehen
3. Gesuchte Filter anwenden (Dateiendung, Typ, Datum, etc.)
4. Recovery der ausgwählten/gefilterten Datein vom Diskimage auf z.B. externe HDD
Fertig

Woran scheiterte es zuvor:
1. Der Verlust der Daten wurde nicht sofort bemerkt. Obwohl praktisch keine/kaum Daten geschrieben wurden, scheint jedoch die Ordnerstruktur min. zum Teil überschrieben worden zu sein.
2. Recuva (hatte zuvor keine negativen Erfahrungen damit gemacht, jedoch auch keine Alternativen versucht.
3. Undelete war schon um Welten besser als Recuva (in meinem aktuellen Fall), jedoch die Originaldateinamen wurden durch sehr kryptische ersetzt. Die Daten waren zwar nun wiederhergestellt, aber z.B. Foto Reihen für Timelapses praktisch unbrauchbar.

Meine Empfehlung für diese ganze "operation" ist R-Studio. Damit war es wirklich professionell möglich sich Schritt für Schritt vorwärts zu bewegen. (Die FAQs von R-Studio waren sehr hilfreich. Die letzten wichtigen Schritte: https://www.r-studio...rmat_NTFS.shtml)

Die teilweise gelöschte Ordnerstruktur konnte auch R-Studio im Übrigen nicht voll wiederherstellen.

Die Ursache des Problems ist nach wie vor nicht bekannt. Deaktivieren der Schnellstart-Funktion brachte den beworbenen Erfolg hinsichtlich der beiden OS und der Datenträgerprüfung, welche allerdings (jüngst) nur noch die Systemlaufwerke SSD1 und SSD2 betraf.

Ein Bauchgefühl sagt mir, dass es etwas mit einer ungünstigen Kombination von WIN 10 PRO, WIN 10 lite plus oprekin und WIN 10 Sergei Strelec (boot von ext hdd) zu tun hat, ggf. in Kombination mit Recycle.bin Thematik. Symptom: Zuletzt war ich im Strelec Rettungs OS und habe dort eine Datei in den Papierkorb verschoben. Beim Leeren des Papierkorbs wurden allerdings eine Vielzahl an Datein gelöscht (offensichtlich wegen Recycle.bin algo). Ob das nun so ist bzw. wieso nun meine betroffenen Datein dahin sind, bleibt ein Rätsel für mich.


Beitrag anzeigenZitat (Sarek: 20. Juni 2020 - 11:39)

Was du (wegen der großen Dateimenge) auch mal ausprobieren könntest: Die *.mov Dateien in das h.264 Format zu bringen. Ich kenne das *.mov Format bei der Spiegelreflex nur zu gut und bin immer froh, wenn ich bei gleichbleibender Auflösung und Bitrate das File von 100 MB *.mov in 40 MB *.mp4 (h.264) umwandeln kann. Bei mehreren GB Datenmenge macht das schon ganz schön was aus :DAber das nur als unbedeutende Nebensache, die mal erwähnt werden wollte :D

Na da muss ich nochmal mein Kompressionslexikon durchgehen. Mich interessiert da der Unterschied der Kompression bzw. der Qualität. (wieso eigtl. h.264? und nicht gleich h.265?)

Beitrag anzeigenZitat (joe13: 20. Juni 2020 - 14:08)

Punkt für Dich.Gemeint sind eher TB in ausreichender Größe. Notfalls auf 2 Einzelplatten verteilt ;-)

Verstehe. Punkt für alle.
0

#22 Mitglied ist offline   WalterB 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.270
  • Beigetreten: 14. Juli 07
  • Reputation: 58
  • Geschlecht:Männlich
  • Wohnort:Schweiz
  • Interessen:Alles was mit Rechner zu tun hat.
    Im Einsatz, Windows, Apple und Linux.

geschrieben 23. Juni 2020 - 05:28

Selber war ich immer sehr zufrieden mit dem QNAP und die haben auch ein gutes User Forum.
QNAP Forum

0

#23 Mitglied ist offline   Mondragor 

  • Gruppe: aktive Mitglieder
  • Beiträge: 391
  • Beigetreten: 22. Februar 12
  • Reputation: 44
  • Geschlecht:Männlich

geschrieben 23. Juni 2020 - 13:18

Hallo nochmal @Fensterputzer20,

ich will jetzt nicht rumzitieren, drum noch mal einige Worte zur grundlegenden Überlegung, bevor man da konkret wird.

Wenn Du heute mit Größenordnungen von 10 - 20 TB hantierst, ist das ja schon eine ganze Menge und da lauten interessante Fragen beispielsweise:
  • Wie viel Zuwachs an Daten ist in welchem Zeitraum zu erwarten?
  • Wie viel Lust hat man aufzuräumen und wie gut ist das zeitlich vertretbar?
  • Wie (de)dupliziert sind die vorhandenen Daten?
  • Welchen Grad an Sicherheit musst Du haben?
  • Welche Investitionen wärest Du zu tätigen bereit?
  • Besteht denn auch Interesse, geänderte Daten zeitlich zurückverfolgen zu können?

Synology, zyxel oder Qnap sind da möglicher Vertreter, ich selbst habe sehr gute Erfahrungen mit Qnap gemacht.
Ein System zum Verstauen von 8 Platten mit 10 GBit-Netzwerk war für unter 1000 € zu haben. Platten haben sehr variable Preise. Ich meine wir hatten zu Seagate Ironwolf mit 8 * 10 TB da im Raid 6 ganz gute Erfahrungen gemacht. Dabei wird doppelte Parität gespeichert, also netto bleiben 60 TB verfügbar, ist nur eine beispielhafte Konfiguration. Bisher ist in 3 Jahren 1 Platte davon ausgefallen, was durch die Raid-Konfiguration nicht schlimm war. Wir halten immer 1 oder 2 Platten als reserve und falls die Garantie für die ausgefallene noch läuft, kann man da sogar noch Ersatz bekommen.
In welcher Form man das ganze einsetzt, ob das beispielsweise via ISCSI oder als Samba / cifs oder afp (apple) eingebunden wird, ist jedem selbst überlassen, kann aber als Voraussetzung der technischen Gegebenheiten des Systems die Auswahl einschränken.

Es gibt Ansätze der Deduplizierung. Das bedeutet, dass die Software / Firmware zur Bereitstellung der Daten automatisch erkennt, wenn ein Block so bereits auf dem Raisdystem vorhanden ist und diesen nicht mehr doppelt abspeichert, sondern intern einen Verweis auf das erste Auftreten dieser Instanz speichert. Auf diese Weise kann je nach duplizierungsgrad Deiner Daten einiges an Terabytes netto gespart werden. Aber das ist meist sehr zu Lasten der Zugriffszeiten und der Performance. Ist eben fallbezogen unterschiedlich. Ich würde aber in den meisten Fällen davon absehen. Für den Anwender sieht es aber so aus, als wäre alles wie vorher. Beispiel: Für Mehrere Fotomontagen hat man mehrere Ordner, in denen je einige Fotos gleich sind. Auf Hardwareebene würde jedes Foto nur einmal gespeichert, auch wenn Dein Dateisystem dasselbe Foto an mehreren Orten parallel gespeichert darstellt. Solange die Bitfolge des Fotos gleich ist, wird es auch nur 1 mal gespeichert. Je nach Datenbeschaffenheit kann das große Anteile an Nettospeicher einsparen. Allerdings ist die Arbeitsspeicherlast am Raidsystem oder der verwaltenden Software enorm und der Zugriff kann sehr lange dauern, sodass ich das in den meisten Fällen heute nicht als vertretbar ansehe. Für 1 TB an Daten muss mindestens 1 GB RAM kalkuliert werden, tendenziell, nach meiner Erfahrung (und das mit Solaris und im ZFS).

Der Grad an Sicherheit sollte letztlich, falls Du zu einem externen Raidsystem greifst, immer eine Überlegung sein, die zwischen Kosten und Nutzen pendelt. Ein einfaches Raid 5 ohne Spare verkraftet den Ausfall einer Platte, danach muss diese unbedingt getauscht werden, damit der Raidcontroller anhand der Paritäten die Daten wiederherstellen kann. Man kann solche Systeme aber auch mit HotSpare-Platten versehen, dann ist eine Platte als Reserve vorhanden, die sogleich automatisch als Ziel für die Wiederherstellung genommen werden kann, wenn eine am Raidsystem aktiv beteiligte Platte ausfällt.

Was viel unwahrscheinlicher aber nicht unmöglich ist, ist der Ausfall zweier Festplatten gleichzeitig, oder so eng nacheinander, dass der Raidcontroller es in der Zwischenzeit nicht schafft, die Daten aus der Parität in die Ersatzfestplatte zu reorganisieren. In solchen Fällen wird Raid 6 genutzt, wobei 2 Paritäten gespeichert werden. Mit Hotspare hat man dann im Falle von 8 * 10 TB immer noch 50 TB an Nutzdaten und eine recht akzeptabele Sicherheit, selbst im Geschäftsumfeld.

Die Geschwindigkeit ist dabei eher vom Prodokoll und der Entscheidung zum Deduplizieren abhängig als vom Raidsystem.

Welche Summe Du zu investieren bereit bist, kannst nur Du allein wissen, sollte aber die Sicherheit und die zukunftsorientierung mit einbeziehen.

Und letztlich ist noch die Frage offen, ob Änderungen nachgehalten werden sollen, denn dann wäre meines Erachtens das Ganze eher als Backup auszulegen. Hierbei wäre der Speicher eher nur durch die Backupsoftware zu beschreiben und würde automatisch beispielsweise für 14 Tage oder einen längeren Zeitraum die geänderten Daten vorhalten und optional alle paar tage eine aktive Vollsicherung zusätzlich machen. Einige Lösungen können auch aus den geänderten Daten täglich ein Voll-Backup "errechnen", sodass man immer zum letztmöglichen Stand als Vollbackup zurückkehren kann.

Wenn dann Deine Daten auf den Systemfestplatten mal crashen, ersetzt Du nur eine davon und kannst danach das Backup wiederherstellen.

Also Ansätze für Lösungen gibt es wie gesagt sehr viele und die Frage ist eigentlich, wie sich das Problem ganz genau darstellt, um die richtige Lösung zu gestalten und was an finanziellen Möglichkeiten vorhanden ist, um diese Lösung zu erreichen.

Ein weiterer Vorteil von Nas-Systemen kann sein, dass dieses nicht unbedingt im Arbeitsraum sondern irgendwo im Netzwerk stehen kann. Wenn man einen sehr leisen Rechner bevorzugt, ist so ein lärmender Klotz vielleicht nicht die beste Überlegung. An der Stelle sollte man überlegen, ob man das Ding nicht vielleicht lieber in den Keller stellt und dann per Kabel an einen dort befindlichen Switch tut, gerade weil es im Keller ohnehin meist auch von den klimatischen Bedingungen günstiger für Raid-Systeme ist. Auf die Weise kann man mit Leise-Lüftern und SSD unter vollständigem Verzicht auf HDDs im Rechner ein sehr stilles Arbeitsklima erreichen.

Aber wie andere schon geschrieben haben, ist streng zwischen Zugriffsdaten und Backup zu unterscheiden.
Ein Backup macht generell immer dann Sinn, wenn nach einem Schreibzugriff die Daten weg / anders sind. Wie dieser Schreibzugriff genau aussah, spielt ja keine Rolle.

Ich hatte es aber so verstanden, dass Deine Daten momentan verteilt auf mehreren verschieden großen Festplatten rumliegt und jede einzelne davon kann einen Defekt bekommen oder bereits haben, weiß man ja nicht mal unbedingt genau.
Je nachdem, wie wichtig und sensibel diese Daten sind, sollte das weitere Vorgehen überlegt werden.

Also wenn ich Du wäre, würde ich die Datenmenge lokal auf dem Rechner speichern und ein Raid5 mit 1 hotspare als Backupziel nehmen, dazu ein automatisches Backup fahren, sowie der Rechner an einem Tag erstmals gestartet wird oder zu festen Zeiten, falls der Rechner ein Dauerläufer ist. Und dann sollte das ganze schon gut aussehen...
Alternativ kann man auch mehrere logische Laufwerke auf einem Raid anlegen und einen Teil als Ziel für Zugriffsdaten und einen anderen Teil als Ziel fürs Backup nutzen... Fast alles ist denkbar.

Dieser Beitrag wurde von Mondragor bearbeitet: 23. Juni 2020 - 14:08

0

#24 Mitglied ist offline   NCC-1701 B 

  • Gruppe: aktive Mitglieder
  • Beiträge: 458
  • Beigetreten: 30. Juli 15
  • Reputation: 49
  • Geschlecht:Männlich

geschrieben 24. Juni 2020 - 16:19

Also ne da SERVER fast nur noch Virtualisiert werden verstehe ich das Problem im Anfangspost schon mal garnet

aber gut fürt zuweit.

Ich hab schon so oft hier gepostet Raid ersetzt kein Backtup und ohne offline Backup bist am Arsch wenn dich ein Trojaner trifft.

Zum schluß noch das ganze in Musik gepackt
Eingefügtes Bild
0

#25 Mitglied ist offline   Sarek 

  • Gruppe: aktive Mitglieder
  • Beiträge: 759
  • Beigetreten: 16. April 18
  • Reputation: 245
  • Geschlecht:Männlich

geschrieben 24. Juni 2020 - 18:41

Beitrag anzeigenZitat (Fensterputzer20: 23. Juni 2020 - 02:01)

Na da muss ich nochmal mein Kompressionslexikon durchgehen. Mich interessiert da der Unterschied der Kompression bzw. der Qualität. (wieso eigtl. h.264? und nicht gleich h.265?)


Ich benötige noch zwingend den h.264-Codec für fest installierte Abspielsysteme (für die Agentur für die ich produziere). Deswegen habe ich den auch die ganze Zeit im Kopf... :D Aber ja, h.265 wäre für dich da nochmal platzsparender :)
_________________________
Arbeitstier 1: i5 9400f (6x2,9 GHz), 32 GB RAM, 512 GB SSD, 2 TB HDD, 1.44 MB FDD
Arbeitstier 2: Xeon E3 1230 V3 (4x3,0 GHz), 16 GB RAM, 512 GB SSD, 2 TB HDD
Arbeitstier 3: Intel Xeon E5450 (4x3 GHz), 16 GB DDR3, 120 GB SSD, 500 GB HDD
Arbeitstier 4: T61 mit T9500 (2x2,6 GHz), 8 GB RAM, 120 GB SSD


Alle mit Windows 10
0

#26 Mitglied ist offline   ReallyDarkMatter 

  • Gruppe: Mitglieder
  • Beiträge: 1
  • Beigetreten: 25. Juni 20
  • Reputation: 0

geschrieben 25. Juni 2020 - 11:28

Hi,

als Recovery Software nutze ich Reclaime das schafft es die Originalnamen und die Ordner wiederherzustellen.
Ich habe das schon sehr oft eingesetzt um Daten zu retten.

Grüße
Dark

Dieser Beitrag wurde von ReallyDarkMatter bearbeitet: 25. Juni 2020 - 11:29

0

Thema verteilen:


  • 2 Seiten +
  • 1
  • 2

1 Besucher lesen dieses Thema
Mitglieder: 0, Gäste: 1, unsichtbare Mitglieder: 0