EaseUS Partition master schmiert ab beim Reparieren der fehlerhaften Sektoren?

2 Antworten

Vom Fragesteller als hilfreich ausgezeichnet

Wozu willst du eine Festplatte formatieren, die schon massig fehlerhafte Sektoren anzeigt?

Doch nicht etwa, um deine Daten drauf zu speichern?

Wenns geht noch ganz wichtige.

Dann lösch doch gleich deine Daten.

Geht schneller.

Und erspart uns dann dein späteres Rumgeheule, von wegen deine Daten sind weg.

...

MeineGüte - geh inn Laden und kauf dir ne neue.

Das ist auch kein Wunder.

Wenn schon zu viele fehlerhafte Sektoren vorhanden sind, dann bricht gerade die Festplatte zusammen.

So ein Festplatten-Versagen nimmt exponentiell zu und mit jeder weiteren Schreib-Aktion verschlechtert sich der Zustand immer schneller.

Wen Du da noch Daten drauf hast, die Du retten möchtest, dann mach das sofort!!!

Ansonsten kannst Du diese Festplatte jetzt wegschmeißen – natürlich nur im Recycling-Hof.

Das Problem bei der Reparatur ist, dass die Daten irgendwo anders hingeschrieben und geprüft werden. Werden die nun in einen weiteren beschädigten Sektor geschrieben, scheitert die Prüfung. Hierbei greift EaseUs aber auch nur auf CHKDSK zurück und das wiederum ist für solch kaskadierendes Versagen nicht ausgelegt und hängt sich an dieser Stelle auf, weil es immer wieder versucht an dem neuen Sektor zu schreiben und dann zu prüfen. Je mehr Schreibversuche aber erfolgen, um so mehr wird dieser Bereich – und bei HDD's auch gleich der umliegende Bereich mit – zerstört. Das kann dann auch nicht mehr funktionieren, den kaputter als kaputt wird auch nie wieder reparierbar.

Gamer4214 
Fragesteller
 15.07.2018, 18:05

und die fehlerhaften Sektoren kann man nicht irgendwie löschen mit Hardwarepunkten oder einem Magneten alle löschen? Einen Reset Kontakt oder so etwas in der Art existiert nicht oder?

0
MarkusGenervt  15.07.2018, 18:13
@Gamer4214

Nein, das ist zerstörtes Material. Bei HDD's zerbröselt die Magnetschicht und bei SSD's zerbrechen die Relais-Schalter.

Eine Reparatur wäre unter einem Elektronen-Mikroskop theoretisch möglich, aber praktisch nicht praktikabel. Für solche Kosten kannst Du Dir gleich einen neuen kompletten NAS-Server kaufen.

Bei HDD's musst Du in Zukungft einfach auf hinreichende Kühlung achten. Als Faustformel kann man hier mit ca 40-45 °C gut leben. In Notebooks muss man dann einfach für einen Unterboden Kühler sorgen.

Bei SSD's sind die Verwendung als System-Disks einfach tabu. Die sind wirklich nur zur Langzeit-Speicherung gedacht, aber Hypes haben sich noch nie um Sinn und Zweck gekümmert.

0
Roderic  15.07.2018, 18:22
@MarkusGenervt

SSD's ?? Relais-Schalter?? Zerbrechen??

Hast du etwa eine SSD von 1947?

0
Roderic  15.07.2018, 18:29
@MarkusGenervt

WAS?

Das ist jetzt nicht dein Ernst?

Wir haben Mitte Juli und nicht Anfang April.

0
MarkusGenervt  15.07.2018, 18:42
@Roderic

Transistoren sind auch Relais und auch diese unterliegen gewissen mechanischen Abnutzungs-Effekten.

"Zerbrechen" war hier evtl. etwas plump formuliert. "Zerbröseln" kommt da schon eher hin.

0
chaosklub  16.07.2018, 00:08

Was Markus der genervte da sagt: "Das Problem bei der Reparatur ist, dass die Daten irgendwo anders hingeschrieben und geprüft werden." ist leider völlig richtig und sogar untertrieben.

Selbst die "Prüfung" von einer Festplatte mit "Fehlern", ist eigentlich gefährlich: wenn die Festplatte geprüft wird, dann nützt sie sich auch ab. Jeder "Festplattentest" reduziert die Zeit, die einem noch bleibt, um die Daten zu sichern/zu retten.

Sobald eine Festplatte "fehlerhafte Sektoren" hat, muss man schleunigst alle Daten retten die da noch drauf sind und man darf sie höchstens noch für Sachen verwenden, wo es nicht schlimm ist, wenn die dann nicht mehr gelesen werden kann.

"Fehler" auf Festplatten, die sich häufen kommen meistens davon, dass sich Partikel auf der Plattenoberfläche ablösen. Am Anfang sind das dann miniatur "Staubkörner". Die Verunreinigen die "Luft" in der Festplatte und wirken wie ein Schleifmittel .. erst passiert nicht viel, aber mit der Zeit verdoppelt sich der "Staub" und dann geht es wieder eine gewisse Zeit, bis sich der Staub wieder verdoppelt ... mit der Zeit wird, in immer weniger Zeit, der "Staubgehalt" der "Luft", in der Festplatte, multiplizert.

Das Resultat ist, dass die Festplatte immer schneller, immer mehr kaputt geht. Da kann man nichts dagegen machen.

Man muss wissen, dass auch Tests, "Defragmentieren", oder jeder Zugriff auf die Festplatte, deren Lebensdauer reduziert. Deshalb nicht erst testen und dann Daten retten, sondern erst Daten-Retten, dann testen.

1
MarkusGenervt  16.07.2018, 01:11
@chaosklub

So weit richtig, aber der Schleif-Effekt des Staubes ist eher unwahrscheinlich, denn der Staub wird durch die extreme Geschwindigkeit (Minimum 5600 U/min) und damit Zentripetal-Kräfte einfach an die Wand der Zylinderkammer geklatscht. Da muss schon beim Kippen ein Rieseln hörbar sein, damit das dann wirklich schleift. Aber dann macht auch bereits die Mechanik des Arms schlapp durch den Feinstaub im Scharnier.

Das eigentliche Problem sind die Mikro-Risse in der Magnetbeschichtung, die zunächst durch die thermische Belastung (→ Temperatur-Differentiale) und später dann auch durch die mechanische Belastung (→ Zentripetal-Kraft) immer größere Bereiche der Beschichtung abtragen.

Da muss noch nicht mal alles abgetragen worden sein, denn es reichen bereits die Mikro-Risse, um die magnetische Homogenität zu zerstören, denn zwei halbe Magnete sind auch nur noch halb so stark und dann sinkt die Magnetisierbarkeit unterhalb des Mess-Spielraums des Lese-Kopfes.

Teilweise lassen sich solche Fehler erst auch unter dem Elektronen-Mikroskop erkennen.

Aber dadurch, dass diese Mikro-Risse immer weiter wachsen und sich verästeln und auch zusammenwachsen – wie der brüchige Lehm-Boden eines austrocknenden Teiches –, geht immer mehr von der Homogenität des magnetischen Trägermaterials verloren und so wachsen dann die Fehler progressiv und exponentiell.

Ich habe hier noch eine 17 Jahre alte IDE-HDD laufen und die hatte gleich in den ersten Jahren ein paar Sektoren (ca. 5-7) verloren, hält aber immer noch. Letztes Jahr hatte ich eine ähnliche Platte die nur ein Jahr jünger war verloren. Da konnte ich den Zerfall wieder sehr gut beobachten. Das ging in den ersten Jahren auch mit 2-3 Sektoren los und in den letzten 5 Jahren kam immer mal wieder einer dazu. Manchmal wurden defekte Sektoren bei einer erneuten Prüfung auch wieder reaktiviert. Aber dann ging es im letzten halben Jahr Schlag auf Schlag, bis bei jedem Systemstart, dann die Fehler-Berichte kamen und die Lesezugriffe sich verlängerten. Erst konnten einige verteilte Sektoren nicht mehr repariert werden, was gößere Dateien unbrauchbar machte und dann nach wenigen Tagen konnte ich nicht mal mehr das System (Linux) starten, weil es sich am Fehler-Log festgefressen hatte.

Es war zum Glück nur eine Cache-Platte, also hab ich das mal ausgereizt.

Also die anfänglichen Sektor-Fehler sind meist einfache Produktions-Schwächen und die bleiben dann auch stabil über mehrere Jahre, vorausgesetzt die Temperaturen bleiben niedrig und stabil. Aber wenn die Zahl der Defekte zunimmt innerhalb 1-2 Jahren, dann bleibt kaum noch Zeit, denn ab hier ist nichts mehr vorhersagbar. Das kann noch drei Jahre gut gehen, aber auch nur noch 3 Wochen.

Die entscheidende Kontrolle liegt hier nicht im CHKDSK-Protokoll, sondern im Error-Log der S.M.A.R.T.-Werte. Wenn sich dieses füllt, bleibt keine Zeit mehr und der Betrieb muss sofort eingestellt werden und eine Datensicherung vorgenommen werden.

Leider bietet Windows keine Kontroll-Instanz im System, um das zu melden. Dazu muss man schon regelmäßig selbst die S.M.A.R.T.-Werte manuell kontrollieren, was sehr übersichtlich mit GSmartControl geht. Mit einem Consolen-Programm wie smartmontools lässt sich das aber auch automatisieren. GSmartControl ist das grafische Frontend (GUI) von smartmontools und daher bereits in diesem Paket enthalten.

Unter Linux werden alle angeschlossenen Festplatten beim Systemstart auf ihre S.M.A.R.T.-Werte untersucht und bei Fehlern diese dann gemeldet (vorausgesetzt das GUI-Boot/Boot-Logo wurde deaktiviert).

1
chaosklub  16.07.2018, 03:26
@MarkusGenervt

@genervter Markus ... ich stimme Dir da weitgehends zu ... das mit dem Sandsturmin der Platte ist eine vereinfachte Darstellung gewesen ... es ist einfach so, dass die Partikel, die in so einer Platte gelösst werden, nicht nur an die Wände geschleudert werden, sondern (weil die Zentrifugalkraft dann aufhört, wenn die Platte in den Ruhezustand geht) die Teilchen werden manchmal auch wieder aufgewirbelt (so hat man mir das jedenfalls mal erklärt).

Aber die Probleme und ihre Ursachen haben sich immer wieder geändert .. ich erinnere mich noch an Festplatten die im Victor Sirius waren. Ich weiss den Namen vom Hersteller nicht mehr, aber der hat bankrott gemacht, weil seine Platten systematisch wärmebedingte Dehnungsprobleme im Lesearm hatten.

Hardy Hoffmann, ein Freund aus der Victor-Sirius Zeit, hat damals die Festplatten in Decken eingepackt und erst formatiert, wenn die heiss gelaufen sind, weil sonst der Lesearm im Dauerbetrieb etwas länger wurde und der Kopf nicht mehr auf der Piste war .. das war ein grenzwertiges Verfahren.

Die Festplattenhersteller haben eine lange Tradition im Lügen ... ich habe ganze Serien von Festplatten erlebt, die systematisch den Geist aufgegeben haben. Ich hatte auch eine Festplatte (von IBM - Hitachi) die nach 20 Jahren noch pèerfekt gelaufen ist (nur hatte die eine Kapazität, die dann nichts mehr wert war).

Wir beschäftigen uns hier sehr mit Festplattenproblemen und Datensicherheit.

Deshalb halte ich auch nicht viel von Harddisk Test-Programmen. Wir haben hier zum Beispiel Hard Disk Sentinel ... das zeigt alle SMART-Werte und noch vieles andere an ... aber das ist in der Praxis nur von gerigem Nutzen. Das hast Du ja auch gemerkt : "S.M.A.R.T.-Werte. Wenn sich dieses füllt, bleibt keine Zeit mehr" ... ... man kann sich da nicht drauf verlassen.

Die Hersteller von irgendwelchen Datensicherungssystemen und Testprogrammen sind leider extrem unvernünftig und unvorsichtig.

Ich habe hier zur Zeit ein Problem mit einer Festplatte die ein "Analyse-Programm" von einem QNAP NAS zerschossen hat.

Meine Auffassung ist, dass ein Analyse (bzw Test Programm) eine Festplatte nur analysieren darf und dass es auf keinen Fall etwas auf die Festpèlatte schreiben darf, ohne vorher zu fragen. Das Mist Program hat aber die ganze Partitionsstruktur der Platte zerstört.

Das war in einem NAS mit Einschüben, wo es durchaus einmal vorkommen kann, dass jemand eine falsche Festplatte reinschiebt und versucht ob die erkannt wird. Das QNAP kann intern aber nur EXT4 und hat dann die NTFS - Platte ncht richtig erkannt und dann die Partitionen so zerstört, dass jetzt ein Datenrettungsprogramm 3x 300 Gb auf der Platte findet obwohl die nur 300 Gb gross ist ...

Ich bin gerade dabei dass die Suche beendet wird ... es hat schon 6 Stunden gedauert ... und werde dann einfach mal alles auf eine andere Platte kopieren lassen, was da gefunden wurde ... wenn das noch ein Ende findet ... jetzt hängt es schon seit 10 Minuten bei 100% .. wenn das dann wirklich geht, wird es so gut 2 Tage dauern bis die 300 Gb auf einer anderen Platte sind ..

Für mich ist dieses Zeitproblem ein ganz grosses Problem bei Fehlern auf grossen Festplatten.

Wenn man erkennt, dass eine grosse Festplatte kaputt geht, dann ist die Grösse der Platte ein enormes Problem: je grösser die Platte ist, um so länger braucht man um die Daten die drauf sind auf eine andere zu kopieren ... desshalb sind kleine Platten eigentlich "sicherer" wie grosse ... Wenn man ein Problem mit einer Platte hat und die ist dann in zwei Stunden auf eine andere kopiert, dann ist das viel eher noch realisierbar, wie wenn man eine Platte hat, wo das kopieren so gut 5 Tage dauert ...

Es ist auch völliger Schwachsinn, dass das Programm was ich da habe erst einmal 6 Stunden lang sucht was da noch gerettet werden kann ... wenn dr Hersteller ein bischen Verstand hätte, dann würde der anbieten dass einfach alles was gefunden wird sofort auf eine andere Platte kopiert wird ...

Jetzt ist das fertig ... aber das Ergebnis ist (fast) totaler Schwachsinn ... das Program hat 230 000 Dateien gefunden und listet sie schön geordnet nach Dateiendung auf ... 2333 PDF Dateien ... anscheinend ist jede Datei 3 x auf der Liste (gleiche Grösse, gleicher Name ..) ... OK damit kann ein User seine Fotos wieder finden und retten ...

Jetzt muss ich die ganze Prozedur nochmals mit einem anderen Programm versuchen, was wenigstens die alte Ordnerstruktur wieder herstellen kann.

Wenn man solche Schwachsinns-Versuche mit einer Platte macht, die am kaputt gehen ist, dann hat man noch weniger Chancen, dass da was gerettet wird...

1
chaosklub  16.07.2018, 03:40
@chaosklub

Jetzt ist mir noch ein wahnsinnst Mist passiert ... man kann auf die Ansicht zurückgehen, wo die Festplatten gelistet sind. Wenn man dann auf die Festplatte klickt, wo man die Dateien retten will, dann kommt ein Screen ... previous scan result fund .. resume y/n und da das nicht eindeutig ist habe ich mal auf Y geklickt ... das war aber offensichtlich falsch ... jetzt sucht er nochmals alle Dateien die er retten kann ... ich breche das jetzt ab und nehme das Programm was mir da dei Partition 3 x findet und 3 x wiederherstellen (=auf die andere Festplatte kopieren) will ... wenn ich mir vorstelle, dass diese Festplatte am kaputtgehen wäre, dann hätte ich jetzt mordgelüste ...

OK Korrektur: ich habe den scan jetzt abgebrochen und er findet jetzt doch noch die Liste der gefundenen Dateien ... wenigstens das ist nicht ganz durchgeknallt.

1
MarkusGenervt  16.07.2018, 05:38
@chaosklub

Ich kann mich gerade noch an den Sirius erinnern, weil der damals im Raum zur Wahl stand und von allen lobpreist wurde, aber der QX-10 dann doch interessantere Features hatte.

Der Trick mit den Decken ist ja echt genial! 😂😂😂
Da muss man erst mal drauf kommen.

Meine Auffassung ist, dass ein Analyse (bzw Test Programm) eine Festplatte nur analysieren darf und dass es auf keinen Fall etwas auf die Festpèlatte schreiben darf, ohne vorher zu fragen. Das Mist Program hat aber die ganze Partitionsstruktur der Platte zerstört.

Das Problem bei den Testprogrammen ist, dass es keine andere Option als Schreibtests gibt.

Wenn nur gelesen wird, kann nicht sicher gestellt werden, dass der nächste Schreibvorgang auch sicher getätigt werden kann.

Darum wird jeder Sektor gepuffer (die Daten), mit Zufallsdaten beschrieben und wenn dieselben Daten wieder gelesen werden können, dann wird der Sektor für OK befunden.

Und jetzt kommt der Konstruktionsfehler der Prüfprogramme:

Eigentlich müsste vor der Prüfung der gesamte Prüfbereich gespiegelt werden, um nämlich in einem Fall von Kaskadenversagen Sektordaten auch wirklich retten zu können.

Denn jetzt die Daten des verlorenen Sektors irgendwo hin geschrieben, ohne zu wissen, ob sie dort sicher sind.

Aber selbst wenn das gemacht würde beginnt hier eine Kettenreaktion, die den Disk-Puffer Ruck-Zuck sprengt, weil beim zweiten Sektor bereits 2 Sektoren im Puffer gespeichert sind u.s.f.

Wenn also das Prüfprogramm vorher fragt, ob es schreiben darf, dann kann man sich die Prüfung auch sparen, weil sie nichts bringt.

Mit den kleineren Platten da geb ich Dir Recht. Ich habe das bei mir so geregelt, dass ich zwar größere Platten habe, aber diese in maximal 256 GB-Partitionen (für große Dateien wie Videos) aufgeteilt habe, so dass ich immer eine überschaubare Anzahl an Dateien pro Partition habe, deren Prüfung und Defragmentierung auch immer recht schnell geht. Zudem achte ich darauf, nach Größe (Bilder/Videos) und Typ (Cache/Archive) zu partitionieren/sortieren und so sind auch die Abnutzungen auf wenige Bereiche beschränkt. Daten-Partitionen bleiben daher weitestgehend unberührt, während das System zwar anfällig ist, aber leicht ersetzt werden kann.

Auch ein Kaskadenversagen trifft i.d.R. immer nur den stark genutzten Bereich (ggf. auch die Randbereiche der Nachbar-Partitionen), aber eben dann nicht die ganze HDD und somit sind Archivdaten selbst dann noch relativ sicher und können dann gespiegelt werden.

In meinem Fall ist dann auch die regelmäßige Prüfung nur noch in den hochfrequenten Partitionen erforderlich, welche aber dann auch weniger anfällig für Verluste sind.

Weiterhin konnte ich beobachten, dass die inneren Sektoren stabiler sind, als die Äußeren. Wenn also die Äußeren weniger beansprucht werden (durch Schreib-Aktionen) verringert sich auch hier die Fehleranfälligkeit. Auf diese Weise kann man dann auch die Dateien nach Änderungs-Frequentierung sortieren, was i.d.R. auch deckungsgleich mit ihrer Größe ist.

Da landen dann Videos am Ende (Außenbereich) mit 256 GB Partitionen und zum Anfang hin schrumpfen die Partitionen für eigene Dokumente dann auf 2 GB Größe. Das sind eine Menge kleiner Dateien unter 10 MB (→PDF-Hefte) und sogar oft in kB-Größe (→ config).

Das sollte sich aber auch als RAID realisieren lassen.

Es ist auch völliger Schwachsinn, dass das Programm was ich da habe erst einmal 6 Stunden lang sucht was da noch gerettet werden kann ... wenn dr Hersteller ein bischen Verstand hätte, dann würde der anbieten dass einfach alles was gefunden wird sofort auf eine andere Platte kopiert wird ...

Hier könntest Du wie gesagt eine Spiegel-Platte bereit halten, erst alles spiegeln und dann Prüfen und dann entscheiden, ob die Platte ausgetauscht werden muss. Denn Du siehst ja, dass erst nach einer Prüfung die Wahrscheinlichkeit eines Versagens eintritt. Wenn jetzt erst Kopiert wird, dann dauert das Auslesen der defekten Sektoren einfach ewig.

Übrigens für ganz hartnäckige Fälle kannst Du Roadkil's Unstoppable Copier versuchen. Der gibt nicht auf, bis auch der letzte Sektor kopiert worden ist. Na, ja, der kann natürlich auch keine Wunder vollbringen, aber er ist für die Leseversuche konfigurierbar.

Viel Glück dabei!

0
MarkusGenervt  16.07.2018, 05:45
@chaosklub

Du solltest zur Sicherheit die offenbaren Kopien vergleichen lassen. Hier ist ein geiles Programm:

http://www.alldup.de/

Mit AllDup habe ich auch schon solche Aus-Versehen-Duplikate super leicht filtern können.

Ist jetzt aber nur für Windows bisher hatte ich unter Linux noch keinen Bedarf hier für eine Alternative. KDiff hat bisher immer gereicht.

0