Neue Antwort schreiben 
 
Themabewertung:
  • 0 Bewertung(en) - 0 im Durchschnitt
  • 1
  • 2
  • 3
  • 4
  • 5
Speed me Up, Scotty!
Alex Offline
Registriert seit 17.04.06

Beiträge: 6.619
Registriert seit: Jul 2008
Beitrag #11
Speed me Up, Scotty!
gandro schrieb:  
meekee7 schrieb:  HDD defragmentieren kann auch einiges einbringen
Nö. Ein Mythos der seit Win95 jegliche Wahrheit verloren hat, aber sich trotzdem hartnäckig hält.

Nochmal fürs Protokoll: Multitasking-Betriebsysteme profitieren so gut wie nichts von einer defragmentierten Festplatte. Ich erklärs bei Bedarf gerne nochmal warum genau.

Selbst SSDs brechen bis zu 50% ein wenn sie fragmentier0rt sind b2

Desktop: AMD FX-6200 @ 6 x 4,3 GHz | 32 GB DDR3 | Intel Arc A380 | SSD: 1 TB @ M.2 to PCIe Adapter + UEFI NVMe Driver Injection | HDD: 15 TB | Win 11 Pro | Dual Monitor 2 x 27"
Notebook: Lenovo ThinkPad T420 | i5 2520M | 16 GB DDR3 | SSD: 250 GB | USB 3.0 | 300 MBit WWAN @ D1 | AC WLAN | BT 4.0 | 2 x 70++ | 1 x 27++ Slice | Win 11 Pro | FHD Display Mod
Internetleitung: Telekom | FTTH | D: 500 MBit / U: 200 MBit | Telekom Glasfasermodem | AVM Fritz!Box 7490
Räder: [Daily: Stevens E-Triton 2016] [Cyclocross: Stevens Prestige 2019] [Cargobike: Urban Arrow Cargo XL 2023]
15.05.2009 15:18
Alle Beiträge dieses Benutzers finden Diese Nachricht in einer Antwort zitieren
YAL Offline
teplotaxi

Beiträge: 2.493
Registriert seit: Jul 2008
Beitrag #12
Speed me Up, Scotty!
Alex schrieb:  
gandro schrieb:  
meekee7 schrieb:  HDD defragmentieren kann auch einiges einbringen
Nö. Ein Mythos der seit Win95 jegliche Wahrheit verloren hat, aber sich trotzdem hartnäckig hält.

Nochmal fürs Protokoll: Multitasking-Betriebsysteme profitieren so gut wie nichts von einer defragmentierten Festplatte. Ich erklärs bei Bedarf gerne nochmal warum genau.

Selbst SSDs brechen bis zu 50% ein wenn sie fragmentier0rt sind b2
Liegt dann aber am dummen OS.


15.05.2009 15:20
Alle Beiträge dieses Benutzers finden Diese Nachricht in einer Antwort zitieren
friedrichheinze Offline
...und Kondensatoren.

Beiträge: 2.840
Registriert seit: Jul 2008
Beitrag #13
Speed me Up, Scotty!
YAL schrieb:  
Alex schrieb:  
gandro schrieb:  
meekee7 schrieb:  HDD defragmentieren kann auch einiges einbringen
Nö. Ein Mythos der seit Win95 jegliche Wahrheit verloren hat, aber sich trotzdem hartnäckig hält.

Nochmal fürs Protokoll: Multitasking-Betriebsysteme profitieren so gut wie nichts von einer defragmentierten Festplatte. Ich erklärs bei Bedarf gerne nochmal warum genau.

Selbst SSDs brechen bis zu 50% ein wenn sie fragmentier0rt sind b2
Liegt dann aber am dummen OS.
Nein, am dummen SSD-Controller.
15.05.2009 15:26
Alle Beiträge dieses Benutzers finden Diese Nachricht in einer Antwort zitieren
Aqua Offline
Voodoo Priester

Beiträge: 3.659
Registriert seit: Nov 2008
Beitrag #14
Speed me Up, Scotty!
..und das für einen alten Hut..
Ähm für ein blosses Grafikbearbeitungsprogramm..

Wenn man schon mal vor einem fremden,
richtig fragmentierten Rechner gesessen hat, überdenkt man diese Theorie..
15.05.2009 15:42
Alle Beiträge dieses Benutzers finden Diese Nachricht in einer Antwort zitieren
cob Offline
Erfahrener Windows-Nutzer

Beiträge: 386
Registriert seit: Sep 2008
Beitrag #15
Speed me Up, Scotty!
:D
noch "sinnvolle" Ideen?
15.05.2009 15:43
Alle Beiträge dieses Benutzers finden Diese Nachricht in einer Antwort zitieren
gandro Offline
Quälgeist

Beiträge: 8.953
Registriert seit: Jul 2008
Beitrag #16
Speed me Up, Scotty!
Herrgott. Also.

Früher:

MS-DOS-Rechner, das heisst auf dem Rechner läuft genau ein Programm. Wir haben Festplatten oder gar Disketten mit Zugriffszeiten, die Ausreichen zwischen einzelnen Bytes sich nen Kaffee zuholen *narf*. Arbeitsspeicher ist überigens auch knapp, so dass man da nichts überflüssiges drin haben will.

Ein durchschnittliches Programm liest eine angeforderte also byteweise (Zeichen für Zeichen) in den RAM ein und verarbeitet die Daten auch möglichst schnell wieder (denn den RAM braucht man für anderes) wie möglich. Da macht es natürlich Sinn, wenn die Datei schön von Anfang bis Ende zusammenhängt, damit möglichst keine Rechenzeit mit Zugriffszeiten und Suchen vergeuded wird. Also defragmentiert man.

Heute:

Multitaskingsysteme wo mehrere duzend bis hunderte von Prozesse gleichzeitig am laufen sind. Festplatten mit Zugriffszeiten von weniger als 10ms. Arbeitsspeicher im GByte-Bereich.

Das bedeutet, so ein Multitaskingkernel muss meistens mehrere Dateien gleichzeitig verarbeiten. Damit er da nicht von Datei zu Datei springen muss, sortiert er die Zugriffe also vorher kurz, so dass er vorne anfangen kann und hinten aufhört und zwischendrin seine Dateien rauspickt. Zudem liest er nicht nur die angeforderten Bytes, sondern in der Regel grad ganze Blöcke, weil Arbeitsspeicher ist genug vorhanden. Zudem erkennen moderne Betriebsysteme (Vista, Linux 2.6) was der Prozess vermutlich als nächstes haben will, und laden das präventativ auch grad noch ins RAM, wenn sie sowieso grad am Daten auslesen sind.

Das Auslesen ist also relativ optimiert. Das meiste befindet sich bereits im RAM bevor es überhaupt angefordert wird. Also bringt hier Defragmentieren wenig. Und selbst wenn sich die Daten noch im RAM befinden: Meistens werden eh verschiedene Dateien gleichzeitig eingelesen, also muss das Betriebsystem so oder so an verschiedenen Orten im Dateisystem auslesen, da hilft auch Defragmentieren nicht dagegen - dafür ist dieses Auslesen so sortiert, dass nicht herumgesprungen werden muss. Zudem sind die Zugriffszeiten von Festplatten heutzutage ebenfalls schnell genug.

Für dieses "wenig" zu Defragmentieren ist allerdings ebenfalls Blödsinn: Denn Schreibvorgänge muss man ja auch tätigen. Wenn man also in mitten einer schön aufgeräumten (defragmentierten) 700MB grossen Datei ca. 15 MB hinzufügen will, kann man das nicht an der ursprünglichen Stelle tun, man muss dies anderswo machen (sonst würd man ja Daten überschreiben). Diesen Platz zu finden braucht Zeit. Aus diesem Grund fragmentieren moderne Dateisysteme grosse Dateien absichtlich und lassen Blöcke in der gleichen Blockgruppe frei, damit bei einer Änderungen diese in der gleichen Blockgruppe geschrieben werden können (weil die Informationen, welche Blöcke in der gerade geöffneten Blockgruppe frei und welche belegt zum Lesen bereits geöffnet werden mussten, man also nicht noch extra suchen muss).

Wird der Speicherplatz knapp, wird dieses Verhalten abgestellt, weil es sonst kontraproduktiv wäre. Darum sollte man Dateisysteme nicht überfüllen, denn dann werden sie langsam - egal ob defragmentiert oder nicht.

Dazu kommen noch dateisystemabhängige Spezialitäten, auf die ich hier nicht eingehen will.

Lange Rede, kurzer Sinn: Defragmentieren ist fürn Arsch. Und ist oftmals sogar kontraproduktiv. Die Dateisysteme nicht überfüllen (weniger als 80% füllen) ist die einzige richtige Massnahme, um ein Dateisystem schnell zu halten.

Nachtrag: Nur der Vollständigkeithalber, aber wurde ja bereits ansatzweise diskutiert: SSDs defragmentieren ist im übrigen dann völliger Blödsinn: Flashspeicher-Zellen überstehen nur eine gewisse Anzahl an Schreibe- (bzw. Lösch-)Zyklen. Dafür sind die Zugriffszeiten für alle Zellen identisch (anders als bei einer Platte spielt der physische Abstand zwischen zwei Bits kein Unterschied). Aus diesem Grund verteilen SSD-Controller die Schreibvorgänge, damit alle Zellen in etwa gleich beansprucht werden (und nicht Zellen wo z.B. Logdateien drauf gespeichert sind, schneller abgenutzt werden). Da mit einem Festplatten-Defragmentierungstool drüberzufahren wäre übelster Blödsinn. Für SSDs empfehlen sich zudem andere Dateisysteme als für Festplatten. Hier gibt es verschiedene Optimierungsebenen (Dateisystem, Betriebsystem, SSD-Controller) - ob SSDs ab 50% freiem Speicherplatz einbrechen ist also von diesen drei Faktoren abhängig.
(Dieser Beitrag wurde zuletzt bearbeitet: 15.05.2009 16:29 von gandro.)
15.05.2009 16:03
Alle Beiträge dieses Benutzers finden Diese Nachricht in einer Antwort zitieren
cob Offline
Erfahrener Windows-Nutzer

Beiträge: 386
Registriert seit: Sep 2008
Beitrag #17
Speed me Up, Scotty!
Wenn noch jemand eine grandiose Idee hat, oder mir sagen kann wie ich die RAM Disk die ich gerade versuche zu erstellen am besten nutzen kann, wäre ich sehr dankbar ;)
15.05.2009 16:20
Alle Beiträge dieses Benutzers finden Diese Nachricht in einer Antwort zitieren
chiaki Offline
Die Pommesfee

Beiträge: 12.554
Registriert seit: Jul 2008
Beitrag #18
Speed me Up, Scotty!
euda kann mir nich vorstellen, dat es so lahm ist, evt lahme/defekte festplatte?
15.05.2009 16:26
Webseite des Benutzers besuchen Alle Beiträge dieses Benutzers finden Diese Nachricht in einer Antwort zitieren
cob Offline
Erfahrener Windows-Nutzer

Beiträge: 386
Registriert seit: Sep 2008
Beitrag #19
Speed me Up, Scotty!
Es ist nicht "unerträglich langsam" mehr Performance würde mir aber teilweise nervige Wartezeiten ersparten/verkürzen
15.05.2009 16:33
Alle Beiträge dieses Benutzers finden Diese Nachricht in einer Antwort zitieren
meekee7 Offline
Multimediameistermann

Beiträge: 761
Registriert seit: Jul 2008
Beitrag #20
Speed me Up, Scotty!
Das wohl einzige übrige wäre OC.
Und da sich das auf dem Maschinchen sicher eher schlecht macht bleibt wohl nix. Musste eben mit leben.

Und wenn man XP frich raufbügelt, dann noch Spiele, Proggies, Daten, so erreichte ich mehr einfach einen Fragmentierungsgrad von 30-40 Prozent.
Zumindest hat das jedenfalls etwas Einfluss auf die Bootzeit.

http://www.youtube.com/watch?v=GTYs3TRHXB4 Meine Demoreel. ANGUCKEN!!!
15.05.2009 16:44
Alle Beiträge dieses Benutzers finden Diese Nachricht in einer Antwort zitieren
Neue Antwort schreiben 


Gehe zu:


Benutzer, die gerade dieses Thema anschauen: 1 Gast/Gäste