Beiträge von Arnulf zu Linden


    schlachte dein netzteil einfach aus und bau den externen part vom picoPSU dort ein

    Bevor so etwas gemacht wird, muss bekannt sein, welche Spitzenleistung das Netzteil liefern können muss. Die muss nämlich dann das picoPSU liefern können. Und ein funktionierendes Netzteil dafür zu schlachten ist auch einigermaßen sinnentleert. Dafür nimmt man ein kaputtes Netzteil, bei dem das Gehäuse noch in Ordnung ist. Zu bedenken ist weiterhin, dass nun ein Lüfter im System fehlt.

    Hardware/BIOS, ohne die Kiste von ihrem Standord zu entfernen oder zu öffnen:
    Nicht benötigte Komponenten im BIOS deaktiviert und auch keine Kernel-Treiber dafür geladen?

    Aus Linux heraus:

    • Einen an die Hardware angepassten Kernel backen. Alle Hardwaretreiber, die nicht für die aktive Hardware (s.o.) gebraucht werden, fliegen raus.
    • CPU frequency scaling im Kernel drin oder als Modul?
    • Passender governour dafür im Kernel drin oder als Modul? Da gibt es einen zum Energie sparen.
    • Dann gibt es noch die zweischneidige Sache mit dem syslog. Damit die Festplatten nicht anlaufen müssen, kann man den in einem Verzeichnis versenken, das auf einem tmpfs liegt. Wenn es dann allerdings mal knallt, gibt es keinen error log auf der Festplatte.


    Du bekommst im Kabel den großteil des Free-TV kostenlos.

    Gemeint sind hier die monatlich laufenden Kosten für den Kabelanschluss an sich. Schon deshalb ist das indiskutabel!
    Analog-Kabel erfordert für das Aufnehmen auf Festplatte zudem so eine alte Analog-TV-Karte in einem PC mit "ausreichend Rechenleistung" (nun gut, das ging damals schon mit einem K6-2 500 mit 128 MiB RAM, der dann aber auch nichts anderes mehr nebenbei machen konnte).
    DVB-T und DVB-S erfordern zunächst nur eine einmalige Investition. Natürlich kann auch daraus eine Abzockfalle generiert werden, indem alle paar Jahre auf neue, nicht abwärtskompatible Standards umgestellt wird. Das wiederum könnte dann aber zumindest bei DVB-T auch vor Gericht landen, Stichwort: "Grundversorgung" durch die Öffentlich-Rechtlichen.

    Zu DVB-T gibt es nach wie vor keine sinnvolle Alternative!
    Kabel verursacht monatliche Kosten und verbietet sich damit schon von selbst. Die GEZ ist schon teuer genug. DVB-S geht oft nicht, weil man die Schüssel nicht an der Hauswand montieren (lassen) darf, vor allem nicht als Mieter. Der erwähnte Satelliten-Stuhl geht nur, wenn ein entsprechend ausgerichteter Balkon vorhanden ist und das System gänzlich ohne Wanddurchbrüche auskommt, was bei fehlender Steckdose auf dem Balkon Akkubetrieb erfordert. Und solange die Öffentlcih-Rechtlichen über DVB-T zu empfangen sind, ist doch alles gut. Wer braucht schon den Flachfunk?

    Wenn die USB-Sticks wirklich in der Gegend herum getragen werden, gibt es m.E. zu FAT bzw. FAT32 für USB-Sticks > 2GB keine sinnvolle Alternative. Linux kann aus der Tüte kein NTFS beschreiben und Windows eben kein ext2, Windows 9x auch kein NTFS. Der proprietäre extFAT-Müll gehört dahin, wo Müll hingehört, also in die Tonne.


    Problem wird sein das dass wohl nur mit 44hz geht. Hatte sowas auch mal. Tfts steigen da aus.

    Diesen Mist hatte ich auch unlängst, siehe hier (ab Beitrag #4):
    https://www.winhistory-forum.net/showthread.php?tid=10678
    Die 19"-Röhre war aber wenigstens noch so nett, "vsync out of range" einzublenden.

    TFTs mit VGA-Anschluss sowie CRTs ab 17" (ausgenommen einige Modelle aus dem Paläozoikum, die damals in CAD-Systemen als Zweitmonitor liefen) haben für vsync als untere Grenze meist 50 Hz, seltener 48 Hz (CRTs).

    Danke für die Antworten zur Mehrkernfähigkeit von Windows XP Home. Das werde ich erstmal installieren. Wenn das wider Erwarten wirklich "voll die Moppelkotze" sein sollte, kann ich zusammen mit der Person, die den PC nutzen wird, immer noch über eine andere Lösung (Umstieg auf Windows 7 64-Bit oder Slackware64 14.0 mit KDE4) nachdenken. Mein Zeitaufwand wäre bei beiden Betriebssystemen ähnlich, aber Windows 7 64-Bit würde zusätzliche Kosten verursachen. In diesem Fall handelt es sich um eine rein private Aktion, weshalb die Maßstäbe, die in der Arbeitswelt gelten ("Zeit = Geld" usw.), hier nicht anwendbar sind.

    Aufgrund der eingangs erwähnten Voraussetzungen scheidet der Einsatz von Windows Vista bereits aus. Außerdem habe ich das noch nie benutzt bzw. administriert und habe auch nicht vor, diesen "Technik-Flop" noch irgendwann zu benutzen bzw. zu administrieren. Und ich werde damit ganz sicher nicht auf einem PC anfangen, der, wenn er fertig ist, 1½ Bahnstunden von meinem Wohnort entfernt stehen wird.


    Keine Errors. Nie
    ohne CPU geht das Board direkt wieder aus. NT Lüfter dreht kurz an.
    mit CPU ohne RAM bleibt das Board an, reagiert aber nicht auf 5sec Power gedrückt halten. Und PowerLED geht auch nicht an
    CMOS Reset schon 23478239 mal durchgeführt. mit Batterie mopsen und Jumper setzen.

    Diese Symptome können nur zweierlei bedeuten (beides schon mit derartigen Symptomen erlebt):

    1. BIOS bzw. BIOS-Chip zerschossen
    2. Hauptplatine ist tot


    Die Kiste sagt nicht mehr viel. Kein Beep, kein Bild und er reagiert auch nicht auf 5sec PowerSW halten um ihn auszuknipsen. Zudem lief der Lüfter der Grafikkarte nicht mehr.

    Ohne ein zweites Sockel AM2/AM2+ System (für den Prozessor) und ein System mit DDR2-RAM-Steckplätzen und PCIe x16 Steckplatz zum Testen der einzelnen Komponenten wird es schwierig. Der Fleck auf dem Prozessor sieht aber schon bedrohlich aus. Andererseits haben diese Prozessoren eine Übertemperatursicherung, die eine Grillparty eigentlich verhindern soll. Ob auch die Grafikkarte so etwas hat oder generell abschaltet, wenn der Lüfter still steht, weiß ich nicht.

    Tests:

    MSI K9A2 CF Mainboard (Sockel AM2):
    CMOS-Reset machen. CMOS-Batterie messen und bei U_Batt < 3,0 V ersetzen. Mit anderem Prozessor, anderem RAM und anderer Grafikkarte testen. Wenn das System dann startet, z.B. memtest, Knoppix v7 als 64-Bit starten.

    Für die nachfolgenden Tests gilt generell: Vorhandene Festplatten abklemmen, um die darauf befindlichen Daten nicht zu schreddern! Zum Testen Live-Systeme von CD/DVD/USB-Stick starten, memtest geht auch von Diskette.

    AMD Phenom X4 9850 Black Edition:
    Grundreinigung(!) mit Küchenpapier oder Klopapier und Bremsenreiniger.
    Auf anderer Hauptplatine testen. Wenn das System dann startet, z.B. memtest, dann Last drauf geben, z.B. Live-Linux mit GUI und glxgears im maximierten Fenster laufen lassen. Dafür geht auch jeder andere Benchmark, der von einem Live-System aus gestartet werden kann.

    Club3D GT440 1GB:
    Kühlkörper entstauben. Anderen Lüfter drauf fest rödeln, auf anderer Hauptplatine testen. Wenn das System dann startet, Knoppix v7 als 64-Bit starten, GUI starten, glxgears laufen lassen.

    1TB Seagate Festplatte:
    An anderes System anschließen, Live-Linux von CD/DVD starten und "badblocks -wsv" über die Festplatte laufen lassen. Das beseitigt auch gleich Datenreste von "demjenigen".

    6GB RAM (3x2GB Kingston Valueram):
    Jeden Riegel einzeln in anderes DDR2-RAM-System stecken ohne weitere Speicherriegel, memtest laufen lassen, min. 3 Durchläufe fehlerfrei.

    Netzteil mit 350 oder 400W:
    An anderes System anschließen und dann Last drauf geben, z.B. Live-Linux mit GUI und glxgears im maximierten Fenster laufen lassen. Dafür geht auch jeder andere Benchmark, der von einem Live-System aus gestartet werden kann.

    Bei den beschriebenen Symptomen (Lüfter laufen an, dann kommt nix mehr) ist es wahrscheinlich der Prozessor oder die Hauptplatine, wobei bei der Hauptplatine schon ein z.B. durch BIOS-Flash zerschossenes BIOS bzw. zerschossener BIOS-Chip zu diesen Symptomen führt. Alles einfach ungetestet wegschmeißen würde ich jedenfalls nicht.

    Eine vorhandene Windows XP Home Lizenz soll auf ein System mit einem AMD Athlon64 X2 4800+ EE (Hardwaretreiber für Windows XP sind vorhanden) umgezogen werden.

    Nutzt Windows XP Home (mit SP3 und AMD Dualcore Optimizer) auch beide Kerne?

    Im Internet finden sich dazu widersprüchliche Angaben, weil Windows XP Home wohl auf Systemen mit zwei Prozessoren (mit je einem Kern) nur einen Prozessor nutzen kann.

    Ja, ich weiß, dass für den Athlon64 X2 4800+ EE eigentlich Windows 7 64-Bit das richtige M$-Betriebssystem wäre, aber im konkreten Fall soll kein Geld mehr für eine solche Lizenz ausgegeben werden. (Die Hardware stammt zum großen Teil aus meiner Kramkiste - und das Netzteil darf auch mal ein Neues sein.) Außerdem ist die Person, die den PC vornehmlich nutzen wird, den Umgang mit Windows XP Home gewohnt. Umgewöhnen ist aktuell keine gute Idee. Und wenn auf dem System wirklich mal 64-Bit benötigt werden sollte (z.B. von mir), ist noch eine Slackware64-14.0 drauf installiert. Unter Windows wird der nicht direkt nutzbare Arbeitsspeicher, installiert sind 6 GiB, mit der "Gavotte Ramdisk" zugänglich gemacht werden für swap und \temp.

    Als Anwendungen werden unter Windows und Linux LibreOffice, Gimp, Firefox und Thunderbird installiert sein, unter Windows noch Antivir - und u.U. dafür ist ein Zweikernsystem schon sinnvoll.

    Getauscht! Die GeForce4 Ti4400 ist in die Zweiprozessorkiste gewandert. Vor und nach dem Tausch stellt sich die Situation mit glxgears (nicht das Maß aller 3D-Dinge, aber geht schnell und muss nicht extra installiert werden) im Standardfenster, gestartet jeweils unmittelbar nach vollständigem Laden von KDE3, dar:

    • GeForce FX5200: 843 fps
    • GeForce4 Ti4400: 4114 fps


    Das ist deutlich!
    Damit betrachte ich diese Kiste in ihrem zeitlichen Kontext als 3D-tauglich. Was fehlt, sind sinnvolle 3D-Anwendungen oder 3D-Spiele. Im Zusammenhang "3D unter Linux" fiel damals oft der Name "Tux Racer".

    Die GeForce FX5200 ist eigentlich eine gute Karte, wenn man nicht extreme 3D-Orgien starten will. Sie hat eine niedrige Eigenerwärmung (ein Grund für den aktuellen Tausch) und kommt daher meist als passiv gekühlte Karte daher. Dabei wird der Kühlkörper unter Last reichlich handwarm, man verbrennt sich gerade so eben nicht die Finger dran. Wenn auch das im konkreten Anwendungsfall zu warm ist, kann man unkompliziert einen 40×40- oder 50×50-Quirl auf dem Kühlkörper feströdeln, womit die Karte dann schön kühl bleibt. Die Karten können normalerweise AGP 2×/4×/8× und sind somit in fast allen AGP-Steckplätzen einsetzbar. Sehr alten AGP-Systemen (Sockel-Super-7, "alte" Slot-1, "alte" Sockel-370) kann man damit grafisch nicht nur Beine machen (wenn man mag, s.u.), sondern diese auch mit einem DVI-Port beglücken, da die Karten fast immer mit VGA und DVI ausgerüstet sind.


    Also wenn ich deine Beschreibung oben richtig verstehe, kann das Board offiziell nur 1GB - egal, ob nun mit herkömmlichem SDRAM oder DDR-SDRAM. Aber darüber mache ich mir eh keine Gedanken, da DDR-SDRAM für mich nicht zeitgemäß für 'nen Pentium III-S ist, wie auch 2GB RAM nicht. Nicht mal 1GB wären mir da recht. Dann schon eher 512MB oder noch 768MB. Aber wie gesagt, muss ja jeder selbst wissen, was er mag. Ich würde auch keine GeForce FX in so einen Rechner reinpacken. 'ne GeForce 4 Ti 4400 oder Ti 4600 vielleicht noch, aber sehr viel neuer dann auch nicht mehr.

    Das sind halt zwei unterschiedliche Ansätze.

    Du baust deine alten Kisten so zusammen, dass die Hardware möglichst aus einem engen Zeitfenster stammt, was dann in etwa einem zur jeweiligen Zeit ausgelieferten Komplett-PC bzw. aus damals verfügbaren Komponenten zusammengestellten PC entspricht. Kompromisse sind dabei bei den Verschleißteilen "Festplatte" und "optisches Laufwerk" mitunter unvermeidlich.

    Ich baue meine alten Kisten nach dem Prinzip, einer gegebenen Hauptplatine ein Maximum an Leistung bei stabilem Betrieb zu entlocken. Dies stellt dann jeweils den mit der gegebenen Hauptplatine möglichen Maximalausbau dar. Allerdings übertakte ich bis auf die eine dir wohlbekannte Ausnahme "AMD K6-2+ 600" nicht. Auch bei meinem Ansatz sind mitunter Kompromisse nötig. Hochleistungsgrafikkarten sind selbst als Gebrauchtware oft sündhaft teuer, und den einen oder anderen Prozessor, der für die Hauptplatine das obere Ende der Fahnenstange darstellen würde, bekommt man nicht mehr oder zumindest nicht mehr zu einem vernünftigen Preis. (Im konkreten Fall würde ich die beiden Pentium III 933 schon gerne durch zwei Pentium III 1133 ersetzen, aber die gibt es entweder nicht oder sie werden inakzeptabel teuer angeboten. Außerdem gibt es natürlich ein Restrisiko, da das Handbuch den Pentium III 933 als oberes Ende der Fahnenstange erwähnt.)

    Das Thema "nvidia GeForce4 Ti4400 vs. nvidia GeForce FX5200" war zu keinem Zeitpunkt dazu bestimmt, als Basis für verbale Entgleisungen zu dienen.


    Die Karte soll später in einer P1 Kiste mit W98 laufen.

    Zur Vermeidung eines u.U. zerschossenen Win98, falls die Karte "PCI bus (t)error" produziert, und dann ggf. erforderlicher Neuinstallation teste das System doch vorher einfach mal mit einer älteren Knoppix (v3, v4 oder v5) bei abgestöpselten Festplatten. Wenn es damit geht, sollte es auch mit Win98 gehen, zumindest usb-uhci (USB 1.1). Ob du mit Win98 ohne SE(!) auch ehci-hcd (USB 2.0) in Gang bekommst, dürfte bei einem Pentium-S zweitrangig sein. Du brauchst dafür auf jeden Fall einen extra Hersteller-Treiber. (Bei Win98SE kann und sollte man das mit dem NUSB-Treiber umgehen.) Unter Linux habe ich Karten mit dem Via6212-Chip auf Hauptplatinen ab Sockel-7 in Gang bekommmen inkl. ehci-hcd.


    Nix "naja". Die ist einfach die schnellere Grafikkarte. Ich hatte mir zu meinem Athlon XP anno 2003 eigentlich eine GeForce FX 5200 ausgesucht - und war schockiert, was für eine 3D-Leistung die abgeliefert hat. Da war die GeForce 4 Ti 4200 deutlich fixer.

    @Arnulf: Hat der Pentium III-S DDR-SDRAM? Was ist denn das für ein Board? öö

    Es ist ein Elitegroup P6S5AT (s.o.). Das hat je 2 Steckplätze für SDRAM und DDR-RAM und kann lt. Handbuch max. (1 GiB SDRAM) EX-OR (1 GiB DDR-RAM). 1 GiB SDRAM-Module habe ich keine, aber mit 2 GiB DDR-RAM = 2× 1 GiB DDR PC-400 und maximal aggressiven Timings (außer "1T command", aber das funktioniert eh so gut wie nie stabil → nutze ich daher auf keinem System) läuft es stabil.

    Ach ja, vergesst das mit dem DirectX. Auf beiden Kisten läuft Linux Kernel 2.6.31.5 mit dem proprietären nvidia-Treiber 173*. Für die GeForce4 Ti4400 müsste da sicherlich der ältere nvidia-Treiber 96* mit Unterstützung für GeForce4-Chipsätze installiert werden.

    In einem PC soll eine nvidia GeForce4 Ti4400 durch eine Grafikkarte ersetzt werden, die weniger Wärme produziert. Eine nvidia GeForce FX5200 erfüllt diese Bedingung.

    Als "Tauschpartner" kämen zwei PCs in Frage, die jeweils mit einem AGP 4× Steckplatz ausgestattet sind und z.Z. jeweils eine nvidia GeForce FX5200 beherbergen.

    Ist die nvidia GeForce4 Ti4400 leistungsstärker oder vergleichbar leistungsstark wie die neuere nvidia GeForce FX5200?
    Alle Grafikkarten, die hier im Spiel sind, verfügen über VGA, DVI und 128 MiB RAM.

    Bei welchem der beiden nachfolgenden Tauschpartner wäre der Leistungsgewinn größer, sofern die GeForce4 Ti4400 leistungsstäker als die GeForce FX5200 ist?

    Tasuchpartner:

    1. Intel Pentium-III-S 1400 (Tualatin-512), Elitegroup P6S5AT, 2 GiB DDR-RAM, nvidia GeForce FX5200
    2. 2× Intel Pentium-III 933 (Coppermine), Microstar 694D Pro, 2 GiB SDRAM, nvidia GeForce FX5200


    Anderseits ist es möglich das deine Noname-Module nur DDR2-800 gelabelt sind und es sich tatsächlich bloß um DDR2-667 RAM handelt, solche Noname-Module sind mir schon öfters untergekommen.

    Wieso laufen die noname-Module dann stabil mit PC-800 auf dem GA-M52L-S3P bei Vollbestückung (alle 4 Module) und auch auf dem GA-MA770-UD3 bei Nicht-Vollbestückung (nur 2 Module und ggf. 2 Module á 2 GiB)?


    Wie bei S939 und 4 Module @ DDR333 statt 3 Module @ DDR400

    Darüber bin ich auch schon bei zwei Sockel-939-Hauptplatinen (Asus A8N-E und Asus A8NX5) gestolpert, wobei die Anzahl der Module allerdings keine Rolle spielt. In beiden Fällen gilt:
    3 GiB DDR1 PC-400 = 2× 1 GiB + 2× 512 MiB: läuft stabil mit PC-400
    4 GiB DDR1 PC-400 = 4× 1 GiB = Vollbestückung: läuft nur stabil mit PC-333

    Es gibt sicherlich gravierendere Hardwareprobleme, aber irgendwie ist es ärgerlich, dass in meinem Arbeitsrechner das DDR2-RAM PC-800 nur mit PC-667 stabil läuft.

    Hardware:

    • AMD Phenom II X6 1100T (gleiches Problem mit Vorgänger: AMD Phenom II X4 945)
    • Gigabyte GA-MA770-UD3
    • 16 GiB RAM: 4× 4 GiB DDR2 PC-800 6-6-6-18 @ PC-667 5-5-5-12 unganged mode


    Die Speichermodule sind von "Komputerbay", also "no name". Aber dieser "Hersteller" macht nix anderes als irgendwelche Speichermodule aufzukaufen und mit seinem Label zu versehen. Und 4 GiB DDR2-Module werden nicht von sooo vielen Herstellern produziert.

    Das oben beschriebene Verhalten tritt nur bei Vollbestückung mit 16 GiB RAM auf. Maximal langsame Timings, also noch viel lahmer als 6-6-6-18, reduzieren lediglich die Anzahl der Fehler, die memtest86+ sschmeißt. Außerdem ist dann der Datendurchsatz niedriger als bei PC-667 5-5-5-12. Wenn nur 8 GiB oder 12 GiB (2× 4GiB + 2× 2GiB) verbaut sind, laufen die Module mit PC-800 6-6-6-18 stabil. Auf einem anderen System (AMD Athlon64 X2 4800+ EE auf Gigabyte GA-M52L-S3P) laufen die Module auch bei Vollbestückung mit 16 GiB mit PC-800 6-6-6-18 stabil.

    Daraus folgt, dass das GA-MA770-UD3 bei Vollbestückung mit 16 GiB irgendein Problem hat.
    Unlängst hatte ich ein DDR2-Modul in der Hand mit der Aufschrift "4-4-4 @ 2,2V". Das soll wohl bedeuten, dass diese schnellen Timings nur stabil funktionieren, wenn dieses Modul mit 2,2 Volt betrieben wird. Normalerweise ist DDR2-RAM aber für 1,8 V ausgelegt und wird in der Praxis meist mit 1,8 V oder 1,9 V betrieben. Da kommt natürlich die Frage auf, ob eine Erhöhung der Spannung den Betrieb von 16 GiB @ PC-800 auf dem GA-MA770-UD3 ermöglichen würde. Das BIOS der Hauptplatine bietet jedenfalls die Einstellung höherer Spannungen an. Allerdings will ich mir die 4 GiB-Module nicht zerschießen, da die schon als "no name" nicht gerade ein Schnäppchen waren (und Markenware unbezahlbar ist). Wo liegt bei der Spannung die ungefährliche Obergrenze? Immerhin würden 2,2 V an Stelle von 1,9 V eine Erhöhung der in Wärme umgesetzten Leistung um satte 34% bedeuten. Dass ein Speicherlüfter bei so einer Aktion Pflicht ist, ist schon klar. Der liegt aber schon bereit und soll da sowieso rein, nur muss ich den irgendwie um dem Zalman CNPS9700 herum fummeln.


    Im Maschinenrechner der beiden älteren Maschinen sind je ein Celeron mit 850 MHz und 126 MB Ram verbaut (Einblick hatte ich noch nicht, deshalb kann ich nicht sagen, was das für n Typ ist).

    Kann man anhand der Taktfrequenzen feststellen, um welchen Typ es sich handelt? Und wieso ist der Ram so ne "schiefe" Größe?

    Celeron 850 (Coppermine-128): 850 MHz Prozessortakt, 100 MHz FSB, Sockel-370 FCPGA

    RAM: 128 MiB verbaut, davon 2 MiB abgezwackt für Grafik.


    Bei der dritten Säge (Aufbau identisch, modernisiert) ist n Celeron 1300 am Werk und 254 MB Ram...

    Celeron 1300 (Tualatin-256): 1,3 GHz Prozessortakt, 100 MHz FSB, Sockel-370 FCPGA2

    RAM: 256 MiB verbaut, davon 2 MiB abgezwackt für Grafik.

    Ohne genauere Infos zu den Rechnern lässt sich da momentan nicht mehr zu sagen.