Neue Antwort schreiben 
 
Themabewertung:
  • 0 Bewertung(en) - 0 im Durchschnitt
  • 1
  • 2
  • 3
  • 4
  • 5
nvidia GeForce4 Ti4400 vs. nvidia GeForce FX5200
Pain Offline
NT-AUTHORITY\SYSTEM

Beiträge: 8.229
Registriert seit: Jul 2008
Beitrag #21
RE: nvidia GeForce4 Ti4400 vs. nvidia GeForce FX5200
Ich hab meine Leadtek WinFast A250 Ultra TD aka GeForce4 Ti4600 einer vorhandenen FX5200 vorgezogen.

sumi - R9 5950X - 128 GB RAM ECC - 2x 1TB NVMe - 4 TB SATA SSD - 4TB SATA HDD RAID-0 - Radeon RX 7800 XT 16 GB - SoundBlaster Z - Steinberg UR22 mkII Interface - Chieftec Dragon CS-601 - Arch/Win 10 Pro
ThinkPad P14s Gen2 AMD - R7 5850U - 48 GB RAM - 1 TB NVMe SSD - UHD 3840x2160 HDR - Vega 8 - RTL8255AE AX - EM120R-GL LTE-A - Arch/Win 10 Edu
Apple Mac Mini (Late 2020) - Apple M1 - 16 GB RAM - 256 GB SSD - WiFi 6 - macOS
HPE Microserver Gen 8 - Xeon E3-1220 v2 - 16 GB RAM - 12 TB HDD - Debian
</> Do you know who ate all the doughnuts?
04.07.2013 09:18
Alle Beiträge dieses Benutzers finden Diese Nachricht in einer Antwort zitieren
Dirk Offline
Software Archäologe

Beiträge: 14.747
Registriert seit: Jul 2008
Beitrag #22
RE: nvidia GeForce4 Ti4400 vs. nvidia GeForce FX5200
ja gut, aber der kern war ja der selbe wie bei der 2 mx, die konnte nicht mal dx 8

04.07.2013 13:03
Webseite des Benutzers besuchen Alle Beiträge dieses Benutzers finden Diese Nachricht in einer Antwort zitieren
Xaar Online
Wahnsinnige Geschwindigkeit - und los!

Beiträge: 26.082
Registriert seit: Jul 2009
Beitrag #23
RE: nvidia GeForce4 Ti4400 vs. nvidia GeForce FX5200
(04.07.2013 13:03)Dirk schrieb:  ja gut, aber der kern war ja der selbe wie bei der 2 mx, die konnte nicht mal dx 8

Na klar konnte die GeForce 4 Ti DirectX 8 :o Die GeForce 4 MX waren nur DirectX 7.

«Ich verstehe Ihre Frage so: Dass es Menschen gibt, die wünschen, dass ein solches OS als "Retro-OS" bezeichnet wird, ja? Mir ist nicht bekannt, dass solche Absichten bestehen, da HP-UX 9.x einfach ein altes OS ist. Niemand hat die Absicht, ein "Retro-OS" zu bauen.» Xaar, 2014

Prozessor gesucht? -> Prozessoren, die ich abgeben kann (unter "Available for trading")
"Überschüssige" Prozessoren oder Hardware? -> Einfach PN an mich schicken b1 -> Hardware, die ich suche
04.07.2013 13:24
Webseite des Benutzers besuchen Alle Beiträge dieses Benutzers finden Diese Nachricht in einer Antwort zitieren
DosAmp Offline
Anderes Zeigegerät

Beiträge: 12.219
Registriert seit: Jul 2008
Beitrag #24
RE: nvidia GeForce4 Ti4400 vs. nvidia GeForce FX5200
(04.07.2013 13:24)Xaar schrieb:  
(04.07.2013 13:03)Dirk schrieb:  ja gut, aber der kern war ja der selbe wie bei der 2 mx, die konnte nicht mal dx 8

Na klar konnte die GeForce 4 Ti DirectX 8 :o Die GeForce 4 MX waren nur DirectX 7.

Dirk hat hier offensichtlich dir und nicht Pain geantwortet. ;)

CCITTグループ4またはZIP圧縮のモノクロ300dpiで最高の再現性
04.07.2013 13:28
Webseite des Benutzers besuchen Alle Beiträge dieses Benutzers finden Diese Nachricht in einer Antwort zitieren
Arnulf zu Linden Offline
Hat und braucht kein Smartphone!

Beiträge: 5.918
Registriert seit: Oct 2012
Beitrag #25
RE: nvidia GeForce4 Ti4400 vs. nvidia GeForce FX5200
Getauscht! Die GeForce4 Ti4400 ist in die Zweiprozessorkiste gewandert. Vor und nach dem Tausch stellt sich die Situation mit glxgears (nicht das Maß aller 3D-Dinge, aber geht schnell und muss nicht extra installiert werden) im Standardfenster, gestartet jeweils unmittelbar nach vollständigem Laden von KDE3, dar:
  • GeForce FX5200: 843 fps
  • GeForce4 Ti4400: 4114 fps
Das ist deutlich!
Damit betrachte ich diese Kiste in ihrem zeitlichen Kontext als 3D-tauglich. Was fehlt, sind sinnvolle 3D-Anwendungen oder 3D-Spiele. Im Zusammenhang "3D unter Linux" fiel damals oft der Name "Tux Racer".

Die GeForce FX5200 ist eigentlich eine gute Karte, wenn man nicht extreme 3D-Orgien starten will. Sie hat eine niedrige Eigenerwärmung (ein Grund für den aktuellen Tausch) und kommt daher meist als passiv gekühlte Karte daher. Dabei wird der Kühlkörper unter Last reichlich handwarm, man verbrennt sich gerade so eben nicht die Finger dran. Wenn auch das im konkreten Anwendungsfall zu warm ist, kann man unkompliziert einen 40×40- oder 50×50-Quirl auf dem Kühlkörper feströdeln, womit die Karte dann schön kühl bleibt. Die Karten können normalerweise AGP 2×/4×/8× und sind somit in fast allen AGP-Steckplätzen einsetzbar. Sehr alten AGP-Systemen (Sockel-Super-7, "alte" Slot-1, "alte" Sockel-370) kann man damit grafisch nicht nur Beine machen (wenn man mag, s.u.), sondern diese auch mit einem DVI-Port beglücken, da die Karten fast immer mit VGA und DVI ausgerüstet sind.

(03.07.2013 23:24)Xaar schrieb:  Also wenn ich deine Beschreibung oben richtig verstehe, kann das Board offiziell nur 1GB - egal, ob nun mit herkömmlichem SDRAM oder DDR-SDRAM. Aber darüber mache ich mir eh keine Gedanken, da DDR-SDRAM für mich nicht zeitgemäß für 'nen Pentium III-S ist, wie auch 2GB RAM nicht. Nicht mal 1GB wären mir da recht. Dann schon eher 512MB oder noch 768MB. Aber wie gesagt, muss ja jeder selbst wissen, was er mag. Ich würde auch keine GeForce FX in so einen Rechner reinpacken. 'ne GeForce 4 Ti 4400 oder Ti 4600 vielleicht noch, aber sehr viel neuer dann auch nicht mehr.

Das sind halt zwei unterschiedliche Ansätze.

Du baust deine alten Kisten so zusammen, dass die Hardware möglichst aus einem engen Zeitfenster stammt, was dann in etwa einem zur jeweiligen Zeit ausgelieferten Komplett-PC bzw. aus damals verfügbaren Komponenten zusammengestellten PC entspricht. Kompromisse sind dabei bei den Verschleißteilen "Festplatte" und "optisches Laufwerk" mitunter unvermeidlich.

Ich baue meine alten Kisten nach dem Prinzip, einer gegebenen Hauptplatine ein Maximum an Leistung bei stabilem Betrieb zu entlocken. Dies stellt dann jeweils den mit der gegebenen Hauptplatine möglichen Maximalausbau dar. Allerdings übertakte ich bis auf die eine dir wohlbekannte Ausnahme "AMD K6-2+ 600" nicht. Auch bei meinem Ansatz sind mitunter Kompromisse nötig. Hochleistungsgrafikkarten sind selbst als Gebrauchtware oft sündhaft teuer, und den einen oder anderen Prozessor, der für die Hauptplatine das obere Ende der Fahnenstange darstellen würde, bekommt man nicht mehr oder zumindest nicht mehr zu einem vernünftigen Preis. (Im konkreten Fall würde ich die beiden Pentium III 933 schon gerne durch zwei Pentium III 1133 ersetzen, aber die gibt es entweder nicht oder sie werden inakzeptabel teuer angeboten. Außerdem gibt es natürlich ein Restrisiko, da das Handbuch den Pentium III 933 als oberes Ende der Fahnenstange erwähnt.)

Das Thema "nvidia GeForce4 Ti4400 vs. nvidia GeForce FX5200" war zu keinem Zeitpunkt dazu bestimmt, als Basis für verbale Entgleisungen zu dienen.

Wenn es mal "etwas" älter sein darf:
https://www.sackpfeyffer-zu-linden.de/Hardware.html
(Dieser Beitrag wurde zuletzt bearbeitet: 05.07.2013 00:53 von Arnulf zu Linden.)
05.07.2013 00:49
Webseite des Benutzers besuchen Alle Beiträge dieses Benutzers finden Diese Nachricht in einer Antwort zitieren
Neue Antwort schreiben 


Gehe zu:


Benutzer, die gerade dieses Thema anschauen: 1 Gast/Gäste