Nvidia-Karten mit DX10.1

  • kurzgefasst:

    Zitat

    Zitat von heise online
    Nvidia hat auf seiner Webseite zwei neue Grafikkarten vorgestellt, [...] beide Grafikkarten unterstützen im Unterschied zu allen bisherigen Desktop-Grafikkarten von Nvidia erstmals DirectX-10.1-Instruktionen.

    mal so gesagt: LOL
    warum zur Hölle machen die das? die habens die letzten anderthalb Jahre an sich vorbeiwehen lassen und jetz 5 Tage vor DX11 hauen die DX10.1 Karten raus :fresse:
    was erhoffen die sich dadurch? Dass alle (OEMs) wie die bekloppten die neueren, aber in 5 Tagen schonwieder veralteten Karten kaufen?

    eigentlich hatte ich gedacht die würden 10.1 einfach überspringen und stattdessen alle Energie in DirectX 11-Karten (oder vll auch mal wieder in nen neuen Namen für die 8800GT :D) stecken. Würde imho weitaus mehr Sinn machen, so wies bisher aussieht scheints wohl recht sicher, dass AMD das Rennen bei der Verfügbarkeit von DX11-Karten macht.

  • Auf Computerbase steht überigens etwas dicker, dass das die ersten NVIDIA-Karten in 40nm-Fertigung sind.

    Ich denke dass ist die eigentliche Schlagzeile. Das DirectX 10.1 ist nur ne Zugabe, braucht eh niemand. Denn die neuen Karten, also zumindest die G210, ist mit 30,5W TDP einfach mal 5x kühler/stromsparender als die bisher schwächste Karte der G200-Serie (die GTS250 hat 150W TDP).

    Ich denke das dürfte der einzige Grund sein, warum NVidia jetzt neue Karten (eh nur für OEMs überigens) rausbringt: Die OEMs wollen schmale, aber aktuelle Karten für Budget-Rechner.

  • Haben dies tatsächlich geschafft, wieder eine Grafikkarte mit einem Stromanschluss rauszubringen? Gratulation dafür, nur schade dass die verhältnismäßig schwach sind...

    „Zitate von sich selbst in der Signatur sind doof.“ Chrisse, 2009
    „Hmm... mal was aus 2010 reinnehmen“ Chrisse, 2010
    „Ach, wie die Zeit vergeht...“ Chrisse, 2011
    „Bin immernoch dagegen“ Chrisse, 2012
    „Jetzt auch mit 2013“ Chrisse, 2013
    „2021 ich komme“ Chrisse, 2014
    „Ab jetzt wieder länger“ Chrisse, 2015
    „Gut Ding will Weile haben“ Chrisse, 2016
    „Meine Signatur: Öfter geupdated als mein Windows“ Chrisse, 2017
    „Klicken sie weiter, hier gibt es nichts zu lesen“ Chrisse, 2018
    „Dieser Post kann Spuren von Sarkasmus enthalten“ Chrisse, 2019
    „Reinstate Chiaki“ Chrisse, 2020
    „2021 ist eine Coverstory der Moderation und nie passiert!“, Chrisse, 2022

  • Zitat von gandro

    Auf Computerbase steht überigens etwas dicker, dass das die ersten NVIDIA-Karten in 40nm-Fertigung sind.

    die 40nm standen auch auf heise, das mit dem Stromverbrauch allerdings nicht, das ist echtn Argument.
    Allgemein vermisst man bei Nvidia karten die keine Technik von vor 2 jahren sind UND keine hauptschuld an der globalen Erderwärmung haben irgendwie seit ner Weile...

    Zitat von gandro

    Ich denke das dürfte der einzige Grund sein, warum NVidia jetzt neue Karten (eh nur für OEMs überigens) rausbringt: Die OEMs wollen schmale, aber aktuelle Karten für Budget-Rechner.

    mal naiv gefragt: Warum nicht gleich ne vernünftige DX11-Graka und dafür 2 Monate später?
    Finde das Modell neuste Technologie nur auf Highend rauszubringen blödsinnig. Highend ist Highend, selbst wenn ne Lowendkarte DX11 hat wird die kein Gamer ner saftigen DX10er vorziehen. Sicherlich sollten Highendkarten nicht später als Mid-/Lowend-Karten gleicher Technologie folgen, aber die ewigen Entwicklungszyklen eh Technik mal "runterrieselt" sind imho ziemlich obsolete

  • ich glaube bei dx11 lassen die sich dann richtig zeit. die ersten karten kann man doch eh vergessen, bis die erste software kommt, sind die zu langsam. zudem muss erst die os basis da sein, bis jemand groß anfängt.

    gefühlt hat doch dx 10 überhaupt keine relevanz?

  • Zitat von Dirk

    zudem muss erst die os basis da sein, bis jemand groß anfängt.

    ATI hatte auch die 3000er Serie (DX10.1) im November 07 draußen, noch vor Vista SP1 (DX10.1, glaub Jan/Feb 08)

    Zitat von Dirk

    gefühlt hat doch dx 10 überhaupt keine relevanz?

    das wird jetzt aber immer stärker kommen, weil DX9 halt echt älter wird, zudem macht DX11 die Benutzung des "neuen DirectX" (also 10, gemeint sind auch DX10-Karten mit nem DX11-OS) aus Programmierersicht einfacher und einheitlicher. Selbst ohne neue Hardware lohnt sich DX11 also, und mit natürlich umso mehr

    bzgl DX11: maln empfehlenswerter Artikel auf AnandTech

  • Zitat von Dirk

    ich glaube bei dx11 lassen die sich dann richtig zeit. die ersten karten kann man doch eh vergessen, bis die erste software kommt, sind die zu langsam. zudem muss erst die os basis da sein, bis jemand groß anfängt.


    Jein... Solange genug Leute da sind, dies kaufen wirds hergestellt. Alles andere wäre unökonomisch.

    „Zitate von sich selbst in der Signatur sind doof.“ Chrisse, 2009
    „Hmm... mal was aus 2010 reinnehmen“ Chrisse, 2010
    „Ach, wie die Zeit vergeht...“ Chrisse, 2011
    „Bin immernoch dagegen“ Chrisse, 2012
    „Jetzt auch mit 2013“ Chrisse, 2013
    „2021 ich komme“ Chrisse, 2014
    „Ab jetzt wieder länger“ Chrisse, 2015
    „Gut Ding will Weile haben“ Chrisse, 2016
    „Meine Signatur: Öfter geupdated als mein Windows“ Chrisse, 2017
    „Klicken sie weiter, hier gibt es nichts zu lesen“ Chrisse, 2018
    „Dieser Post kann Spuren von Sarkasmus enthalten“ Chrisse, 2019
    „Reinstate Chiaki“ Chrisse, 2020
    „2021 ist eine Coverstory der Moderation und nie passiert!“, Chrisse, 2022

  • schon, aber den dx9 markt und damit xp auszuschließen ist nicht ohne.

    bei ganz neuen projekten mag es ja interessant sein, aber heute gehen viele standard engines über den tisch... zumal grafik sich kaum mehr weiterentwickelt. interessanter weise soll das problem bei den assets liegen. gute 3d grafikmodelle brauchen heute zuviel arbeit/mannwochen.

  • Zitat von Dirk

    heute gehen viele standard engines über den tisch... zumal grafik sich kaum mehr weiterentwickelt.

    vll liegt das gerade daran, dass man nur auf standardengines setzt, die wiederum alle nur auf DX9 setzen?
    Ist nur ne Hypothese, aber mag schon sein. Dass XP (BJ '01) sich so lange hält und dass das (wenn auch mit Nachteilen und Problemen behaftete) fortschrittlichere Vista erst langsam beginnt sich durchzusetzen ist schon nen ziemlicher Technologiestopper

    Ich persönlich erwarte mit 7 und DX11, dass viele Studios sich von XP und DX9 abkehren.

  • Mit DX11 wird doch vor allem Paralellisierung (CPU-Multithreading als auch GPGPU) vorantreiben. Das dürfte interessant genug sein, um das elende XP endlich mal zu töten.

    Die geldbringenden Gamer haben eh alle bereits 4GB und mehr RAM (also x86_64 unabdingbar) und ne Multicore-CPU, also werden die eh auf Win7/Vista setzen (das x86_64 XP ist ja unterirdisch), insbesondere wenn deren Quadcore bei Spielen auch zum Einsatz kommt.

  • Naja der durchschnittliche weltweite gamer ist nicht gerade der early adopter. gerade in den staaten, und mehr in südamerika und asien ist die hardwarebasis schlechter.

    interessant ist die sache wenn die großen grafikhersteller aufhören xp mit treibern zu versorgen.

    auch noch nen nicht zu unterschätzender punkt: die xbox 360 ist weder dx10 noch 11. die anderen konsolen sind noch weniger vergleichbar. aber heute müssen ja fast alle titel multiplattform tauglich sein.und das mit möglichst wenig aufwand...

  • Zitat von Dirk

    Naja der durchschnittliche weltweite gamer ist nicht gerade der early adopter. gerade in den staaten, und mehr in südamerika und asien ist die hardwarebasis schlechter.

    solche Leute kaufen sich aber vermutlich wenn, dann nur kleinere Spiele wie World of Goo oder sowas. Nen 50$-Happen werden die sich gemütlich ausm Torrent ziehen (mutmaße ich einfach mal so, dass geringere Spendablität für Hardware zu geringer Spendablität für Software führt)
    ich glaube deshalb nicht, dass Spielehersteller von den Leuten sonderlich viele Moneten sehen werden, von daher wird das wohl auch nicht so die Zielgruppe sein

    das mit den Konsolen ist allerdings echt ein Punkt, den ich so unterschreiben kann

  • der witz ist ja das die publisher heute mit breiten spielen rechnen. crysis kann man da gut beobachten. kein großer erfolg (denke ich jetzt mal, ich habs nicht gespielt) weil die hardwareanforderung zu viele abgeschreckt haben. und nur auf hardcores zu setzen, schwierig.

    die hat nintendo schon länger kaum/nicht mehr bedient.

    Wie gesagt ist die grafik inzwischen nachrangig geworden. daher ist auch kaum mehr nen großer aufrüst wille da. meine 8800 GTS steckt jetzt auch schon ne weile im rechner. ohne das es mich juckt zu tauschen. die werte neuer karten sind beeindruckend, aber hey wer spielt mit antialaising in 8er bis 16er grad und full hd. ergo kann die dx versionen nur ne vernünftige basis erlangen, wenn sich langsam starke aber billige einsteigerkarten durchsetzen. dann wäre das henne-ei phänomen zumindest mehr auf der hennenseite...

  • Zitat von Dirk

    Wie gesagt ist die grafik inzwischen nachrangig geworden. daher ist auch kaum mehr nen großer aufrüst wille da. meine 8800 GTS steckt jetzt auch schon ne weile im rechner. ohne das es mich juckt zu tauschen. die werte neuer karten sind beeindruckend, aber hey wer spielt mit antialaising in 8er bis 16er grad und full hd. ergo kann die dx versionen nur ne vernünftige basis erlangen, wenn sich langsam starke aber billige einsteigerkarten durchsetzen. dann wäre das henne-ei phänomen zumindest mehr auf der hennenseite...

    Womit man leute locken könnte, wäre wenn die Karte 1. günstig ist 2. mehr features bietet (hd-decoding, dx11) 3. weniger Strom zieht und 4. mindestens die gleiche Leistung bringt wie die alte Graka

    Selbst wenn der Leistungszuwachs nicht so groß ist, Stromverbrauch und damit Lautstärke wären für mich schon gute Gründe. Wenn für DX11 vll noch paar gute GPGPU-Tools kommen (sogar für CUDA gibts solche, obwohl das total vendor-spezifisch ist und damit recht fürn arsch weil enorm zielgruppenbeschränkt), ist das schon ein anreiz

    Deswegen meinte ich ja sollten die Hersteller nich mit ihren Highend-Karten protzen, sondern die guten Features möglichst bezahlbar machen
    Was ich auch noch nicht verstehe ist, warum die Hersteller so wenig auf Notebook-GPUs setzen. Mobile Chipsätze kommen i.d.R. noch viel später als die Lowend-Desktopchips, die viel später kommen als die Midrange-Desktop-Chips, die viel später kommen als die Highend-Desktop-Chips. Dabei ist bei Notebooks so viel zu holen, kenn kaum mehr Leute, die sich nen Desktop-PC gekauft haben (außer vll echte Gamer, aber die sind echt unterzahl, wobei viele dennoch mehr als nen Intelchip wollen).

  • Zitat von Dirk

    auch noch nen nicht zu unterschätzender punkt: die xbox 360 ist weder dx10 noch 11. die anderen konsolen sind noch weniger vergleichbar. aber heute müssen ja fast alle titel multiplattform tauglich sein.und das mit möglichst wenig aufwand...

    ausschließlich wegen der xbox 360 ist GTA IV ein reines DX9 spiel.
    diverse rauch/schatteneffekte verhindern auch, dass man AA anschalten kann (danke, xbox -.-)

    und alles nur weil das spiel murksbox360 kompatibel aufgebaut sein muss (von wegen portabilität zwischen konsole <-> PC) >.>

    wärs erst für PC rausgekommen, und dann für xbox360, wärs aufm PC n DX10 spiel, hätte aber für die xbox teils komplett neu gebastelt werden müssen.. -> zuviel aufwand..

  • ok, gta iv hat bei mir irgendwie eher das problem, dass es den ram (immerhin 4gb) vollpulvert und dann tierisch mit ruckeln anfängt, abgesehen davon das dieses spiel technisch echt reinster murks zu sein scheint, damit hat sich rockstargames kein gefallen getan. ich finde die diskussion mit directx10 bzw 10.1 eh eher nutzlos, es gibt zumindest mir kein bekanntes directx10.1 spiel, von daher is doch egal ob nvidia jetzt erst nachzieht (und das sage ich, als totaler ati-user).

  • Zitat von HOMEBOY87

    ausschließlich wegen der xbox 360 ist GTA IV ein reines DX9 spiel.
    diverse rauch/schatteneffekte verhindern auch, dass man AA anschalten kann (danke, xbox -.-)

    und alles nur weil das spiel murksbox360 kompatibel aufgebaut sein muss (von wegen portabilität zwischen konsole <-> PC) >.>

    wärs erst für PC rausgekommen, und dann für xbox360, wärs aufm PC n DX10 spiel, hätte aber für die xbox teils komplett neu gebastelt werden müssen.. -> zuviel aufwand..


    Das liegt eher an der Engine...

    Rockstar benutzt Deferrend Rendering (glaube man schreibt das so...), welches extrem bei hilft ganz viele verschiedene Lichtquellen zu erzeugen (siehe GTA IV bei Nacht). Nur bei diesem Rendering kann man aus technischen Gründen kein AA realisieren (können die GraKas nicht!).

    Für mehr Informationen müsste ich erst nochmal den Thread finden in dem das erklärt wurde öö

Jetzt mitmachen!

Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!