Geforce GTX 980 @ 1.500/4.000 MHz vs. GTX Titan @ 1.200/3.600 MHz: Wer macht das Rennen?

Wenn man alle Register zieht vielleicht schon

Eher nicht

Gehst Du von Crysis 3 aus schaffen die OC-Karten in diesem Test mit Mühe und Not 20fps in 4k

GM 210 müsste also über 100% schneller werden als eine Titan@1200Mhz um auf 40fps zu kommen

Bei den klassischen 60fps wären es 200%

Daran glaube ich nicht
 
Zuletzt bearbeitet:
Eher nicht

Gehst Du von Crysis 3 aus schaffen die OC-Karten in diesem Test mit Mühe und Not 20fps in 4k

GM 210 müsste also über 100% schneller werden als eine 1500Mhz 980er um das absolute Flüssig - Minimum von 40fps auf den Schirm zu bringen

Daran glaube ich nicht

Stimmt Crysis ist aber auch mit das Kryptonite für 4K in anderen Bereichen könnte das schon Teils sehr gut funktionieren:bier:

Ich denke da verständlicherweise vorbelastet ,vorerst an die weniger anspruchsvollen Racinggames

Obwohl 2k und 140Frames/s würden mir mit der Oculus Rift auch schon genügen:D

Was glaubt ihr wie teuer die Maxwell Titan wird und wan mit der zu rechnen ist?

Bei keiner Konkurrenz siehe letztjährige Titan Preise

Release wahrscheinlich noch vor Weihnachten,erste Test PCBs gab es schon im Juli in Indien
 
Zuletzt bearbeitet:
Weihnachten müsste ich ca 1400 Euronen haben glaubt ihr das reicht für ne Titan mit King Mod Kühlung.Ist Wasser oder Luftkühlung besser? Werden die von Caseking übertaktet oder muss man das selber machen wen ja kann mir dan einer helfen?
 
Weihnachten müsste ich ca 1400 Euronen haben glaubt ihr das reicht für ne Titan mit King Mod Kühlung.Ist Wasser oder Luftkühlung besser? Werden die von Caseking übertaktet oder muss man das selber machen wen ja kann mir dan einer helfen?

Nichts für Ungut Aten123, aber das wirkt echt putzig, weil du so einen völlig unbedarften Eindruck machst während du nach den Premium Hardware Sternen greifst. :D
Dennoch bin ich sicher, dass dir neben niederschmetterndem Hohn und Neid auch kompetente Hilfe zuteil wird, wenn du nochmal so lieb fragst.
Wasserkühlung ist einer Luftkühlung vom reinen Wärmetransport weit überlegen. Aber man sollte dabei abwägen, dass die Installation ungleich aufwendiger und wartungsreicher ist und en peu Know How erfordert, das über das Lesen einer Bedienungsanleitung etwas hinaus geht.

Mal rein ins Blaue geraten, ja, ich schätze eine runde €1000,- Karte wird kommen, sofern es nVidia vorzieht, ein gesegnetes Weihnachten mit der Leistungskrone 2014 zu feiern. Mit den 900er Karten hat man hier etwas die Muskeln spielen und durchblicken lassen, was für Know-How in Maxwell steckt, trotz dass man hier weiterhin nur mit Wasser gekocht hat. Ich glaube sogar wirklich daran, dass ein 16nm Verfahren hier tatsächlich nochmal Leistungszuwächse im hohen 2-stelligen Bereich mühelos stemmen kann und der Prototyp längst in einigen Schubladen verweilt. Ob der Chip aber tatsächlich noch dieses Jahr für den Gamer angeboten wird, bleibt fraglich mMn.
Sicherlich hat nVidia erwartungsgemäß eine geladene Waffe in den Startlöchern, aber gleich das ganze Magazin abzufeuern, wäre wohl marktwirtschaftlicher Unsinn, solange unklar ist, was AMD dem gegenüber zu stellen vermag, was allem Anschein nach erst im Frühjahr 2015 geschehen wird. Also ein Vollausbau erwarte ich hier nicht zum Jahresbeginn. Ein gestutzter Chip mit 2560 Shader Einheiten, wie er hier schon spekuliert worden ist, scheint mir aber ein moderater Titan Nachfolger werden zu können, wobei mir die Bezeichnung GTX980Ti dabei schonwieder fast altbacken und unspektakulär vorkäme. Aber wir werden ja sehen - der Shitstorm beider Lager lässt besonders hier im Forum jedenfalls nicht nach. Immerwieder eine wahre Freude und äußerst unterhaltsam :daumen:


Vielen Dank Herr Vötter, dass den Wünschen und Bitten der Leser hier zeitnah Genugtuung mit AMDs 290X verschafft wurde. Ein schönes Bild, dass sich da abzeichnet.
 
Zuletzt bearbeitet:
Ich finde den Test sehr interessant. Besonders wie gut die 290X @1200 MHz abschneidet. Wenn AMD es irgendwie hinbekommt zukünftige Karten ähnlich zu optimieren wie Nvidia den Maxwell, so würde auch ohne Architekturveränderung noch jede Menge drin sein.

Auch interessant finde ich, dass eine Titan @1200 MHz vermutlich ähnlich schnell ist, wie eine GTX 980 (mit "freien" boost). Daher gehe ich davon aus, das 780 TI Custom Modelle mit 1100 - 1200 MHz ähnliches leisten. Schade an der Stelle, das keine 780 TI mit ca. 1300 MHz dabei ist :(

Aber die 980 ist natürlich die beste Karte. Nicht nur Pfeilschnell, sondern auch effizient. Besonders beeindruckend, dass die 224 GB/s scheinbar wirklich nicht limitieren, die Karte scheint einfach sehr ausgewogen zu sein. Bei meiner GTX 680 sah das anders aus, da brachte der hohe Chiptakt meines Custom Modells nicht so viel. Und die Taktbarkeit scheint auch super zu sein, brauchbare Custom Modelle sollten locker bis 1350 MHz boosten und dann auch die 780 TI und 290X Customs recht deutlich hinter sich lassen.

Das lässt einfach auch nochmal auf einen riesen Sprung in 20/16nm hoffen. Denn diese krasse Verbesserung in 28nm hinzukriegen ist einfach klasse. Ein Maxwell mit 20 SMM und 6 Speichercontrollern inkl. 6 GB Vram und einer TDP von 175 Watt bei 1300 Mhz Basistakt wäre ein Traum. Oder ein entsprechender AMD Pendant :) Die Vorstellung ein leistungsstarken Spiele-PC mit 300 W Verbrauch unter Vollast ist einfach genial. Dazu ein kleines nettes Gehäuse, eine leise aber brauchbare Kühlung. Ein Traum der schon nächstes Jahr wahr werden könnte :)
Sorry für OT.... hier gehts schließlich um OC und Leistung.

bye
Spinal
 
Wie Wartungsintensiv sind Wasser Kühlungen den?
Ich hatte an eine externe Lösung wie das aqua Computer Aquadukt 360+ eco Mark 2 gedacht oder ist das zu hoch /niedrich gegriffen.
 
Genau das ist meine Aussage bezogen darauf, dass man bei nativen 2160p kein zusätzliches MSAA braucht, wenn man dies bei 2160P auf 1080P downsampled auch nicht gebraucht hat (bezogen auf normale Monitor Größen und normale Sitzabstände).

Ein Vergleich dazu mit Videos und Screenshots wäre sicher interessant.


Ja. z.B. die Tatsache das effiziente GPUs potentiell schneller sind, da man mehr ALUs bzw. einen höheren Takt verwenden kann.

Hmm, also zum MSAA kann ich nur sagen, dass SSAA halt prinzipiell eh zu bevorzugen ist...
...da SSAA halt den Multisamplingeffekt + noch mehr (Textur-, Schatten und Alpha-, sprich Vollbildglättung) bietet. Deshalb klappt deine Argumentation aber immer noch nicht eher, wenn man bei SSAA in NormalRes kein MSAA braucht, dann lässt einen das keine Rückschlüsse auf den Nutzen von MSAA in HighRes bei gleichzeitigen Verzicht auf SSAA zu!
Das einzige, was du sicher weißt, ist folgendes: Wenn du mit 2160P Downsampling nach 1080P kein MSAA brauchst, dann brauchst du auch mit 4320P Downsampling nach 2160P kein MSAA! Über die Kosten davon reden wir aber lieber nicht... :devil:

Egal, ich zeige dir dennoch mal das, wonach du vorhin gefragt hattest...
Bezogen auf den oben zitierten Satz, wo du die beiden Fälle verglichen hast: Bei welchem der beiden Fälle hätte ich theoretisch mehr sichtbares Aliasing und Flimmern?
...allerdings mit Beispielen in niedrigereren Auflösungen: (warum das logischerweise komplett analog zum eigentlichen Problem ist hab ich ja schon im vorherigen Post beschrieben!)
http://abload.de/img/640x480uyjgb.png
http://abload.de/img/1280x960dlklo.png

Witcher II mit GeDoSaTo-Downsampling. (Bilineares) Einmal 2560x1920@1280x960, einmal 2560x1920@640x480. damit man Kostet beides gleich viel, da ja die gleiche Auflösung berechnet wurde. Danach hab ich beide Bilder aber auf die gleiche Größe gebracht, damit einem klar wird, wie das auf einem Bildschirm mit gleicher Diagonale ungefähr aussehen würde!
Was auf den ersten Blick schon völlig deutlich wird sind die heftigen Unterschiede bezüglich der Textur- und Schattenqualität sowie das generell viel stärker sichtbare Raster.
Auf den Zweiten Blick fallen aber vor allen Dingen auch die unglaublich bessere Glättung und die genaueren Konturen auf!
In Bewegung ist es übrigens genauso: Das 960er-Bild ist deutlich ruhiger und gleichzeitig schärfer!
Fazit: Statt in irrsinnig hohe SSAA-Modi die Performance (wenn möglich) immer lieber in eine höhere Ausgabeauflösung investieren, das lohnt sich deutlich mehr! :daumen: Das ist übrigens auch eine gute Rechtfertigung den Auflösungswahn selbst nach Marktdurchdringung mit 2160P-Monitoren noch weiter zu treiben, Effizienz und so! :D


Edit: Als kleinen Bonus gibts die Bilder auch noch als SideBySide! http://abload.de/img/vergleichtmkk7.png
 
Zuletzt bearbeitet:
Wer seine Hardware so stark übertaktet, und sich auch sonst als echten Enthusiasten sieht, dem ist ein etwas höherer Stromverbrauch wohl eher nicht so wichtig :D Mal ehrlich, es geht hier (wenn es extrem hoch kommt und der Rechner sehr viel an ist) um einen einstelligen Euro-Betrag pro Monat - ungefähr soviel wie ein Bier in der Kneipe ^^ Wenn man sich anguckt, was die Komponenten kosten, sollte man da mal die Kirche im Dorf lassen :)

Edit: Um das mal etwas mit Zahlen zu untermauern: Gehen wir mal von 200 Watt Mehrverbrauch aus (was sicher über dem realen Mehrverbrauch liegt). Und sagen wir außerdem, dass der Rechner an allen 30 Tagen des Monats je 4 Stunden pro Tag voll mit Zocken ausgelastet wird. Das ergibt pro Monat einen Mehrverbrauch von 0,2 kW*4 h*30 = 24 kWh. Bei einem Preis von 25 Cent pro Kilowattstunde sind das dann 24 kWh * 0.25 €/kWh = 6 Euro pro Monat :) Und das ist wirklich eine Extrem-Rechnung...

Zwar eine extreme Rechnung, aber mal ein gutes Rechenbeispiel. Es bedeutet nämlich im Umkehrschluss, dass bei durchschnittlichen Gebrauchszeit von 12 Monaten (dürfte wohl in der Realität eher länger sein) sich der Kauf einer eventuell teureren Nvidia-Karte binnen einem Jahr egalisiert. Mag ein Baustein dafür sein, weshalb sie sich in der Vergangenheit auch ähnlich gut verkauften trotz höherem Preis (ganz davon ab, dass Leistungsaufnahme in Abwärme führt und entsprechende Kühlung verlangt).

Allgemein sieht es AMD mit dem Stromverbrauch nicht ganz so, bei den CPUs wird in der aktuellen PCGH das in den Beiträgen mit dem geliehenen Devils Canyon sehr gut deutlich. Es ist sicherlich nicht das übel der Welt und in absoluten Euro-Beträgen nicht die Welt für Leute mit gutem Einkommen, aber man sollte schon langsam mal den ökologischen Aspekt in die Gesamtperspektive einbeziehen. Selbst Luxussportwagenhersteller versuchen mittlerweile, den Spritverbrauch massiv zu senken, da auch hier die Käuferschicht mehr und mehr bedacht ist, nicht als Verschwender durch und durch zu gelten.
Dass bei einigen Grafikkarten-Nutzern hier im Forum Strom keine Rolle spielt, ist klar und vernachlässigbar, wenn aber gesamte Produktpaletten durchschnittlich mehr Strom bei annähernd gleicher Leistung (ungefähr ;)) verbrauchen, macht sich das schon bemerkbar und wir können uns die Diskussion über die Standby-Lämpchen wirklich sparen. Ich bin jedenfalls gespannt, was die neuen AMD-Produkte in dieser Hinsicht leisten!
 
Zwar eine extreme Rechnung, aber mal ein gutes Rechenbeispiel. Es bedeutet nämlich im Umkehrschluss, dass bei durchschnittlichen Gebrauchszeit von 12 Monaten (dürfte wohl in der Realität eher länger sein) sich der Kauf einer eventuell teureren Nvidia-Karte binnen einem Jahr egalisiert. Mag ein Baustein dafür sein, weshalb sie sich in der Vergangenheit auch ähnlich gut verkauften trotz höherem Preis (ganz davon ab, dass Leistungsaufnahme in Abwärme führt und entsprechende Kühlung verlangt).

Allgemein sieht es AMD mit dem Stromverbrauch nicht ganz so, bei den CPUs wird in der aktuellen PCGH das in den Beiträgen mit dem geliehenen Devils Canyon sehr gut deutlich. Es ist sicherlich nicht das übel der Welt und in absoluten Euro-Beträgen nicht die Welt für Leute mit gutem Einkommen, aber man sollte schon langsam mal den ökologischen Aspekt in die Gesamtperspektive einbeziehen. Selbst Luxussportwagenhersteller versuchen mittlerweile, den Spritverbrauch massiv zu senken, da auch hier die Käuferschicht mehr und mehr bedacht ist, nicht als Verschwender durch und durch zu gelten.
Dass bei einigen Grafikkarten-Nutzern hier im Forum Strom keine Rolle spielt, ist klar und vernachlässigbar, wenn aber gesamte Produktpaletten durchschnittlich mehr Strom bei annähernd gleicher Leistung (ungefähr ;)) verbrauchen, macht sich das schon bemerkbar und wir können uns die Diskussion über die Standby-Lämpchen wirklich sparen. Ich bin jedenfalls gespannt, was die neuen AMD-Produkte in dieser Hinsicht leisten!
Also ich stimme dir auf jeden Fall schon mal zu, dass es ein gewisser Vorteil von Nvidia ist, dass deren Karten zur Zeit energieeffizienter sind, und dass AMD hier nachziehen sollte.

Aber dass sich durch die Stromkosten der höhere Anschaffungspreis nach 12 Monaten rein finanziell amortisiert hat, dem möchte ich widersprechen :) Ein "normaler" User wird seine Karte nicht so hoch übertakten. Mit einer nicht übertakteten Grafikkarte liegt AMD bei Volllast vielleicht so 100 Watt über Nvidia, wenn's hoch kommt. Und da die meisten Leute nicht den ganzen Tag Furmark zocken, kann man über die Einschaltdauer des Rechners den Mehrverbrauch vielleicht auf 50 Watt mitteln. Schon ist man bei meinen in der ursprünglichen Rechnung angenommenen 28 Stunden Laufzeit pro Woche nur noch bei 1,5 Euro pro Monat. Damit sich da ein Mehrpreis von vielleicht 100 Euro amortisiert, würde es knapp 6 Jahre dauern :)

Wie gesagt: Energieeffizienz ist toll und wichtig, z.B. für die Kühlung und Lautstärke, und auch mit Gedanken an die Umwelt sollte man darauf achten. Aber die Stromkosten sind da echt das geringste Problem, im Vergleich zu den im PC-Bereich üblichen kosten ;)
 
Warum hast du so niedrige Ausgabewerte genommen?
Die richtige Frage wäre erstmal gewesen: Warum hast du eigentlich Witcher III geschrieben, wenn du Witcher II meintest! :D:D:D (Antwort: War spät...)

So, nun aber mal zu deiner Frage:
Weil 960x540 in kaum einen Spiel angeboten wird und ich zwei Auflösungen brauchte, die von meinem Display unterstützt werden!
Da boten sich halt 640x480 und 1280x960 (die doppelte Kantenlänge/ die vierfache Auflösung) halt sehr gut an!
 
Ich finde bei 6 Stunden+ pro Tag machen auch 100 Watt schon genug aus, die Grafikkarte zu wechseln bzw. sies zu überdenken. Ich spiele max. 10h pro Woche, da machen die 50 - 70W meiner 780 TI gegenüber den 9X0 den Braten nicht fett.
Das muss jeder selber wissen, aber wie schon oft gesagt, neben den Kosten hat eine hohe Leistungsaufnahme ja auch noch andere Nachteile.

Was mich an den Benchmarks etwas stört ist wirklich das Fehlen einer OCed 780 TI. Nicht nur weil ich selber eine habe, sondern weil viele Custom Modelle schon 1100 bis 1200 MHz machen und abgesehen vom VRAM damit schon die Titan@1202 MHz abhängen. Dabei ist das sehr sehr moderates OC für eine 780 TI. Ähnliche Grenze wie bei den anderen Karten läge wohl eher bei 1300 Mhz. Damit dürfte sie auch der 1500 MHz 980 gefährlich nahe kommen.

bye
Spinal
 
Ich finde bei 6 Stunden+ pro Tag machen auch 100 Watt schon genug aus, die Grafikkarte zu wechseln bzw. sies zu überdenken. Ich spiele max. 10h pro Woche, da machen die 50 - 70W meiner 780 TI gegenüber den 9X0 den Braten nicht fett.
Das muss jeder selber wissen, aber wie schon oft gesagt, neben den Kosten hat eine hohe Leistungsaufnahme ja auch noch andere Nachteile.

Was mich an den Benchmarks etwas stört ist wirklich das Fehlen einer OCed 780 TI. Nicht nur weil ich selber eine habe, sondern weil viele Custom Modelle schon 1100 bis 1200 MHz machen und abgesehen vom VRAM damit schon die Titan@1202 MHz abhängen. Dabei ist das sehr sehr moderates OC für eine 780 TI. Ähnliche Grenze wie bei den anderen Karten läge wohl eher bei 1300 Mhz. Damit dürfte sie auch der 1500 MHz 980 gefährlich nahe kommen.

bye
Spinal

Hi,
hier sind einige custom 980er vs. unter anderem custom 780Tis.

Drei Custom-Modelle der GeForce GTX 980 im Test
 
Hmm, also zum MSAA kann ich nur sagen, dass SSAA halt prinzipiell eh zu bevorzugen ist...
...da SSAA halt den Multisamplingeffekt + noch mehr (Textur-, Schatten und Alpha-, sprich Vollbildglättung) bietet.
Natürlich liefert SSAA viel bessere Ergebnisse, darum geht es hier aber nicht. Ich habe mich auf den Test der PCGH bezogen, wo sie MSAA bei 4K Benchmarks hinzugeschaltet haben...

Witcher II mit GeDoSaTo-Downsampling. (Bilineares) Einmal 2560x1920@1280x960, einmal 2560x1920@640x480. damit man Kostet beides gleich viel, da ja die gleiche Auflösung berechnet wurde.

640x480? Das sind 300.000 Pixel, natürlich ist die Darstellung hier so grob, dass Downsampling keinen großen Effekt mehr hat und die 960p Auflösung mit ca. 1.3 Mio Pixel deutlich besser aussieht. Umso mehr Pixel ich habe, umso geringer werden aber diese sichtbaren Unterschiede für das Auge. Du siehst viel weniger Unterschiede zwischen 4K und 8K im Vergleich zu 480p und 960p, obwohl sich bei beiden die Pixelanzahl um Faktor 4 unterscheidet!
Du versuchst irgendeine Implikation zu widerlegen, die ich nie machte!

Ich beziehe mich auf absolute Werte! Ich sage, dass 2160p downsampled auf 1080p (also ca. 2 Mio native Pixel) den Effekt hat, dass man bei normaler Bildschirmgröße kein zusätzliches MSAA mehr braucht. Daher braucht man auch kein MSAA bei nativen 2160p (ca. 8 Mio Pixel) und normaler Bildschirmgröße. Um das zu widerlegen, bauchen wir einen Praxistest mit genau diesen Auflösungen. (Klar die native 4K Auflösung ist deutlich schärfer und daher sieht man vielleicht eher mal Treppeneffekte usw., aber braucht man deshalb wirklich noch MSAA oben drauf?)

Ich könnte jetzt auch 2160p downsamplen auf eine 100x100 Pixelmatrix und dann schlussfolgern, dass ich ein deutliches Raster sehe, obwohl ich eine im Verhältnis riesige downsampling Auflösung nutze...:ugly:
 
Zurück