Nvidias Geforce GTX 880/870/860 ... das meinen Redakteure zu einem aktuellen Thema

Das kannste nicht pauschal beantworten und schon gar nicht auf verschiedene Chiparchitekturen übertragen.

Wenn ein Chip generell schopn viel Bandbreite hat bringt das aufbohren des ST nichts (siehe HD7970 beispielsweise, OC des RAMs macht hier kaum was aus), wenn die Karte sowieso zu wenig Bandbreite hat (wie die GTX680) bringt es verhältnismäßig sehr viel den RAM-Takt zu erhöhen - NV hat prinzipiell genau das bei der 680 gemacht und sie als 770 verkauft. ;)

Das könnte jetzt auch wieder genau so passieren. Die GTX880 mit dem Mittelklassechip und kleinem SI verkaufen und dann mit ner GTX970 nachlegen die die gleiche Karte mit etwas mehr GPU-Takt und mehr Bandbreite ist. :-D
 
Das könnte jetzt auch wieder genau so passieren. Die GTX880 mit dem Mittelklassechip und kleinem SI verkaufen und dann mit ner GTX970 nachlegen die die gleiche Karte mit etwas mehr GPU-Takt und mehr Bandbreite ist. :-D

Jo, ziemlich genau so könnte das eintreten...

Ich wurde gerade in letzter Sekunde überboten und so an einer zweiten GTX780 vorbei geschrammt - ich entscheide mich seit Wochen täglich um und weiß nicht so Recht was ich machen soll - Eigentlich hatte ich schon zwei Mal SLI und beides Mal keine guten Erfahrungen gemacht, auch wenn ich im Nachhinein zugeben muss das manche Dinge vielleicht nicht unbedingt mit der zweiten GPU zu tun haben mussten.

Fakt ist, für Crysis III, Metro LL, AC Black Flag u.v. ist eine GTX 780 in 1440P definitiv zu wenig, auch wenn 40-45 FPS einigermaßen spielbar sind (mit der hohen Refreshrate (120Hz) gibt's kaum Tearing und ich kann VSync abgeschaltet lassen was speziell bei den niedrigen Frames deutlich spürbar ist).

Ich werde mir den Realease also genau anschauen, den Early Adopter Preisaufschlag noch bisschen aussitzen und dann aber Zeitnah zwischen SLI oder doch einer GTX880 entscheiden - wobei mir letzteres lieber wäre!

Von 1440P Auflösung bin ich aber restlos begeistert - Der Unterschied gegenüber 1080P ist echt Wahnsinn und selbst Crysis III das ich mit 1080P nur qualvoll durchgespielt habe zeigt nun was es wirklich kann - aber trotz der einen Einsparung in der Kantenglättungmodi welches die höhere Auflösung gut kompensiert, pfeifft die GTX 780 wirklich aus dem letzten Loch :-(
 
Zuletzt bearbeitet:
Von 1440P Auflösung bin ich aber restlos begeistert - Der Unterschied gegenüber 1080P ist echt Wahnsinn und selbst Crysis III das ich mit 1080P nur qualvoll durchgespielt habe zeigt nun was es wirklich kann - aber trotz der einen Einsparung in der Kantenglättungmodi welches die höhere Auflösung gut kompensiert, pfeifft die GTX 780 wirklich aus dem letzten Loch :-(

So ists leider - da kann dir aber die Ti auch nicht mehr wirklich weiterhelfen. Crysis 3 in 1440p läuft bei mir auch wenn alles auf Anschlag ist so mit 35-40fps. Fürn Singleplayer ausreichend aber wirklich rund flüssig ists nicht. Vielleicht bringt der GM200 oder der dicke neue von AMD das in 60fps auf die Beine, in 20/16nm sollte das drin sein.

Nur hoffen dass die kommen bevor die 4Ks gut und günstig werden sonst klappen die neuen Karten da abermals zusammen :ugly:
 
Was nur alle immer native 4k haben wollen - früher hat man auch mal die Auflösung runtergestellt. da wurde gut und gern mal auf 800x600 gespeilt auf einem 1024x768er Monitor, weil die Anforderung des Spiels so hoch waren, dass es nicht flüssig war. Die Zeiten wo Grakas der Monitor Auflösung nicht hinterhergekommen sind war also schon mal da und es ging auch. Tzzzz. Und ja es wäre schön 1:1 Spielen zu können, Geduld ist aber eine Tugend, dann kauf man sich halt noch keinen solchen Bildschirm oder eben einen und nimmt bei den neusten Spielen eine geringere Auflösung in kauf, in den "älteren" Spielen ist das Nativ ja sicherlich eine hübsche Sache.
 
Ich kenne diese Zeiten durchaus... auch ich hab früher (in dem Alter eigentlich unerlaubterweise) Doom in 320x240 und Half-Life und Unreal in 640x480 (SOFTWARE!!) gespielt bis endlich eine gewisse Geforce256 das ganze flüssig in nativer 1280er Auflösung hingezaubert hat.

Im Prinzip hat sich nix geändert. Früher spielte man single-Player Unreal mit 20fps in hoher Auflösung und auf LANs wurde dann in Unreal Tournament alles runtergedreht dass die fps stimmten fürn Multiplayer. Ich hatte nur die Hoffnung, dass das irgendwann nicht mehr nötig sei... mal in 10 Jahren wieder nachsehen. :fresse:
 
Wie groß ist eigentlich der Einfluss der Speicheranbindung auf die FPS?

Hängt von vielen Faktoren ab und die Breite der Anbindung sagt ohne deren Takt ohnehin erstmal wenig aus (siehe 290x vs. 780ti). Wenn Nvidia das Cache-Konzept der 750ti übernimmt (was imho ein Schlüsselfaktor ist, um überhaupt mit bestender Fertigung in bestehenden TDP-Grenzen eine Leistungssteigerung zu erzielen), dann könnte ein schmaleres Interface vollkommen ausreichend sein.


Was nur alle immer native 4k haben wollen - früher hat man auch mal die Auflösung runtergestellt. da wurde gut und gern mal auf 800x600 gespeilt auf einem 1024x768er Monitor, weil die Anforderung des Spiels so hoch waren, dass es nicht flüssig war.

Damals hatte man aber noch Monitore, bei denen die Bildschärfe in niedrigeren Auflösungen erhalten blieb.
 
Damals hatte man aber noch Monitore, bei denen die Bildschärfe in niedrigeren Auflösungen erhalten blieb.
Naja damals war es von grob pixelig auf weniger aber immer noch grob pixelig. Heute würde das nur von sehr scharf auf etwas "matschig" bedeuten. - kommt wohl auch aufs Spiel drauf an, bei Borderland mit Comic Grafik mag das weniger auffällig wirken wie etwa auf Realismus abzielende Grafik die eben hoch Detailiert dargestellt werden will.
 
Mit Pixelig kann ich leben (hab selbst mit EGA angefangen), aber mit matschig nicht.

"Matschig" und "Pixelig" ist eigentlich das gleiche, nur dass bei "Pixelig" kein Filter drüberliegt.

Erinnert mich daran, dass ich damals TombRaider (das allererste) lieber ohne Bilineare Filterung gespielt habe, weil das so schön scharf aussah... und extrem pixelig. Heute kann ich darüber nur noch den Kopf schütteln.
 
Von der Leistung her habe ich mit meiner Titan eh kein Handlungsbedarf. Ich bin dann eher auf die DX12 Generation gespannt. Das dürfte die nächste Generation werden wo ich mich eine neue Anschaffung wirklich in Betracht ziehe.
 
Zurück