Geforce GTX 980 Ti: Angeblich sicher mit 6 GiByte VRAM

also bist du der meinung das es ein fake ist ?

Das ist kein Fake, dass Video ist allerdings irreführend aufgrund der Sequenzen die getestet werden.
Wollen wir uns mal ein paar richtige Benschmarks anschauen. Hier ist einer von der PCGH zu Dragon Age, was ein forderndes Spiel ist:
http://abload.de/img/dai5ji4.jpg

Die Titan X schafft in 4K 18.7 fps average und mit Übertaktung 23.2fps!

Jetzt such mal einen guten Benchmark raus mit Assassins Creed Unity und einer Titan X.
 
Ich ignoriere es nicht, nur scheinst du keine Praxiserfahrung mit verschiedenen Monitoren zu haben.
Über irgendwelche theoretischen Sachen kann ich auch diskutieren, nur in der Praxis sieht das meist ganz anders auch.
Du müsstest einfach mal akzeptieren, das nicht jeder Monitor gleich ist.
Selbst Monitore mit gleichen Testwerten, können sich in der Praxis stark unterscheiden.
 
Ich ignoriere es nicht, nur scheinst du keine Praxiserfahrung mit verschiedenen Monitoren zu haben.
Über irgendwelche theoretischen Sachen kann ich auch diskutieren, nur in der Praxis sieht das meist ganz anders auch.
Du müsstest einfach mal akzeptieren, das nicht jeder Monitor gleich ist.
Selbst Monitore mit gleichen Testwerten, können sich in der Praxis stark unterscheiden.

Dann zeig dir mal einen Beweis dafür, dass dein Monitor in der Lage ist, gegen mathematische Regeln zu verstoßen und kein Tearing produziert, wenn er ohne Vsync fps Werte darstellen muss, die keine ganzzahligen Teiler seiner refreh rate sind. Ich glaube nämlich, dass du inhaltlich garnichts von dem verstehst was ich bis jetzt geschrieben habe. Daher tust du es als "irgendwelche theoretischen Sachen" ab...
 
Das ist kein Fake, dass Video ist allerdings irreführend aufgrund der Sequenzen die getestet werden.
Wollen wir uns mal ein paar richtige Benschmarks anschauen. Hier ist einer von der PCGH zu Dragon Age, was ein forderndes Spiel ist:
http://abload.de/img/dai5ji4.jpg

Die Titan X schafft in 4K 18.7 fps average und mit Übertaktung 23.2fps!

Jetzt such mal einen guten Benchmark raus mit Assassins Creed Unity und einer Titan X.

das video zeigt einige spiele und du suchst eines aus wo es nicht reicht ??
ein spiel wo MSAA aktiv ist - bei 4K ? absolut unnötig. jeder mit 4K Monitor wird dir bestätigen das FXAA oder SMAA absolut ausreicht.
du WILLST ja anscheinend nicht einsehen das eine TitanX in 4K bei hohen/sehr hohen details reicht.
over and out - ignore - bringt ja nix. du hast anscheinend weder nen 4k monitor noch ne TitanX ...
 
Zuletzt bearbeitet:
das video zeigt einige spiele und du suchst eines aus wo es nicht reicht ??
du WILLST ja anscheinend nicht einsehen das eine TitanX in 4K bei hohen/sehr hohen details reicht.
over and out - ignore - bringt ja nix. du hast anscheinend weder nen 4k monitor noch ne TitanX ...

Ist dir in dem Video nicht etwas aufgefallen, was es komplett disqualifiziert als Praxistest?

Hier hast du AC Unity in 4K:
Vier NVIDIA GeForce GTX Titan X im 4-Way-SLI

Mit einer Titan X = 17fps im Schnitt

Such sowas doch mal selbst raus, informier dich doch mal etwas...
 
Anscheinend hat cl55amg keinen UHD Monitor, sonst würde er so was nicht schreiben :)

Diese "Testberichte" und "Videos" haben oft nichts mit der Realität zu tun und sind praxisfern. ;)
 
Diese "Testberichte" und "Videos" haben oft nichts mit der Realität zu tun und sind praxisfern. ;)

Genau, dass Video ist praxisfern, da es eine Zwischensequenz in Unity zeigt und kein Gameplay wo richtig viel los ist.
Die praxisorientierten Benchmarks hingegen, zeigen ein ganz anderes Bild. Für GTA 5 reicht eine Titan X auch nicht aus, dies hat die PCGH sogar in einem Video vor kurzem gezeigt.
 
in deinem video steht "ultra" und in meinem link very high mit "nur" FXAA

Wenn du 1000€ für eine Grafikkarte ausgibst, dann willst du nur ungerne zugunsten von 4K die Settings runter stellen.
Darum geht es ja, dass eine Titan X/980 Ti nun mal nicht schnell genug ist, um fordernde Spiele mit den jeweils höchsten Settings und hohen Bildraten in 4K darzustellen.
Wenn die Grafikkeinstellungen runterfährt, dann kann Unity auch mit einer normalen GTX 980 in 4K spielen...

Ob diese Karten nun 4,6 oder 12GB VRAM haben, wenn die ALU Performance der GPU nicht reicht, dann bringt der VRAM auch nichts.
 
Dann zeig dir mal einen Beweis dafür, dass dein Monitor in der Lage ist, gegen mathematische Regeln zu verstoßen und kein Tearing produziert, wenn er ohne Vsync fps Werte darstellen muss, die keine ganzzahligen Teiler seiner refreh rate sind. Ich glaube nämlich, dass du inhaltlich garnichts von dem verstehst was ich bis jetzt geschrieben habe. Daher tust du es als "irgendwelche theoretischen Sachen" ab...

Ohja immer schön behaupten dass die Gegenseite nichts verstanden hat.
Also erstens habe ich den Monitor nicht mehr und zweitens habe ich nie behauptet dass er kein tearing hat.
Tearing fiel mir erst bei über 300fps auf und das haben auch schon geschrieben.
Und da du ja genau weißt wie tearing entsteht, solltest du auch wissen warum einige Monitore in bestimmten Bereichen tearingfrei sind.
Aber mal ne ganz einfache Rechnung:
Sagen wir einfach mal du willst 105fps darstellen, dann ist die frametime bei 9.5ms.
Ein 144Hz Monitor ist in der Lage alle 7ms ein neues Bild auszugeben und der BenQ hat einen Reaktionszeit von ca 2,5ms.
Also ist der BenQ in der Lage bei 144Hz knapp 3 Bilder zu berechnen, bei 105fps schafft er fast 4 Bilder.
Also muss er ein Bild darstellen, kann aber in der gleichen Zeit fast 4 darstellen.
Dazu kommt, dass selbst wenn tearing vorhanden, du es nicht unbedingt sehen kannst.
Also gebe ich dir recht, es kann zu tearing kommen.
Aber, daß heisst noch lange nicht das es für dich optisch wahrnehmbar ist.
Und solange es optisch nicht wahrnehmbar ist, ist es für den Benutzer absolut uninteressant.
 
Für GTA 5 reicht eine Titan X auch nicht aus, dies hat die PCGH sogar in einem Video vor kurzem gezeigt.
Schmarrn, die Berichte von PCGH haben ebenfalls nicht viel mit der Realität zu tun.
Als ich das Ergebnis des Benchmarks gesehen habe, fragte ich mich, wie die auf so extrem schlechte Werte gekommen sind. :ka:
 
Sagen wir einfach mal du willst 105fps darstellen, dann ist die frametime bei 9.5ms.
Ein 144Hz Monitor ist in der Lage alle 7ms ein neues Bild auszugeben und der BenQ hat einen Reaktionszeit von ca 2,5ms.
Also ist der BenQ in der Lage bei 144Hz knapp 3 Bilder zu berechnen, bei 105fps schafft er fast 4 Bilder.
Also muss er ein Bild darstellen, kann aber in der gleichen Zeit fast 4 darstellen.

Der Monitor berechnet keine Bilder, die Berechnung bzw. das Rendering macht die Grafikkarte.
Ein 144Hz Monitor ist in der Lage 144 Bilder in einer Sekunde darzustellen, also für ein Bild hat die Grafikkarte nur 7ms Zeit es zu rendern, damit sie 144 Bilder die Sekunde liefern kann. Im Grunde ergibt alles was du geschrieben hast, keinen Sinn. Die 2,5ms Reaktionszeit von der du sprichst, ist variabel und nicht fix. Ich dachte mir doch, dass du den Wiki Link nicht verstanden hattest...

Als ich das Ergebnis des Benchmarks gesehen habe, fragte ich mich, wie die auf so extrem schlechte Werte gekommen sind.
noahnung.gif

Dann such doch mal andere Benchmarks mit Unity, Ultra Settings, 4K und einer Titan X.
 
Zuletzt bearbeitet:
Einfach genau das gleiche System und Monitor kaufen und testen. Das Video dann hier Posten dann sind alle fragen geklärt.
 
Dann such doch mal andere Benchmarks mit Unity, Ultra Settings, 4K und einer Titan X.

Ich wiederhole: "Realität" und "praxisfern".
Ich komme mit einer 290X in UHD gut zurecht. Finde es unverständlich, wie manche Leute immer wieder übertreiben und meinen UHD sei noch ein Problem und die Grafikkarten noch nicht dafür gerüstet. UHD ist schon seit 2 Jahren tauglich und gut machbar, wollen aber manche irgendwie nicht wahrhaben und klammern sich an solche komischen Testergebnisse anstatt es selber auszuprobieren. Ich lass mir nicht von Leuten vorschreiben was machbar ist und was nicht. :P
Mit deinen Posts bringst du ganz klar zum Ausdruck, dass sogar eine Titan X nicht für UHD ausreicht, was aber sicher nicht stimmt.

Ich führe diese Diskussion weiter, wenn du mal UHD selber ausprobiert hast. :daumen:
 
Der Monitor berechnet keine Bilder, die Berechnung bzw. das Rendering macht die Grafikkarte.
Ein 144Hz Monitor ist in der Lage 144 Bilder in einer Sekunde darzustellen. Im Grunde ergibt alles was du geschrieben hast, keinen Sinn.
Ich dachte mir doch, dass du den Wiki Link nicht verstanden hattest...
Ok, jetzt reicht es langsam.
Ich habe nirgendwo geschrieben, dass der Monitor Bilder berechnet.
Ich habe geschrieben wie oft er pro Sekunde ein Bild darstellen könnte.

Ich habe aber echt keine Lust mehr mit dir zu diskutieren, da du ja anscheinend durch das lesen eines Wikipedia Beitrags das komplette Wissen der Funktionsweise jeden Monitors auf diesem Planeten aufgesogen hast.
Wenn man nach deiner Aussage geht, müsste jeder Monitor mit der gleichen Hertzzahl das gleiche Tearingverhalten an den Tag legen.
Dem ist aber bei weitem nicht so.

Das zeigt, dass du zwar theoretisch weißt wie tearing funktioniert, aber praktisch so gut wie keine Ahnung von Monitoren hast.
 
Mit deinen Posts bringst du ganz klar zum Ausdruck, dass sogar eine Titan X nicht für UHD ausreicht, was aber sicher nicht stimmt.

Natürlich reicht das nicht, aus diesen Grund haben sich mehrere User in 3Dcenter und auch hier, 2 Titan X gekauft, damit sie z.B. GTA 5 in 2160p spielen können mit mehr als 25fps. Natürlich mit hohen Settings...
Wenn du deine 290x für 2160p nutzt und die Settings bei fordernden Games runter stellst, dann ist das deine Sache. Aber was bringt mir 4K, wenn ich die Details runter stellen muss? Gerade bei einer 1000€ Grafikkarte ist das ein Witz.

Witcher 3 und Batman Arkham Knight wird auch nicht in 4K auf einer Titan X laufen, außer man stellt die Settings runter, dass ist nunmal Realität.

Ich habe nirgendwo geschrieben, dass der Monitor Bilder berechnet.
Natürlich hast du das, ich hab es doch zitiert.

Wenn man nach deiner Aussage geht, müsste jeder Monitor mit der gleichen Hertzzahl das gleiche Tearingverhalten an den Tag legen.
Dem ist aber bei weitem nicht so.

Nein Monitore die eine höhere refresh rate haben, haben auch ein anderes Tearingsverhalten. Das habe ich schon vorhin geschrieben. Tearing ist aber trotzdem sichtbar vorhanden, nur etwas geringer.
 
Zuletzt bearbeitet:
Natürlich hast du das, ich hab es doch zitiert.



Nein Monitore die eine höhere refresh rate haben, haben auch ein anderes Tearingsverhalten. Das habe ich schon vorhin geschrieben. Tearing ist aber trotzdem sichtbar vorhanden, nur etwas geringer.
Stimmt sogar, habe einmal anstatt darstellen, berechnen geschrieben.
Kann ja mal vorkommen das man sich verschreibt.

Auch Monitore mit der gleichen Refreshrate, haben ein unterschiedliches Tearingverhalten.
Ließ dir mal bei Prad die Tests des BenQ XL2430T und des Acer GN246HLBbid durch und da im besonderen die subjektive Beurteilung von Grid 3.
Kommt gleich nach dem Reaktionsverhalten und dem Backlight.
 
Stimmt sogar, habe einmal anstatt darstellen, berechnen geschrieben.
Kann ja mal vorkommen das man sich verschreibt.

Auch Monitore mit der gleichen Refreshrate, haben ein unterschiedliches Tearingverhalten.
Ließ dir mal bei Prad die Tests des BenQ XL2430T und des Acer GN246HLBbid durch und da im besonderen die subjektive Beurteilung von Grid 3.
Kommt gleich nach dem Reaktionsverhalten und dem Backlight.

Wie bereits gesagt, ist mir absolut klar, dass mit einem 120/144Hz Monitor das Tearing geringer ausfällt.
Es ist aber trotzdem noch sichtbar vorhanden! Das ist einfach so und nicht erst ab 300fps.

Ich kann gerne Prad zitieren, da du sie auch ins Spiel gebracht hast:
Oft ruft dieses Spiel auf dem Schotter, besonders in Kurven "Tearing" hervor. Erfreulicherweise schlägt der XL2430T sich auch hier sehr gut und man sieht nur sehr selten einen Zeilenversatz.
 
Und da steht auch sehr selten.
Hast du jemals verschiedene 120Hz+ Monitore gehabt und weißt um die Unterschiede verschiedener Modelle?
 
@ JoM79

Dann verstehen wir uns doch. Ich habe schon einige Monitore angetestet (da Displaytechnologie ein Hobby von mir ist), darunter auch 120Hz/144Hz Modelle. Wobei ich zu der Gruppe gehöre, die privat niemals einen TN Display nutzen würden. Dafür habe ich einen zu hohen Anspruch an die Bildqualität. Dies ist aber wirklich off topic!

@ 980Ti

Für mich ist die spannendste Frage, ob die 980Ti deaktivierte Einheiten haben wird und insbesondere, ob das Speicherinterface/ROPs vollständig aktiviert sind...
 
Zurück