Playstation 5 gegen Xbox Series X im Vergleich: Welche Konsole hat mehr Leistung?

RDNA ist genauso für Profis konzipiert...

Aber nicht die RX Reihe, genau deshalb gibt es ja die verschiedenen Karten. Wir kommen hier aber sowieso nicht auf einen Nenner :)
Du wirst der Meinung bleiben das wir nicht verstehen warum mehr weniger CUs+mehr Takt der sinnvollere Approach ist, wir werden weiter denken das verdammt viele Leute sich von Cerny haben einlullen lassen.
Warten wir es einfach ab und schauen was draus wird.
 
Nein, das ist so nicht richtig. Gerade die "Big Chips" werden immer wieder parallel für Gamer und Anwender angeboten, einfach weil sie sehr teuer in der Produktion sind. Nur weil irgendwo Quadro draufsteht sagt das ja schließlich nichts über die darin verwendetet GPU aus.
PS:
https://www.pcgameshardware.de/Gefo...X-6000-Turing-TU102-Vollausbau-Preis-1266267/
https://www.amd.com/de/products/professional-graphics/radeon-pro-w5700
RDNA ist genauso für Profis konzipiert...
Das sind Quadro bzw Radeon Pro Karten die zum Teil ganz anders aufgebaut sind!
Die Karten aus Deiner Sicht müssen ja wirklich schlecht stehen wenn Du schon mit professionellen Anwendungen "argumentieren" musst.

Nochmal:
Wären kleine Chips mit hohem Takt besser, würde AMD keine Riesenchips für Gamer bringen, sondern diese nur als Radeon Pro für zigtausende Euro verkaufen!
Aber nicht die RX Reihe, genau deshalb gibt es ja die verschiedenen Karten. Wir kommen hier aber sowieso nicht auf einen Nenner
smiley.gif

Du wirst der Meinung bleiben das wir nicht verstehen warum mehr weniger CUs+mehr Takt der sinnvollere Approach ist, wir werden weiter denken das verdammt viele Leute sich von Cerny haben einlullen lassen.
Warten wir es einfach ab und schauen was draus wird.
Absolut, diese Argumentation wird langsam lächerlich.
 
wir werden weiter denken das verdammt viele Leute sich von Cerny haben einlullen lassen.
Was hat das bitte mit "einlullen" zu tun? Weniger CUs bei mehr Takt ist das KONZEPT (!) der PS5 weil man dadurch den Chip kleiner halten konnte und so sicher die Konsole günstiger anbieten kann. Dass die Leistung nicht ganz an die XSX rankommen wird ist sonnenklar, von daher bleibt die Frage: Wer lässt sich einlullen? Wenn die PS5 50-100€ günstiger sein wird als die XSX dann haben WIR als Kunden die Wahl ob wir das technisch minimal langsamere Produkt zum günstigeren Preis kaufen oder das technisch minimal bessere Produkt zum teureren Preis. Nur zählt bei einer KONSOLE (!) eben nicht NUR die reine Rohleistung sondern auch die SPIELE wie man sehr gut bei der Switch sehen kann. Die ist technisch in der Steinzeit und man kann trotzdem viel SPaß haben.

IHR geht doch nur davon aus dass Cerny jeden "einlullen" kann, das ist aber bei weitem nicht der Fall. Jeder kennt das Konzept hinter der PS5, und jeder weiß dass die XSX am Ende besser performen wird bei besserer Grafik.
 
Was hat das bitte mit "einlullen" zu tun? Weniger CUs bei mehr Takt ist das KONZEPT (!) der PS5 weil man dadurch den Chip kleiner halten konnte und so sicher die Konsole günstiger anbieten kann. Dass die Leistung nicht ganz an die XSX rankommen wird ist sonnenklar, von daher bleibt die Frage: Wer lässt sich einlullen?
Die Leute für die selbiges eben scheinbar nicht so klar ist, deine Einschätzung ist doch realistisch, aber die Teilen hier im Forum nicht alle.
 
Was hat das bitte mit "einlullen" zu tun? Weniger CUs bei mehr Takt ist das KONZEPT (!) der PS5 weil man dadurch den Chip kleiner halten konnte und so sicher die Konsole günstiger anbieten kann. Dass die Leistung nicht ganz an die XSX rankommen wird ist sonnenklar, von daher bleibt die Frage: Wer lässt sich einlullen? Wenn die PS5 50-100€ günstiger sein wird als die XSX dann haben WIR als Kunden die Wahl ob wir das technisch minimal langsamere Produkt zum günstigeren Preis kaufen oder das technisch minimal bessere Produkt zum teureren Preis. Nur zählt bei einer KONSOLE (!) eben nicht NUR die reine Rohleistung sondern auch die SPIELE wie man sehr gut bei der Switch sehen kann. Die ist technisch in der Steinzeit und man kann trotzdem viel SPaß haben.

IHR geht doch nur davon aus dass Cerny jeden "einlullen" kann, das ist aber bei weitem nicht der Fall. Jeder kennt das Konzept hinter der PS5, und jeder weiß dass die XSX am Ende besser performen wird bei besserer Grafik.
Das sehen die anderen eben nicht so wie Du.
Jedem ist klar dass Sony durch dieses "Konzept" in erster Linie die wohl günstigere Konsole anbieten möchte, dagegen spricht absolut nicht, nur Marketing nachplappern ist durchaus zu kritisieren.
 
Aber nicht die RX Reihe, genau deshalb gibt es ja die verschiedenen Karten. Wir kommen hier aber sowieso nicht auf einen Nenner

Dir scheint eines nicht so recht klar zu sein:
Speziell Nvidia bietet seit Jahren Big Chips, heißt GPUs mit sehr großer Chipfläche, auf der möglichst viele Rechenwerke untergebracht sind. Diese Big Chips zeigen für gewöhnlich das maximal mögliche an GPU Größe und Anzahl an Rechenwerken. Diese Big Chips werden IMMER sowohl für Gamer als auch für Profis konzipiert, einfach weil sie verdammt teuer in der Herstellung sind. Ein Turing TU102 auf einer RTX2080Ti ist ein teilreaktivierter Chip einer GPU, die im Vollausbau als Quattro RTX 6000 angeboten wird.
Und AMD wir bei ihrem Big Navi nicht anders vorgehen. Das wird eine GPU, die für Gamer und Anwender gleichermaßen konzipiert wird, heißt sie muss beiden lagern gerecht werden.

Du wirst der Meinung bleiben das wir nicht verstehen warum mehr weniger CUs+mehr Takt der sinnvollere Approach ist, wir werden weiter denken das verdammt viele Leute sich von Cerny haben einlullen lassen.
Warten wir es einfach ab und schauen was draus wird.

Oh, ja da macht das diskutieren wirklich Spaß, wenn Leute nicht mal lesen, was man so schreibt:

Nein, denke ich nicht. Microsoft verfolgt diesbezüglich offenkundig eine andere Philosophie als Sony. Welche Philosophie am Ende die bessere ist, welche Konsole die AMD Architektur besser ausnutzt, welche Konsole leistungsmäßig effizienter arbeitet: All das wird erst die Zukunft zeigen.

Deswegen finde ich es nach wie vor etwas voreilig die Ausführungen von Cerny gänzlich als Schönrederei abzutun. Es bleibt - wie schon öfters gesagt - abzuwarten welche Leistung die PS5 auf die Straße bringt.

Damit, dass die Konzepte beider Konsolen sich doch sehr unterscheiden, hatte ich nicht wirklich gerechnet. Es wird interessant zu beobachten, welches Konzept über die gesamte Laufzeit "besser" aufgeht und "besser" ausgenutzt wird.

Das sind nur drei Kommentare von mir aus den letzten Tagen, auch aus Diskussionen an denen du beteiligt warst. Wir du nun zu dem Schluss kommst, "Du wirst der Meinung bleiben das wir nicht verstehen warum mehr weniger CUs+mehr Takt der sinnvollere Approach ist", wenn ich mir die Finger wund tippe mit Aussagen, dass man abwarten muss, welche Konzept schlussendlich das "bessere" ist erschließt sich mir nicht. Da kann ich mich auch mit einer Wand unterhalten, also vielen Dank für die Blumen...

Das sind Quadro bzw Radeon Pro Karten die zum Teil ganz anders aufgebaut sind!

Du verstehst es nicht oder? In einer RTX 2080Ti arbeitet eine TU102 GPU mit teilaktivierten Recheneinheiten. In einer Quadrofonie RTX 6000 arbeitet eine TU102 GPU im Vollausbau. Das ist haargenau die gleiche GPU die dort verkauft einmal für Gamer und einmal für Profis verkauft wird. Heißt ein Big Chip wird eigentlich immer sowohl für Anwender als auch für Gamer konzipiert.
Mit einer Qaudro kann man im Grunde sogar spielen...
 
Zuletzt bearbeitet:
Dir scheint eines nicht so recht klar zu sein:
Speziell Nvidia bietet seit Jahren Big Chips, heißt GPUs mit sehr großer Chipfläche, auf der möglichst viele Rechenwerke untergebracht sind. Diese Big Chips zeigen für gewöhnlich das maximal mögliche an GPU Größe und Anzahl an Rechenwerken. Diese Big Chips werden IMMER sowohl für Gamer als auch für Profis konzipiert, einfach weil sie verdammt teuer in der Herstellung sind. Ein Turing TU102 auf einer RTX2080Ti ist ein teilreaktivierter Chip einer GPU, die im Vollausbau als Quattro RTX 6000 angeboten wird.
Und AMD wir bei ihrem Big Navi nicht anders vorgehen. Das wird eine GPU, die für Gamer und Anwender gleichermaßen konzipiert wird, heißt sie muss beiden lagern gerecht werden.
Nochmal: Es wäre absolut blöd teure Big Chips herzustellen und diese für Gamer deutlich günstiger anzubieten (Quadros bzw Radeon Pro's kosten mehrere Tausend Euro) wenn die Gamingleistung durch kleine Chips und hohem Takt besser wäre.
BTW habe ich anhand von 2 Videos (RDNA und Turing) bereits bewiesen dass größere Chips mit niedrigem Takt trotz niedrigerer Rechenleistung besser bzw mindestens gleich gut performen wie kleine Chips mit sehr hohem Takt und höherer Rechenleistung.
Du wirst natürlich gleich "kontern" dass das bei RDNA2 anders sein wird und Konsolen und APU und Dergleichen.
Ändert trotzdem nichts daran dass einige auf das Marketingblabla von Cerny der insgeheim sehr wohl weiß dass man 36 CU's wegen der niedrigeren Kosten gewählt hat reinfallen.
Du verstehst es nicht oder? In einer RTX 2080Ti arbeitet eine TU102 GPU mit teilaktivierten Recheneinheiten. In einer Quadrofonie RTX 6000 arbeitet eine TU102 GPU im Vollausbau. Das ist haargenau die gleiche GPU die dort verkauft einmal für Gamer und einmal für Profis verkauft wird. Heißt ein Big Chip wird eigentlich immer sowohl für Anwender als auch für Gamer konzipiert.
Mit einer Qaudro kann man im Grunde sogar spielen...
Du verstehs es offensichtlich nicht!
Quadros bzw Radeon Pro's unterscheiden sich zu deren Gamingequivalent durch technische Spezifikationen und sind nicht 1 zu 1 ident, sonst würden profesionelle Anwender ja gleich die deutlich günstigeren Gamingkarten kaufen.
 
Ich habe bei dem Video nur gesehen wie Cerny ausgeführt hat wie sich die TF verhalten bei 36 CUs und hohem Takt, sowie bei 52CUs und niedrigerem Takt. Vielleicht bin ich auch zwischendurch eingeschlafen aber wo war das große "Marketing blabla"? Ich habe nur gesehen dass er lauter trockene technische Details besprochen hat, aber von großer Beweihräucherung habe ich nichts gesehen. Hat er behauptet die XSX sei langsamer oder gleich schnell? Hat er behauptet dass 36 CUs besser sind als 52 CUs?
 
Ich habe bei dem Video nur gesehen wie Cerny ausgeführt hat wie sich die TF verhalten bei 36 CUs und hohem Takt, sowie bei 52CUs und niedrigerem Takt. Vielleicht bin ich auch zwischendurch eingeschlafen aber wo war das große "Marketing blabla"? Hat er behauptet die XSX sei langsamer oder gleich schnell? Hat er behauptet dass 36 CUs besser sind als 52 CUs?
Das Marketingblabla ist für mich die Behauptung dass wenige CU's mit hohem Takt besser sind wie viele CU's mit niedrigem Takt, das ist nachweislich falsch (bei RDNA und Turing).
Man redet sich die Entscheidung dahinter (günstigere Konsole anzubieten) schön.
 
Da kann ich mich auch mit einer Wand unterhalten, also vielen Dank für die Blumen...

Geht mir ja ähnlich, was soll ich machen. 36 CUs mit einem Takt der wirklich nahe an der Kotzgrenze sein muss (Cerny sagte 2-3% weniger Leistung benötigen ZEHN Prozent weniger Power Budget, klingt für mich nicht annähernd nach einem Sweetspot)
überhaupt als potentiell(!) ÜBERLEGEN anzusehen ist halt schon fragwürdig. Weder Schreier noch sonst wer zieht das überhaupt in Betracht, man redet davon dadurch den Abstand zu verkleinern, sodass er nicht SIGNIFIKANT ist.
 
Nochmal: Es wäre absolut blöd teure Big Chips herzustellen und diese für Gamer deutlich günstiger anzubieten (Quadros bzw Radeon Pro's kosten mehrere Tausend Euro) wenn die Gamingleistung durch kleine Chips und hohem Takt besser wäre.

Trotzdem macht NV genau das. Ich hatte bereits in einer Diskussion dazu was geschrieben:

"Mehr Rohleistung auf dem Papier bedeutet beispielsweise nicht gleichzeitig in gleichem Umfang mehr Fps. Eine 2080Ti bietet auf dem Papier rund 34% mehr TFLOPS als die 2080 (14,23/10,60). Und sie hat bei gleicher Architektur sogar rund 48% mehr Shader (4352/2944). In der Praxis reicht das aber in Spielen in UHD oftmals "nur" für eine höhere Framerate von 15-20%. Bei einer übertakteten 2080 (gibt leider nur WQHD Werte) schrumpft das Plus der Ti von 25% auf 9%. Deswegen halte ich auch nichts von den Prozentzahlen, die hier nur auf Basis der Papierwerte in die Runde geschmissen werden.
Das aber wirklich nur als rein exemplarisches Beispiel dafür, dass sich aus TFLOPS und Shader-Anzahl nicht die Mehrleistung in Spielen errechnen lässt, denn selbst bei gleicher Architektur skalieren TFLOPS, Shader und Fps nicht unbedingt 1:1 zueinander. (wie sich das bei den Konsolen SoC mit ihrer AMD Architektur darstellen wird, wissen wir aber natürlich nicht)."

Nvidia bringt "Big Chips" auch für Gamer, einfach um die Leistungskrone zu erreichen. Das Ergebnis mit den Big Chips was die Gaming Leistung angeht, ist aber im Grunde eher ernüchternd. Trotz 48% mehr Shadern reicht es am Ende "nur" für ein Gaming Plus von oftmals 15-20% und das bei gleichzeitig fettem Preisaufschlag. Heißt, die Big Chips sind in ihrer Leistungsausbeute für's Gaming eher ineffizient. Für die Leistungskrone reicht es trotzdem, einfach weil sie wahnsinnig viele Recheneinheiten gegenüber den kleineren Chips haben. Aber was die reine Effizienz zwischen Recheneinheiten und Fps angeht, machen die kleineren effizienteren Chips mit mehr Takt einen "besseren" Job.

36 CUs mit einem Takt der wirklich nahe an der Kotzgrenze sein muss (Cerny sagte 2-3% weniger Leistung benötigen ZEHN Prozent weniger Power Budget, klingt für mich nicht annähernd nach einem Sweetspot)
überhaupt als potentiell(!) ÜBERLEGEN anzusehen ist halt schon fragwürdig. Weder Schreier noch sonst wer zieht das überhaupt in Betracht, man redet davon dadurch den Abstand zu verkleinern, sodass er nicht SIGNIFIKANT ist.

Wer konkret sieht das als "überlegen" an, und falls ja, in welchen Zusammenhang?
 
Zuletzt bearbeitet:
Wer konkret sieht das als "überlegen" an, und falls ja, in welchen Zusammenhang?

Mein "überlegen" bezieht sich auf dein "besser" siehe:
"Was bei den Konsolen"besser" ist, wird sich erst zeigen, wenn Next-Gen Konsolen Titel miteinander verglichen werden können."
Wenn du dich bei besser auf das P/L Verhältnis beziehst dann muss ich mich bei dir entschuldigen, wenn du es auf die finale Leistung beziehst dann siehe meinen letzten Beitrag :)
 
Trotzdem macht NV genau das. Ich hatte bereits in einer Diskussion dazu was geschrieben:
Mehr Rohleistung auf dem Papier bedeutet beispielsweise nicht gleichzeitig in gleichem Umfang mehr Fps. Eine 2080Ti bietet auf dem Papier rund 34% mehr TFLOPS als die 2080 (14,23/10,60). Und sie hat bei gleicher Architektur sogar rund 48% mehr Shader (4352/2944). In der Praxis reicht das aber in Spielen in UHD oftmals "nur" für eine höhere Framerate von 15-20%. Bei einer übertakteten 2080 (gibt leider nur WQHD Werte) schrumpft das Plus der Ti von 25% auf 9%. Deswegen halte ich auch nichts von den Prozentzahlen, die hier nur auf Basis der Papierwerte in die Runde geschmissen werden.
Das aber wirklich nur als rein exemplarisches Beispiel dafür, dass sich aus TFLOPS und Shader-Anzahl nicht die Mehrleistung in Spielen errechnen lässt, denn selbst bei gleicher Architektur skalieren TFLOPS, Shader und Fps nicht unbedingt 1:1 zueinander. (wie sich das bei den Konsolen SoC mit ihrer AMD Architektur darstellen wird, wissen wir aber natürlich nicht).
Nvidia bringt "Big Chips" auch für Gamer, einfach um die Leistungskrone zu erreichen. Das Ergebnis mit den Big Chips was die Gaming Leistung angeht, ist aber im Grunde eher ernüchternd. Trotz 48% mehr Shadern reicht es am Ende "nur" für ein Gaming Plus von oftmals 15-20%. Heißt, die Big Chips sind in ihrer Leistungsausbeute für's Gaming eher ineffizient. Für die Leistungskursen reicht es trotzdem, einfach weil sie wahnsinnig viele Recheneinheiten gegenüber den kleinere Chips haben. Aber was die Effizienz zwischen Recheneinheiten und Fps angeht, machen die kleineren effizienteren Chips mit mehr Takt einen besseren Job.
Das ist nachweislich falsch, bei Turing wie auch bei RDNA gilt:
GPU mit einer hohen Anzahl an CU's und niedrigem Takt und niedrigerer Rechenleistung leisten mehr bzw mindestens genausoviel wie GPU's mit höherer Rechenleistung, weniger CU's und sehr hohem Takt, daran gibt es nichts zu rütteln!
Turing:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
RDNA:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Und nein, profesionelle GPU's wie Quadros und Radeon Pros sind nicht ident zu deren Gamingequivalent nur weil sie die gleiche Shaderzahl besitzen!
Es wäre doch sonst keiner so blöd und würde zigtausende Euro mehr für die professionellen GPU's zahlen wenn die Gamingkarte das gleiche tut.
 
Mein "überlegen" bezieht sich auf dein "besser" siehe:
"Was bei den Konsolen"besser" ist, wird sich erst zeigen, wenn Next-Gen Konsolen Titel miteinander verglichen werden können."
Wenn du dich bei besser auf das P/L Verhältnis beziehst dann muss ich mich bei dir entschuldigen, wenn du es auf die finale Leistung beziehst dann siehe meinen letzten Beitrag

Mein Kommentar bezogt sich darauf, dass man erst dann beurteilen kann, welches Konzept der beiden Konsolen besser ist, wenn man Next Gen Games vorliegen hat und vergleichen kann. "Besser" bezieht sich meiner Aussage darauf, welche Vorgehensweise die AMD Architektur effizienter ausnutzt. Wenn du es für fragwürdig hältst, dass ich immer und immer und immer und immer und immer wieder betone, dass man abwarten muss, welche Konsole schlussendlich einen "besseren" Job macht, dann weiß ich auch nicht weiter.
 
Zuletzt bearbeitet:
Das ist nachweislich falsch, bei Turing wie auch bei RDNA gilt:

Das ist keineswegs nachweislich falsch was ich schreibe. Ich habe meine Aussage anhand von Fakten und Zahlen klipp und klar belegt.

Und nein, profesionelle GPU's wie Quadros und Radeon Pros sind nicht ident zu deren Gamingequivalent nur weil sie die gleiche Shaderzahl besistzen!

:wall:

"Die Geforce RTX 2080 Ti im Desktop-Bereich nutzt zwar die größte Turing-GPU in Form des TU102-Grafikchips, die 18,6 Milliarden Transistoren auf 754 mm² unterbringt, muss sich aber mit einer teilweisen Deaktivierung zufrieden geben Von den 72 vorhandenen Shader-Multiprozessoren sind 68 aktiv. Das ergibt 4.352 statt 4.608 FP32-Shader. Entsprechend sind auch die Raytracing-Einheiten und Tensor-Kerne beschnitten. Beim Speicher-Interface wird ein 32-Bit-Controller abgeknipst, womit die Geforce RTX 2080 Ti auf 354 statt 384 Bit kommt - im Falle von 14 Gbps (7.000 MHz) schnellem GDDR6-RAM verringert das die Bandbreite von 672 auf 616 GB/s. Den Vollausbau nutzt indes die Quadro RTX 6000"

https://www.pcgameshardware.de/Gefo...X-6000-Turing-TU102-Vollausbau-Preis-1266267/
 
Das ist keineswegs nachweislich falsch was ich schreibe. Ich habe meine Aussage anhand von Fakten und Zahlen klipp und klar belegt.
Du hast überhaupt nichts belegt, die Belege habe ich geliefert wie man eindeutig anhand der 2 Videos erkennt.
Siehe ein dass Du falsch liegst und verteidige nichts was nachweislich nicht zu verteidigen ist.
76.gif

"Die Geforce RTX 2080 Ti im Desktop-Bereich nutzt zwar die größte Turing-GPU in Form des TU102-Grafikchips, die 18,6 Milliarden Transistoren auf 754 mm² unterbringt, muss sich aber mit einer teilweisen Deaktivierung zufrieden geben."
https://www.pcgameshardware.de/Gefo...X-6000-Turing-TU102-Vollausbau-Preis-1266267/
Mittlerweile zweife ich auch an Deinem Leseverständnis, was genau deren entspricht nicht dem was ich gesagt habe?
Quadro und Geforce GPU's sind nicht 1 zu 1 ident.
Was ist so schwer daran zu verstehen?
Wäre dem so würde jeder professionelle Anwender sich Gaming GPU's kaufen.
Die Geforce RTX 2080 Ti im Desktop-Bereich nutzt zwar die größte Turing-GPU in Form des TU102-Grafikchips, die 18,6 Milliarden Transistoren auf 754 mm² unterbringt, muss sich aber mit einer teilweisen Deaktivierung zufrieden geben. Von den 72 vorhandenen Shader-Multiprozessoren sind 68 aktiv. Das ergibt 4.352 statt 4.608 FP32-Shader. Entsprechend sind auch die Raytracing-Einheiten und Tensor-Kerne beschnitten. Beim Speicher-Interface wird ein 32-Bit-Controller abgeknipst, womit die Geforce RTX 2080 Ti auf 354 statt 384 Bit kommt - im Falle von 14 Gbps (7.000 MHz) schnellem GDDR6-RAM verringert das die Bandbreite von 672 auf 616 GB/s.
Du musst schon sehr verzweifelt sein dass Du um Cernys Worte zu verteidigen den Umweg über profesionelle GPU's gehen musst.
 
Du hast überhaupt nichts belegt, die Belege habe ich geliefert wie man eindeutig anhand der 2 Videos erkennt.
Siehe ein dass Du falsch liegst und verteidige nichts was nachweislich nicht zu verteidigen ist.

Dann widerlege bitte folgende von mir auf Basis von Tests und technischen Daten getätigte Aussage:

"Eine 2080Ti bietet auf dem Papier rund 34% mehr TFLOPS als die 2080 (14,23/10,60). Und sie hat bei gleicher Architektur sogar rund 48% mehr Shader (4352/2944). In der Praxis reicht das aber in Spielen in UHD oftmals "nur" für eine höhere Framerate von 15-20%. Bei einer übertakteten 2080 (gibt leider nur WQHD Werte) schrumpft das Plus der Ti von 25% auf 9%."

Quadro und Geforce GPU's sind nicht 1 zu 1 ident.

Doch, sie sind sogar absolut identisch. Gleiche Die Größe, gleiche Menge an Shadereinheiten. Der einzige Unterschied ist, dass bei den Gaming Varianten Shader deaktiviert sind. Wenn man so will erhalten Gamer den "Abfall" der Produktion, also die Chips, bei denen Shader defekt sind. Dennoch sind es grundsätzlich identische Chips zu den Quadro GPUs.

Du musst schon sehr verzweifelt sein dass Du um Cernys Worte zu verteidigen den Umweg über profesionelle GPU's gehen musst.

Ich wüsste nicht, warum ich Cerny in irgendeiner Art und Weise verteidigen sollte!?
 
Zuletzt bearbeitet:
Dann widerlege bitte folgende von mit auf Basis von Tests und technischen Daten getätigte Aussage:
"Eine 2080Ti bietet auf dem Papier rund 34% mehr TFLOPS als die 2080 (14,23/10,60). Und sie hat bei gleicher Architektur sogar rund 48% mehr Shader (4352/2944). In der Praxis reicht das aber in Spielen in UHD oftmals "nur" für eine höhere Framerate von 15-20%. Bei einer übertakteten 2080 (gibt leider nur WQHD Werte) schrumpft das Plus der Ti von 25% auf 9%."
Die getätigte Aussage ist vollkommen wertlos ohne Information zum genauen Takt um die Rechenleistung zu berechnen! Eine RTX 2080ti kann man btw auch kaum so niedrig takten als dass eine 2080 mit hohem Takt auf dem gleichen Level kommt!
Ich verlinke Dir hier nochmal die 2 Videos wo der genau Takt ersichtlich ist, wo man die genaue Rechenleistung berechnen kann:

RTX 2070 (36 CU's - 2150 Mhz - 9,9 Teraflops) vs RTX 2070 Super (40 CU's - 1800 Mhz - 9,2 Teraflops):
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Die RTX 2070 Super ist trotz niedrigerer Rechenleistung schneller bzw mindestens gleich schnell!

RX 5700 (36 CU's - 2150 Mhz - 9,9 Teraflops) vs RX 5700 XT (40 CU's - 1750 Mhz - ~9 Teraflops):
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Die RX 5700 XT ist trotz niedrigerer Rechenleistung schneller bzw mindestens gleich schnell!

Die Faktenlage ist eindeutig!
Doch, sie sind sogar absolut identisch. Gleiche Die Größe, gleiche Menge an Shadereinheiten. Der einzige Unterschied ist, dass bei den Gaming Varianten Shader deaktiviert sind. Wenn man so will erhalten Gamer den "Abfall" der Produktion, also die Chips, bei denen Shader defekt sind. Dennoch sind es grundsätzlich identische Chips zu den Quadro GPUs.
Vollkommen falsch! Und Du widersprichst Dir selber! Zunächst einmal gibt es unterschiedliche Quadro Modelle mit unterschiedlich hoher Anzahl an CU's, es gibt quasi auch kleine Quadros.
Nochmal: Wären sie 1 zu 1 ident, würden profesionelle Anwender die Gamingkarten kaufen da diese deutlich günstiger sind.
Deine "Argumentation" entberht jeglicher Logik
Ich wüsste nicht, warum ich Cerny in irgendeiner Art und Weise verteidigen sollte!?
Genau das tust Du die ganze Zeit, indem Du die Fakten so verdrehst damit sie in Cerny's Marketing passen.
 
Effizienter im Hinblick auf die Kosten die Playstation, falls es um den Energieverbrauch geht wohl die Xbox (zumindest in Relation zur Rechenleistung)

Effizienz kann auch die erzielte Gaming Leistung in Relation zu den Recheneinheiten sein. Und genau das wird im falle von PS5 und SX spannend zu beobachten sein. Kann sich die SX mit ihren deutlich mehr Shadereinheiten entscheidend zur PS5 absetzen? Oder doch nicht so sehr? Oder kaum? Wir werden sehen.

Die getätigte Aussage ist vollkommen wertlos ohne Information zum genauen Takt um die Rechenleistung zu berechnen

Nein, ist sie nicht, denn sie zeigt faktisch (Shadereinheiten, TFLOPS, FPS) genau das auf, was sie aufzeigen sollte. Und damit beende ich dann auch die Diskussion mit dir, weil sie sowieso nicht zu einem fruchtbaren Ergebnis führen wird.

Vollkommen falsch! Und Du widersprichst Dir selber! Zunächst einmal gibt es unterschiedliche Quadro Modelle mit unterschiedlich hoher Anzahl an CU's, es gibt quasi auch kleine Quadros.
Nochmal: Wären sie 1 zu 1 ident, würden profesionelle Anwender die Gamingkarten kaufen da diese deutlich günstiger sind.
Deine "Argumentation" entberht jeglicher Logik

Keineswegs. Du verstehst die Aussage nur einfach nicht.
 
Zuletzt bearbeitet:
Zurück