Radeon RX 6000: "Big Navi" XT 21 mit 320 bis 355 Watt TBP?

Hatte ich auch in etwa erwartet, zumindest überrascht es mich nicht, schon allein weil die Leistung pro Watt bei AMD schlechter ist, so schnell so viel zu verbessern traue ich ihnen nicht zu.
Die Leute die Ampere wegen deren Leistungsaufnahme mit Schadenfreude niedergemacht haben, beißen sich jetzt gewaltig in deren Hinterteil, für die bricht gerade ihre Diffamierungswelt zusammen :haha:
 
Hahaa am Arsch BigNavi wird Effizient mit 275W. Ampere gewinnt wohl doch wieder den Effizienzwettbewerb trotz 320W - mit UV sogar nur ~230W. AMD geht wieder auf 355W. Wow... Kacke... :(
UV geht bei AMD natürlich nicht. Schon klar. :schief: Aber lustig wie einige aus wilden Gerüchten und Spekulationen sofort einen Fakt machen. 355W ergibt deshalb schon wenig Sinn, da dies nicht zu AMDs Effizienzsteigerung von 50% passt. Ausser man wäre klar schneller als die 3080. Wovon ich nicht ausgehe. Bei 2x 8-Pin wären auch nur maximal 375W möglich. Mit 355W TBP hätte man vermutlich zu wenig Reserve für Lastspitzen. Wenn GPU und VRAM zusammen gut 250W brauchen, dann erscheint es auch unlogisch, dass der Rest des Bords nochmal 100W zusätzlich braucht. Wofür denn? Ich denke ~300W ist realistischer. Würde jedenfalls zu den bisherigen Infos am besten passen.


Nur weil der es eine nicht kann ist es unfair?
Intel CPUs werden hier auch mit 2666er RAM getestet und Ryzen mit 3200.
Ist nicht das gleiche. Erstens sind die Unterschiede beim RAM nicht so gross. Und zweitens ändert sich am Ergebnis einer Anwendung durch unterschiedlich getakteten RAM nichts. DLSS verändert die Bildqualität. Durchaus auch zum schlechteren.


Nein, die Features sprechen für Nvidia.
NVenc, DLSS und RT, dass sind Sparten in denen Nvidia voraus ist.
Für mich nur Pseudoargumente. Was kann denn NVenc grossartig tolles, was VCE nicht kann? Aus Sicht der Qualität ist eh beides keine zu bevorzugende Lösung. Da kommt nach wie vor nichts an eine CPU ran. DLSS kannste dir ebenso schenken. Wen interessiert die handvoll Spiele in denen es unterstützt wird? Ohne OotB Unterstützung wird so ein Feature meiner Meinung nach nie wirklich relevant sein. Und es will auch nicht jeder einen potenziellen Qualitätsverschlechterer. Egal wie viel FPS sich dadurch gewinnen lassen. Auch weiss noch niemand ob RDNA 2 was vergleichbares bieten wird. RT ist ebenso unbekannt bisher. Die RT Rohleistung von RDNA 2 ist jedenfalls recht beeindruckend, deutlich über der von Nvidia. Allerdings teilen sich Rasterisierung und RT die Shader bei RDNA 2. Was bedeutet, dass die theoretische Rohleistung von RT nie abgerufen werden kann. Es sei denn ein Spiel ist komplett mit RT umgesetzt. Was im Moment natürlich noch Zukunftsmusik. Aber genau das macht RT meiner Meinung nach bei RDNA 2 so spannend. Es scheint deutlich flexibler implementiert zu sein als bei Nvidia. Und kann daher auch in Zukunft noch mehr ausgereizt werden. RT wäre für mich also wenn überhaupt eher ein Pluspunkt für AMD.


Hatte ich auch in etwa erwartet, zumindest überrascht es mich nicht, schon allein weil die Leistung pro Watt bei AMD schlechter ist
Die Performance pro Watt ist nicht schlechter bei AMD. Laut Computerbase waren 1660 Super, RX 5600 und 2060 Super die effizientesten Karten der letzten Generation und etwa auf einem Level. Nvidia hat bei Ampere ~20% zugelegt. Wenn AMD im Vergleich zur letzten Generation tatsächlich 50% zulegt, kannste dir den Rest ja selber ausrechnen. ;)
 
Zuletzt bearbeitet:
Für mich nur Pseudoargumente. Was kann denn NVenc grossartig tolles, was VCE nicht kann? Aus Sicht der Qualität ist eh beides keine zu bevorzugende Lösung. Da kommt nach wie vor nichts an eine CPU ran. DLSS kannste dir ebenso schenken. Wen interessiert die handvoll Spiele in denen es unterstützt wird? Ohne OotB Unterstützung wird so ein Feature meiner Meinung nach nie wirklich relevant sein. Und es will auch nicht jeder einen potenziellen Qualitätsverschlechterer. Egal wie viel FPS sich dadurch gewinnen lassen. Auch weiss noch niemand ob RDNA 2 was vergleichbares bieten wird. RT ist ebenso unbekannt bisher. Die RT Rohleistung von RDNA 2 ist jedenfalls recht beeindruckend, deutlich über der von Nvidia. Allerdings teilen sich Rasterisierung und RT die Shader bei RDNA 2. Was bedeutet, dass die theoretische Rohleistung von RT nie abgerufen werden kann. Es sei denn ein Spiel ist komplett mit RT umgesetzt. Was im Moment natürlich noch Zukunftsmusik. Aber genau das macht RT meiner Meinung nach bei RDNA 2 so spannend. Es scheint deutlich flexibler implementiert zu sein als bei Nvidia. Und kann daher auch in Zukunft noch mehr ausgereizt werden. RT wäre für mich also wenn überhaupt eher ein Pluspunkt für AMD.



Die Performance pro Watt ist nicht schlechter bei AMD. Laut Computerbase waren 1660 Super, RX 5600 und 2060 Super die effizientesten Karten der letzten Generation und etwa auf einem Level. Nvidia hat bei Ampere ~20% zugelegt. Wenn AMD im Vergleich zur letzten Generation tatsächlich 50% zulegt, kannste dir den Rest ja selber ausrechnen. ;)
Bei AMD leidet die Implementierung von VCE, was es einfach unattraktiv macht für Softwareentwickler. Bei Nvidia ist der Gang über das SDK und generell die Unterstützung sehr viel einfacher und angenehmer. So gut wie jedes Videoschnittprogramm setzt auf Hardwarebeschleunigung, DaVinci lässt sich nicht mal richtig nutzen mit einer 1GB Karte, obwohl jeglicher GPU Part deaktiviert wird. Im Hintergrund wird viel häufiger auf Decoder und Encoder der GPUs zugegriffen als es die Anwender glauben mögen, selbst YouTube macht auf Nvidia Karten unter hohen Auflösungen eine bessere Figur bzw. die Auslastung. Das Leute darauf verzichten können liegt lediglich an Unwissen darüber wann, wo und warum es eingesetzt wird und das auch nur weil es nicht oder wenig kommuniziert wird. Einen Artikel auf PCGH vermisse ich noch immer. Nvidia lebt quasi von ihren Cuda Kernen in dem Segment und der NVenc ist eine eierlegende Wollmilchsau, die nun mal 30 Min. einlesen und austesten erfordern um sich dazu zu bekennen.
Du sprichst von wenigen Spielen die DLSS unterstützen, aber was glaubst du wie viele Spieler sich eine neue GPU nur alleine für Cyberpunk 2077 zulegen werden. Irgendwann kommt bei jedem das nächste Lieblingsspiel und wenn gerade dieses dann noch die Features einer Karte in vollem Umfang und gut implementiert, dann ist es um so ärgerlicher eben diese nicht genommen zu haben. Davon ab war AMD doch in der jüngeren Vergangenheit immer gut was Rohrleistung betrifft, nur mit auf die Straße bringen hat's nicht so geklappt.
 
Hab ja eigentlich gehofft, dass AMD bei Big Navi nicht ganz so extreme Verbräuche bringt ...
Naja mal schauen; Gerüchteküche kocht ja auch öfters mal "daneben"
 
Ich verstehe Igors Rechnung absolut. Mich macht jedoch nur eine Sache stutzig.

AMD spricht von 50% Performance/Watt Verbesserung. Teilweise wurden auch schon 60% kolportiert.
Ich mach da mal eine kleine simple Rechnung auf.

Die Basis dafür ist, dass die Navi 21 XT tatsächlich die Leistung einer 3080 erreichen kann. Dann sprechen wir von ca. 80% Leistungsgewinn zu einer RX5700XT.

Die RX5700XT verbraucht im Schnitt ca. 225W (mal mehr mal weniger). Wenn sich bei Performance/Watt nichts ändern sollte, dann würde Sie bei der o.g. Leistung 405W verbrauchen um eine ähnliche Effizienz zu haben. (Bewusst habe ich die beiden größten Chips ausgewählt).

Bei einer 50% Effizienzsteigerung, kommen wir auf einen Verbrauch von 270W. Bei 60% Effizienzsteigerung wären es 253W.
Die kolportierten 320W entsprächen jedoch nur einem Effizienzgewinn von ca. 25%. Das passt nicht.

Entweder ist der Leistungsgewinn höher als die 80% oder der Verbrauch der Grafikkarte ist eben doch nicht 320W.
Oder die Effizienzsteigerung ist nicht so, wie angenommen.

Disclaimer:
Die Rechnung ist sehr vereinfacht dargestellt und enthält logischerweise recht viele Variablen, mit denen man aber spielen kann. Wir haben ja bisher nur 4k Werte gesehen. Der Leistungssprung zwischen RX5700XT und Big Navi könnte hier noch größer als 80% sein, äquivalent zur 3080, was die Zahlen u.U. verfälschen.
 
Nvidia spricht sogar von 80% Effizienzsteigerung bei Ampere, man weiß halt nie auf welche Use Cases das basiert, aber praktisch sind solche Werte nie aussagekräftig.
 
Nvidia spricht sogar von 80% Effizienzsteigerung bei Ampere, man weiß halt nie auf welche Use Cases das basiert, aber praktisch sind solche Werte nie aussagekräftig.
Bei Nvidia mag das stimmen. Jedoch haben wir die Effizienzsteigerung zwischen GCN und RDNA1 von 50% tatsächlich gesehen. Nicht nur in Einzelfällen.
Nur bedingt.
nVidia Karten unterstützen so weit ich weiß seit 2xxx auch Freesync. AMD nur Freesync. Daher sollten Leute mit Freesync Monitoren recht entspannt sein und sich auf das Gesamtpaket konzentrieren können ohne sich auf einen der Beiden festlegen zu müssen. ?
Meine beiden Freesyncs werden durch Nvidia nicht unterstützt. Und so geht es noch vielen vielen anderen Monitoren.
 
Ich verstehe Igors Rechnung absolut. Mich macht jedoch nur eine Sache stutzig.

AMD spricht von 50% Performance/Watt Verbesserung. Teilweise wurden auch schon 60% kolportiert.
Ich mach da mal eine kleine simple Rechnung auf.

Die Basis dafür ist, dass die Navi 21 XT tatsächlich die Leistung einer 3080 erreichen kann. Dann sprechen wir von ca. 80% Leistungsgewinn zu einer RX5700XT.

Die RX5700XT verbraucht im Schnitt ca. 225W (mal mehr mal weniger). Wenn sich bei Performance/Watt nichts ändern sollte, dann würde Sie bei der o.g. Leistung 405W verbrauchen um eine ähnliche Effizienz zu haben. (Bewusst habe ich die beiden größten Chips ausgewählt).

Bei einer 50% Effizienzsteigerung, kommen wir auf einen Verbrauch von 270W. Bei 60% Effizienzsteigerung wären es 253W.
Die kolportierten 320W entsprächen jedoch nur einem Effizienzgewinn von ca. 25%. Das passt nicht.

Entweder ist der Leistungsgewinn höher als die 80% oder der Verbrauch der Grafikkarte ist eben doch nicht 320W.
Oder die Effizienzsteigerung ist nicht so, wie angenommen.

Disclaimer:
Die Rechnung ist sehr vereinfacht dargestellt und enthält logischerweise recht viele Variablen, mit denen man aber spielen kann. Wir haben ja bisher nur 4k Werte gesehen. Der Leistungssprung zwischen RX5700XT und Big Navi könnte hier noch größer als 80% sein, äquivalent zur 3080, was die Zahlen u.U. verfälschen.
Schonmal was Marketing gehört? Die versprechen viel und suchen sich i.d.R. die beste Kirsche aufm Baum aus...

Verstehe nicht wie sich die meisten hier auf die Aussage von AMD stützen und alles abtun, als gebe es kein morgen mehr, weil wenn AMD was sagt, ist das Gesetz. Auch AMD macht Marketing und spielt mit großen Zahlen, muss ja alles fancy sein.
Es war klar, dass praktisch auf dem selben Node, eine ähnlich große Anzahl von Transistoren, nur anders geschaltet, trotzdem auch Strom kosten, wie eben bei der 7, also warum so überrascht.

Übrigens deine Rechnung geht nicht auf, doppelt soviele Shader (5700XT) wären 450 Watt, also bringen sie schon eine deutliche Effizienz Steigerung. Allerdings denkt kaum einer an Wandlerverluste usw. und das ist eben überall so...
Für mich nur Pseudoargumente. Was kann denn NVenc grossartig tolles, was VCE nicht kann? Aus Sicht der Qualität ist eh beides keine zu bevorzugende Lösung. Da kommt nach wie vor nichts an eine CPU ran. DLSS kannste dir ebenso schenken. Wen interessiert die handvoll Spiele in denen es unterstützt wird?
In allen Triple AAA Titeln die diesen Winter erscheinen sollen bzw. angekündigt sind, ist das Feature inkl. RT implementiert. So what? Wir werden sehen ob es noch breitere Verbreitung findet.

 
Zuletzt bearbeitet von einem Moderator:
Es ist ja durchaus möglich das RDNA 2 rund 50% effizienter arbeitet als RDNA 1.

Beispiel einer 5700XT, stark vereinfacht!

225W für 100Fps bei der 5700XT mit einer 50% höheren Effizienz wären das ja dann für 100Fps rund 150W.

Wenn man jetzt die Leistung weiter steigern möchte, dann muss man auch die Spannung weiter steigern. Was aber quadratisch, bis kubisch eingeht.

Also pi mal Daumen, für 25% mehr Takt (nur ein Beispiel) braucht man 12,5% mehr Spannung. Hier wird man dann bei 237W wenigstens landen. Im schlimmsten fall noch spürbar höher.

Selbst wenn man es schafft, das die 25% mehr Takt real in Leistung ankommen, sind das bei rund dem gleichen Verbrauch nur 25% mehr Leistung! Trotz 50% höherer Effizienz.

Wenn man über mehr Recheneinheiten geht, bleibt die Effizinez pro Takt erhalten, jedoch skaliert das nicht Linear, da es immer schwerer wird, den Chip auszulasten. Also geht man einen Mittelweg.

So landet man dann einer Big Navi die hoffentlich so schnell ist, wie die 3080. Laut neusten Gerüchten bei 320 bis 350W und das alles obwohl AMD die Effizienz um 50% gesteigert hat.
 
die Features sprechen für Nvidia

Kommt drauf an, wie wichtig man gewisse Leuchtturmprojekte/Spiele wertet, für sich selbst.
Bisher sind es weiterhin vereinzelnde Top-Titel, wo Nvidia Geld und support in die Hand genommen hat, wo dann tatsächlich RT/DLSS in merklicher Weise eingebaut werden.

Muss jeder für sich selbst entscheiden, in wie weit eine Liste von einer Hand voll Spielen, die wiederum zur neuen Gen für RT/DLSS angekündigt werden, einem wichtig sind.
Wir haben ja zu Beginn von Turing gesehen, wie "toll" das funktionierte.
Nun haben wir wieder so eine Ankündigungsliste, zum Release der 3070, was ja eindeutig zum Thema Marketing zählt:


Diesmal sind's 12 Titel mit "irgendwie RTX". Wobei 3 ja schon klar waren und der Rest ... naja ... ;)

Also wie schon erwähnt, würde ich das für mich jetzt nicht als absolut kaufentscheidendes Argument ansehen, auch wenn ich selber jetzt schon eine 3080 bestellt habe.

"Nice to have" und zum mal antesten sicherlich, aus Neugier.
Aber im Endeffekt schaue ich auf die FPS in WQHD(in allen Spielen und nicht nur wo es DLSS gibt). Das is was mich interessiert.
Der Rest ... nehm ich mit(wobei G-sync für mich eindeutig wichtiger ist, als DLSS).

Vielleicht hat AMD ja auch noch was auf Lager, was als Extra für AMD spricht, wie irgendein tolles Cache-Feature.
Is sicher genauso Marketing. Gleicht sich dann irgendwo wieder aus. RT soll ja BigNavi auch irgendwie haben.

Für viele steht eh schon fest was sie kaufen. Die wenigsten sind noch flexibel und wirklich bereit beides zu kaufen.

Soll jeder glücklich werden, mit dem was er kauft.

Was ich bisher von der Konsole gesehen habe, sieht das optisch ganz gut aus(auch wenn's mir teilweise zu wenig fps sind), also warum soll man dann mit stärkerer AMD Desktop GPU nicht Spaß haben ?

Und beide, Ampere und BigNavi werden am Ende Strom verbrauchen. Überraschung ! ;)

Wird alles nicht so heiß gegessen, wie mein Kaffee getrunken. :kaffee: Guten Morgen @ all (AMD Käufer, Nvidia Käufer, Intel Käufer und alle Konsoleros) ! :) :daumen:

PS: Wünsche allen AMD Interessenten viel Spaß, mit ihrer Karte. Freut euch drauf.
 
Zuletzt bearbeitet:
Wenn beide gleich viel verbrauchen, gleich viel kosten, die gleiche Leistung haben, der eine jedoch 16GB Vram, der andere DLSS und höhere RT Leistung, für was würdet ihr euch entscheiden?

Bei mir wäre das eindeutig Nvidia, ich halte DLSS für einen Gamechanger, die Leistung bringt AMD dann nichts wenn selbst eine RTX 3070 in CP 2077 z.Bsp. an Big Navi vorbeiziehen wird bei besserer Bildqualität dank DLSS.
Eindeutig AMD. Also ganz ehrlich, langsam geht mir dein DLSS Marketing etwas gegen den Strich. Es sind so gut wie keine relevanten Spiele für DLSS2.0 angekündigt. Wenn sich das irgendwann mal ändern sollte kann man sich darüber weiter unterhalten...und was RT angeht, ich bin so gut wie überzeugt das kommt diese Konsolengeneration auch noch nicht richtig aus den Kinderschuhen raus.
 
Die 320 Watt werden bestimmt das Minimum sein was Big Navi brauchen wird. AMD sprach auch bei der 5700XT alias Navi das eine Performance-Verbesserung pro Watt von 50% bestehe gegenüber Vega (GCN). Schaut man sich die Daten an der Vega 64 die eine TDP von 295 Watt hat gegenüber der 5700XT die eine TDP von 225 Watt hat kommt das mit den 50% Effizienz ungefähr hin. Die 5700XT bringt zirka 15% mehr Performance gegenüber dem Vorgänger der Vega 64 aber verbraucht nur 225 Watt. Also hatte AMD die 5700XT nicht auf Power genäht sondern auf Effizienz.

Die 21 XTX soll auf Augenhöhe der RTX 3080 sein und ich weiß jetzt nicht welche GPU Lisa Su zeigte und nehme aber mal den Benchmark von Borderlands 3 in 4K mit 61 fps. Da ist die Big Navi doppelt so schnell wie die 5700XT. Also kämen 50% von der Effizienzverbesserung und die restlichen 50% von der "auf Power genäht" denn 225 plus 50% sind 337 Watt.

Die 3080 hat eine TDP von 320 und wenn AMD diese Leistung erreicht bei auch zirka 320 Watt wäre das eine überragende Leistung von AMD. Gut, in Raytracing wird AMD wohl nicht so gut aufgestellt sein wie Nvidia aber Big Navi wird die erfolgreiche Rückkehr in den High-End-GPU-Markt :-)
 
Eindeutig AMD. Also ganz ehrlich, langsam geht mir dein DLSS Marketing etwas gegen den Strich. Es sind so gut wie keine relevanten Spiele für DLSS2.0 angekündigt. Wenn sich das irgendwann mal ändern sollte kann man sich darüber weiter unterhalten...und was RT angeht, ich bin so gut wie überzeugt das kommt diese Konsolengeneration auch noch nicht richtig aus den Kinderschuhen raus.
Cyberpunk, Watchdogs Legion, Call of Duty? Ok, wusste nicht, dass diese keine Relevanz haben... Sind halt Nischenspiele...
 
Schonmal was Marketing gehört? Die versprechen viel und suchen sich i.d.R. die beste Kirsche aufm Baum aus...

Verstehe nicht wie sich die meisten hier auf die Aussage von AMD stützen und alles abtun, als gebe es kein morgen mehr, weil wenn AMD was sagt, ist das Gesetz. Auch AMD macht Marketing und spielt mit großen Zahlen, muss ja alles fancy sein.
Es war klar, dass praktisch auf dem selben Node, eine ähnlich große Anzahl von Transistoren, nur anders geschaltet, trotzdem auch Strom kosten, wie eben bei der 7, also warum so überrascht.

Übrigens deine Rechnung geht nicht auf, doppelt soviele Shader (5700XT) wären 450 Watt, also bringen sie schon eine deutliche Effizienz Steigerung. Allerdings denkt kaum einer an Wandlerverluste usw. und das ist eben überall so...

In allen Triple AAA Titeln die diesen Winter erscheinen sollen bzw. angekündigt sind, ist das Feature inkl. RT implementiert. So what? Wir werden sehen ob es noch breitere Verbreitung findet.

Naja ... In letzter Zeit haben die Aussagen bei AMD aber halt auch einfach gestimmt. Bei Navi 1 sagte AMD 50% besser Performance/Watt und es hat auch gestimmt. Genauso wie die gezeigten Benchmarks damals. Die Benchmarks von Zen2 bei dessen Vorstellung haben auch ziemlich genau gepasst.
Auch auf dem Zen3 Event wurden nicht unbedingt nur die Kirschen mit LoL und CS:GO gezeigt, sondern auch Titel wo auch Intel noch die Nase vorn hatte.

D.h. AMD hat sich in der Hinsicht erst mal das Vertrauen verdient wenn sie sagen 50% bessere performance pro Watt von RDNA auf RDNA2.
In wie weit, dass dann wieder aus dem Fenster geworfen wird um noch mehr performance raus zu quetschen steht natürlich auf einem anderen Blatt.

Aber werden wir ja in einer Woche sehen.
 
Eindeutig AMD. Also ganz ehrlich, langsam geht mir dein DLSS Marketing etwas gegen den Strich. Es sind so gut wie keine relevanten Spiele für DLSS2.0 angekündigt. Wenn sich das irgendwann mal ändern sollte kann man sich darüber weiter unterhalten...und was RT angeht, ich bin so gut wie überzeugt das kommt diese Konsolengeneration auch noch nicht richtig aus den Kinderschuhen raus.
Ich halte das durchaus für eine schwierige Frage!

Auf der einen Seite die Sicherheit suggerierenden 16GB, auf der anderen Seite top Features, die aber wie du richtig kritisierst, nicht die nötige Verbreitung haben.

Grundsätzlich gehe ich davon aus das AMD relativ bald auch eine Alternative zu DLSS anbieten wird.

Letztendlich wird für mich die Leistung entscheiden, sowohl ohne RT, wie auch mit RT und dem gegenüber werde ich auch die paar Einzelergebnisse mit DLSS2.0 stellen. Denn einen Wert hat DLSS schon, nur wie hoch ist schwierig.

Ist alles etwas Pokern. Wobei das alles hinfällig wäre, wenn Big Navi 3080 Leistung bietet und 700Euro kosten sollte, wärend Nvidia für eine 20GB 3080 Version dann vielleicht 850 Euro aufruft.

Dann müsste die Summe der 3080 Eigenschaften schon so viel besser sein, wie ich es mir nicht vorstellen kann.
Oder man überlegt ob 10, oder 16GB. Für mich sollten bei nur bis zu 4K die 10GB reichen, solange die PS V und die neue XBox noch nicht ersetzt werden. Dennoch hinterlassen 16GB ein besseres Gefühl.

Bitte bald einen Test zur Big Navi!
 
Ist nicht das gleiche. Erstens sind die Unterschiede beim RAM nicht so gross. Und zweitens ändert sich am Ergebnis einer Anwendung durch unterschiedlich getakteten RAM nichts.
Ehm doch. CPUs profitieren teilweise enorm von schnellerem RAM.
Ein Intel, der mit 2666 langsamer ist, kann den Ryzen mit 3200 schon hinter sich lassen.

DLSS verändert die Bildqualität. Durchaus auch zum schlechteren.
Und? Wenn AMD kein AA unterstützen würde, dürfte man kein AA verwenden, denn es verändert hier ja auch die Bildqualität?
Jede Grafikeinstellung verändert die Bildqualität. Das ist genau ihr Zweck...

Die RT Rohleistung von RDNA 2 ist jedenfalls recht beeindruckend, deutlich über der von Nvidia.
Bezweifel ich mal ganz stark, dass du das überhaupt wissen kannst. Über die RT Leistung ist noch gar nichts bekannt, sagtest du ja selbst:
Auch weiss noch niemand ob RDNA 2 was vergleichbares bieten wird. RT ist ebenso unbekannt bisher.
Und im Anschluss ists dann auf einmal schneller? Au Backe...
Laut Igor soll die RT Rohleistung von RDNA2 nicht an Nvidia herankommen können und ich vertraue da mehr einem Igor als einem @gruffi der sich in einem Post x mal selbst widerspricht.
 
Zuletzt bearbeitet:
Naja ... In letzter Zeit haben die Aussagen bei AMD aber halt auch einfach gestimmt. Bei Navi 1 sagte AMD 50% besser Performance/Watt und es hat auch gestimmt. Genauso wie die gezeigten Benchmarks damals. Die Benchmarks von Zen2 bei dessen Vorstellung haben auch ziemlich genau gepasst.
Auch auf dem Zen3 Event wurden nicht unbedingt nur die Kirschen mit LoL und CS:GO gezeigt, sondern auch Titel wo auch Intel noch die Nase vorn hatte.

D.h. AMD hat sich in der Hinsicht erst mal das Vertrauen verdient wenn sie sagen 50% bessere performance pro Watt von RDNA auf RDNA2.
In wie weit, dass dann wieder aus dem Fenster geworfen wird um noch mehr performance raus zu quetschen steht natürlich auf einem anderen Blatt.

Aber werden wir ja in einer Woche sehen.

So sehe ich das auch denn was bei der Fury X (Fiji) und Vega abging war schon gelogen. Seit der 5700XT hat AMD aber wieder an Glaubwürdigkeit gewonnen. Die Benchmarks haben gestimmt, sie haben viele überrascht das die 2070 geschlagen wurde und auch die restlichen Daten haben gestimmt wie eben die Effizienz-Verbesserung.

Die 3080 ist eine starke GPU die ich mir gern kaufen würde aber ich warte eh erst Big Navi ab und muss auch sagen das mein Favorit derzeit Big Navi ist da man ja keine 3080 kaufen kann. Ist Big Navi genauso teuer wie die 3080 würde ich sie noch kaufen aber mehr Geld würde ich nicht ausgeben und es schon als Frechheit von AMD finden da die 3080 RT, DLSS 2.0 und schnelleren GDDR6X-Speicher hat.
 
Zurück