• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Radeon RX 6000: "Big Navi" XT 21 mit 320 bis 355 Watt TBP?

ΔΣΛ

PCGH-Community-Veteran(in)
Hatte ich auch in etwa erwartet, zumindest überrascht es mich nicht, schon allein weil die Leistung pro Watt bei AMD schlechter ist, so schnell so viel zu verbessern traue ich ihnen nicht zu.
Die Leute die Ampere wegen deren Leistungsaufnahme mit Schadenfreude niedergemacht haben, beißen sich jetzt gewaltig in deren Hinterteil, für die bricht gerade ihre Diffamierungswelt zusammen :haha:
 

gruffi

Komplett-PC-Aufrüster(in)
Hahaa am Arsch BigNavi wird Effizient mit 275W. Ampere gewinnt wohl doch wieder den Effizienzwettbewerb trotz 320W - mit UV sogar nur ~230W. AMD geht wieder auf 355W. Wow... Kacke... :(
UV geht bei AMD natürlich nicht. Schon klar. :schief: Aber lustig wie einige aus wilden Gerüchten und Spekulationen sofort einen Fakt machen. 355W ergibt deshalb schon wenig Sinn, da dies nicht zu AMDs Effizienzsteigerung von 50% passt. Ausser man wäre klar schneller als die 3080. Wovon ich nicht ausgehe. Bei 2x 8-Pin wären auch nur maximal 375W möglich. Mit 355W TBP hätte man vermutlich zu wenig Reserve für Lastspitzen. Wenn GPU und VRAM zusammen gut 250W brauchen, dann erscheint es auch unlogisch, dass der Rest des Bords nochmal 100W zusätzlich braucht. Wofür denn? Ich denke ~300W ist realistischer. Würde jedenfalls zu den bisherigen Infos am besten passen.


Nur weil der es eine nicht kann ist es unfair?
Intel CPUs werden hier auch mit 2666er RAM getestet und Ryzen mit 3200.
Ist nicht das gleiche. Erstens sind die Unterschiede beim RAM nicht so gross. Und zweitens ändert sich am Ergebnis einer Anwendung durch unterschiedlich getakteten RAM nichts. DLSS verändert die Bildqualität. Durchaus auch zum schlechteren.


Nein, die Features sprechen für Nvidia.
NVenc, DLSS und RT, dass sind Sparten in denen Nvidia voraus ist.
Für mich nur Pseudoargumente. Was kann denn NVenc grossartig tolles, was VCE nicht kann? Aus Sicht der Qualität ist eh beides keine zu bevorzugende Lösung. Da kommt nach wie vor nichts an eine CPU ran. DLSS kannste dir ebenso schenken. Wen interessiert die handvoll Spiele in denen es unterstützt wird? Ohne OotB Unterstützung wird so ein Feature meiner Meinung nach nie wirklich relevant sein. Und es will auch nicht jeder einen potenziellen Qualitätsverschlechterer. Egal wie viel FPS sich dadurch gewinnen lassen. Auch weiss noch niemand ob RDNA 2 was vergleichbares bieten wird. RT ist ebenso unbekannt bisher. Die RT Rohleistung von RDNA 2 ist jedenfalls recht beeindruckend, deutlich über der von Nvidia. Allerdings teilen sich Rasterisierung und RT die Shader bei RDNA 2. Was bedeutet, dass die theoretische Rohleistung von RT nie abgerufen werden kann. Es sei denn ein Spiel ist komplett mit RT umgesetzt. Was im Moment natürlich noch Zukunftsmusik. Aber genau das macht RT meiner Meinung nach bei RDNA 2 so spannend. Es scheint deutlich flexibler implementiert zu sein als bei Nvidia. Und kann daher auch in Zukunft noch mehr ausgereizt werden. RT wäre für mich also wenn überhaupt eher ein Pluspunkt für AMD.


Hatte ich auch in etwa erwartet, zumindest überrascht es mich nicht, schon allein weil die Leistung pro Watt bei AMD schlechter ist
Die Performance pro Watt ist nicht schlechter bei AMD. Laut Computerbase waren 1660 Super, RX 5600 und 2060 Super die effizientesten Karten der letzten Generation und etwa auf einem Level. Nvidia hat bei Ampere ~20% zugelegt. Wenn AMD im Vergleich zur letzten Generation tatsächlich 50% zulegt, kannste dir den Rest ja selber ausrechnen. ;)
 
Zuletzt bearbeitet:

Buggi85

Software-Overclocker(in)
Für mich nur Pseudoargumente. Was kann denn NVenc grossartig tolles, was VCE nicht kann? Aus Sicht der Qualität ist eh beides keine zu bevorzugende Lösung. Da kommt nach wie vor nichts an eine CPU ran. DLSS kannste dir ebenso schenken. Wen interessiert die handvoll Spiele in denen es unterstützt wird? Ohne OotB Unterstützung wird so ein Feature meiner Meinung nach nie wirklich relevant sein. Und es will auch nicht jeder einen potenziellen Qualitätsverschlechterer. Egal wie viel FPS sich dadurch gewinnen lassen. Auch weiss noch niemand ob RDNA 2 was vergleichbares bieten wird. RT ist ebenso unbekannt bisher. Die RT Rohleistung von RDNA 2 ist jedenfalls recht beeindruckend, deutlich über der von Nvidia. Allerdings teilen sich Rasterisierung und RT die Shader bei RDNA 2. Was bedeutet, dass die theoretische Rohleistung von RT nie abgerufen werden kann. Es sei denn ein Spiel ist komplett mit RT umgesetzt. Was im Moment natürlich noch Zukunftsmusik. Aber genau das macht RT meiner Meinung nach bei RDNA 2 so spannend. Es scheint deutlich flexibler implementiert zu sein als bei Nvidia. Und kann daher auch in Zukunft noch mehr ausgereizt werden. RT wäre für mich also wenn überhaupt eher ein Pluspunkt für AMD.



Die Performance pro Watt ist nicht schlechter bei AMD. Laut Computerbase waren 1660 Super, RX 5600 und 2060 Super die effizientesten Karten der letzten Generation und etwa auf einem Level. Nvidia hat bei Ampere ~20% zugelegt. Wenn AMD im Vergleich zur letzten Generation tatsächlich 50% zulegt, kannste dir den Rest ja selber ausrechnen. ;)
Bei AMD leidet die Implementierung von VCE, was es einfach unattraktiv macht für Softwareentwickler. Bei Nvidia ist der Gang über das SDK und generell die Unterstützung sehr viel einfacher und angenehmer. So gut wie jedes Videoschnittprogramm setzt auf Hardwarebeschleunigung, DaVinci lässt sich nicht mal richtig nutzen mit einer 1GB Karte, obwohl jeglicher GPU Part deaktiviert wird. Im Hintergrund wird viel häufiger auf Decoder und Encoder der GPUs zugegriffen als es die Anwender glauben mögen, selbst YouTube macht auf Nvidia Karten unter hohen Auflösungen eine bessere Figur bzw. die Auslastung. Das Leute darauf verzichten können liegt lediglich an Unwissen darüber wann, wo und warum es eingesetzt wird und das auch nur weil es nicht oder wenig kommuniziert wird. Einen Artikel auf PCGH vermisse ich noch immer. Nvidia lebt quasi von ihren Cuda Kernen in dem Segment und der NVenc ist eine eierlegende Wollmilchsau, die nun mal 30 Min. einlesen und austesten erfordern um sich dazu zu bekennen.
Du sprichst von wenigen Spielen die DLSS unterstützen, aber was glaubst du wie viele Spieler sich eine neue GPU nur alleine für Cyberpunk 2077 zulegen werden. Irgendwann kommt bei jedem das nächste Lieblingsspiel und wenn gerade dieses dann noch die Features einer Karte in vollem Umfang und gut implementiert, dann ist es um so ärgerlicher eben diese nicht genommen zu haben. Davon ab war AMD doch in der jüngeren Vergangenheit immer gut was Rohrleistung betrifft, nur mit auf die Straße bringen hat's nicht so geklappt.
 

rum

Software-Overclocker(in)
Hab ja eigentlich gehofft, dass AMD bei Big Navi nicht ganz so extreme Verbräuche bringt ...
Naja mal schauen; Gerüchteküche kocht ja auch öfters mal "daneben"
 

weisserteufel

Freizeitschrauber(in)
Ich verstehe Igors Rechnung absolut. Mich macht jedoch nur eine Sache stutzig.

AMD spricht von 50% Performance/Watt Verbesserung. Teilweise wurden auch schon 60% kolportiert.
Ich mach da mal eine kleine simple Rechnung auf.

Die Basis dafür ist, dass die Navi 21 XT tatsächlich die Leistung einer 3080 erreichen kann. Dann sprechen wir von ca. 80% Leistungsgewinn zu einer RX5700XT.

Die RX5700XT verbraucht im Schnitt ca. 225W (mal mehr mal weniger). Wenn sich bei Performance/Watt nichts ändern sollte, dann würde Sie bei der o.g. Leistung 405W verbrauchen um eine ähnliche Effizienz zu haben. (Bewusst habe ich die beiden größten Chips ausgewählt).

Bei einer 50% Effizienzsteigerung, kommen wir auf einen Verbrauch von 270W. Bei 60% Effizienzsteigerung wären es 253W.
Die kolportierten 320W entsprächen jedoch nur einem Effizienzgewinn von ca. 25%. Das passt nicht.

Entweder ist der Leistungsgewinn höher als die 80% oder der Verbrauch der Grafikkarte ist eben doch nicht 320W.
Oder die Effizienzsteigerung ist nicht so, wie angenommen.

Disclaimer:
Die Rechnung ist sehr vereinfacht dargestellt und enthält logischerweise recht viele Variablen, mit denen man aber spielen kann. Wir haben ja bisher nur 4k Werte gesehen. Der Leistungssprung zwischen RX5700XT und Big Navi könnte hier noch größer als 80% sein, äquivalent zur 3080, was die Zahlen u.U. verfälschen.
 

RavionHD

PCGH-Community-Veteran(in)
Nvidia spricht sogar von 80% Effizienzsteigerung bei Ampere, man weiß halt nie auf welche Use Cases das basiert, aber praktisch sind solche Werte nie aussagekräftig.
 

weisserteufel

Freizeitschrauber(in)
Nvidia spricht sogar von 80% Effizienzsteigerung bei Ampere, man weiß halt nie auf welche Use Cases das basiert, aber praktisch sind solche Werte nie aussagekräftig.
Bei Nvidia mag das stimmen. Jedoch haben wir die Effizienzsteigerung zwischen GCN und RDNA1 von 50% tatsächlich gesehen. Nicht nur in Einzelfällen.
Nur bedingt.
nVidia Karten unterstützen so weit ich weiß seit 2xxx auch Freesync. AMD nur Freesync. Daher sollten Leute mit Freesync Monitoren recht entspannt sein und sich auf das Gesamtpaket konzentrieren können ohne sich auf einen der Beiden festlegen zu müssen. 👍
Meine beiden Freesyncs werden durch Nvidia nicht unterstützt. Und so geht es noch vielen vielen anderen Monitoren.
 
M

Metamorph83

Guest
Ich verstehe Igors Rechnung absolut. Mich macht jedoch nur eine Sache stutzig.

AMD spricht von 50% Performance/Watt Verbesserung. Teilweise wurden auch schon 60% kolportiert.
Ich mach da mal eine kleine simple Rechnung auf.

Die Basis dafür ist, dass die Navi 21 XT tatsächlich die Leistung einer 3080 erreichen kann. Dann sprechen wir von ca. 80% Leistungsgewinn zu einer RX5700XT.

Die RX5700XT verbraucht im Schnitt ca. 225W (mal mehr mal weniger). Wenn sich bei Performance/Watt nichts ändern sollte, dann würde Sie bei der o.g. Leistung 405W verbrauchen um eine ähnliche Effizienz zu haben. (Bewusst habe ich die beiden größten Chips ausgewählt).

Bei einer 50% Effizienzsteigerung, kommen wir auf einen Verbrauch von 270W. Bei 60% Effizienzsteigerung wären es 253W.
Die kolportierten 320W entsprächen jedoch nur einem Effizienzgewinn von ca. 25%. Das passt nicht.

Entweder ist der Leistungsgewinn höher als die 80% oder der Verbrauch der Grafikkarte ist eben doch nicht 320W.
Oder die Effizienzsteigerung ist nicht so, wie angenommen.

Disclaimer:
Die Rechnung ist sehr vereinfacht dargestellt und enthält logischerweise recht viele Variablen, mit denen man aber spielen kann. Wir haben ja bisher nur 4k Werte gesehen. Der Leistungssprung zwischen RX5700XT und Big Navi könnte hier noch größer als 80% sein, äquivalent zur 3080, was die Zahlen u.U. verfälschen.
Schonmal was Marketing gehört? Die versprechen viel und suchen sich i.d.R. die beste Kirsche aufm Baum aus...

Verstehe nicht wie sich die meisten hier auf die Aussage von AMD stützen und alles abtun, als gebe es kein morgen mehr, weil wenn AMD was sagt, ist das Gesetz. Auch AMD macht Marketing und spielt mit großen Zahlen, muss ja alles fancy sein.
Es war klar, dass praktisch auf dem selben Node, eine ähnlich große Anzahl von Transistoren, nur anders geschaltet, trotzdem auch Strom kosten, wie eben bei der 7, also warum so überrascht.

Übrigens deine Rechnung geht nicht auf, doppelt soviele Shader (5700XT) wären 450 Watt, also bringen sie schon eine deutliche Effizienz Steigerung. Allerdings denkt kaum einer an Wandlerverluste usw. und das ist eben überall so...
Für mich nur Pseudoargumente. Was kann denn NVenc grossartig tolles, was VCE nicht kann? Aus Sicht der Qualität ist eh beides keine zu bevorzugende Lösung. Da kommt nach wie vor nichts an eine CPU ran. DLSS kannste dir ebenso schenken. Wen interessiert die handvoll Spiele in denen es unterstützt wird?
In allen Triple AAA Titeln die diesen Winter erscheinen sollen bzw. angekündigt sind, ist das Feature inkl. RT implementiert. So what? Wir werden sehen ob es noch breitere Verbreitung findet.

 
Zuletzt bearbeitet von einem Moderator:

derneuemann

BIOS-Overclocker(in)
Es ist ja durchaus möglich das RDNA 2 rund 50% effizienter arbeitet als RDNA 1.

Beispiel einer 5700XT, stark vereinfacht!

225W für 100Fps bei der 5700XT mit einer 50% höheren Effizienz wären das ja dann für 100Fps rund 150W.

Wenn man jetzt die Leistung weiter steigern möchte, dann muss man auch die Spannung weiter steigern. Was aber quadratisch, bis kubisch eingeht.

Also pi mal Daumen, für 25% mehr Takt (nur ein Beispiel) braucht man 12,5% mehr Spannung. Hier wird man dann bei 237W wenigstens landen. Im schlimmsten fall noch spürbar höher.

Selbst wenn man es schafft, das die 25% mehr Takt real in Leistung ankommen, sind das bei rund dem gleichen Verbrauch nur 25% mehr Leistung! Trotz 50% höherer Effizienz.

Wenn man über mehr Recheneinheiten geht, bleibt die Effizinez pro Takt erhalten, jedoch skaliert das nicht Linear, da es immer schwerer wird, den Chip auszulasten. Also geht man einen Mittelweg.

So landet man dann einer Big Navi die hoffentlich so schnell ist, wie die 3080. Laut neusten Gerüchten bei 320 bis 350W und das alles obwohl AMD die Effizienz um 50% gesteigert hat.
 

ChrisMK72

PCGH-Community-Veteran(in)
die Features sprechen für Nvidia

Kommt drauf an, wie wichtig man gewisse Leuchtturmprojekte/Spiele wertet, für sich selbst.
Bisher sind es weiterhin vereinzelnde Top-Titel, wo Nvidia Geld und support in die Hand genommen hat, wo dann tatsächlich RT/DLSS in merklicher Weise eingebaut werden.

Muss jeder für sich selbst entscheiden, in wie weit eine Liste von einer Hand voll Spielen, die wiederum zur neuen Gen für RT/DLSS angekündigt werden, einem wichtig sind.
Wir haben ja zu Beginn von Turing gesehen, wie "toll" das funktionierte.
Nun haben wir wieder so eine Ankündigungsliste, zum Release der 3070, was ja eindeutig zum Thema Marketing zählt:


Diesmal sind's 12 Titel mit "irgendwie RTX". Wobei 3 ja schon klar waren und der Rest ... naja ... ;)

Also wie schon erwähnt, würde ich das für mich jetzt nicht als absolut kaufentscheidendes Argument ansehen, auch wenn ich selber jetzt schon eine 3080 bestellt habe.

"Nice to have" und zum mal antesten sicherlich, aus Neugier.
Aber im Endeffekt schaue ich auf die FPS in WQHD(in allen Spielen und nicht nur wo es DLSS gibt). Das is was mich interessiert.
Der Rest ... nehm ich mit(wobei G-sync für mich eindeutig wichtiger ist, als DLSS).

Vielleicht hat AMD ja auch noch was auf Lager, was als Extra für AMD spricht, wie irgendein tolles Cache-Feature.
Is sicher genauso Marketing. Gleicht sich dann irgendwo wieder aus. RT soll ja BigNavi auch irgendwie haben.

Für viele steht eh schon fest was sie kaufen. Die wenigsten sind noch flexibel und wirklich bereit beides zu kaufen.

Soll jeder glücklich werden, mit dem was er kauft.

Was ich bisher von der Konsole gesehen habe, sieht das optisch ganz gut aus(auch wenn's mir teilweise zu wenig fps sind), also warum soll man dann mit stärkerer AMD Desktop GPU nicht Spaß haben ?

Und beide, Ampere und BigNavi werden am Ende Strom verbrauchen. Überraschung ! ;)

Wird alles nicht so heiß gegessen, wie mein Kaffee getrunken. :kaffee: Guten Morgen @ all (AMD Käufer, Nvidia Käufer, Intel Käufer und alle Konsoleros) ! :) :daumen:

PS: Wünsche allen AMD Interessenten viel Spaß, mit ihrer Karte. Freut euch drauf.
 
Zuletzt bearbeitet:

Rolk

Lötkolbengott/-göttin
Wenn beide gleich viel verbrauchen, gleich viel kosten, die gleiche Leistung haben, der eine jedoch 16GB Vram, der andere DLSS und höhere RT Leistung, für was würdet ihr euch entscheiden?

Bei mir wäre das eindeutig Nvidia, ich halte DLSS für einen Gamechanger, die Leistung bringt AMD dann nichts wenn selbst eine RTX 3070 in CP 2077 z.Bsp. an Big Navi vorbeiziehen wird bei besserer Bildqualität dank DLSS.
Eindeutig AMD. Also ganz ehrlich, langsam geht mir dein DLSS Marketing etwas gegen den Strich. Es sind so gut wie keine relevanten Spiele für DLSS2.0 angekündigt. Wenn sich das irgendwann mal ändern sollte kann man sich darüber weiter unterhalten...und was RT angeht, ich bin so gut wie überzeugt das kommt diese Konsolengeneration auch noch nicht richtig aus den Kinderschuhen raus.
 

Chicien

Software-Overclocker(in)
Die 320 Watt werden bestimmt das Minimum sein was Big Navi brauchen wird. AMD sprach auch bei der 5700XT alias Navi das eine Performance-Verbesserung pro Watt von 50% bestehe gegenüber Vega (GCN). Schaut man sich die Daten an der Vega 64 die eine TDP von 295 Watt hat gegenüber der 5700XT die eine TDP von 225 Watt hat kommt das mit den 50% Effizienz ungefähr hin. Die 5700XT bringt zirka 15% mehr Performance gegenüber dem Vorgänger der Vega 64 aber verbraucht nur 225 Watt. Also hatte AMD die 5700XT nicht auf Power genäht sondern auf Effizienz.

Die 21 XTX soll auf Augenhöhe der RTX 3080 sein und ich weiß jetzt nicht welche GPU Lisa Su zeigte und nehme aber mal den Benchmark von Borderlands 3 in 4K mit 61 fps. Da ist die Big Navi doppelt so schnell wie die 5700XT. Also kämen 50% von der Effizienzverbesserung und die restlichen 50% von der "auf Power genäht" denn 225 plus 50% sind 337 Watt.

Die 3080 hat eine TDP von 320 und wenn AMD diese Leistung erreicht bei auch zirka 320 Watt wäre das eine überragende Leistung von AMD. Gut, in Raytracing wird AMD wohl nicht so gut aufgestellt sein wie Nvidia aber Big Navi wird die erfolgreiche Rückkehr in den High-End-GPU-Markt :-)
 
M

Metamorph83

Guest
Eindeutig AMD. Also ganz ehrlich, langsam geht mir dein DLSS Marketing etwas gegen den Strich. Es sind so gut wie keine relevanten Spiele für DLSS2.0 angekündigt. Wenn sich das irgendwann mal ändern sollte kann man sich darüber weiter unterhalten...und was RT angeht, ich bin so gut wie überzeugt das kommt diese Konsolengeneration auch noch nicht richtig aus den Kinderschuhen raus.
Cyberpunk, Watchdogs Legion, Call of Duty? Ok, wusste nicht, dass diese keine Relevanz haben... Sind halt Nischenspiele...
 

Algo

Freizeitschrauber(in)
Schonmal was Marketing gehört? Die versprechen viel und suchen sich i.d.R. die beste Kirsche aufm Baum aus...

Verstehe nicht wie sich die meisten hier auf die Aussage von AMD stützen und alles abtun, als gebe es kein morgen mehr, weil wenn AMD was sagt, ist das Gesetz. Auch AMD macht Marketing und spielt mit großen Zahlen, muss ja alles fancy sein.
Es war klar, dass praktisch auf dem selben Node, eine ähnlich große Anzahl von Transistoren, nur anders geschaltet, trotzdem auch Strom kosten, wie eben bei der 7, also warum so überrascht.

Übrigens deine Rechnung geht nicht auf, doppelt soviele Shader (5700XT) wären 450 Watt, also bringen sie schon eine deutliche Effizienz Steigerung. Allerdings denkt kaum einer an Wandlerverluste usw. und das ist eben überall so...

In allen Triple AAA Titeln die diesen Winter erscheinen sollen bzw. angekündigt sind, ist das Feature inkl. RT implementiert. So what? Wir werden sehen ob es noch breitere Verbreitung findet.

Naja ... In letzter Zeit haben die Aussagen bei AMD aber halt auch einfach gestimmt. Bei Navi 1 sagte AMD 50% besser Performance/Watt und es hat auch gestimmt. Genauso wie die gezeigten Benchmarks damals. Die Benchmarks von Zen2 bei dessen Vorstellung haben auch ziemlich genau gepasst.
Auch auf dem Zen3 Event wurden nicht unbedingt nur die Kirschen mit LoL und CS:GO gezeigt, sondern auch Titel wo auch Intel noch die Nase vorn hatte.

D.h. AMD hat sich in der Hinsicht erst mal das Vertrauen verdient wenn sie sagen 50% bessere performance pro Watt von RDNA auf RDNA2.
In wie weit, dass dann wieder aus dem Fenster geworfen wird um noch mehr performance raus zu quetschen steht natürlich auf einem anderen Blatt.

Aber werden wir ja in einer Woche sehen.
 

derneuemann

BIOS-Overclocker(in)
Eindeutig AMD. Also ganz ehrlich, langsam geht mir dein DLSS Marketing etwas gegen den Strich. Es sind so gut wie keine relevanten Spiele für DLSS2.0 angekündigt. Wenn sich das irgendwann mal ändern sollte kann man sich darüber weiter unterhalten...und was RT angeht, ich bin so gut wie überzeugt das kommt diese Konsolengeneration auch noch nicht richtig aus den Kinderschuhen raus.
Ich halte das durchaus für eine schwierige Frage!

Auf der einen Seite die Sicherheit suggerierenden 16GB, auf der anderen Seite top Features, die aber wie du richtig kritisierst, nicht die nötige Verbreitung haben.

Grundsätzlich gehe ich davon aus das AMD relativ bald auch eine Alternative zu DLSS anbieten wird.

Letztendlich wird für mich die Leistung entscheiden, sowohl ohne RT, wie auch mit RT und dem gegenüber werde ich auch die paar Einzelergebnisse mit DLSS2.0 stellen. Denn einen Wert hat DLSS schon, nur wie hoch ist schwierig.

Ist alles etwas Pokern. Wobei das alles hinfällig wäre, wenn Big Navi 3080 Leistung bietet und 700Euro kosten sollte, wärend Nvidia für eine 20GB 3080 Version dann vielleicht 850 Euro aufruft.

Dann müsste die Summe der 3080 Eigenschaften schon so viel besser sein, wie ich es mir nicht vorstellen kann.
Oder man überlegt ob 10, oder 16GB. Für mich sollten bei nur bis zu 4K die 10GB reichen, solange die PS V und die neue XBox noch nicht ersetzt werden. Dennoch hinterlassen 16GB ein besseres Gefühl.

Bitte bald einen Test zur Big Navi!
 

owned139

Software-Overclocker(in)
Ist nicht das gleiche. Erstens sind die Unterschiede beim RAM nicht so gross. Und zweitens ändert sich am Ergebnis einer Anwendung durch unterschiedlich getakteten RAM nichts.
Ehm doch. CPUs profitieren teilweise enorm von schnellerem RAM.
Ein Intel, der mit 2666 langsamer ist, kann den Ryzen mit 3200 schon hinter sich lassen.

DLSS verändert die Bildqualität. Durchaus auch zum schlechteren.
Und? Wenn AMD kein AA unterstützen würde, dürfte man kein AA verwenden, denn es verändert hier ja auch die Bildqualität?
Jede Grafikeinstellung verändert die Bildqualität. Das ist genau ihr Zweck...

Die RT Rohleistung von RDNA 2 ist jedenfalls recht beeindruckend, deutlich über der von Nvidia.
Bezweifel ich mal ganz stark, dass du das überhaupt wissen kannst. Über die RT Leistung ist noch gar nichts bekannt, sagtest du ja selbst:
Auch weiss noch niemand ob RDNA 2 was vergleichbares bieten wird. RT ist ebenso unbekannt bisher.
Und im Anschluss ists dann auf einmal schneller? Au Backe...
Laut Igor soll die RT Rohleistung von RDNA2 nicht an Nvidia herankommen können und ich vertraue da mehr einem Igor als einem @gruffi der sich in einem Post x mal selbst widerspricht.
 
Zuletzt bearbeitet:

Chicien

Software-Overclocker(in)
Naja ... In letzter Zeit haben die Aussagen bei AMD aber halt auch einfach gestimmt. Bei Navi 1 sagte AMD 50% besser Performance/Watt und es hat auch gestimmt. Genauso wie die gezeigten Benchmarks damals. Die Benchmarks von Zen2 bei dessen Vorstellung haben auch ziemlich genau gepasst.
Auch auf dem Zen3 Event wurden nicht unbedingt nur die Kirschen mit LoL und CS:GO gezeigt, sondern auch Titel wo auch Intel noch die Nase vorn hatte.

D.h. AMD hat sich in der Hinsicht erst mal das Vertrauen verdient wenn sie sagen 50% bessere performance pro Watt von RDNA auf RDNA2.
In wie weit, dass dann wieder aus dem Fenster geworfen wird um noch mehr performance raus zu quetschen steht natürlich auf einem anderen Blatt.

Aber werden wir ja in einer Woche sehen.

So sehe ich das auch denn was bei der Fury X (Fiji) und Vega abging war schon gelogen. Seit der 5700XT hat AMD aber wieder an Glaubwürdigkeit gewonnen. Die Benchmarks haben gestimmt, sie haben viele überrascht das die 2070 geschlagen wurde und auch die restlichen Daten haben gestimmt wie eben die Effizienz-Verbesserung.

Die 3080 ist eine starke GPU die ich mir gern kaufen würde aber ich warte eh erst Big Navi ab und muss auch sagen das mein Favorit derzeit Big Navi ist da man ja keine 3080 kaufen kann. Ist Big Navi genauso teuer wie die 3080 würde ich sie noch kaufen aber mehr Geld würde ich nicht ausgeben und es schon als Frechheit von AMD finden da die 3080 RT, DLSS 2.0 und schnelleren GDDR6X-Speicher hat.
 

Cruach

Freizeitschrauber(in)
Ist alles etwas Pokern. Wobei das alles hinfällig wäre, wenn Big Navi 3080 Leistung bietet und 700Euro kosten sollte, wärend Nvidia für eine 20GB 3080 Version dann vielleicht 850 Euro aufruft.

Dann müsste die Summe der 3080 Eigenschaften schon so viel besser sein, wie ich es mir nicht vorstellen kann.
Die 3080 mit 20GB um 850 Euro wäre für mich ein Nobrainer. :daumen:
 

Maxxx80

Kabelverknoter(in)
Falls die Leistung passt sehe ich kein Problem für AMD.
Mit Direkt ML hat man ein Gegenstück zu DLSS, neue Konsolentitel werden das Recht durchgehend unterstützen.
Nur bei der RT Leistung bin ich noch etwas skeptisch.
Beim Stromverbrauch kochen eben beide nur mit Wasser.
 

Wurstpaket

PC-Selbstbauer(in)
Ich verstehe Igors Rechnung absolut. Mich macht jedoch nur eine Sache stutzig.

AMD spricht von 50% Performance/Watt Verbesserung. Teilweise wurden auch schon 60% kolportiert.
Ich mach da mal eine kleine simple Rechnung auf.

Die Basis dafür ist, dass die Navi 21 XT tatsächlich die Leistung einer 3080 erreichen kann. Dann sprechen wir von ca. 80% Leistungsgewinn zu einer RX5700XT.

Die RX5700XT verbraucht im Schnitt ca. 225W (mal mehr mal weniger). Wenn sich bei Performance/Watt nichts ändern sollte, dann würde Sie bei der o.g. Leistung 405W verbrauchen um eine ähnliche Effizienz zu haben. (Bewusst habe ich die beiden größten Chips ausgewählt).

Bei einer 50% Effizienzsteigerung, kommen wir auf einen Verbrauch von 270W. Bei 60% Effizienzsteigerung wären es 253W.
Die kolportierten 320W entsprächen jedoch nur einem Effizienzgewinn von ca. 25%. Das passt nicht.

Entweder ist der Leistungsgewinn höher als die 80% oder der Verbrauch der Grafikkarte ist eben doch nicht 320W.
Oder die Effizienzsteigerung ist nicht so, wie angenommen.

Disclaimer:
Die Rechnung ist sehr vereinfacht dargestellt und enthält logischerweise recht viele Variablen, mit denen man aber spielen kann. Wir haben ja bisher nur 4k Werte gesehen. Der Leistungssprung zwischen RX5700XT und Big Navi könnte hier noch größer als 80% sein, äquivalent zur 3080, was die Zahlen u.U. verfälschen.
die Rechnung ist richtig, fußt aber auf der Annahme, dass Navi auch bis zur 3080 Leistung skaliert.

Wenn Navi nun aber für 250 oder 275 geplant war und man beim Release der 3080 festgestellt hat, dass die Entfernung gar nicht so groß ist, kann man in Versuchung kommen den Rest auch noch rauszuholen - aber eben entsprechend mit sinkender Effizienz.

und das werden wir vermutlich sehen. ähnliche Leistung, ähnlicher Verbrauch.
 

Algo

Freizeitschrauber(in)
Cyberpunk, Watchdogs Legion, Call of Duty? Ok, wusste nicht, dass diese keine Relevanz haben... Sind halt Nischenspiele...
Das einzige was mich davon interessiert ist Cyberpunk 2077 ... und selbst da werden wir sehen müssen welchen Vorteil das Raytracing bringen wird. Denn bei den meisten Spielen die auch traditionelle Beleuchtungsmethoden unterstützen war der unterschied jetzt nicht so krass als dass ich 30-50% Performance einbruch hinnehmen würde.
Mit DLSS 2.0 kann man es vielleicht etwas abfangen, aber DLSS ist halt nur MaschineLearning ... MaschineLearning kann oft gute Ergebnisse liefern, wenn es gut auf einen speziellen Fall trainiert ist. Es kann aber auch echt gruselige Ergebnisse liefern wenn es schief geht. Einen Screenshot raus ziehen und sagen das sehe besser aus als nativ ist mir da zu wenig. Es ist halt immer noch rendern mit niedriger auflösung und die Details werden erraten. Zugegeben gut geraten aber sind halt geraten.
 

nibi030

Software-Overclocker(in)
Warte erst Mal den Release von Big Navi ab, bevor du von einem Paperlaunch laberst. Die Karten wurden noch nicht mal offiziell vorgestellt, darüber hinaus scheint es AMD nicht so eilig zu haben wie nVidia.

Ich habe kein andere geschwurbel von dir erwartet... Sarkasmus muss man verstehen können, das dies manchen nicht gelingt, zeigst du mal wieder exemplarisch. Großartig!

Gott sei Dank haben wir endlich die Blockliste im Forum und du hast mich daran erinnert diese auch nutzen zu können / sollen.
 

Khabarak

BIOS-Overclocker(in)
Cyberpunk, Watchdogs Legion, Call of Duty? Ok, wusste nicht, dass diese keine Relevanz haben... Sind halt Nischenspiele...
Das sind zwar einzeln betrachtet große Spielenamen, aber bei 1Mrd Spieler auf der Welt kommen drei Spiele von über 3000 pro Jahr (allein für den PC) doch eher einer Nische gleich.
Vor allem werden die Spiele wieder mehr auf Konsole gekauft, als auf dem PC.
Es bringt überhaupt nichts, wenn nur 3-10 Leuchtturm Spiele pro Jahr ein Feature bekommen.
Das Feature bleibt dennoch ziemlich tot.

Sobald DLSS 3.0 kommt, das nicht mehr von den Spieleschmieden extra implementiert werden muss, wird da endlich mal was draus.
Bis dahin ist das kein Kaufargument.
Genau wie RT...
Der Einstiegspreis für RT ist aktuell für die große Merhheit der Spieler außerhalb der Reichweite.
Auch, weil die Kosten für die ehemaligen Brot und Butter Karten der 60er Riege inzwischen bei €400 liegen...
Früher lagen die bei €200 und drunter.
(Mal vollkommen abgesehen davon, dass die 60er in keiner Weise eine relevante Performance bei RT aufbieten können)

Wenn man den Großteil der eigenen Kunden von neuen Features ausschließt, wird das nix mit Durchsetzen des features.

Da hat selbst AMD bessere Karten, weil die Konsolen eben auch VRS und andere Tricks beherrschen, die dann auch eher in den günstigeren Karten zu finden sein werden.
 

defender2409

PC-Selbstbauer(in)
Für jeden Multiplattform Titel ist DLSS doch draussen da es Nvidia exklusiv ist und so wird Dirct ML mehr genutzt werden . Betamax war auch besser als VHS hat sich aber nicht durchgesetzt ,Nvidia hat immer den Vorteil der Exclusiveb Nvidia Titel die es bestimmt weiter benutzen aber für große Titel die sowohl auf Konsole als auch auf PC kommen hat DLSS keine Zukunft.
 

Richu006

Freizeitschrauber(in)
Also wegen der DLSS implementierung. In nur wenig spielen...

Die ersten DLSS fähigen Karten kamen vor 2 Jahren auf den Markt.

Viele triple AAA Titel sind bereits jetzt auf den Zug aufgesprungen und haben das feature integriert.

Wenn es sich durchsetzt, weil die community es positiv aufnimmt. Dann werden die nächstem 5 Jahre noch viele DLSS fähige Spiele kommen. Und dann wird das Argument, von wegen nur wenige Spiele nicht mehr ziehen.

Es kann allerdings auch in die andere Richtung gehen. Und das Feature kann die nächstem 5 Jahre bereits wieder aussterben. Zb. Weil von Entwicklern für unnötig befunden. Oder was weis ich.

Lustig finde ich wie die PC community die "Konsoleros" ausgelacht hat, als sie mit ihrem Fake 4K (Checkerboard Skalierung) kam.
Jetzt selbst mit DLSS ein Fake 4K bekommt.
Und dies jetzt plötzlich als Absoluten Gamechanger Positiv aufnimmt...

Die PS4 hatte quasi auch schon eine Art DLSS.... mam könnte es als DLSS 0.5 brzeichnen xD
 

RtZk

Lötkolbengott/-göttin
Das sind zwar einzeln betrachtet große Spielenamen, aber bei 1Mrd Spieler auf der Welt kommen drei Spiele von über 3000 pro Jahr (allein für den PC) doch eher einer Nische gleich.

Die meisten der "Spieler" spielen entweder auf der Konsole Fortnite, FIFA oder CoD, auf dem Handy irgendeinen völligen Müll oder auf dem PC LoL oder CSGO.
Dafür brauchst du sicher keine 700€ GPU.
Für den reinen PC non E-Sports Markt sind das die größten Titel die dieses Jahr rauskommen (Valhalla fehlt).
Ja es kommen noch tausend andere Spiele raus, nur spielt die kaum wer.
Es muss ja nicht deinen persönlichen Geschmack treffen aber NVIDIA scheint quasi alle Triple A Games nun mit DLSS auszustatten und die Entwickler in diesen Games implementieren dann auch meist RT.
RT + DLSS wird in Zukunft in allen großen PC Titeln Standard. Entweder AMD entwickelt ein AI Upscaling welches gleichwertig ist oder ich sehe auf längere Zukunft schwarz für AMD.
Turing war mehr oder weniger ein Test. Sobald die kleinen Ampere (hier dürften wohl kaum Produktionsschwierigkeiten entstanden sein) rauskommen wird sich auch die Verbreitung der GPU's die DLSS und RT beherrschen massiv vergrößern.
Alleine schon durch die Tatsache, dass der Aufwand für die Entwickler zur Implementierung von DLSS enorm niedrig ist und NVIDIA fast alles erledigt steht der Verbreitung nichts im Weg.
Es ist nicht der heilige Gral, aber in Anbetracht der Tatsache, dass die GPU Entwicklung immer langsamer wird sind solche FPS Verbesserungen in vielen Spielen gern gesehen.
RT hingegen ist die Vorstufe des heiligen Grals und ich hoffe, dass wir in 10 Jahren die ersten großen Path Tracing Titel sehen dürfen.

Für jeden Multiplattform Titel ist DLSS doch draussen da es Nvidia exklusiv ist und so wird Dirct ML mehr genutzt werden . Betamax war auch besser als VHS hat sich aber nicht durchgesetzt ,Nvidia hat immer den Vorteil der Exclusiveb Nvidia Titel die es bestimmt weiter benutzen aber für große Titel die sowohl auf Konsole als auch auf PC kommen hat DLSS keine Zukunft.

Der Aufwand liegt derzeit quasi nur bei NVIDIA in Sachen DLSS.
Du meinst sicher große Titel wie Cyberpunk, CoD und Watch Dogs? Die bekommen ja ganz sicher keins :schief:.
 

weisserteufel

Freizeitschrauber(in)
Schonmal was Marketing gehört? Die versprechen viel und suchen sich i.d.R. die beste Kirsche aufm Baum aus...

Verstehe nicht wie sich die meisten hier auf die Aussage von AMD stützen und alles abtun, als gebe es kein morgen mehr, weil wenn AMD was sagt, ist das Gesetz. Auch AMD macht Marketing und spielt mit großen Zahlen, muss ja alles fancy sein.
Es war klar, dass praktisch auf dem selben Node, eine ähnlich große Anzahl von Transistoren, nur anders geschaltet, trotzdem auch Strom kosten, wie eben bei der 7, also warum so überrascht.

Übrigens deine Rechnung geht nicht auf, doppelt soviele Shader (5700XT) wären 450 Watt, also bringen sie schon eine deutliche Effizienz Steigerung. Allerdings denkt kaum einer an Wandlerverluste usw. und das ist eben überall so...
Es geht nicht um Shader oder doppelte Größe oder sonst was. Es geht um Performance/Watt, also Effizenz.
Wenn die Ausgangslage klar ist (Leistung RX5700XT) und auch der Ausgangsstromverbrauch (Stromverbraucht RX5700XT) und für die Zielleistung (ungefähr 3080 Niveau) einen Wert annimmt, dann kann man mittels Dreisatz den Stromverbrauch für Big Navi vor der Effizienzsteigerung ausrechnen und das sind halt ungefähr 405W, je nach Performance von Big Navi. Das Thema Shader und Co. kann man dabei komplett ausblenden.

Wenn man dann eben von den kolportierten Effizienzsteigerungen ausgeht, dann kommt man auf einen Stromverbrauch von Big Navi.

Und wie schon in einem anderen Beitrag erwähnt. Diese Effizenzsteigerungen wurden auch schon zwischen GCN und RDNA1 nachgewiesen und eben nicht nur in einem Extrembeispiel wie das Nvidia mit 80% tut.
die Rechnung ist richtig, fußt aber auf der Annahme, dass Navi auch bis zur 3080 Leistung skaliert.

Wenn Navi nun aber für 250 oder 275 geplant war und man beim Release der 3080 festgestellt hat, dass die Entfernung gar nicht so groß ist, kann man in Versuchung kommen den Rest auch noch rauszuholen - aber eben entsprechend mit sinkender Effizienz.

und das werden wir vermutlich sehen. ähnliche Leistung, ähnlicher Verbrauch.
Das ist ja eben das Problem. Mit der Rechnung sollte 3080 Leistung eben mit 250-270W möglich sein. Performance pro Watt ist das Zauberwort. Schau dir nochmal meine Rechnung an, ich glaub, du hast die noch nicht so richtig verstanden.
 

ChrisMK72

PCGH-Community-Veteran(in)
Lustig finde ich wie die PC community die "Konsoleros" ausgelacht hat, als sie mit ihrem Fake 4K (Checkerboard Skalierung) kam.
Jetzt selbst mit DLSS ein Fake 4K bekommt.
Und dies jetzt plötzlich als Absoluten Gamechanger Positiv aufnimmt...
Ich schaue nur auf die Grundleistung(und bleibe weiter bei WQHD).

Außerdem lache ich Konsoleros nicht wegen Fake 4k aus, sage höchstens dass es kein 4k ist und auslachen tu ich höchstens Leute, die bei 25-30 fps von "flüssigem" Gameplay reden.

Schaut doch einfach auf die Basisleistung.

Dahingehend könnte gerade in WQHD BigNavi schon interessant werden, wenn nicht so viel Leistung liegen bleibt, wegen dem ganzen Zusatzzeug von Ampere(Architektur) und vielleicht tatsächlich mehr Basisleistung auch umgesetzt wird(gerade bis WQHD).
Das finde ich noch interessant zu beobachten. Freue mich dahingehend auch schon auf die Tests und hoffe auf ein tolles Ergebnis von AMD(meinetwegen auch gern besser, als 3080), auch wenn ich schon "die andere Seite" gewählt habe. ;)
 

weisserteufel

Freizeitschrauber(in)

6800 oder 6800XT ist dann wohl meine nächste Karte, je nach Stromverbrauch.
 

Dulindor

Komplett-PC-Käufer(in)
Naja ... In letzter Zeit haben die Aussagen bei AMD aber halt auch einfach gestimmt. Bei Navi 1 sagte AMD 50% besser Performance/Watt und es hat auch gestimmt. Genauso wie die gezeigten Benchmarks damals. Die Benchmarks von Zen2 bei dessen Vorstellung haben auch ziemlich genau gepasst.
Auch auf dem Zen3 Event wurden nicht unbedingt nur die Kirschen mit LoL und CS:GO gezeigt, sondern auch Titel wo auch Intel noch die Nase vorn hatte.

D.h. AMD hat sich in der Hinsicht erst mal das Vertrauen verdient wenn sie sagen 50% bessere performance pro Watt von RDNA auf RDNA2.
In wie weit, dass dann wieder aus dem Fenster geworfen wird um noch mehr performance raus zu quetschen steht natürlich auf einem anderen Blatt.

Aber werden wir ja in einer Woche sehen.
Einseitige Wahrnehmung?
Locker die Hälfte aller Slides auf der Zen3 Vorstellung hatten genau das gleiche unbedeutende Marketing was immer auf deren Veranstaltungen zu finden ist. AMD steht besonders auf die Graphen, wo vorher eine lineare und niedrige Steigung über Jahre vorhanden war und dann, schwupps kommt AMD mit ihren Produkten und der Graph schießt in die höhe.
Das sind keine echten Angaben, dass ist einfach nur reines Marketing mit teilweise nicht einmal beschrifteten Achsen, dass soll einfach nur gut aussehen.
Wenn man ins Detail geht kann man ohne Ende 'geschönte' Steigerungen aufzeigen, so wird etwa bei Performance pro Watt ein 1800X mit einem 3900X und dann mit 'Zen3' verglichen. Der Vergleich mit einem 3800X und dann einem 5800X wäre ehrlich und konsequent gewesen und hat auch deutlich mehr Aussagekraft (weil alles 8-Kerner), die Zahlen sind dann aber natürlich nicht so hoch.
Direkt im Anschluss die Aussage, man wäre '2,8-mal mehr Effizient' als der 10900k. Da wird nicht mal gesagt 'bis zu' sondern einfach als Fakt eine fast dreifache Effizienz in den Raum geworfen (Was für ein Benchmark das sein soll wird natürlich auch nicht gesagt, jedenfalls nicht in der Präsentation). Es gibt bestimmt irgendeine Anwendung wo das zutrifft, aber dass ist definitiv NICHT der Regelfall.
Auf der Vorstellung der 4000er Mobilprozessoren (CES 2020) hat man sich selbst gegen den 9700k verglichen und kam zu der Aussage, selbst die eigenen Prozessoren in Laptops wären im Gaming besser und zeigte einen Graph wo man bei weniger als der Hälfte TDP mit dem 4800H leicht vorne lag.
Zu diesem abstrusen Ergebnis kam man, weil der Benchmark für diese Angaben der 3DFMark Firestrike Physiks Test war. Ein Benchmark der einfach nur mit mehr Kernen Skaliert und mal so gar keine Aussage über die Gaming Performance machen kann.
Das sind die oft genannten Kirschen, man sucht sich halt die Werte raus die am Besten aussehen, wobei es völlig egal ist ob der Vergleich sinnvoll oder der Test überhaupt Aussagekräftig ist.
AMD bringt natürlich auch gute Werte, die Benchmarks gegen den eigenen 3900XT waren sehr ausführlich und ehrlich, besonders beeindruckt war ich davon, dass man gegen den 3900XT gebencht hat und nicht gegen den 3900X, wo man ja nochmal ein paar Prozent mehr für Zen3 hätte herausschlagen können.
BTW gegen den 10900k hat man nur vier Benchmarks gezeigt und auch nur gegen den eigenen 5950X, was mMn zeigt, dass AMD hier deutlich weniger optimistisch ist im Gaming überall vorne zu sein, im Gegensatz zum Vergleich mit dem eigenen Vorgänger.

Ich will natürlich nicht sagen, AMD wäre hier das schwarze Schaf und die anderen machen es besser.
Was Intel in den letzten (wenn auch nicht wirklich für die Öffentlichkeit gedachten) Präsentationen so an Daten zusammen gesponnen hat grenzt schon fast an Realitätsverweigerung.
Auch Nvidia wirft mit Behauptungen um sich, die Außerhalb von genau abgestimmten Benchmarks niemals zutreffen und selbst in diesen Szenarios wüsste ich gerne wie sie den 1,9-fachen Effizienzsprung von Turing zu Ampere gemessen haben.
Meiner Meinung nach haben alle FirstParty Benchmarks erstmal gar kein Vertrauen verdient, sondern müssen durch unabhängige und vergleichbare Tests immer erst bestätigt werden.
 

weisserteufel

Freizeitschrauber(in)
Einseitige Wahrnehmung?
Locker die Hälfte aller Slides auf der Zen3 Vorstellung hatten genau das gleiche unbedeutende Marketing was immer auf deren Veranstaltungen zu finden ist. AMD steht besonders auf die Graphen, wo vorher eine lineare und niedrige Steigung über Jahre vorhanden war und dann, schwupps kommt AMD mit ihren Produkten und der Graph schießt in die höhe.
Das sind keine echten Angaben, dass ist einfach nur reines Marketing mit teilweise nicht einmal beschrifteten Achsen, dass soll einfach nur gut aussehen.
Wenn man ins Detail geht kann man ohne Ende 'geschönte' Steigerungen aufzeigen, so wird etwa bei Performance pro Watt ein 1800X mit einem 3900X und dann mit 'Zen3' verglichen. Der Vergleich mit einem 3800X und dann einem 5800X wäre ehrlich und konsequent gewesen und hat auch deutlich mehr Aussagekraft (weil alles 8-Kerner), die Zahlen sind dann aber natürlich nicht so hoch.
Direkt im Anschluss die Aussage, man wäre '2,8-mal mehr Effizient' als der 10900k. Da wird nicht mal gesagt 'bis zu' sondern einfach als Fakt eine fast dreifache Effizienz in den Raum geworfen (Was für ein Benchmark das sein soll wird natürlich auch nicht gesagt, jedenfalls nicht in der Präsentation). Es gibt bestimmt irgendeine Anwendung wo das zutrifft, aber dass ist definitiv NICHT der Regelfall.
Auf der Vorstellung der 4000er Mobilprozessoren (CES 2020) hat man sich selbst gegen den 9700k verglichen und kam zu der Aussage, selbst die eigenen Prozessoren in Laptops wären im Gaming besser und zeigte einen Graph wo man bei weniger als der Hälfte TDP mit dem 4800H leicht vorne lag.
Zu diesem abstrusen Ergebnis kam man, weil der Benchmark für diese Angaben der 3DFMark Firestrike Physiks Test war. Ein Benchmark der einfach nur mit mehr Kernen Skaliert und mal so gar keine Aussage über die Gaming Performance machen kann.
Das sind die oft genannten Kirschen, man sucht sich halt die Werte raus die am Besten aussehen, wobei es völlig egal ist ob der Vergleich sinnvoll oder der Test überhaupt Aussagekräftig ist.
AMD bringt natürlich auch gute Werte, die Benchmarks gegen den eigenen 3900XT waren sehr ausführlich und ehrlich, besonders beeindruckt war ich davon, dass man gegen den 3900XT gebencht hat und nicht gegen den 3900X, wo man ja nochmal ein paar Prozent mehr für Zen3 hätte herausschlagen können.
BTW gegen den 10900k hat man nur vier Benchmarks gezeigt und auch nur gegen den eigenen 5950X, was mMn zeigt, dass AMD hier deutlich weniger optimistisch ist im Gaming überall vorne zu sein, im Gegensatz zum Vergleich mit dem eigenen Vorgänger.

Ich will natürlich nicht sagen, AMD wäre hier das schwarze Schaf und die anderen machen es besser.
Was Intel in den letzten (wenn auch nicht wirklich für die Öffentlichkeit gedachten) Präsentationen so an Daten zusammen gesponnen hat grenzt schon fast an Realitätsverweigerung.
Auch Nvidia wirft mit Behauptungen um sich, die Außerhalb von genau abgestimmten Benchmarks niemals zutreffen und selbst in diesen Szenarios wüsste ich gerne wie sie den 1,9-fachen Effizienzsprung von Turing zu Ampere gemessen haben.
Meiner Meinung nach haben alle FirstParty Benchmarks erstmal gar kein Vertrauen verdient, sondern müssen durch unabhängige und vergleichbare Tests immer erst bestätigt werden.
Beweise doch einfach, dass die 50% Effizienzsteigerung zwischen GCN und RDNA1 nicht da waren.
 

onkel-foehn

Software-Overclocker(in)
Hatte ich auch in etwa erwartet, zumindest überrascht es mich nicht, schon allein weil die Leistung pro Watt bei AMD schlechter ist, so schnell so viel zu verbessern traue ich ihnen nicht zu.
Die Leute die Ampere wegen deren Leistungsaufnahme mit Schadenfreude niedergemacht haben, beißen sich jetzt gewaltig in deren Hinterteil, für die bricht gerade ihre Diffamierungswelt zusammen :haha:
Das ist dann aber schon noch mal ne andere Hausnummer (siehe Anhang) !

MfG Föhn.
 

Anhänge

  • 3090 bis 550 Watt.jpg
    3090 bis 550 Watt.jpg
    405,6 KB · Aufrufe: 36

gruffi

Komplett-PC-Aufrüster(in)
Bei AMD leidet die Implementierung von VCE, was es einfach unattraktiv macht für Softwareentwickler. Bei Nvidia ist der Gang über das SDK und generell die Unterstützung sehr viel einfacher und angenehmer.
Normale Endverbraucher wird mit Sicherheit kein SDK interessieren. Da geht es hauptsächlich um Decoding Support. Wo der Fokus bei der aktuellen Generation auf AV1 liegt. Und das wird AMDs VCE genauso unterstützen. Insofern bleibt NVenc ein reines Pseudoargument. Das interessiert 99% der Käufer herzlich wenig.

selbst YouTube macht auf Nvidia Karten unter hohen Auflösungen eine bessere Figur bzw. die Auslastung.
Genau. :rollen:

Du sprichst von wenigen Spielen die DLSS unterstützen, aber was glaubst du wie viele Spieler sich eine neue GPU nur alleine für Cyberpunk 2077 zulegen werden. Irgendwann kommt bei jedem das nächste Lieblingsspiel
Genau. :rollen:

Davon ab war AMD doch in der jüngeren Vergangenheit immer gut was Rohrleistung betrifft, nur mit auf die Straße bringen hat's nicht so geklappt.
Das hat ja jetzt Nvidia mit Ampere dreist kopiert.


Nvidia spricht sogar von 80% Effizienzsteigerung bei Ampere, man weiß halt nie auf welche Use Cases das basiert, aber praktisch sind solche Werte nie aussagekräftig.
Es wurde sogar von Faktor 1,9 gesprochen, also 90% mehr. Aber halt mit einem völlig absurd konstruierten Szenario. AMD geht da seit Zen einen anderen Weg. Ihre Werte sind praxisbezogener. Und mitunter eher konservativ ausgelegt.


Ehm doch. CPUs profitieren teilweise enorm von schnellerem RAM.
Ein Intel, der mit 2666 langsamer ist, kann den Ryzen mit 3200 schon hinter sich lassen.
Du hast nicht verstanden, was ich sagte. Ich sprach vom Ergebnis einer Anwendung, nicht von deren Performance. Rendert Cinebench ein anderes Bild mit niedriger getaktetem RAM? Nein. Kodiert x264/265 ein Bild anders mit niedriger getaktetem RAM? Nein. Die Berechnungsgeschwindigkeit mag unterschiedlich ausfallen, das Ergebnis aber eben nicht. Daher ist das mit DLSS nicht vergleichbar, weil sich hier sehr wohl das Ergebnis ändert bzw konkret die Bildqualität. Und wie gesagt, mitunter durchaus zum schlechteren.

Und? Wenn AMD kein AA unterstützen würde, dürfte man kein AA verwenden, denn es verändert hier ja auch die Bildqualität?
So ist es, wenn man vergleichbar testen will. Trifft auf Nvidia übrigens genauso zu, wenn die kein AA unterstützen würden. Als Sondertests kann man das ja noch zusätzlich machen. Dagegen sagt keiner was.

Bezweifel ich mal ganz stark, dass du das überhaupt wissen kannst. Über die RT Leistung ist noch gar nichts bekannt, sagtest du ja selbst:
Doch, über die Rohleistung ist sehr wohl was bekannt. Zumindest was die neuen Konsolen betrifft. Und die Desktop Grafikkarten werden da mit Sicherheit nicht weniger performant. Aber das kannst du als Käufer von völlig überteuerter Nvidia Hardware natürlich auch nicht wissen. Was bisher nicht bekannt ist, wie sich das dann in der Praxis schlägt. Darauf bezog sich meine Aussage.

Laut Igor soll die RT Rohleistung von RDNA2 nicht an Nvidia herankommen können
Erstens spricht Igor vermutlich nicht von Rohleistung, zweitens spekuliert er wie wir auch nur und drittens liegt auch er hin und wieder falsch. Du musst mir auch nicht glauben. Schau dir die Zahlen selber an. Das sind Fakten. Da aber wie gezeigt beide Hersteller unterschiedliche Wege bei der RT Implementierung gehen und keiner von uns im Moment sagen kann, welche in der Praxis besser oder schlechter ist, finde ich es einfach nur dumm zu behaupten, RT wäre ein Vorteil für Nvidia. Das sind aktuell eben nur Pseudoargumente, um Nvidia schönzureden.


Wenn Navi nun aber für 250 oder 275 geplant war und man beim Release der 3080 festgestellt hat, dass die Entfernung gar nicht so groß ist, kann man in Versuchung kommen den Rest auch noch rauszuholen - aber eben entsprechend mit sinkender Effizienz.
Das wäre für mich die einzig logische Schlussfolgerung für TDPs jenseits der 300W. Wobei ich hoffe, dass das AMD nicht macht.
 

weisserteufel

Freizeitschrauber(in)
Hatte ich auch in etwa erwartet, zumindest überrascht es mich nicht, schon allein weil die Leistung pro Watt bei AMD schlechter ist, so schnell so viel zu verbessern traue ich ihnen nicht zu.
Die Leute die Ampere wegen deren Leistungsaufnahme mit Schadenfreude niedergemacht haben, beißen sich jetzt gewaltig in deren Hinterteil, für die bricht gerade ihre Diffamierungswelt zusammen :haha:
Das gilt natürlich auch für diejenigen, die AMD nicht mehr als 2080ti Niveau angedichtet haben.
Eine Grafikkarte jenseits der 300 Watt kommt für mich einfach nicht in Frage, egal ob die von Nvidia oder AMD ist.
 

Blizzard_Mamba

BIOS-Overclocker(in)
@weisserteufel

Du kannst nicht einfach die komplette boardpower zum rechnen nehmen. Die typische asic power der 5700xt liegt so um die 180W der rest wird davon mehr oder weniger direkt beeinflusst (Speicherkonfiguration, Wandlerverluste etc.). "Effizienzsteigerung" ist eigentlich kaum fassbar, weil es keinen Standard gibt ausser den Sweetspot des Chips, was nichts bringt wenn die absolute Leistung an diesem Sweetspot nicht ausreicht.

Wenn man dann ein willkuerliches performance Ziel erreichen muss (eg. 3080) kann von so einer optimalen Effizienzverbesserung beim fertigen Produkt im worst case genau 0 übrig bleiben.
 
Oben Unten