Radeon RX 6000: "Big Navi" XT 21 mit 320 bis 355 Watt TBP?

Ist alles etwas Pokern. Wobei das alles hinfällig wäre, wenn Big Navi 3080 Leistung bietet und 700Euro kosten sollte, wärend Nvidia für eine 20GB 3080 Version dann vielleicht 850 Euro aufruft.

Dann müsste die Summe der 3080 Eigenschaften schon so viel besser sein, wie ich es mir nicht vorstellen kann.
Die 3080 mit 20GB um 850 Euro wäre für mich ein Nobrainer. :daumen:
 
Falls die Leistung passt sehe ich kein Problem für AMD.
Mit Direkt ML hat man ein Gegenstück zu DLSS, neue Konsolentitel werden das Recht durchgehend unterstützen.
Nur bei der RT Leistung bin ich noch etwas skeptisch.
Beim Stromverbrauch kochen eben beide nur mit Wasser.
 
Ich verstehe Igors Rechnung absolut. Mich macht jedoch nur eine Sache stutzig.

AMD spricht von 50% Performance/Watt Verbesserung. Teilweise wurden auch schon 60% kolportiert.
Ich mach da mal eine kleine simple Rechnung auf.

Die Basis dafür ist, dass die Navi 21 XT tatsächlich die Leistung einer 3080 erreichen kann. Dann sprechen wir von ca. 80% Leistungsgewinn zu einer RX5700XT.

Die RX5700XT verbraucht im Schnitt ca. 225W (mal mehr mal weniger). Wenn sich bei Performance/Watt nichts ändern sollte, dann würde Sie bei der o.g. Leistung 405W verbrauchen um eine ähnliche Effizienz zu haben. (Bewusst habe ich die beiden größten Chips ausgewählt).

Bei einer 50% Effizienzsteigerung, kommen wir auf einen Verbrauch von 270W. Bei 60% Effizienzsteigerung wären es 253W.
Die kolportierten 320W entsprächen jedoch nur einem Effizienzgewinn von ca. 25%. Das passt nicht.

Entweder ist der Leistungsgewinn höher als die 80% oder der Verbrauch der Grafikkarte ist eben doch nicht 320W.
Oder die Effizienzsteigerung ist nicht so, wie angenommen.

Disclaimer:
Die Rechnung ist sehr vereinfacht dargestellt und enthält logischerweise recht viele Variablen, mit denen man aber spielen kann. Wir haben ja bisher nur 4k Werte gesehen. Der Leistungssprung zwischen RX5700XT und Big Navi könnte hier noch größer als 80% sein, äquivalent zur 3080, was die Zahlen u.U. verfälschen.
die Rechnung ist richtig, fußt aber auf der Annahme, dass Navi auch bis zur 3080 Leistung skaliert.

Wenn Navi nun aber für 250 oder 275 geplant war und man beim Release der 3080 festgestellt hat, dass die Entfernung gar nicht so groß ist, kann man in Versuchung kommen den Rest auch noch rauszuholen - aber eben entsprechend mit sinkender Effizienz.

und das werden wir vermutlich sehen. ähnliche Leistung, ähnlicher Verbrauch.
 
Cyberpunk, Watchdogs Legion, Call of Duty? Ok, wusste nicht, dass diese keine Relevanz haben... Sind halt Nischenspiele...
Das einzige was mich davon interessiert ist Cyberpunk 2077 ... und selbst da werden wir sehen müssen welchen Vorteil das Raytracing bringen wird. Denn bei den meisten Spielen die auch traditionelle Beleuchtungsmethoden unterstützen war der unterschied jetzt nicht so krass als dass ich 30-50% Performance einbruch hinnehmen würde.
Mit DLSS 2.0 kann man es vielleicht etwas abfangen, aber DLSS ist halt nur MaschineLearning ... MaschineLearning kann oft gute Ergebnisse liefern, wenn es gut auf einen speziellen Fall trainiert ist. Es kann aber auch echt gruselige Ergebnisse liefern wenn es schief geht. Einen Screenshot raus ziehen und sagen das sehe besser aus als nativ ist mir da zu wenig. Es ist halt immer noch rendern mit niedriger auflösung und die Details werden erraten. Zugegeben gut geraten aber sind halt geraten.
 
Warte erst Mal den Release von Big Navi ab, bevor du von einem Paperlaunch laberst. Die Karten wurden noch nicht mal offiziell vorgestellt, darüber hinaus scheint es AMD nicht so eilig zu haben wie nVidia.

Ich habe kein andere geschwurbel von dir erwartet... Sarkasmus muss man verstehen können, das dies manchen nicht gelingt, zeigst du mal wieder exemplarisch. Großartig!

Gott sei Dank haben wir endlich die Blockliste im Forum und du hast mich daran erinnert diese auch nutzen zu können / sollen.
 
Cyberpunk, Watchdogs Legion, Call of Duty? Ok, wusste nicht, dass diese keine Relevanz haben... Sind halt Nischenspiele...
Das sind zwar einzeln betrachtet große Spielenamen, aber bei 1Mrd Spieler auf der Welt kommen drei Spiele von über 3000 pro Jahr (allein für den PC) doch eher einer Nische gleich.
Vor allem werden die Spiele wieder mehr auf Konsole gekauft, als auf dem PC.
Es bringt überhaupt nichts, wenn nur 3-10 Leuchtturm Spiele pro Jahr ein Feature bekommen.
Das Feature bleibt dennoch ziemlich tot.

Sobald DLSS 3.0 kommt, das nicht mehr von den Spieleschmieden extra implementiert werden muss, wird da endlich mal was draus.
Bis dahin ist das kein Kaufargument.
Genau wie RT...
Der Einstiegspreis für RT ist aktuell für die große Merhheit der Spieler außerhalb der Reichweite.
Auch, weil die Kosten für die ehemaligen Brot und Butter Karten der 60er Riege inzwischen bei €400 liegen...
Früher lagen die bei €200 und drunter.
(Mal vollkommen abgesehen davon, dass die 60er in keiner Weise eine relevante Performance bei RT aufbieten können)

Wenn man den Großteil der eigenen Kunden von neuen Features ausschließt, wird das nix mit Durchsetzen des features.

Da hat selbst AMD bessere Karten, weil die Konsolen eben auch VRS und andere Tricks beherrschen, die dann auch eher in den günstigeren Karten zu finden sein werden.
 
Für jeden Multiplattform Titel ist DLSS doch draussen da es Nvidia exklusiv ist und so wird Dirct ML mehr genutzt werden . Betamax war auch besser als VHS hat sich aber nicht durchgesetzt ,Nvidia hat immer den Vorteil der Exclusiveb Nvidia Titel die es bestimmt weiter benutzen aber für große Titel die sowohl auf Konsole als auch auf PC kommen hat DLSS keine Zukunft.
 
Also wegen der DLSS implementierung. In nur wenig spielen...

Die ersten DLSS fähigen Karten kamen vor 2 Jahren auf den Markt.

Viele triple AAA Titel sind bereits jetzt auf den Zug aufgesprungen und haben das feature integriert.

Wenn es sich durchsetzt, weil die community es positiv aufnimmt. Dann werden die nächstem 5 Jahre noch viele DLSS fähige Spiele kommen. Und dann wird das Argument, von wegen nur wenige Spiele nicht mehr ziehen.

Es kann allerdings auch in die andere Richtung gehen. Und das Feature kann die nächstem 5 Jahre bereits wieder aussterben. Zb. Weil von Entwicklern für unnötig befunden. Oder was weis ich.

Lustig finde ich wie die PC community die "Konsoleros" ausgelacht hat, als sie mit ihrem Fake 4K (Checkerboard Skalierung) kam.
Jetzt selbst mit DLSS ein Fake 4K bekommt.
Und dies jetzt plötzlich als Absoluten Gamechanger Positiv aufnimmt...

Die PS4 hatte quasi auch schon eine Art DLSS.... mam könnte es als DLSS 0.5 brzeichnen xD
 
Das sind zwar einzeln betrachtet große Spielenamen, aber bei 1Mrd Spieler auf der Welt kommen drei Spiele von über 3000 pro Jahr (allein für den PC) doch eher einer Nische gleich.

Die meisten der "Spieler" spielen entweder auf der Konsole Fortnite, FIFA oder CoD, auf dem Handy irgendeinen völligen Müll oder auf dem PC LoL oder CSGO.
Dafür brauchst du sicher keine 700€ GPU.
Für den reinen PC non E-Sports Markt sind das die größten Titel die dieses Jahr rauskommen (Valhalla fehlt).
Ja es kommen noch tausend andere Spiele raus, nur spielt die kaum wer.
Es muss ja nicht deinen persönlichen Geschmack treffen aber NVIDIA scheint quasi alle Triple A Games nun mit DLSS auszustatten und die Entwickler in diesen Games implementieren dann auch meist RT.
RT + DLSS wird in Zukunft in allen großen PC Titeln Standard. Entweder AMD entwickelt ein AI Upscaling welches gleichwertig ist oder ich sehe auf längere Zukunft schwarz für AMD.
Turing war mehr oder weniger ein Test. Sobald die kleinen Ampere (hier dürften wohl kaum Produktionsschwierigkeiten entstanden sein) rauskommen wird sich auch die Verbreitung der GPU's die DLSS und RT beherrschen massiv vergrößern.
Alleine schon durch die Tatsache, dass der Aufwand für die Entwickler zur Implementierung von DLSS enorm niedrig ist und NVIDIA fast alles erledigt steht der Verbreitung nichts im Weg.
Es ist nicht der heilige Gral, aber in Anbetracht der Tatsache, dass die GPU Entwicklung immer langsamer wird sind solche FPS Verbesserungen in vielen Spielen gern gesehen.
RT hingegen ist die Vorstufe des heiligen Grals und ich hoffe, dass wir in 10 Jahren die ersten großen Path Tracing Titel sehen dürfen.

Für jeden Multiplattform Titel ist DLSS doch draussen da es Nvidia exklusiv ist und so wird Dirct ML mehr genutzt werden . Betamax war auch besser als VHS hat sich aber nicht durchgesetzt ,Nvidia hat immer den Vorteil der Exclusiveb Nvidia Titel die es bestimmt weiter benutzen aber für große Titel die sowohl auf Konsole als auch auf PC kommen hat DLSS keine Zukunft.

Der Aufwand liegt derzeit quasi nur bei NVIDIA in Sachen DLSS.
Du meinst sicher große Titel wie Cyberpunk, CoD und Watch Dogs? Die bekommen ja ganz sicher keins :schief:.
 
Schonmal was Marketing gehört? Die versprechen viel und suchen sich i.d.R. die beste Kirsche aufm Baum aus...

Verstehe nicht wie sich die meisten hier auf die Aussage von AMD stützen und alles abtun, als gebe es kein morgen mehr, weil wenn AMD was sagt, ist das Gesetz. Auch AMD macht Marketing und spielt mit großen Zahlen, muss ja alles fancy sein.
Es war klar, dass praktisch auf dem selben Node, eine ähnlich große Anzahl von Transistoren, nur anders geschaltet, trotzdem auch Strom kosten, wie eben bei der 7, also warum so überrascht.

Übrigens deine Rechnung geht nicht auf, doppelt soviele Shader (5700XT) wären 450 Watt, also bringen sie schon eine deutliche Effizienz Steigerung. Allerdings denkt kaum einer an Wandlerverluste usw. und das ist eben überall so...
Es geht nicht um Shader oder doppelte Größe oder sonst was. Es geht um Performance/Watt, also Effizenz.
Wenn die Ausgangslage klar ist (Leistung RX5700XT) und auch der Ausgangsstromverbrauch (Stromverbraucht RX5700XT) und für die Zielleistung (ungefähr 3080 Niveau) einen Wert annimmt, dann kann man mittels Dreisatz den Stromverbrauch für Big Navi vor der Effizienzsteigerung ausrechnen und das sind halt ungefähr 405W, je nach Performance von Big Navi. Das Thema Shader und Co. kann man dabei komplett ausblenden.

Wenn man dann eben von den kolportierten Effizienzsteigerungen ausgeht, dann kommt man auf einen Stromverbrauch von Big Navi.

Und wie schon in einem anderen Beitrag erwähnt. Diese Effizenzsteigerungen wurden auch schon zwischen GCN und RDNA1 nachgewiesen und eben nicht nur in einem Extrembeispiel wie das Nvidia mit 80% tut.
die Rechnung ist richtig, fußt aber auf der Annahme, dass Navi auch bis zur 3080 Leistung skaliert.

Wenn Navi nun aber für 250 oder 275 geplant war und man beim Release der 3080 festgestellt hat, dass die Entfernung gar nicht so groß ist, kann man in Versuchung kommen den Rest auch noch rauszuholen - aber eben entsprechend mit sinkender Effizienz.

und das werden wir vermutlich sehen. ähnliche Leistung, ähnlicher Verbrauch.
Das ist ja eben das Problem. Mit der Rechnung sollte 3080 Leistung eben mit 250-270W möglich sein. Performance pro Watt ist das Zauberwort. Schau dir nochmal meine Rechnung an, ich glaub, du hast die noch nicht so richtig verstanden.
 
Lustig finde ich wie die PC community die "Konsoleros" ausgelacht hat, als sie mit ihrem Fake 4K (Checkerboard Skalierung) kam.
Jetzt selbst mit DLSS ein Fake 4K bekommt.
Und dies jetzt plötzlich als Absoluten Gamechanger Positiv aufnimmt...
Ich schaue nur auf die Grundleistung(und bleibe weiter bei WQHD).

Außerdem lache ich Konsoleros nicht wegen Fake 4k aus, sage höchstens dass es kein 4k ist und auslachen tu ich höchstens Leute, die bei 25-30 fps von "flüssigem" Gameplay reden.

Schaut doch einfach auf die Basisleistung.

Dahingehend könnte gerade in WQHD BigNavi schon interessant werden, wenn nicht so viel Leistung liegen bleibt, wegen dem ganzen Zusatzzeug von Ampere(Architektur) und vielleicht tatsächlich mehr Basisleistung auch umgesetzt wird(gerade bis WQHD).
Das finde ich noch interessant zu beobachten. Freue mich dahingehend auch schon auf die Tests und hoffe auf ein tolles Ergebnis von AMD(meinetwegen auch gern besser, als 3080), auch wenn ich schon "die andere Seite" gewählt habe. ;)
 

6800 oder 6800XT ist dann wohl meine nächste Karte, je nach Stromverbrauch.
 
Naja ... In letzter Zeit haben die Aussagen bei AMD aber halt auch einfach gestimmt. Bei Navi 1 sagte AMD 50% besser Performance/Watt und es hat auch gestimmt. Genauso wie die gezeigten Benchmarks damals. Die Benchmarks von Zen2 bei dessen Vorstellung haben auch ziemlich genau gepasst.
Auch auf dem Zen3 Event wurden nicht unbedingt nur die Kirschen mit LoL und CS:GO gezeigt, sondern auch Titel wo auch Intel noch die Nase vorn hatte.

D.h. AMD hat sich in der Hinsicht erst mal das Vertrauen verdient wenn sie sagen 50% bessere performance pro Watt von RDNA auf RDNA2.
In wie weit, dass dann wieder aus dem Fenster geworfen wird um noch mehr performance raus zu quetschen steht natürlich auf einem anderen Blatt.

Aber werden wir ja in einer Woche sehen.
Einseitige Wahrnehmung?
Locker die Hälfte aller Slides auf der Zen3 Vorstellung hatten genau das gleiche unbedeutende Marketing was immer auf deren Veranstaltungen zu finden ist. AMD steht besonders auf die Graphen, wo vorher eine lineare und niedrige Steigung über Jahre vorhanden war und dann, schwupps kommt AMD mit ihren Produkten und der Graph schießt in die höhe.
Das sind keine echten Angaben, dass ist einfach nur reines Marketing mit teilweise nicht einmal beschrifteten Achsen, dass soll einfach nur gut aussehen.
Wenn man ins Detail geht kann man ohne Ende 'geschönte' Steigerungen aufzeigen, so wird etwa bei Performance pro Watt ein 1800X mit einem 3900X und dann mit 'Zen3' verglichen. Der Vergleich mit einem 3800X und dann einem 5800X wäre ehrlich und konsequent gewesen und hat auch deutlich mehr Aussagekraft (weil alles 8-Kerner), die Zahlen sind dann aber natürlich nicht so hoch.
Direkt im Anschluss die Aussage, man wäre '2,8-mal mehr Effizient' als der 10900k. Da wird nicht mal gesagt 'bis zu' sondern einfach als Fakt eine fast dreifache Effizienz in den Raum geworfen (Was für ein Benchmark das sein soll wird natürlich auch nicht gesagt, jedenfalls nicht in der Präsentation). Es gibt bestimmt irgendeine Anwendung wo das zutrifft, aber dass ist definitiv NICHT der Regelfall.
Auf der Vorstellung der 4000er Mobilprozessoren (CES 2020) hat man sich selbst gegen den 9700k verglichen und kam zu der Aussage, selbst die eigenen Prozessoren in Laptops wären im Gaming besser und zeigte einen Graph wo man bei weniger als der Hälfte TDP mit dem 4800H leicht vorne lag.
Zu diesem abstrusen Ergebnis kam man, weil der Benchmark für diese Angaben der 3DFMark Firestrike Physiks Test war. Ein Benchmark der einfach nur mit mehr Kernen Skaliert und mal so gar keine Aussage über die Gaming Performance machen kann.
Das sind die oft genannten Kirschen, man sucht sich halt die Werte raus die am Besten aussehen, wobei es völlig egal ist ob der Vergleich sinnvoll oder der Test überhaupt Aussagekräftig ist.
AMD bringt natürlich auch gute Werte, die Benchmarks gegen den eigenen 3900XT waren sehr ausführlich und ehrlich, besonders beeindruckt war ich davon, dass man gegen den 3900XT gebencht hat und nicht gegen den 3900X, wo man ja nochmal ein paar Prozent mehr für Zen3 hätte herausschlagen können.
BTW gegen den 10900k hat man nur vier Benchmarks gezeigt und auch nur gegen den eigenen 5950X, was mMn zeigt, dass AMD hier deutlich weniger optimistisch ist im Gaming überall vorne zu sein, im Gegensatz zum Vergleich mit dem eigenen Vorgänger.

Ich will natürlich nicht sagen, AMD wäre hier das schwarze Schaf und die anderen machen es besser.
Was Intel in den letzten (wenn auch nicht wirklich für die Öffentlichkeit gedachten) Präsentationen so an Daten zusammen gesponnen hat grenzt schon fast an Realitätsverweigerung.
Auch Nvidia wirft mit Behauptungen um sich, die Außerhalb von genau abgestimmten Benchmarks niemals zutreffen und selbst in diesen Szenarios wüsste ich gerne wie sie den 1,9-fachen Effizienzsprung von Turing zu Ampere gemessen haben.
Meiner Meinung nach haben alle FirstParty Benchmarks erstmal gar kein Vertrauen verdient, sondern müssen durch unabhängige und vergleichbare Tests immer erst bestätigt werden.
 
Einseitige Wahrnehmung?
Locker die Hälfte aller Slides auf der Zen3 Vorstellung hatten genau das gleiche unbedeutende Marketing was immer auf deren Veranstaltungen zu finden ist. AMD steht besonders auf die Graphen, wo vorher eine lineare und niedrige Steigung über Jahre vorhanden war und dann, schwupps kommt AMD mit ihren Produkten und der Graph schießt in die höhe.
Das sind keine echten Angaben, dass ist einfach nur reines Marketing mit teilweise nicht einmal beschrifteten Achsen, dass soll einfach nur gut aussehen.
Wenn man ins Detail geht kann man ohne Ende 'geschönte' Steigerungen aufzeigen, so wird etwa bei Performance pro Watt ein 1800X mit einem 3900X und dann mit 'Zen3' verglichen. Der Vergleich mit einem 3800X und dann einem 5800X wäre ehrlich und konsequent gewesen und hat auch deutlich mehr Aussagekraft (weil alles 8-Kerner), die Zahlen sind dann aber natürlich nicht so hoch.
Direkt im Anschluss die Aussage, man wäre '2,8-mal mehr Effizient' als der 10900k. Da wird nicht mal gesagt 'bis zu' sondern einfach als Fakt eine fast dreifache Effizienz in den Raum geworfen (Was für ein Benchmark das sein soll wird natürlich auch nicht gesagt, jedenfalls nicht in der Präsentation). Es gibt bestimmt irgendeine Anwendung wo das zutrifft, aber dass ist definitiv NICHT der Regelfall.
Auf der Vorstellung der 4000er Mobilprozessoren (CES 2020) hat man sich selbst gegen den 9700k verglichen und kam zu der Aussage, selbst die eigenen Prozessoren in Laptops wären im Gaming besser und zeigte einen Graph wo man bei weniger als der Hälfte TDP mit dem 4800H leicht vorne lag.
Zu diesem abstrusen Ergebnis kam man, weil der Benchmark für diese Angaben der 3DFMark Firestrike Physiks Test war. Ein Benchmark der einfach nur mit mehr Kernen Skaliert und mal so gar keine Aussage über die Gaming Performance machen kann.
Das sind die oft genannten Kirschen, man sucht sich halt die Werte raus die am Besten aussehen, wobei es völlig egal ist ob der Vergleich sinnvoll oder der Test überhaupt Aussagekräftig ist.
AMD bringt natürlich auch gute Werte, die Benchmarks gegen den eigenen 3900XT waren sehr ausführlich und ehrlich, besonders beeindruckt war ich davon, dass man gegen den 3900XT gebencht hat und nicht gegen den 3900X, wo man ja nochmal ein paar Prozent mehr für Zen3 hätte herausschlagen können.
BTW gegen den 10900k hat man nur vier Benchmarks gezeigt und auch nur gegen den eigenen 5950X, was mMn zeigt, dass AMD hier deutlich weniger optimistisch ist im Gaming überall vorne zu sein, im Gegensatz zum Vergleich mit dem eigenen Vorgänger.

Ich will natürlich nicht sagen, AMD wäre hier das schwarze Schaf und die anderen machen es besser.
Was Intel in den letzten (wenn auch nicht wirklich für die Öffentlichkeit gedachten) Präsentationen so an Daten zusammen gesponnen hat grenzt schon fast an Realitätsverweigerung.
Auch Nvidia wirft mit Behauptungen um sich, die Außerhalb von genau abgestimmten Benchmarks niemals zutreffen und selbst in diesen Szenarios wüsste ich gerne wie sie den 1,9-fachen Effizienzsprung von Turing zu Ampere gemessen haben.
Meiner Meinung nach haben alle FirstParty Benchmarks erstmal gar kein Vertrauen verdient, sondern müssen durch unabhängige und vergleichbare Tests immer erst bestätigt werden.
Beweise doch einfach, dass die 50% Effizienzsteigerung zwischen GCN und RDNA1 nicht da waren.
 
Hatte ich auch in etwa erwartet, zumindest überrascht es mich nicht, schon allein weil die Leistung pro Watt bei AMD schlechter ist, so schnell so viel zu verbessern traue ich ihnen nicht zu.
Die Leute die Ampere wegen deren Leistungsaufnahme mit Schadenfreude niedergemacht haben, beißen sich jetzt gewaltig in deren Hinterteil, für die bricht gerade ihre Diffamierungswelt zusammen :haha:
Das ist dann aber schon noch mal ne andere Hausnummer (siehe Anhang) !

MfG Föhn.
 

Anhänge

  • 3090 bis 550 Watt.jpg
    3090 bis 550 Watt.jpg
    405,6 KB · Aufrufe: 37
Bei AMD leidet die Implementierung von VCE, was es einfach unattraktiv macht für Softwareentwickler. Bei Nvidia ist der Gang über das SDK und generell die Unterstützung sehr viel einfacher und angenehmer.
Normale Endverbraucher wird mit Sicherheit kein SDK interessieren. Da geht es hauptsächlich um Decoding Support. Wo der Fokus bei der aktuellen Generation auf AV1 liegt. Und das wird AMDs VCE genauso unterstützen. Insofern bleibt NVenc ein reines Pseudoargument. Das interessiert 99% der Käufer herzlich wenig.

selbst YouTube macht auf Nvidia Karten unter hohen Auflösungen eine bessere Figur bzw. die Auslastung.
Genau. :rollen:

Du sprichst von wenigen Spielen die DLSS unterstützen, aber was glaubst du wie viele Spieler sich eine neue GPU nur alleine für Cyberpunk 2077 zulegen werden. Irgendwann kommt bei jedem das nächste Lieblingsspiel
Genau. :rollen:

Davon ab war AMD doch in der jüngeren Vergangenheit immer gut was Rohrleistung betrifft, nur mit auf die Straße bringen hat's nicht so geklappt.
Das hat ja jetzt Nvidia mit Ampere dreist kopiert.


Nvidia spricht sogar von 80% Effizienzsteigerung bei Ampere, man weiß halt nie auf welche Use Cases das basiert, aber praktisch sind solche Werte nie aussagekräftig.
Es wurde sogar von Faktor 1,9 gesprochen, also 90% mehr. Aber halt mit einem völlig absurd konstruierten Szenario. AMD geht da seit Zen einen anderen Weg. Ihre Werte sind praxisbezogener. Und mitunter eher konservativ ausgelegt.


Ehm doch. CPUs profitieren teilweise enorm von schnellerem RAM.
Ein Intel, der mit 2666 langsamer ist, kann den Ryzen mit 3200 schon hinter sich lassen.
Du hast nicht verstanden, was ich sagte. Ich sprach vom Ergebnis einer Anwendung, nicht von deren Performance. Rendert Cinebench ein anderes Bild mit niedriger getaktetem RAM? Nein. Kodiert x264/265 ein Bild anders mit niedriger getaktetem RAM? Nein. Die Berechnungsgeschwindigkeit mag unterschiedlich ausfallen, das Ergebnis aber eben nicht. Daher ist das mit DLSS nicht vergleichbar, weil sich hier sehr wohl das Ergebnis ändert bzw konkret die Bildqualität. Und wie gesagt, mitunter durchaus zum schlechteren.

Und? Wenn AMD kein AA unterstützen würde, dürfte man kein AA verwenden, denn es verändert hier ja auch die Bildqualität?
So ist es, wenn man vergleichbar testen will. Trifft auf Nvidia übrigens genauso zu, wenn die kein AA unterstützen würden. Als Sondertests kann man das ja noch zusätzlich machen. Dagegen sagt keiner was.

Bezweifel ich mal ganz stark, dass du das überhaupt wissen kannst. Über die RT Leistung ist noch gar nichts bekannt, sagtest du ja selbst:
Doch, über die Rohleistung ist sehr wohl was bekannt. Zumindest was die neuen Konsolen betrifft. Und die Desktop Grafikkarten werden da mit Sicherheit nicht weniger performant. Aber das kannst du als Käufer von völlig überteuerter Nvidia Hardware natürlich auch nicht wissen. Was bisher nicht bekannt ist, wie sich das dann in der Praxis schlägt. Darauf bezog sich meine Aussage.

Laut Igor soll die RT Rohleistung von RDNA2 nicht an Nvidia herankommen können
Erstens spricht Igor vermutlich nicht von Rohleistung, zweitens spekuliert er wie wir auch nur und drittens liegt auch er hin und wieder falsch. Du musst mir auch nicht glauben. Schau dir die Zahlen selber an. Das sind Fakten. Da aber wie gezeigt beide Hersteller unterschiedliche Wege bei der RT Implementierung gehen und keiner von uns im Moment sagen kann, welche in der Praxis besser oder schlechter ist, finde ich es einfach nur dumm zu behaupten, RT wäre ein Vorteil für Nvidia. Das sind aktuell eben nur Pseudoargumente, um Nvidia schönzureden.


Wenn Navi nun aber für 250 oder 275 geplant war und man beim Release der 3080 festgestellt hat, dass die Entfernung gar nicht so groß ist, kann man in Versuchung kommen den Rest auch noch rauszuholen - aber eben entsprechend mit sinkender Effizienz.
Das wäre für mich die einzig logische Schlussfolgerung für TDPs jenseits der 300W. Wobei ich hoffe, dass das AMD nicht macht.
 
Hatte ich auch in etwa erwartet, zumindest überrascht es mich nicht, schon allein weil die Leistung pro Watt bei AMD schlechter ist, so schnell so viel zu verbessern traue ich ihnen nicht zu.
Die Leute die Ampere wegen deren Leistungsaufnahme mit Schadenfreude niedergemacht haben, beißen sich jetzt gewaltig in deren Hinterteil, für die bricht gerade ihre Diffamierungswelt zusammen :haha:
Das gilt natürlich auch für diejenigen, die AMD nicht mehr als 2080ti Niveau angedichtet haben.
Eine Grafikkarte jenseits der 300 Watt kommt für mich einfach nicht in Frage, egal ob die von Nvidia oder AMD ist.
 
@weisserteufel

Du kannst nicht einfach die komplette boardpower zum rechnen nehmen. Die typische asic power der 5700xt liegt so um die 180W der rest wird davon mehr oder weniger direkt beeinflusst (Speicherkonfiguration, Wandlerverluste etc.). "Effizienzsteigerung" ist eigentlich kaum fassbar, weil es keinen Standard gibt ausser den Sweetspot des Chips, was nichts bringt wenn die absolute Leistung an diesem Sweetspot nicht ausreicht.

Wenn man dann ein willkuerliches performance Ziel erreichen muss (eg. 3080) kann von so einer optimalen Effizienzverbesserung beim fertigen Produkt im worst case genau 0 übrig bleiben.
 
Zurück