Radeon RX 6000: AMD zeigt eigene Benchmarks

@Lighting-Designer will dich ja nicht enttäuschen, aber es gibt etwas DLSS ähnliches schon in DX12 und AMD supportet es mit BigNavi (hab ich gehört).
Wäre das dann immer noch schummeln für dich?
Wenn das Resultat gut aussieht, ist es doch völlig egal, wie da was berechnet wurde.
Ja, wäre es. Wenn DX12 Ultimate das doch bietet, warum bietet dann NV wieder ihren proprietären Kram an? Wie immer, Kundenbindung!
 
Entsprechnd wurde dann quasi zum Launchtermin der faktische Konkurrent die 2070 Super, die sie preislich deutlich unterbot (zum Launch nur um die 419 € und damit eher auf dem Niveau der 2060 Super). Ende Sep. kostete die günstigste 5700 XT bei MF 345 €, während die 2070 Super 465 € kostete, mal eben -26 % weniger bei recht vergleichbarer Leistung, das ist durchaus schon ein agressives Pricing.

Ja eben. Zu Launch waren es keine Dumping Preise. Jetzt, Ende September, Pre RDNA2 kloppt man die Dinger raus.
Und ich glaube nicht, dass Turing derzeit zu diesen Preisen gekauft wird...
 
Was mit mehr VRAM mMn auch in Ordnung ist. 10GB Bestückung bei der 3080 ist mir immer mehr ungeheuer. Für die Leistung des Chips ist der Preis der 3080 i.O. Die 500 € Flaggschiffzeiten sind leider vorbei.

Klar, ich sehe auch die Preise für ZEN3 als in Ordnung.
Warum soll sich AMD nun nicht ihre gute Arbeit auch gut bezahlen lassen.
Nvidia hat es ja scheinbar selbst gemerkt dass 10GB 2020 irgendwie fail sind und legt nun nach.
Soll AMD nun auch mal gutes Geld verdienen und das Geld sinnvoll in die Zukunft investieren.
 
Genau das habe ich gemeint, also dass AMD noch nicht das schnellste gezeigt hat.
Habe mich wohl falsch ausgedrückt :)

Nicht falsch, nur etwas ungenau, da es hier anscheinend zwei gleichgroße, unterschiedlich getaktete Modelle zu geben scheint. Die reguläre Variante "a" und die MaxedOut/weitJenseitsDesSweetSpots-"b"-Version als Prestige/Halo-Objekt um die 3090 anzugreifen, wenn die 238 W TDP tatsächlich erreicht werden.
Man darf also davon ausgehen/bzw. ich gehe davon aus, dass noch ein paar Fps mehr möglich sein werden mit dem "b"-Modell, dass man sich voraussichtlich für das Launch-Event vorbehält.
Zumindest mit meinem Marketing-Halbwissen würde ich das so machen, denn bei den aktuell im Umlauf befindlichen geringen Ampere-Stückzahlen hat AMD meiner Ansicht nach keinen Grund sein Pulver vorschnell zu verschießen.

Ja eben. Zu Launch waren es keine Dumping Preise. Jetzt, Ende September, Pre RDNA2 kloppt man die Dinger raus.
Und ich glaube nicht, dass Turing derzeit zu diesen Preisen gekauft wird...

Zum Launch kostete die 2070 Super 500 US$, die RX 5700 XT 400 US$ also ganze -20 % weniger. ;-) Beide Karten haben ein exakt gleiches Speicherinterface und die GPUs leisten nahezu das gleiche mit nur einem tendenziellen Vorteil bei der 2070 Super.
Der Vollständigkeit halber muss man aber auch sagen, dass AMD kein Raytracing unterstützt(e), aber auch hier könnte man sich wieder streiten, wenn man die Diskussionen aus Foren aufgreift a la "irrelevant", "kein echter Mehrwert", "keine verfügbare Zahl an Spieltiteln" . Ein agressives Pricing bleibt es so oder so. Wenn du magst, versteh' meinen bewusst überspitzt formulierten "Dumpingpreis" einfach als agressive Preisgestaltung seitens AMD. Schlussendlich war das auch notwendig, und ist schlicht AMDs Position im GPU-Markt geschuldet, denn trotz des attraktiveren Preises und der angeblichen Nichtrelevanz von Raytracing setzte AMD deutlich weniger Karten in den Segmenten ab als beispielsweise nVidia.
 
Zuletzt bearbeitet:
Zumindest mit meinem Marketing-Halbwissen würde ich das so machen, denn bei den aktuell im Umlauf befindlichen geringen Ampere-Stückzahlen hat AMD meiner Ansicht nach keinen Grund sein Pulver vorschnell zu verschießen.

Sehe ich auch so.
Nach deiner Definition würde mir aber die "a-Variante" reichen :D
Also 3080 Leistung.
 
Wäre halt die Frage wie AMD dann das Inferencing des "DX12 DLSS" durchführt. Im Gegensatz zu RT gab es bis jetzt noch 0 Anzeichen dass BigNavi auch Tensor Beschleuniger bringt.
 
Aha weil du die gezeigten Titel nicht spielst sind das natürlich enttäuschende "Luli-Titel. Ne is klar :wall:.


DLSS ist Cheaten in Reinkultur....der Mist hört sich nicht umsonst wie ne Krankheit an :daumen2:.
Sowas nennt man Fortschritt, also wenn du gegenüber den nativen eine bessere Schärfe bekommst soll das cheaten sein ? Du fährst ja auch nicht mit einer Kutsche zum Supermarkt. DLSS ist kein cheaten sondern diese Upscaling Techniken die Zukunft, das kannst du sehen wie du magst, ist aber Fakt. Es ist völlig egal wie das Bild zustande kommt, wenn das Ergebniss genau so gut ist und sogar besser ist, dann kannst du es Cheaten nennen oder von mir aus Schwarze-Magie, am Ende intererssiert mich das überhaupt nicht. Was meinst du wie die Konsolen seit 10 Jahren arbeiten und diese bieten nicht mal annähernd sowas gutes wie DLSS.
 
Sehe ich auch so.
Nach deiner Definition würde mir aber die "a-Variante" reichen :D
Also 3080 Leistung.

Aus den Videcardz-Tabellen:
"a", 80 CUs , 2,05 GHz, 200 W TDP
"b", 80 CUs, 2,20 GHz, 238 W TDP
wenn ich mich recht erinnere. Da die Karten icht linear skalieren (können) wird das "b"-Modell relativ gesehen nur wenig mehr Leistung bieten können. P/L-technisch wird die "a" sicherlich die interessantere Wahl sein und auch bereits regulär unterhalb der 300 W TBP bleiben.
Müsste ich raten, aber mehr wäre das auch nicht, würde ich annehmen, AMD müsste mit diesem Modell, wenn es ansonsten keine unterwarteten Überraschungen gibt, nur wenig weniger als nVidia verlangen können dürfen, d. h. die UVP von 699 US$ für die 3080 mit 10 GiB könnte AMD vielleicht mit 649 US$ für Navi21a mit 16 GiB angehen.

Wäre halt die Frage wie AMD dann das Inferencing des "DX12 DLSS" durchführt. Im Gegensatz zu RT gab es bis jetzt noch 0 Anzeichen dass BigNavi auch Tensor Beschleuniger bringt.

Intel hat in Xe bspw. eine DP4A-Operation implementiert (a fast INT8 dot-product that accumulates into one INT32 result). Dedizierte Tensor Core-ähnliche EInheiten haben die hier auch nicht, beschleunigen damit ML-Inferencing-Anwendungen aber dennoch beträchtlich. Eine ähnliche Anpassung ist auch für RDNA2 denkbar, ohne gleich dedizierte Funktionseinheiten implementieren zu müssen, die zusätzliche Wafer-Flache beanspruchen und für eine Grundfunktionalität sollte das ausreichen, selbst mit der durch INT8 geringeren Präzision.
 
Zuletzt bearbeitet:
3080 Leistung ohne RT ist 100% gegeben. RT steht auf einem andern Blatt. Platz 1 teilt sie sich ja dann mit der 3080 denn das 1500€ 380 Watt schluckende 3090 semi-Profi Teil lassen wir mal lieber außen vor :schief:.

10% langsamer....Huuuiiiiiii damit fällt die Karte in den unspielbaren Bereich. Ich meine ob ich nu in UHD 44 Fps habe oder 40 Fps davon hängt alles ab, lächerlich :lol:. Die Frage ist was "Real Navi" bei RT Anwendungen zu leisten im stande ist ?!


Was zeigt uns DLSS denn ?? Nichts weiter als das die RT Leistung vorhandener Karten bei weitem nicht ausreichend ist. "Upscaling" ist da natürlich ein probates "Mittelchen" dem Gamer vorzugaukeln das alles gaaanz toll ist...ist es aber in wirklichkeit nicht. Ich hoffe auf Leistung der Grafikkarten auch im RT Bereich und wünsche mir das es auf absehbare Zeit auch ohne den "Krückstock" DLSS vernünftig läuft.
Was bitte schön interessiert es uns Gamer wie das Bild zustande kommt ? Wenn das Ergebiss genau so gut ist oder sogar besser, juckt mich das doch nicht solange es funktioniert. Sowas nennt man Fortschritt, völlig egal wie das Bild zustande kommt.
 
Aus den Videcardz-Tabellen:
"a", 80 CUs , 2,05 GHz, 200 W TDP
"b", 80 CUs, 2,20 GHz, 238 W TDP
wenn ich mich recht erinnere. Da die Karten icht linear skalieren (können) wird das "b"-Modell relativ gesehen nur wenig mehr Leistung bieten können. P/L-technisch wird die "a" sicherlich die interessantere Wahl sein und auch bereits regulär unterhalb der 300 W TBP bleiben.
Wenn das stimmt, dann wäre das doch top, zumindest für mich.
Mir ist es auch wichtig, dass die Karte nicht zuviel Leistung aufnimmt.
Nur die RT Leistung wäre halt noch interessant, darüber weiß man ja eigentlich noch rein garnichts, nichtmal aus irgendwelchen Leaks.
 
Eine 2080 Ti erreicht mit einem alten 9900K bereits in FullHD im Mittel 440 Fps in CS:GO und da glaubst du jetzt echt, dass sich dein Score nenennswert verändern würde, wenn du noch leistungsfähigere Hardware verwendest? Ich glaube du überschätzt hier die menschliche Physiologie gewaltig. ;-)
Nein, Du sprichst nur offensichtlich über eine Sache von der Du nichts verstehst. Die Grafikkarte spielt so gut wie keine Rolle, beide Spiele profitieren extrem von einer guten CPU und mehr Frames verschaffen ein besseres Spielgefühl und Wettbewerbsvorteil. Du bist tatsächlich so arrogant zu behaupten, dass die beiden Spiele, mit einem Player Peak Count von über 115 Millionen Spielern und einer starken Turnier, Stream und Live-TV Szene keine Berechtigung in einer Präsentation haben. Ausgerechnet da, wo eine CPU tatsächlich einen Unterschied macht. Die professionellen Spieler werden aufrüsten und vielleicht sogar AMDs kommende E-Sport Grafikkarte nutzen. Die Ligaspieler, Fans und Casuals werden nachziehen. Das ist übrigens die gleiche Szene, die größenteils die 240 und 360 Hz Monitore kauft.

P.S. Sogar Nvidia wirbt mit CS:GO und hohen Framerates. https://www.nvidia.com/de-de/geforce/news/what-is-fps-and-how-it-helps-you-win-games/
 
Zuletzt bearbeitet:
Glückwunsch du hast herausgefunden warum Konsolen Grafikmüll produzieren
Was hat die Auflösung mit der Grafik zutun ? Ausserdem hast du schon mal Detroid become Human gespielt oder Uncharted 4 ? Dann kannst du mal sehen was man mit der mickrigen Hardware alles zaubern kann. Grafikmüll......omg, bitte bleibt mal Erwachsen.
Wüsste nicht wo Horizon Zero Dawn oder Forza Horizon 4, Last of Us 2, Ghost of Tsushima Grafikmüll sein soll.
God of War, Until Dawn, Spiderman und nochmals Uncharted 4, ist von der Story und von der Grafik einfach nur Atemberaubend
 
Zurück