AMD Radeon RX 6000: Erstes Bild einer "Big Navi"-Karte

Woher kommt denn das schon wieder? Die XSX ist NICHT so stark wie eine RTX 2080 TI. Gears 5 lief scheinbar leicht unter der Performance einer RTX 2080 bei Microsoft selbst.

Ach ja und 5.120 Shader mit 2.2+ Ghz wird nicht mit den standard Karten machbar sein. Wir reden hier bei weit über 400 Watt Leistungsaufnahme mit solchen Spezifikationen selbst bei TSMCs 7nm+. Such dir eins aus 2.2 GHz bei weniger CUs oder 80 CUs bei weniger Takt.
Sie liegt auf 2080S Niveau und nein man braucht bei RDNA2 keine 400W (wie bei 3090 Topkarten zu 100% btw) bei TSMCs 7Nm+ (55-60+% Arch + 20%) IPC.
 
Die neuen Generationen hat Amd bisher eigentlich hochwertiger gestaltet. Die Vega 64 steckte im nett designten Vollmetallgehäuse.

Das hier sieht nach nix aus.
 
Hast du für deine Aussagen "PS 5 GPU ist ja wohl schon auf Niveau 2080 unterwegs!" auch eine Quelle oder zumindest eine logische Begründung?
Irgendwann hab ich mal ein Digital Foundry Video auf Youtube gesehen, welches die PS 5 GPU da verortet hat! Logische Begründung 2304 Shader * 1,25 sind äquivalent zu 2880 Shader + 2,23 Ghz Takt im Maximum dürfte schon in die Regionen vorstoßen!
 
Sie liegt auf 2080S Niveau und nein man braucht bei RDNA2 keine 400W (wie bei 3090 Topkarten zu 100% btw) bei TSMCs 7Nm+ (55-60+% Arch + 20%) IPC.
Hast du eine Quelle dazu, dass die XSX auf RTX 2080S Niveau liegt?

Und ich bezweifle, dass 5.120 Shader linear skalieren werden. Den Takt bei 5.120 Shadern dann noch auf 2.200 Mhz anzuheben würde die Effizienz direkt aus dem Fenster raus schmeißen. Die PS5 wird vermutlich nicht weniger als eine XSX verbrauchen trotz deutlich weniger CUs eben aufgrund des Takts.

60% Verbesserung durch die Architektur ist denke ich mehr Wunschdenken genauso wie 20% IPC. Ich Frage mich wie du auf diese Werte kommst.
 
Am Ende läuft es aber bei vielen (wie überall) eher auf Neid heraus. Die meisten Menschen kaufen das was sie brauchen (oder denken es zu brauchen). Die interessiert es nicht was ein anderer kauft und regen sich auch nicht darüber auf.

Die anderen, die dann mit dem Finger auf andere zeigen, das sind die Neider.

Red dir das nur ein.
 
Irgendwann hab ich mal ein Digital Foundry Video auf Youtube gesehen, welches die PS 5 GPU da verortet hat! Logische Begründung 2304 Shader * 1,25 sind äquivalent zu 2880 Shader + 2,23 Ghz Takt im Maximum dürfte schon in die Regionen vorstoßen!
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

"Nearly identical results" und das Zitat steht im Kontext zu einer RTX 2080. Die XSX läuft übrigens nicht auf 2,23 GHz. Das ist die Playstation 5 mit deutlich weniger CUs. Desweiteren scheinst du nicht in betracht zu ziehen, dass die Anzahl der Shader nicht linear skaliert.
 
Ich frage mich, wann und wie AMD es schafft aufzuschließen.

Ein Monopol seit wie vielen Jahren hat Nvidia auf Performance GPUs?


Seit ca. 6/7 Jahren erst ... und das ist keine lange Zeit. Kein Ahnung warum immer alle denken, das Nvidia schon seit Jahrzehnten an der Spitze steht.

Die letzte war die R9 290X.

Und ein Monopol hat Nvidia auch nicht grade. In den Bereich wo die meisten Grafikkarten verkauft werden an "Spieler" ist AMD schon immer gleichwertig wenn nicht auch besser unterwegs. Da wechseln sich beide ständig ab. Und dieser Preisbereich beläuft sich nun mal um die 200-300€. Für diesen Bereich sind die jeweiligen Karten auch "Performance" Karten.

Als ob alle Spieler/Pc Besitzer sich für über 1000€ eine Grafikkarte kaufen. In welcher Welt lebst du eigentlich?


Was ich aber viel spannender finde ist, wie sich das später verhält mit den neuen Konsolenspielen, die auf den PC kommen werden und von den Entwicklern ja auf die RT-Technologie von AMD/MS entwickelt worden sind.
 
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

"Nearly identical results" und das Zitat steht im Kontext zu einer RTX 2080. Die XSX läuft übrigens nicht auf 2,23 GHz. Das ist die Playstation 5 mit deutlich weniger CUs. Desweiteren scheinst du nicht in betracht zu ziehen, dass die Anzahl der Shader nicht linear skaliert.
Die 2304 Shader sind doch explizit die der PS 5 GPU! Also stimmen für diese auch die bis zu 2,23 Ghz! Und was die Skalierung angeht wird ebenfalls erst der 28.10 Klarheit bringen!
 
Alles über 800€ sind meiner Meinung für eine Grafikkarte ohnehin sinnfrei. Trotzdem liegt meine persönliche Grenze weit niedriger bei 200~ 250 das ich da bei Nvidia nichts gescheites mehr für bekomme ist mir doch egal. Insofern was interessiert mich Korurenz wenn sie ~2000€ kostet?
 
Die 2304 Shader sind doch explizit die der PS 5 GPU! Also stimmen für diese auch die bis zu 2,23 Ghz! Und was die Skalierung angeht wird ebenfalls erst der 28.10 Klarheit bringen!
Das Problem ist, dass wir nur einen Bericht von DigitalFoundry haben welcher besagt, dass die XSX in Gears 5 die gleiche Performance erreicht wie eine RTX 2080. Dementsprechend wird eine PS5 sicher nicht die Leistung der RTX 2080 erreichen.
 
Aber bei der Sache KI hat AMD längst verloren.

Früher haben wir keine KI benötigt, warum sollten wir nicht zukünftig auch ohne den KI Kram auskommen ?
(Jetzt hier rein auf's Zocken bezogen)

Wenn man da flexibel und kreativ einfach etwas ganz anderes einsetzt, um ein ähnliches Ziel zu erreichen, halt einfacher, aber auch günstiger und stromsparender, warum soll man das nicht machen ?

Einfach is oft besser, als kompliziert.

Mag sein, dass es dann evtl. nur "annähernd" an ein totales Hightech-Ergebnis herankommt. Aber vielen reicht "annähernd" für deutlich weniger Geld und Stromverbrauch. Zumal die Hightech Variante auch wieder eigene Probleme hervorrufen kann.

Ich finde das mit DLSS auch sehr interessant und werde das mit Ampere zum ersten mal testen(3080), aber das heißt ja nicht, dass es daneben nichts Anderes geben könnte.

Was machen denn die nextgen Konsolen z.B. ? Die gehen auch Richtung 4k 60 fps(Das Ziel). Wie machen die das denn ? Die nutzen sicher kein DLSS. Und eine GPU, die viel stärker ist, als diese Version, die in den Konsolen steckt, die hat sicher so einiges drauf ! :)

Ich bin zwar bekannt dafür, gern Nvidia zu kaufen, die letzten Jahre auch wegen meiner G-sync-Monitore, die ich sehr mag, aber ich muss ja nicht scheuklappenartig alles verteidigen und diverse andere Möglichkeiten verneinen.
Zumal gönn' ich jedem seinen Spaß, ganz egal worauf er zockt und sei es ein Handy.

Andere Wege zu gehen, um gute Ziele zu erreichen ist doch genau richtig.
So kann gecheckt werden, was sich vielleicht eher durchsetzt, weil's einfach besser, oder eben effizienter ist.
Und die Leute wollen halt nicht einfach unendlich Kohle raushauen.

Wie dem auch sei: Allen viel Spaß beim Zocken ! Auf was auch immer ! :daumen:
 
Früher haben wir keine KI benötigt, warum sollten wir nicht zukünftig auch ohne den KI Kram auskommen ?

Wenn man da flexibel und kreativ einfach etwas ganz anderes einsetzt, um ein ähnliches Ziel zu erreichen, halt einfacher, aber auch günstiger und stromsparender, warum soll man das nicht machen ?

Einfach is oft besser, als kompliziert.

Mag sein, dass es dann evtl. nur "annähernd" an ein totales Hightech-Ergebnis herankommt. Aber vielen reicht "annähernd" für deutlich weniger Geld und Stromverbrauch. Zumal die Hightech Variante auch wieder eigene Probleme hervorrufen kann.

Ich finde das mit DLSS auch sehr interessant und werde das mit Ampere zum ersten mal testen(3080), aber das heißt ja nicht, dass es daneben nichts Anderes geben könnte.

Was machen denn die nextgen Konsolen z.B. ? Die gehen auch Richtung 4k 60 fps(Das Ziel). Wie machen die das denn ? Die nutzen sicher kein DLSS. Und eine GPU, die viel stärker ist, als diese Version, die in den Konsolen steckt, die hat sicher so einiges drauf ! :)

Ich bin zwar bekannt dafür, gern Nvidia zu kaufen, die letzten Jahre auch wegen meiner G-sync-Monitore, die ich sehr mag, aber ich muss ja nicht scheuklappenartig alles verteidigen und diverse andere Möglichkeiten verneinen.
Zumal gönn' ich jedem seinen Spaß, ganz egal worauf er zockt und sei es ein Handy.

Andere Wege zu gehen, um gute Ziele zu erreichen ist doch genau richtig.
So kann gecheckt werden, was sich vielleicht eher durchsetzt, weil's einfach besser, oder eben effizienter ist.
Und die Leute wollen halt nicht einfach unendlich Kohle raushauen.

Wie dem auch sei: Allen viel Spaß beim Zocken ! Auf was auch immer ! :daumen:
Falls wir eine Technik von AMD bekommen die das Ziel auf eine andere Art und Weise erreicht ist mir das nur recht. Konkurrenz belebt das Geschäft und beide Techniken werden aneinander wachsen können.

Was die Konsole angeht und das sie kein DLSS nutzen wird ist so richtig. Dennoch könnte Microsofts DirectML für eine ähnliche Technik mit der gleichen Grundidee sorgen. Nvidia arbeitet ja gern mal mit Microsoft zusammen und ich denke die werden auch technischen Know-How davon mitgenommen haben.
 
Das Renderbild sieht nach einem sehr frühen Bild aus. Auch das 3D-Modell in Fortnite. Gerade so geeignet, damit das Marketing etwas zum zeigen hat.
Was ich daraus mitnehme ist mal, dass es bei der Referenzkarte(n) offenbar 1x HDMI, 2x DP und 1x USB als Anschlüsse geben wird.

Konkret ist das überhaupt kein reguläres Board, sondern eine Entwicklerplatine, die lediglich dazu dient das Chipdesign im Labor zum Laufen zu bekommen, hier gar mit einem Tower-Kühler. Von dem Platinenlayout kann man nicht viel ableiten, denn das kann vollkommen anders aufgebaut sein, als eine reguläre Platine aus der Massenfertigung für den Endkundenmarkt.

Das frage ich mich seit längerem. Die einzigen [HBM-]Preise die ich finde sind vom Frühjahr 2019 und da waren die HBM(2) teile noch deutlich teurer.

Tatsächliche HBM-Preise konnte man noch nie nirgends finden; das waren immer nur Abschätzungen, weil HBM kein eigenständig vertriebenes Produkt ist. Konkret wird ein angepasster Chip mit entsprechenden Speichercontrollern, HBM-Speicherchips und ein aufwändiger Interposer benötigt, auf dem alles zusammengeführt wird.
Aus der weiterhin anhaltenden "Verweigerungshaltung" der Hersteller lässt sich jedoch ableiten, dass GDDR6 immer noch die günstigere Wahl ist, anstatt hier auf HBM zu setzen.
Vielleicht wird sich das Blatt im HighEnd jedoch bei der nächsten GPU-Generation (2022) wenden? Sicher muss das aber weiterhin nicht sein, denn auch in 2022 wird es keinen nennenswerten Bedarf für deutlich mehr VRAM geben. Beispielsweise auch Intels Xe-HPG verzichtet explizt auf HBM und setzt auf GDDR6, jedoch weiß man hier noch nicht, wie hoch diese Produktpalette leistungstechnisch reichen wird. Im LowEnd/MidRange-Segment ist HBM auch noch auf längere Sicht kein Thema.
 
Zuletzt bearbeitet:
Früher haben wir keine KI benötigt, warum sollten wir nicht zukünftig auch ohne den KI Kram auskommen ?

Wenn man da flexibel und kreativ einfach etwas ganz anderes einsetzt, um ein ähnliches Ziel zu erreichen, halt einfacher, aber auch günstiger und stromsparender, warum soll man das nicht machen ?

Einfach is oft besser, als kompliziert.

Mag sein, dass es dann evtl. nur "annähernd" an ein totales Hightech-Ergebnis herankommt. Aber vielen reicht "annähernd" für deutlich weniger Geld und Stromverbrauch. Zumal die Hightech Variante auch wieder eigene Probleme hervorrufen kann.

Ich finde das mit DLSS auch sehr interessant und werde das mit Ampere zum ersten mal testen(3080), aber das heißt ja nicht, dass es daneben nichts Anderes geben könnte.

Was machen denn die nextgen Konsolen z.B. ? Die gehen auch Richtung 4k 60 fps(Das Ziel). Wie machen die das denn ? Die nutzen sicher kein DLSS. Und eine GPU, die viel stärker ist, als diese Version, die in den Konsolen steckt, die hat sicher so einiges drauf ! :)

Ich bin zwar bekannt dafür, gern Nvidia zu kaufen, die letzten Jahre auch wegen meiner G-sync-Monitore, die ich sehr mag, aber ich muss ja nicht scheuklappenartig alles verteidigen und diverse andere Möglichkeiten verneinen.
Zumal gönn' ich jedem seinen Spaß, ganz egal worauf er zockt und sei es ein Handy.

Andere Wege zu gehen, um gute Ziele zu erreichen ist doch genau richtig.
So kann gecheckt werden, was sich vielleicht eher durchsetzt, weil's einfach besser, oder eben effizienter ist.
Und die Leute wollen halt nicht einfach unendlich Kohle raushauen.

Wie dem auch sei: Allen viel Spaß beim Zocken ! Auf was auch immer ! :daumen:

Natürlich kann man auch ohne KI auskommen.

Aber würdest du eher eine 500€ GPU kaufen die 40 fps in 4K schafft, oder eine die dank KI 70 fps schafft?

Also ich persönlich werde nie mehr eine Karte ohne DLSS und CUDA kaufen. Diese Features sind mir einfach viel zu wichtig, da kann die Karte auch gern bisschen mehr kosten (siehe 2070S vs 5700XT)
 
Konkret ist das überhaupt kein reguläres Board, sondern eine Entwicklerplatine, die lediglich dazu dient das Chipdesign im Labor zum Laufen zu bekommen, hier gar mit einem Tower-Kühler. Von dem Platinenlayout kann man nicht viel ableiten, denn das kann vollkommen anders aufgebaut sein, als eine reguläre Platine aus der Massenfertigung für den Endkundenmarkt.

Ich sprach explizit NICHT vom Foto aus dem Hinterhof eines chinesischen Kohlekraftwerkes. :)

Davon ab bin ich gespannt, ob es von AMD etwas geben wird, das in etwa 3/4 bis doppelt so performant bei max. 250W sein wird wie eine Radeon 5700XT. Und mit 16GB VRAM ausgestattet.
So was wie die neuen Grillforces brauch' und will ich nicht.
 
Alles über 800€ sind meiner Meinung für eine Grafikkarte ohnehin sinnfrei. Trotzdem liegt meine persönliche Grenze weit niedriger bei 200~ 250 das ich da bei Nvidia nichts gescheites mehr für bekomme ist mir doch egal. Insofern was interessiert mich Korurenz wenn sie ~2000€ kostet?

Geht mir auch so, meine Grenze ist 450 +/- 50. Früher war das High-End, Heute unteres Mid-Range. Aber solange es noch Leute gibt welche verteidigen, dass in der nächsten Generation für die selbe Leistung gleich viel zu bezahlen ist, wird sich da auch nichts ändern.
 
Die Karte sieht mir viel zu sehr nach der lauten und heißen RadeonVII aus.

Ich hoffe doch mal, dass AMD was draus gelernt hat. Mal gucken.
 
Geht mir auch so, meine Grenze ist 450 +/- 50. Früher war das High-End, Heute unteres Mid-Range. Aber solange es noch Leute gibt welche verteidigen, dass in der nächsten Generation für die selbe Leistung gleich viel zu bezahlen ist, wird sich da auch nichts ändern.
Alles wird teuerer mit der Zeit.
Man kann nicht erwarten, dass über Jahre hinweg Produkte preisstabil bleiben, zumindest nicht bei den meisten.
Die Lederjacken Preise sind aber schon ziemlich abgehoben.
Kommt halt davon, wenn es keine Konkurrenz gibt.
 
Zurück