AMD Radeon RX 6000: Erstes Bild einer "Big Navi"-Karte

IDarunter wird es im Massenmarkt deutlich interessanter und mal ehrlich, wer braucht bei einem Standard Full-HD Monitor auch mehr als eine 3060? Da reicht sogar noch weniger. Dazu ist der Vorteil von Ultra Details für viele auch nicht sehbar.

Man bekommt schnell einen falschen Eindruck in einem Gamer/Hardware-Forum.

Mal ehrlich, wer spielt 2020 noch in fhd? Ausgenommen auf dem Notebook. Und oberhalb dieser Auflösung und vor allem auf einem Monitor der nicht technisch von 2010 ist, sieht man schon einen Unterschied was die Details angeht.
 
Mal ehrlich, wer spielt 2020 noch in fhd? Ausgenommen auf dem Notebook. Und oberhalb dieser Auflösung und vor allem auf einem Monitor der nicht technisch von 2010 ist, sieht man schon einen Unterschied was die Details angeht.
Ich denke, dass tun noch sehr viele. Und nein, ich rede nicht von denen, die in Hardware-Foren unterwegs sind.
 
Kenne viele die die Notwendigkeit nicht sehen einen funktionierenden 24" in Full HD auszutauschen. Sind dann eben auch 200€ und für 2-3 Stunden in der Woche Gaming? Wenn man einen neuen kauft, würde ich auch nach Möglichkeit etwas größeres vorschlagen. Finde aktuell 32 und 34" mit 3440 Auflösung für ~400€ z.B. sehr geil.
 
Mal ehrlich, wer spielt 2020 noch in fhd? Ausgenommen auf dem Notebook. Und oberhalb dieser Auflösung und vor allem auf einem Monitor der nicht technisch von 2010 ist, sieht man schon einen Unterschied was die Details angeht.
Ich hab einen kleinen Bruder der einige Jahre jünger ist und sich sowas noch nicht leisten kann. Abseits davon gibt es durchaus viele Menschen mit einer Familie daheim die ihr Geld anders priorisieren. Nur weil man auf 1080p spielt heißt es nicht, dass man eine Version hat die unspielbar ist. Viele haben auch Spaß auf solchen Geräten und sind nicht so enthusiastisch wie wir. Einfach etwas offener dem ganzen gegenüber stehen anstatt direkt zu sagen: "Mal ehrlich, wer spielt 2020 noch in fhd?"... Hört sich etwas herabwertend gegenüber solchen Leuten an.
 
Ich frage mich, wann und wie AMD es schafft aufzuschließen.

Ein Monopol seit wie vielen Jahren hat Nvidia auf Performance GPUs?

Ich möchte zukunftssicher 4K oder 5K @60Hz spielen können.

Brauche ich dafür die 3090?

Denn selbst die 2080ti packt keine sauberen 60FPS auf Dauer. Und AMD traue ich leider nur noch CPUs zu.
 
Ich frage mich, wann und wie AMD es schafft aufzuschließen.

Ein Monopol seit wie vielen Jahren hat Nvidia auf Performance GPUs?

Ich möchte zukunftssicher 4K oder 5K @60Hz spielen können.

Brauche ich dafür die 3090?

Denn selbst die 2080ti packt keine sauberen 60FPS auf Dauer. Und AMD traue ich leider nur noch CPUs zu.
Wenn du immer auf Ultra spielen willst bei 4K oder 5K mit sauberen 60 FPS dann bist du vermutlich mit einer 3090 eher dran aber selbst diese wird vermutlich Schwierigkeiten mit solchen Anforderungen haben. Wenn du etwas die Einstellung runter schraubst und auch mit Resolution-Scaling arbeitest wird das aber selbst auf einer 2080 TI kein Problem werden.
 
Ich möchte zukunftssicher 4K oder 5K @60Hz spielen können.

Brauche ich dafür die 3090?

Denn selbst die 2080ti packt keine sauberen 60FPS auf Dauer. Und AMD traue ich leider nur noch CPUs zu.

Entweder man bezahlt eben den Enthusiasten Preis oder man findet sich damit ab, dass die Technologie noch nicht so weit ist. 4k und 60hz ist doch kein Problem. Kommt nur auf die Grafikeinstellungen an.
 
Schon jemanden aufgefallen, dass die Rückseite eher für HBM als GDDR Speicher spricht? (auser Buildzoid ;) )
Finde ich nicht, weil HBM sehr viel Platz sparen würde, das aber nach einer gewaltigen Platine aussieht. Sonst hätte AMD die Gelegenheit genutzt und wie bei einigen älteren Customs und den neuen 3080/3090 einen Lüfter "durchblasen" lassen.
 
Laut Nvidia reicht ne 3080 für 4k mit über 60FPS. Zwecks Speicher haben sie sich angeblich auch extra mit Entwicklern zusammen gesetzt, damit das auch für die Zukunft noch ausreicht.
Zukunft bedeutet da aber nur die Spiele die aktuell in der Entwicklung sind. Die Entwickler wissen ja selbst noch kaum was für die nächste Generation an Spielen geplant ist. Was wirklich in die Spiele eingebaut wird an neuer Technik wird meist in den ersten Kick-Off Terminen besprochen wo die Engineentwickler und Spieleprogrammierer zusammen kommen.
 
Ich hab einen kleinen Bruder der einige Jahre jünger ist und sich sowas noch nicht leisten kann. Abseits davon gibt es durchaus viele Menschen mit einer Familie daheim die ihr Geld anders priorisieren. Nur weil man auf 1080p spielt heißt es nicht, dass man eine Version hat die unspielbar ist. Viele haben auch Spaß auf solchen Geräten und sind nicht so enthusiastisch wie wir. Einfach etwas offener dem ganzen gegenüber stehen anstatt direkt zu sagen: "Mal ehrlich, wer spielt 2020 noch in fhd?"... Hört sich etwas herabwertend gegenüber solchen Leuten an.
Nein, ich würdige niemanden herab. Klar kann man auf fhd spielen, und klar braucht man dafür keine rtx 3080 oder 3070.

Klar sollte aber auch sein, das eine Aussage nach dem Motto: 3080 oder 3090 braucht keiner, rtx 3060 reicht, die Details sieht ja eh keiner, bullshit ist.

Und nein, ich gehe nicht davon aus das die Mehrheit hier im Forum mit fhd unterwegs ist. Wem fhd reicht und nur 2-3h die Wochen spielt, der kauft sicher keine highend Karte. Aber diejenigen, wie du es so schön sagst "herabwerten", die sich so eine Karte kaufen ist eben Blödsinn.

Am Ende läuft es aber bei vielen (wie überall) eher auf Neid heraus. Die meisten Menschen kaufen das was sie brauchen (oder denken es zu brauchen). Die interessiert es nicht was ein anderer kauft und regen sich auch nicht darüber auf.

Die anderen, die dann mit dem Finger auf andere zeigen, das sind die Neider.
 
Aber das alles ist für AMD auch um einiges teurer. Selbst wenn die Chips nur 500mm^2 sein sollten werden die vermutlich um einiges teurer sein als Nvidias 600mm^2 auf basis von Samsungs 8nm. Zusätzlich noch 16GB GDDR6... Ich glaube wir werden zumindest keinen 500€ RTX 3080 killer sehen was sich aber hier scheinbar einige erhoffen.
Ich denke mal, selbst wenn AMD den Chip gewinnbringend für 100€ verkaufen könnte, würde wir keine 500€ sehen für ein 3080 Äquivalent :), eher selber Preis oder 50€ drunter, weil 20-50W weniger Verbrauch (ausgehend von Igors 275W) und 60% mehr Speicher.
Vielleicht würde sie soger mehr kosten, da effizienter und mehr Speicher.
 
Zukunft bedeutet da aber nur die Spiele die aktuell in der Entwicklung sind. Die Entwickler wissen ja selbst noch kaum was für die nächste Generation an Spielen geplant ist. Was wirklich in die Spiele eingebaut wird an neuer Technik wird meist in den ersten Kick-Off Terminen besprochen wo die Engineentwickler und Spieleprogrammierer zusammen kommen.

Stimme da voll mit Dir überein. Viele Titel erscheinen auch noch für die Last- Gen. Aber wir wissen nicht von welchem Zeitraum ausgegangen wird wenn es heißt "reicht für 4k und 60 FPS". Kann sein dass das in ein bis zwei Jahren schon wieder an Gültigkeit eingebüßt hat. Aber dann kommt wieder eine neue Generation oder durch neue IO Technologien verliert der Grafikspeicher bzw. seine Größe an Bedeutung. Spannende Zeiten
 
Empfindest du Meltdown und Spectre nicht als neue Features?

Nvidia sitzt aber momentan auf einen bedeutend schlechteren Fertigungsprozess und AMD ist bei Grafikkarten nicht so weit weg. TSMC + RDNA2 sollten leicht reichen um an Nvidia ran zu kommen, auch wenn man genauso viel verbrauchen muss (was eine schwächere Arch als Nvidias bedeuten würde, da TSMC mit 30% effizienter gehandelt wird)
Ich erwarte auch, dass AMD an NV vorbei geht, aber NV war bei weitem nicht so untätig wie Intel und Samsung 8nm ist immer noch besser als 14nm+++++++++++++++++++++++.
 
Finde ich nicht, weil HBM sehr viel Platz sparen würde, das aber nach einer gewaltigen Platine aussieht. Sonst hätte AMD die Gelegenheit genutzt und wie bei einigen älteren Customs und den neuen 3080/3090 einen Lüfter "durchblasen" lassen.
Dort wo normalerweise die Speichermodule sein müssten bei GDDR6 sind Löcher für Schrauben. GDDR6 muss deutlich näher an die GPU als seine Vorgänger. Entweder die Karte nutzt HBM oder die GDDR Module sind erst nach/hinter den Verschraubungen, was wiederum für 256bit sprechen würde.

Seit meinem letzten Post hier hab ich hinzugelernt: Die PCB Bilder mit dem geleakten 256bit Samsung Speicher passen zu den Renderbildern von AMD. Demzufolge wäre der Speicher weiter weg vom Die.
 
Zukunft bedeutet da aber nur die Spiele die aktuell in der Entwicklung sind. Die Entwickler wissen ja selbst noch kaum was für die nächste Generation an Spielen geplant ist. Was wirklich in die Spiele eingebaut wird an neuer Technik wird meist in den ersten Kick-Off Terminen besprochen wo die Engineentwickler und Spieleprogrammierer zusammen kommen.
Bis dahin gibt es wieder die nächste Generation xD
 
Ist HBM Speicher noch soviel teurer als GDDR6 oder GDDR6X?

Wenn man bedenkt das man die Karten auch per 4GB HDM2 Stacks betreiben könnte bei ~200Gb/s pro Stack, wäre so ein Navi21 samt 16GB (4 Stacks) bei 800GB/s oder mehr, ein Navi22 mit 8-12GB bei 400-600Gb/s+

Im Vergleich zu den Massen die Nvidia auf die 3080 und 3090 verbaut, sicher ein Stromsparwunder^^
 
Zurück