AMD RDNA2: Angeblich nur Konkurrenz für die RTX 3080, aber trotzdem besser als Ampere

Wenn AMD eine Karte bringt, die knapp an die RTX 3080 rankommt, aber nicht auf Kante gebügelt ist, und damit auch einen gewissen OC Spielraum hat, während sie weniger Strom zieht, dann ist das eindeutig ein Gewinner.

So kann der preisbewusste Käufer die knappe Leistung einer 3080 mit 16 GB Vram kaufen für einen günstigen Preis, OC Modelle sind interessanter (kommt aufs Binning an) und generell setzt das wieder Nvidia unter Zugzwang, die dann evtl. am Preis drehen müssen und hoffentlich die 20GB Versionen früher und preiswerter auf den Markt bringen.

In der Theorie ist hier der Kunde der Gewinner! Egal von welchem Lager er kauft.:daumen:

Dann ist mir eingefallen, dass es 2020 ist. :rollen:
Also werden irgendwo Lager abfackeln, Rambausteine kontaminiert und Lieferungen von Bitcoin Piraten abgefangen. AMD Karten werden irgendeinen absolut furchtbaren Exploit aufweisen, der nur dann schließbar ist, wenn die Leistung per Patch um 20% gedrosselt wird und bei Nvidia stellt sich im Nachhinein ein Baufehler raus, der alle Karten nach 6 bis 12 Monaten abrauchen lässt, was zu riesigen Rückrufaktionen, extremen Verknappungen und eklatanten Preisen führt. 2020 halt. Immerhin haben wir noch keine alten Götter geweckt...
 
Probleme hast du vielleicht keine, wenn du so gut wie keine Funktionen der Karte verwendest, beim Rest hat Nvidia in allen Bereichen die Nase vorne - das ist einfach so und zwar schon seit Jahren.

Echt, wenn ich die Gaming-Karte einfach nur für die grundsätzliche Eigenschaft nutzen möchte, dann funktioniert sie? Wo zum Teufel ist dann Dein Problem? Bei zusätzlichen Geschichten und deren Performance glänzen beide Hersteller nicht gerade, aber bei AMD wird es bemängelt?
Also ich habe mittlerweile eine RX570 drinnen und überhaupt gar keine Probleme. Auch mit vorherigen Grafikkarten von AMD hatte ich keine Probleme. Diese Pauschalisierung darfst Du Dir also gerne sparen. ;)
 
Echt schade, ich hätte mich mega gefreut wenn AMD endlich mal wieder (nach gefühlt 20 Jahren) ganz oben hätte angreifen können. Also im absoluten HighEnd-Bereich (flüssiges 4K-Gaming aufwärts).
Wäre auch ein willkommener Gegenpart zu den hohen NV-Preisen in diesem Segment gewesen. Na vielleicht schaffen sie es ja mit der darauffolgenden Generation mal. Wäre wünschenswert (und ich bin eigentlich überzeugter NV-Nutzer, hatte glaube ich in 20 Jahren Gaming nur ein oder zwei Mal relativ kurz eine Radeon/AMD-Karte).
Wenn sie mit der 3080 konkurrieren kann, greifen sie doch fast im absoluten Highendbereich an. 15% Mehrleistung merkt man sowieso nicht und macht in 4k auch keinen Unterschied in der Spielbarkeit aus. Ist doch egal ob man 30 oder 34 fps hat, denn beides ist Mist. :D
 
Mal abwarten was am Ende wirklich kommt. Aber wenn wir eine Karte auf 3080 Niveau bekommen mit sagen wir 16gb grafikspeicher dann würde ich die tatsächlich eintüten und mein grüner Weg wäre nach langer Zeit unterbrochen.
 
Echt, wenn ich die Gaming-Karte einfach nur für die grundsätzliche Eigenschaft nutzen möchte, dann funktioniert sie? Wo zum Teufel ist dann Dein Problem? Bei zusätzlichen Geschichten und deren Performance glänzen beide Hersteller nicht gerade, aber bei AMD wird es bemängelt?
Also ich habe mittlerweile eine RX570 drinnen und überhaupt gar keine Probleme. Auch mit vorherigen Grafikkarten von AMD hatte ich keine Probleme. Diese Pauschalisierung darfst Du Dir also gerne sparen. ;)
Ich habe die letzten Jahre auch nur AMD Karten gehabt.
HD 5850, HD 7870 und aktuell RX 580. Bisher keine Probleme.
 
Wäre doch top, wenn sich das alles so bewahrheiten würde.
Dann noch mit weniger Verbrauch als Ampere und so ca. 600 Euro für das Referenz Modell.
Nur die RT Leistung der Karte ist immer noch ungewiss.
Aber ist ja nicht mehr so lange, am Monatsende wissen wir dann mehr.
 
Das DPP 11 550w wird garantiert 700w Spitzen wegstecken.

Würdest du darauf privat Garantie geben wollen?
Selbst Be Quiet tut dies nicht - 650 Watt sollte man schon haben, je nach CPU, sonst wirds halt dunkel auf dem Bildschirm.
Und selbst wenn das 550Watt NT Neu diese Last wegsteckt, heißt es leider nicht, dass dies dann noch in 2 bi 3 Jahren der Fall sein wird...
Aber wie gesagt, ausprobieren - es sollte dadurch nichts kaputt gehen.
 
Das Video bringt ja mehrere sehr interessante Infos:
1. AMD was not impressed with 3090 performance (Naja, war wohl keiner...)
2. RDNA1/GCN (Navi10) hatte Hardware Bugs, die AMD versucht hat über den Treiber irgendwie zu umschiffen.
3. Später Launch aufgrund von Treiberpolishing
4. Launch von Navi21 wohl erst im Dezember. Das wäre tatsächlich blöd, aber verschmerzbar
5. Man testete HBM2 Speicher, hat sich aber wohl doch für GDDR6 entschieden. Durch den Infinity Cache war wohl die Mehrperformance den Preis nicht wert, ergo günstigerer Preis der Graka, wo wir bei
6. wären: 549 - 699 Dollar für 3080 Niveau.
 
Ich habe die letzten Jahre auch nur AMD Karten gehabt.
HD 5850, HD 7870 und aktuell RX 580. Bisher keine Probleme.

R290x- Anfangs treiberprobs, dann geile Karte
jetzt ne Powercolor 5700Xt....nur Probleme bis jetzt. Austauschkarte bestellt. Wahrscheinlich allerdings auch Treiber.

Mal gucken was uns Lisa so bringt. ´Nicht so hart auf Kante genäht klingt erstmal gut
 
Ja, in den ersten Wochen wird es bestimmt kleine Probleme geben. Aber die werden alle gelöst werden. War bei der 5700XT ( meine erste AMD KArte) auch so.
Das wäre schön, ich kämpfe immer noch. Deshalb bin ich da auch vorsichtig mit den neuen AMDs. Allerdings bin ich auch mit meiner damaligen GTX 460 durch die Treiberhölle gegangen.
 
Nvidia hat mit der RTX 3080(Ti) 20GB jedoch ein verdammt heißes Eisen im - zugegebenermaßen geschmacklosen - Jensen-Backofen -> 4GB mehr als AMDs Flaggschiff.
Wichtig ist nur über die 10 GB zu kommen, da sie bereits jetzt genau am Limit ist. 12GB sind nur ein wenig mehr, doch sollte hier bereits 99,95% aller Games in den RAM passen. 16GB ist halt das schönes Sahnehäufchen.
20GB ist imo schon wieder zu viel, bzw. geht schon wieder zu viel Geld in unnötigen Speicher drauf. Ich denke nicht, dass man einen Vorteil mit 20GB vs 16GB in der Lebenszeit der Karte bekommen wird.
 
Enttäuschend, wenn sie manchmal die 3080 schlägt? Wie bitte? Und das für weniger Geld scheinbar? Das wäre natürlich top....und dann wohl auch mit mehr Vram?! Kann ich eigentlich nicht glauben, mal sehen.
Und weiterhin stellt sich die Frage, wieviel langsamer sie in den Spielen ist, in denen sie die 3080 nicht schlägt....Viel Geblubber bisher.
 
3080 Leistung mit 6Gb mehr Vram und vergleichbaren Softwarefeatures bei 300W und zum Selbstkostenpreis der NVidia Karten klingt gut.
Die enttäuschende Mehrleistung der 3090 einholen darf der geneigte Nutzer/Boardpartner dann mit der Brechstange selber. Bis auf den Speichervorteil bleibt von der Karte dann auch nichts über.

Das eigentliche Problem für NVidia ist, dass selbst eine "Super" oder "ti" von der 3080 mit 20GB Ram weder wirtschaftlich ist(viel Spielraum mit dem Preis ist schon bei der aktuellen 3080 nicht), noch kann man außer bei der reinen Speichermenge punkten:
Man säuft schon jetzt mehr, man ist schon jetzt teurer, "RTX on" ist nicht mehr exklusiv, DLSS 1 hat einen schlechten Ruf, DLSS 2 nutzt kaum jemand(der schlechte Ruf wirkt hier sicherlich nach)und Käufer haben Bedenken hinsichtlich der Stabilität/Stromversorgung. Mehr Speicher durch mehr Module kostet nur noch mehr Strom.

Als Kaufgrund für NVidia bleiben, nach aktuellem Stand der Gerüchte:
Man ist als Konsument vollkommen "überzeugt" von der Marke und würde auch Klopapier von NVidia kaufen.
Man hat Pech und ist durch Vendor-Lock-In auf NVidia festgelegt(G-Sync) und kommt da ohne erhebliche Mehrkosten nicht weg.
Man benötigt den Softwarestack(CUDA) als semiprofessioneller Nutzer(überschneidet sich allerdings auch zum Teil mit dem Vendor-Lock-In).
 
Zurück