AMD Radeon RDNA3 & MCM Laberthread

so wäre das Verhältnis XTX zu XT normal
Die Werte sind halt offensichtlich fake. Der postet zu jeder noch nicht veröffentlichter Karte so einen Quark…
 
so wäre das Verhältnis XTX zu XT normal

Die Werte sind halt offensichtlich fake. Der postet zu jeder noch nicht veröffentlichter Karte so einen Quark…
Das hab ich gestern auf der Suche nach Leaks auch gefunden, es scheint zumindest plausibel.
Naja den einen Tag kriegen wir auch noch totgeschlagen. Bisher sieht es so nach nem Abstand von 10% zur 80er aus, da hätte ich etwas mehr erwartet. Gab auch Vergleiche mit Taktraten und Auslastungsanzeige da kann man dann schon zumindest etwas ablesen ob das plausibel ist.
 
Zuletzt bearbeitet:
btw.
@hellm konnte keine SPPT bei den 7000ern finden!
--> evtl. ist dann für UVer die kleine XT doch wieder interessant, weil wharscheinlich mit weniger Volt ab Werk
(ansonsten hätte ich gesagt, das die XTX sowenig mehr kostet, das für OCer ne XT uninteressant ist)

() Ist natürlich net so schon, das man dann nen EVC2 braucht, um an den Schräubchen zu drehen.
 
Falls das alles stimmt ist's zumindest einfacher diese Gen zu ignorieren^^

Aber ist natürlich scheiße falls das bedeutet dass MPT in den folgenden Gen auch nicht mehr geht evtl. :/
 
Falls das alles stimmt ist's zumindest einfacher diese Gen zu ignorieren^^

Aber ist natürlich ********************* falls das bedeutet dass MPT in den folgenden Gen auch nicht mehr geht evtl. :/
Da vergeht mir langsam wirklich die Lust an Hardware mit diesen restriktiven Umgang. Wenn ich eine Radeon nicht mehr angemessen tweaken kann, geht für mich ein entscheidender Vorteil verloren.

Naja heute kommen die Reviews, schaun wir mal was es gibt.
 
Tjo, die Tests zeigen ein Bild, auf welches ich so in etwa gehofft hatte:
Eine 7900XTX mit ~85% Leistung der 4090 bei max. 350W für max. 1500€ (deutscher Ladenpreis) wäre sofort gekauft...
Was kommt nun tatsächlich dabei rum? 83% der 4090 bei ~353W Gaming Maximum für 1150€ deutscher Ladenpreis (Custom dann etwa ~1200-1300€). Damit kann ich leben. Ich bin nur unschlüssig, ob ich nicht lieber ~3% Rasterleistung gegen ~19% eintauschen und auf die 4080 gehen möchte, die Gamerock ist derzeit bei 1339€.
Wo steht ihr jetzt, nachdem ihr euch die Tests zu Gemüte geführt habt?
 
Bleibe vorerst bei der 6900 XT, auch wenn ich aufgrund meines Monitors sehr mit einer 7900 XTX liebäugel(t)e. Klar, die Leistungsaufnahme im Idle wird noch sinken, die Frage ist bloß wann. Da ich mit UHD @ 240 Hz sicherlich auf Nummer sicher gehen sollte, beobachte ich ganz entspannt den Markt und gebe derweil der 6900 XT ein bisschen die Sporen. :)
 
Ich würde mir (wäre ich denn bereit - ungleich können - so viel Geld für eine Karte auszugeben) wohl dann direkt die dicke Emma holen und auf Effizienz tunen (4090). Da aktuell aber kein Wechseldruck besteht, schau ich aber vorerst schön entspannt von der Seitenlinie zu :D
 
Jaaa, darüber denke ich auch nach...
Aber ~22% mehr Rasterleistung für ~70% mehr Asche sehe ich irgendwie nicht ein. Die 4090 ist meiner Meinung nach für Gamer nur interessant, wenn man scharf auf das Plus an Performance im Raytracing ist, 35% sind schon ne Hausnummer. Mir persönlich ist das nicht wichtig genug für diesen Preis. Zumal die nächste Big Player Karte von nVidia NOCH teurer werden wird, weil offenbar genug User auf die Kohle scheißen.

Ach man, noch nie war ich so aufrüstwillig und doch so unentschlossen.
 
Zuletzt bearbeitet:
Steigerung bei P/W und Mehrperformance ggü. RDNA2 sind ja deutlich geringer als bei AMDs Vorstellung. Was da los?
Bin definitiv raus, ist mir zu wenig Mehrwert, irgendwie zu unsexy.
Wünsche aber allen viel Spaß beim testen und tweaken.

Aber ist natürlich ********************* falls das bedeutet dass MPT in den folgenden Gen auch nicht mehr geht evtl. :/
Wär richtig kagge, wenn Radeons in Zukunft auch so ne zugeschnürte Mumu sind wie inzwischen die nV Karten.
Ich bleibe mal noch vorsichtig optimistisch.
 
Wo steht ihr jetzt, nachdem ihr euch die Tests zu Gemüte geführt habt?
Ich möchte zum aktuellen Zeitpunkt noch gar nicht wirklich bewerten.
Irgendwo wusste ich, dass uns eine Zwischen-Gen erwartet, die es schwer haben würde an vergleichbare Entwicklungssprünge wie seiner Zeit RDNA 2, wo die Konsolenhersteller mitgewirkt haben, anzuknüpfen.
Dazu kommt der schwierige Wechsel auf eine MCM-Bauweise, der zwar grundlegend geglückt scheint, aber momentan wohl noch den ein oder andern Kompromiss mit sich bringt, siehe Idle-Leistungsaufnahme.
Und da komm ich dann an einen Punkt wo ich etwas knöterig werde, weil das war von AMD so garantiert nicht gewollt und das hätten Sie besser hinbekommen müssen.
Könnt was dran sein, dass Sie die MCD´s bei hoher Bildwiederholrate nicht komplett schlummern lassen können und wäre extrem unglücklich, sofern sich das mit einem Update nicht noch regeln lässt.
Sowas hängt dir echt schnell nach..

Die Performance allgemein, keine Frage, mehr als wohl jeder Normalo braucht und dann noch zu einem besseren Preispunkt als der Mitbewerb aktuell bietet.
Um mit dem Produkt am Ende jedoch aktuelle Marktanteile zu halten oder gar auszubauen, dafür muss der Preis in Q1/2023 meiner Meinung nach nochmal um gut 200-300€ runter, denn augenblicklich fehlt mir hier noch ein wenig das Salz in der Suppe.
Schwadronier aber natürlich auch mit einer 6900 neben mir und damit fehlt es halt an wenig.
Einen Preisrutsch bei den 7900érn könnte ich mir kommendes Jahr echt früh vorstellen und ich glaub AMD hat da auch ausreichend Luft für.
 
Tjo, die Tests zeigen ein Bild, auf welches ich so in etwa gehofft hatte:

Was kommt nun tatsächlich dabei rum? 83% der 4090 bei ~353W Gaming Maximum für 1150€ deutscher Ladenpreis (Custom dann etwa ~1200-1300€). Damit kann ich leben. Ich bin nur unschlüssig, ob ich nicht lieber ~3% Rasterleistung gegen ~19% eintauschen und auf die 4080 gehen möchte, die Gamerock ist derzeit bei 1339€.
Wo steht ihr jetzt, nachdem ihr euch die Tests zu Gemüte geführt habt?
Ja das Gap ist zu klein bei den Customs zur 4080 bei Relase wie es aussieht, bin auch noch am hadern.
Bleibe vorerst bei der 6900 XT, auch wenn ich aufgrund meines Monitors sehr mit einer 7900 XTX liebäugel(t)e. Klar, die Leistungsaufnahme im Idle wird noch sinken, die Frage ist bloß wann. Da ich mit UHD @ 240 Hz sicherlich auf Nummer sicher gehen sollte, beobachte ich ganz entspannt den Markt und gebe derweil der 6900 XT ein bisschen die Sporen. :)
Hab mir just den selben Monitor bestellt den du auch hast und stehe nun vor dem selben Problem....
Einen Preisrutsch bei den 7900érn könnte ich mir kommendes Jahr echt früh vorstellen und ich glaub AMD hat da auch ausreichend Luft für.
Denke auch das zu Relase die Karten noch zu teuer sein werden. Die Refs sind diesmal für mich nicht interessant.
 
Aber ~22% mehr Rasterleistung für ~70% mehr Asche sehe ich irgendwie nicht ein.
Naja in UHD, also im reinen GPU Limit, sind es schon 28%. Bei Computerbase sind es sogar 34%. Das zusammen mit der besseren Effizienz, der höheren RT Performance und dem Bonus als schnellste GPU lassen das PLV irgendwie gar nicht mal so völlig absurd aussehen. Klar ist die Karte viel zu teuer, aber trotzdem…

Irgendwie bin ich bisher echt enttäuscht von RDNA3. Besonders von der Effizienz…
 
Mein Fazit:

Die 6800XT bleibt, da alle Karten bis auf die 4090 nicht das Leistungsplus bieten, dass den von beiden Herstellern aufgerufenen Preisen gerecht wird. Die 4090 ist mir aufgrund des vorschreitenden Zeitmangels fürs Gaming zudem zu teuer. Die 4080 wirkt einfach nur dreist und ist aus diesem Grunde zu boykottieren.

Die neuen AMD-Karten sind meiner Meinung nach treiberseitig noch unfertiger als vergangene Generationen. Evtl. ist ja doch etwas dran, dass AMD Hardware-/Designbugs via Treiber Software fixen musste und deshalb leistungstechnisch nicht der erhoffte Sprung erzielt werden konnte.

Insgesamt – vor allem zu den aufgerufenen Preisen – enttäuschend. :daumen2:
 
Wieso ist die 4080 so viel dreister, als die AMD Karten? Deren aufgerufenen Preis empfinde ich für das Gebotene ebenfalls als zu hoch.
 
Preise habe ich bei beiden Herstellern kritisiert. ;)

Nvidia überspannt meiner Meinung nach einfach den Bogen. Der Chip der 4080 ist einer solchen unwürdig und bekommt nur aufgrund der gecancelten 4080 12Gb nicht die Kritik die eigentlich angebracht wäre. Als 4070(ti) könnte man von einer gelungenen Karte sprechen, dann aber halt nicht zu dem Preis der jetzt aufgerufen wird. Mir ist dabei auch klar, dass die mangelnde Konkurrenz dabei einen erheblichen Teil zur aktuellen Markt-/Preissituation beiträgt. :ka:
 
Zurück