Wer aus Prinzip zu einer Marke greift, egal ob die Konkurrenz Vergleichbares, wenn nicht sogar besseres bietet, ist für mich Fanboy. Und wenn sich eine 3060 deutlich besser als eine 6600 verkauft, bzw. eine 3070 besser als eine 6700 XT, also Regionen wo man nicht mit RT oder DLSS 3 argumentieren kann, dann ist das reines Fanboytum.
Das ist nicht richtig. Du merkst doch direkt das das nur oberflächlich so ist. Weiter ist RT auch auf 3060Ti und 3070 in 1080p zum Beispiel oft gut nutzbar und sieht besser aus. Das entfällt bei einer 6700XT komplett.
Als ich meine 3060TI gekauft habe, war eine 6700XT 50€ teurer und hätte mir für mich weniger geboten. Das hat nichts mit Fanboy zu tun...
Dennoch wäre ich bei dir, wer blind immer wieder nur nach Hersteller kauft könnte auch einfach mal die Augen öffnen. Wobei auch das nur zum kleinsten Teil Fanboys sein dürften. Viel eher wird man auchd darauf treffen, das viele keine Lust haben sich mit der Materie zu beschäftigen.
Es ist ja nicht so, dass ohne RT plötzlich keine Beleuchtung mehr stattfindet. Das ging Jahrzehntelang ohne. Es ist halt nicht 100% realistisch/dynamisch.
Also ohne RT weniger Qualität.
Allerdings fallen mir Bildfehler bzw. Ruckler eher negativ auf als bspw. Kerzenlicht, dass nicht 100% realistisch reflektiert wird.
RT ist für mich ähnlich wie Hairworks, wenn es die Karte packt ein nettes Feature. Aber kein Grund die restlichen Details dafür runterzudrehen.
Bildfehler klare Kiste, aber das sind ja Fehler
. Wer im Stande ist seine Settings richtig zu setzen, bekommt ohne Treiberfehler keine Bildfehler. Ruckler dasselbe...
Haben VR-Headsets nicht normalerweise 2 Displays? Eines fürs linke Auge, eines fürs Rechte?
Die Bilder für die können nicht 100% identisch sein wenn man einen 3D-Effekt will.
Wenn das nun in Serie statt Parallel berechnet wird und die Ergebnisse für Display 1 verworfen werden und alles für Display 2 neu geladen wird bzw. die Pipeline der MCM nicht dafür ausgelegt ist, könnte das Performanceeinbrüche erklären.
Aber das ist wie gesagt ein uninformierter Erklärungsversuch, was das Problem/Grund für den Abfall zur Vorgeneration sein könnte.
Ich denke, das es eigentlich schlauer funktionieren müsste
Klar wäre das ein Grund zur Aufregung. Aber, dass manche Karten bei Speicherfressern verhungern, obwohl der Chip mehr als genug Leistung hätte ist ja durchaus nachgewiesen.
Für mich wäre das kein Grund sich aufzuregen, wenn in 3 von 40 Spielen mal ich niedrigere Texturen auswählen muss um dann wieder schneller zu sein. Man kauft eine Karte zum bestimmten Zeitpunkt und Fakt, also echter Fakt ist, das im Schnitt eine 3080 immer noch besser performt in 1440p als eine 6800XT. Hat der Käufer einer 3080 doch alles richtig gemacht. Wer kauft Hardware für in 5 Jahren...
Ist doch schön wenn Karten mit mehr Speicher im späteren Verlauf ihres Daseins auch mal besser perfomen, wenn die das in den wichtigen ersten drei Jahren schon nicht machen.
Die Anmerkung mit RT war eher für die "Alle Regler rechts mit DLSS"-Fraktion weil es einfach nur wiedersprüchlich ist.
Wer sagt das denn?
Es dürfte noch die fehlende Erfahrung des Treiber Teams mit dem MCM Ansatz sein, der die Performance in einigen Bereichen beschränkt.
Ich hoffe es
Aber es kann auch ein grundsätzlicher Bug im Design sein, der eventuell auch dazu beigetragen hat, dass die generellen Performance- und Effizienzziele nicht erreicht wurden.
Bitte nicht
Immerhin sollte RDNA3 mit über 3GHz laufen und 50% effizienter sein, als RDNA2.
Bei den vorherigen Releases mit RDNA 1 und 2.. und den ZEN CPUs haben sie es ja jedes Mal geschafft, ihre Vorhersagen einzuhalten und teilweise zu übertreffen.
7900XT leistet im Schnitt 20% mehr als eine 6900XT (natürlich Stock vs stock)
Verbraucht dabei rund 10W mehr, bei 4GB mehr Speicher. Wenn man die 7900XT so drosselt, das diese genau wie die 6900XT performt, landet man wohl bei rund 200W. Wenn man sogar noch 4GB abziehen, würden man gut möglich bei nur 190W landen.
300 zu 200W passt doch alles
Wie sieht es beim OC eigentlich aus bei RX7900... Kann man die Spannung anheben usw... Da scheitert man bei der 7900XT doch dran und dann halt bei 2850MHz oder so?
Man sieht es ja auch an den Absatzzahlen vom letzten Quartal. Der Einbruch war sehr extrem - aber zu erwarten.
Da Mining nun erst mal wieder tot ist, wird der durchschnittliche Verkaufspreis deutlich in den Keller gehen.
Die Löhne haben in den letzten Monaten einen deutlichen Kaufkraftrückgang mitgemacht.
Da sind neue GPUs bei weitem nicht mehr oben auf der Kaufliste.