News RTX 3090 Ti vs RX 7900 XTX: Wer wird die Nase vorn haben?

Das ging bei RTX 3000 doch auch so gut. Wie das bei RX6000 war weiß ich nicht genau.
Naja, so extrem dann eben nicht. Die 3er und 6er Reihen haben sich da teilweise nicht viel gegeben, bischen mehr Potenzial habe ich bei NV gesehen, wobei die Karten im Endeffekt eben auch etwas weniger effizient waren.

Aber die 4090 (die 4080 ja auch schon nicht mehr im Ansatz in dem Maße) ist halt wirklich extrem, 8% Leistungsverlust bei 50% weniger TBP habe ich so in der Art noch nie gesehen.

Sli und CF hatten doch keine Probleme.
Ach? Das echte Sli nicht, aber das unechte und Crossfire dann schon. Selbst SFR wäre in meinen Augen immer noch problematisch geworden, auch wenn man dies hardwareseitig deutlich besser hätte designen können und gerade mit Blick auf das MCM Design werden wir ja irgendwie eine Renessaince des Verfahrens bekommen. Aber auch bei SFR, was ja performancemäßig noch einmal hinter AFR zurückhing, war mal mind. das Problem die mangelnde Effizienz. In der Regel hat man zwischen 40 und 80% Mehrleistung bekommen (bei AFR) und 100% mehr Leistungsaufnahme gehabt. Wenn man von einem gut gemeinten Schnitt von 60% ausgeht, hat SLI/Crossfire eben die Effizienz auf 80% reduziert (wenn ich richtig rechnen kann?).
 
Naja, so extrem dann eben nicht. Die 3er und 6er Reihen haben sich da teilweise nicht viel gegeben, bischen mehr Potenzial habe ich bei NV gesehen, wobei die Karten im Endeffekt eben auch etwas weniger effizient waren.

Aber die 4090 (die 4080 ja auch schon nicht mehr im Ansatz in dem Maße) ist halt wirklich extrem, 8% Leistungsverlust bei 50% weniger TBP habe ich so in der Art noch nie gesehen.


Ach? Das echte Sli nicht, aber das unechte und Crossfire dann schon. Selbst SFR wäre in meinen Augen immer noch problematisch geworden, auch wenn man dies hardwareseitig deutlich besser hätte designen können und gerade mit Blick auf das MCM Design werden wir ja irgendwie eine Renessaince des Verfahrens bekommen. Aber auch bei SFR, was ja performancemäßig noch einmal hinter AFR zurückhing, war mal mind. das Problem die mangelnde Effizienz. In der Regel hat man zwischen 40 und 80% Mehrleistung bekommen (bei AFR) und 100% mehr Leistungsaufnahme gehabt. Wenn man von einem gut gemeinten Schnitt von 60% ausgeht, hat SLI/Crossfire eben die Effizienz auf 80% reduziert (wenn ich richtig rechnen kann?).

ASuch wenn ich das Multi Chip Design nicht mit Sli und CF vergleichen möchte, so muss ich doch zum SLI CF etwas sagen.

Im SFR war die Leistungsaufnahme nicht plus 100%, das hing an der Auslastung. Das AFR aber keinen echten Mehrwert, im Verhältnis zum Aufwand und Einsatz bringt, war durchs Konzept schon klar.
 
Verhält sich ein Ryzen wie ein Multisockel System? Leute, bitte.
Grundsätzlich schon!
Auch wenn die Probleme sicherlich geringer sind und mittels Interconnect und viel höherer Bandbreite minimalistischer sind. Aber letztlich ist ein Multisockel von der gleichen Thematik betroffen, wie ein Ryzen MultiChipModul, die Latenzen zwischen den einzelnen Chips. Nicht umsonst hat AMD von 4 CPU Kernen pro Modul auf 8 Kerne pro Modul geupgradet um in der Spezialanwendung Games die Probleme weitesgehend beheben zu können.

Die Herausforderung bei Chiplets sind die Interconnects (Bandbreite, Speed, Energie). Aber es bleibt 1 Prozessor.
Die Herausforderungen sind die Interconnects, das ist schon richtig, aber es bleibt eben nicht so richtig eine CPU. Siehe oben.

Auf GPUs umgemünzt würde ich ähnliche Thematiken sehen.

ASuch wenn ich das Multi Chip Design nicht mit Sli und CF vergleichen möchte, so muss ich doch zum SLI CF etwas sagen.
Es wird andere Themen geben, aber ich bin wirklich neugierig wie genau das MCM dort gelöst wird. Meines Erachtens nach wird es irgendwie in der Art SFR etwas geben müssen, AFR halte ich für ausgeschlossen und sinnlos, aber SFR oder etwas ähnliches wird es ja geben müssen.

Im SFR war die Leistungsaufnahme nicht plus 100%, das hing an der Auslastung.
Hast natürlich Recht, dennoch war die Effizienz negativ beeinträchtigt, da es eben doch gewaltige Reibungsverluste, auch bei SFR gab.
 
Ohne den restlichen Thread jetzt gelesen zu haben, aber mal ehrlich ...

Sorry, Leute, der Artikel ist so überflüssig wie ein Kropf, weil ganz eindeutig Fillercontent ohne tatsächliche inhaltliche Aussage.


"Gegen eine RTX 3090 Ti wird man klar vorne liegen, bei Raytracing könnte das Rennen dagegen enger ausfallen."

Jap, soweit die Annahme sämtlicher am Thema interessierten Forenmitglieder über HWLUXX, CBase und PCGHX hinweg. Schon die RX 6950 XT ist nah an dieser Karte dran, warum sollte ein Nachfolger in neuem Node also nicht vorbeiziehen können? Seufz ...


"Ob es gegen die RTX 4080 reichen wird, werden Tests zeigen ..."

Ach, wirklich? Sherlock Holmes hat gesprochen. Eine wahrhaftig beispiellose Deduktion.

Im Ernst mal, euren ausführlichen Testbericht werde ich wie immer interessiert lesen, aber diese Teaser-Pieces beschädigen in meinen Augen den Ruf eurer Seite als Quelle für ernstzunehmende Hardware-News. So etwas wäre auf ComputerBase heutzutage nie zu finden. Die verteilen auch nicht jedes noch so abwegige Gerücht weiter bzw. bewerten zumindest vorher, ob ihm auch nur ein Hauch Glaubwürdigkeit anhaftet.


Aber okay ... ich habe draufgeklickt, habe kommentiert ... damit habt ihr euer Ziel bei mir ja schon erreicht. Herzlichen Glückwunsch. Aber bei solchen Inhalten fällt mein Digital-Abo der PCGH der Inflation als nächstes zum Opfer ;)
 
Zuletzt bearbeitet:
Ist es 1 Prozessor?
Wie definierst du einen Prozessor?

Wenn du darauf hinaus willst, dass nur ein Sockel gebraucht wird, Glückwunsch.

In allen anderen Fällen verhält es sich nicht grob unterschiedlich zu einem Multi Sockel System! Natürlich ist die Ein Chip Lösung die deutlich elegantere, da hier eben der gemeinsame Cache nicht als lahmer RAM ausgebildet ist, sondern im Vergleich dazu quasi lichtgeschwindigkeitsschneller L3 Cache. Dennoch ist Struktur und Aufbau eben gar nicht so unterschiedlich.

Aber mal als Gegenfrage, würdest du einen Pentium 4 mit Prescott Kern als 1 Prozessor sehen? Was würdest du dann vom Pentium D halten? Sind zwei zusammengeklebte Prescott Kerne, die auf einem Die sitzen und diese kommunizerien dann tatsächlich wie ein Multi Sockel System über den FSB mit der Hauptplatine und dem RAM miteinander.

Ich hoffe du siehst was ich meine, will hier keinen Streit vom Zaun brechen. Aber nur wenn man den Prozessor pyhsisch als einen Chip sehen möchte, kann ich deiner Sicht etwas abgewinnen. Denke aber, dass wir hier so gut in der Materie sind, dass man die Ähnlichkeiten nicht abstreiten kann und die Gemeinsamkeiten zu einem Multi Sockel Setup schon sehr deutlich vorhanden sind und in meinen Augen eben auch überwiegen.
 
Wusste gar nicht das die 4090 keine Gamer Karte ist. Jetzt muss ich meine verkaufen.

Bin wohl keine Gamer... ;-(
Leider war meine Formulierung etwas unglücklich gewählt und bietet daher Spielraum für deine Interpretation. Als Enthusiasten Gamer würde ich die Zielgruppe der 4090 einschätzen. Ich meinte in meiner Nachricht "die Masse an Gamern" für die diese Karte uninteressant ist. Aber hey ich nehme deine Karte für 25% Abschlag vom Neupreis wegen gebraucht oder was ist letzter Preis? :-P
 
Der Artikel-Titel geht mal gar nicht.
Man muss nicht zu allen Mitteln greifen, um Klicks/Kommentare abzugreifen.:daumen2:
...
Ich verstehe auch den ganzen hype um das DLSS1/2 nicht. Das sieht alles so verwaschen und blurry aus das kann man doch nicht ernsthaft verkaufen... dagegn ist FSR mit der Schärfung der Kanten ein Augenschmaus.
...
Stimmt so nicht.
Das wird erstens durch Vergleichsbilder bei diversen Tests bestätigt,
andererseits kann ich das direkt für Cyberpunk und Control aus erster Hand bestätigen.
Beide sehen mit DLSS (2) sehr gut aus.

Klar ist es nicht genauso scharf wie nativ aber das Bild ist dafür deutlich ruhiger.

FSR hat noch sehr viele Aussetzer und braucht noch mehr Entwicklung.
DLSS schlecht zu reden und gleichzeitig FSR zu loben ist absurd.
 
Zuletzt bearbeitet:
Ohne den restlichen Thread jetzt gelesen zu haben, aber mal ehrlich ...

Sorry, Leute, der Artikel ist so überflüssig wie ein Kropf, weil ganz eindeutig Fillercontent ohne tatsächliche inhaltliche Aussage.


"Gegen eine RTX 3090 Ti wird man klar vorne liegen, bei Raytracing könnte das Rennen dagegen enger ausfallen."

Jap, soweit die Annahme sämtlicher am Thema interessierten Forenmitglieder über HWLUXX, CBase und PCGHX hinweg. Schon die RX 6950 XT ist nah an dieser Karte dran, warum sollte ein Nachfolger in neuem Node also nicht vorbeiziehen können? Seufz ...


"Ob es gegen die RTX 4080 reichen wird, werden Tests zeigen ..."

Ach, wirklich? Sherlock Holmes hat gesprochen. Eine wahrhaftig beispiellose Deduktion.

Im Ernst mal, euren ausführlichen Testbericht werde ich wie immer interessiert lesen, aber diese Teaser-Pieces beschädigen in meinen Augen den Ruf eurer Seite als Quelle für ernstzunehmende Hardware-News. So etwas wäre auf ComputerBase heutzutage nie zu finden. Die verteilen auch nicht jedes noch so abwegige Gerücht weiter bzw. bewerten zumindest vorher, ob ihm auch nur ein Hauch Glaubwürdigkeit anhaftet.


Aber okay ... ich habe draufgeklickt, habe kommentiert ... damit habt ihr euer Ziel bei mir ja schon erreicht. Herzlichen Glückwunsch. Aber bei solchen Inhalten fällt mein Digital-Abo der PCGH der Inflation als nächstes zum Opfer ;)
Wenn hier ein paar Leute diskutieren wollen, oder spekulieren wollen, warum dann nicht? Lass die Leute doch, wenn es einen nervt, oder einem zu blöd ist, dann einfach nicht drauf klicken...
 
@derneuemann

Mit einer Diskussionen um Gerüchte und Spekulationen habe ich gar kein Problem, die finden in Threads zum Thema sowieso statt und gehören auch einfach zum Pre-Launch-Zeitraum dazu. Für Zen 4 und Ada war es ja nicht anders.

Bedeutet aber auch: Fillercontent zu veröffentlichen ist nicht notwendig, um den Leuten Raum dafür einzuräumen, entsprechend zu fachsimpeln. Dieser Raum ist nämlich längst da - unter tatsächlichen News zum Thema, unter Tests zu Ada-Grafikkarten und so weiter und so fort.

Wenn ich auf redaktionelle Inhalte klicke, erwarte ich jedenfalls auch genau das - *Inhalte*. Und wie gesagt, die existieren hier nicht. Besagte Diskussionen sind dabei mitnichten das, was mir "zu blöd" ist, an denen habe ich genauso viel Spaß wie jeder über lange Jahre aktive Forist.
Dämlich finde ich dagegen besagte Clickbait-Inhalte. Und ebensolche werde ich dann künftig eben nicht auch noch monetär unterstützen. Bedeutet: Wenn das Niveau einer Seite ein gewisses Level unterschreitet, wird AdBlock reingehauen und das Abo gekündigt ^_^



Disclaimer: Die Plus-Inhalte taugen in meinen Augen meist schon, das ist gar nicht die Frage. PCGH im Gesamten will ich damit hier gar nicht schlechtgeredet haben.
Gratisinhalte ohne Inhalt kann man sich dagegen auch sparen. Wenn das Personal in einem Hardware-Jahr wie 2022, in dem in wenigen Monaten so viele größere Releases anstehen, so wenig ausgelastet ist, dass derlei Artikel notwendig werden, hat man eventuell einfach zu viel davon.
 
Die 7900XTX wird in Raster schneller sein, aber in RT wird sie hinter der 3090Ti sein.

Was macht Dich da so sicher? Die RX 7000er sollen ja in Punkto Raytracing Performance gegenüber den 6000ern deutlich verbessert worden sein. Und wenn AMDs Angaben stimmen, dass die 7900XTX als Konkurrenzkarte zur 4080 gedacht ist, sollte sie sowieso deutlich schneller als die 3090ti sein, dem entsprehend hoffentlich auch mit Raytracing zumindest "etwas schneller".
 
Sorry, das ist ja auch Quark....NV macht genau das gleiche auf ihren Folien....ah moment, Intel ja auch ;)

Ich möchte nur an die NV Folie erinnern auf der der 4080 2-3 fache Leistung attestiert wird. Und da steht weder was von RT noch von DLSS3 auf der Folie. Also bitte, bleibt mal auf dem Boden mit den ach so tollen NV GPUs...

Du hast micht missverstanden, es geht nicht um die Angabe der Leistungssteigerung sondern um die Angabe der Setting auf der Folie mit den FPS Vergleichen zum eigenen Vorgänger. Selbst da steht eben nicht 4k Max, sondern up to 4k max.
 
Ich vermute die 7900XTX wird sich zwischen 4080 und 3090 einordnen. Was aber völlig i.O. wäre. Preis/Leistung wird man AMD wohl nich vorbei kommen…
 
Also die 6950XT liegt in eurer Benchmark-Zusammenstellung bereits nur 5% hinter der 3090TI, in der normalen Rasterisierung liegt sie oft genug bereits vor der 3090TI und ihr fragt, ob die 7900XTX vor der 3090TI landen wird? AMD sagt Leistung 1.5-1.7x zur 6950XT…wird sie wohl auch dezent vor der 3090TI landen, aber gut.
 
Ich kenne keinen der sich Aktiv für Raytraycing interessiert...
Ich kenne niemanden der sich aktiv für forward oder deferred rendering interessiert...
ja die technik ist toll aber die geht den meisten AM ****** VORBEI.
Ja- Wie beim Rastern auch. Geil aussehen soll es - Fertig.
Beim Rastern hast Du halt immer das Problem, dass je geiler es aussieht, umso statischer ist die Spielwelt.
Mit einer der Hauptkritikpunkte von Usern ist, dass Welten wenig interaktiv sind, wenig in Sachen physik leisten usw.

Also ist raytracing der way to go. Ob das den User interessiert oder nicht interessiert wiederum die Studios nicht, die durch die neue Technik erheblich Aufwand sparen und die erheblichen Einschränkungen im Leveldesign nicht mehr hinnehmen müssen.

Ich verstehe auch den ganzen hype um das DLSS1/2 nicht. Das sieht alles so verwaschen und blurry aus das kann man doch nicht ernsthaft verkaufen... dagegn ist FSR mit der Schärfung der Kanten ein Augenschmaus.
Naja- Nachdem Du Raytracing ja schon nicht verstehst, sollte einen das wirklich nicht wundern. Und DLSS als Blurry zu bezeichnen und FSR als Augenschmaus....
Netter Versuch.
DLSS3 mit dem Framegenerator ist in meinen augen Absurd und die zusätzliche Latenz...
Es gibt keine zusätzliche Latenz- Im normalfall landest Du unter der Nativen.
das macht kein Sinn...
Siehe oben- Natürlich macht das Sinn. Ein Stück weniger Latenz als Nativ aber trotzdem das doppelte und dreifache an Frames.

wenn das Spiel unter 30 RealFPS fällt dann ist die Framegenration absolut sinnlos weil die doppelte Latenz das Spiel unspielbar macht...
Mit 30 FPS kann man im Normalfall die meisten Spiele noch ohne Schwierigkeiten spielen.
Haben viele jetzt Jahrzehnte geschafft und schaffen es immernoch.
Wenn die RealFPS über 60 FPS steigt dann dann braucht man Framegenration nicht...
Manche wollen halt ihren 120Hz Monitor gassi führen.
und wenn man competitive Games in Betracht zieht so sind die a) bereits Absurd auf FPS optimiert und b) kein ernst zu nehmender Spieler sich die Latzen reinholen will.
Competitive Games betreibt man ernsthaft ja auch auf niedrigen Grafiksettings- Da brauchts sowieso keine Monster- Grafikkarten, weil es da meist nur um die rohe Spielmechanik geht.

und allein durch den Opensource Ansatz Nvidias propritäerer Technik vorzuziehen.
Super- Schön dass Du jemand bist, der Open Source lebt und die Codebasis mit den anderen Entwicklern weitertreibt.
 
Zuletzt bearbeitet:
Zurück