Special Durchblick bei Grafikkarten: Preis-Leistungs-Verhältnis für Rasterizing und Raytracing

Ich nutze RT zwar auch nicht (finde es selbst im Vorzeigespiel CP unterwältigend), aber aufgrund seines performancefressenden Charakters ist es schon ok, daß man es separat aufführt. Und wenn nicht aus diesem Grund, dann vielleicht zusätzlich aus dem, daß AMD eine Generation weniger Zeit zum entwickeln hatte und die Leistung beider Anbieter noch unterschiedlich ausfällt.
 
Also ich finde RT in Cyberpunk recht gut:



Die Bilder sind noch mit dem alten Monitor in 1080p, DLSS Version 2.3.3, Qualität und mittlerem Raytracing mit allen Einstellungen aktiv entstanden.
Nun nutze ich 1440p und DLSS in Version 3.1.11 mit Qualität ausbalanciert.
 
Zuletzt bearbeitet:
Diese Übersicht ist exakt wonach ich gesucht habe und viel hilfreicher als die üblichen Leistungsindizes. Ich will auch gerne erklären warum:

Zuletzt aufgerüstet habe ich Anfang 2019, als kurzzeitig eine Verschnaufpause vom Cryptoboom eintrat und die Preise zumindest annehmbar waren. Seither sind vier Jahre vergangen, in denen ich aufgrund der völlig überzogenen Preise grundsätzlich kein Upgrade in Erwägung gezogen habe. Das dürfte sich mit dem Konsumverhalten der allermeisten Anwender decken, die nicht aus Prinzip immer das aktuelle Spitzenmodell besitzen müssen.

Die Produktgestaltung sieht aber vor, dass jedes Jahr eine neue GPU-Generation in vier bis fünf Ausbaustufen platziert werden muss und das von mittlerweile drei Herstellern. Wer eine informierte Kaufentscheidung fällen will, muss also die preisliche Positionierung von mehreren Dutzend Karten und deren Leistungsfähigkeit bezogen auf das eigene Nutzungsszenario kennen. Eine riesige Recherchearbeit, zumal bei sich ständig ändernden Preisen.

Stattdessen kann man anhand der vorgelegten Tabelle einfach von oben nach unten alle Modelle durchgehen, bis die eigene Budgetgrenze erreicht ist. Alternativ nimmt man das erste Modell, dass die eigenen Anforderungen erfüllt.

Sehr sinnvoll ist auch eine getrennte Betrachtung von Rasterizing und Raytraycing, da dies eben zwei grundverschiedene Anwendungsszenarien mit eigenen Definitionen von Leistung sind und eine Vermengung die Übersicht zwangsläufig verzerren würde.

Ich würde mich sehr freuen, wenn das gewählte Format zukünftig regelmäßig aktualisiert würde!
 
Eine sehr schöne und übersichtliche Zusammenstellung.
Ich würde es mir noch wünschen, dass im Diagramm bei jeder Grafikkarte an der Y-Achse immer die Speichergröße dabei steht, und zwar auch dann, wenn es von der Grafikkarte nur eine Version der Speicherbestückung gibt. Denn anders als der Autor weiß ich nicht aus dem Kopf auf Anhieb, welche AMD 6xx0 X/XT/XTX mit wieviel GB daherkommt. Und theoretisch wäre es ja auch denkbar, dass in der Zukunft eine GPU mit abweichender Speicherbestückung nachträglich aufgelegt wird und die könnte man dann beim Lesen des Artikels automatisch ausschließen.
Bitte als konstruktive Kritik/Verbesserungsvorschlag und nicht als Nörgelei verstehen!
P.S.: Monatlich aktualisieren ist aber eine sehr forsche Zielstellung!
 
Zuletzt bearbeitet:
Also ich finde RT in Cyberpunk recht gut:



Die Bilder sind noch mit dem alten Monitor in 1080p, DLSS Version 2.3.3 Qualität auf mitterem Raytracing mit allen Einstellungen entstanden.
Nun nutze ich 1440p, DLSS Version 3.1.11 balanced.
Also ich finde die beste Grafik die ich je gesehen habe und das sagen mir mehrere, auch CP, ist The Last of Us, auch die Beleuchtung, Spiegelbild im Spiegel, alles perfekt und das ganz OHNE RT
 
NBB hatte die MSI RX 6800 XT Gaming Z Trio heute für 500€ + ein Kasten Bier raus gehauen. Schnäppchen!
1682597860675.png
 
Jetzt ist Ihre Meinung gefragt zu Durchblick bei Grafikkarten: Preis-Leistungs-Verhältnis für Rasterizing und Raytracing
Das ist eine schöne Aufstellung, Danke! Das habe ich bisher immer selber ähnlich so gemacht. Geht es allerdings ums Aufrüsten, sieht die Bewertung anders aus. Ich schaue dann immer, was mich die Mehrleistung kostet. Und wenn ich 50% Mehrleistung für 500,- bekomme und 100% für 750,-€, dann fällt die Entscheidung leicht. Oder auch nicht, weil es absolut absurde Preise sind. Aber sie werden nicht mehr großartig fallen.

Und dann muss man immer noch die VRAM Menge mit bewerten. Denn was bringt einer 3060TI, die ich auch in der engeren Wahl hatte, wenn man nur 8GB VRAM bekomnt und damit heute schon viele Regler weit nach links müssen?
 
Zuletzt bearbeitet:
Die 60ti war auch Hammer, die konnte sich in 1080p so richtig austoben. Welch' Wunder, dürfte sie bei der Auflösung ein gutes Stück schneller sein wie zB. eine 3080, die bei jemand anderes mit 1440p zu kämpfen hat. Für 350€ Mücken gekauft, vor zwei Monaten für's gleiche Geld wieder verkauft. Wegen dem Speicher, noch kriegt man sie gut weg.

Und nun? Nun hängt wieder die 1070 dran (siehe Kommentar eine Seite zuvor), mit... ebenfalls 8gb Speicher. *ba dum tss* :-o
 
Zuletzt bearbeitet:
Genau so spielen "die Spieler" ja auch: laut Steam (trotz aller Ungenauigkeiten in deren Statistik) zocken immer noch rund 65% mit TollHD™ und mit Karten jenseits von Gut und Böse, welche aber genau zu dieser Auflösung passen. Da mault keiner, daß er seine 3080 jetzt nicht tauschen kann, weil er von nV kein neues/besseres/bezahlbares/.. Spielzeug bekommen hat. So kennt deine genannte Auflösung außerhalb größerer Foren kaum einer, die würden bei diesen Zahlen eher Maße von einem Gehäuse vermuten oder sowas
:-]
.

Übrigens spiele ich auch mit 1080p und nach dem Verkauf meiner 3060ti zufällig auch wieder mit einer 1070, welche genau aus diesen Gründen im Kleiderschrank liegt. Aber wenn ich morgen Bock auf'ne 4070 hätte, würde ich mir die bestellen, Auflösung hin oder her. Mag das einfach, wenn die Karten alles mit Leichtigkeit wuppen können. Man kann immer mindestens eine Generation aussetzen und manches Mal verkaufe ich ne Karte und die dann aktuellen Spiele konnten das jeweilige Modell nicht immer an die 100% bringen. Ich würde das aber nicht so machen, wenn FullHD für mich ein Kompromiss wäre. Ne, ist es nicht, bei 25cm Abstand ist das top zum spielen. Und ich hatte jahrelang wqhd, daran liegt es nicht.
Ja natürlich kann jeder dies und das machen und natürlich kann man problemlos einen Highend Gaming Pc mit ddr5, ryzen 7800X3D und ner rtx4090 an einen 24 Zoll 60hz 1080p monitor anschließen. Das geht sicher top und die 60fps wird man in 99% aller Spiele (einzige Ausnahme ist Star Citizen) erreichen.
Aber...Amd kam schon 2017 mit ihrer mainstream rx580 und 8gn daher. NV hat schon bei der rtx2060 6gb gemerkt dass man bei so einer schwachen Karte doch besser 8 gb braucht.
Wenn nun aber 2023 NV in ihre Oberklasse Rtx4070ti nur 12gn reinhaut und dafür 900€ kassieren will...dann glaube ich es nur einem Tag im Jahr, am 1. April. Denn die Rtx4070ti ist.mit den 12gb nur ein schlechter Scherz. Ich stell mir einen Porche 911 gt3 turbo oder so vor der mit 175er Reifen von Porsche für 100.000€ verkauft wird. Ich glaube damit wären sie die Witzfiguren der ganzen Autobranche. Bei NV gibt's unerklärlicher Weise super viele die so einen Schrott sogar verteidigen & schönreden. ;-)
 
Ja natürlich kann jeder dies und das machen und natürlich kann man problemlos einen Highend Gaming Pc mit ddr5, ryzen 7800X3D und ner rtx4090 an einen 24 Zoll 60hz 1080p monitor anschließen. Das geht sicher top und die 60fps wird man in 99% aller Spiele (einzige Ausnahme ist Star Citizen) erreichen.
Aber...Amd kam schon 2017 mit ihrer mainstream rx580 und 8gn daher. NV hat schon bei der rtx2060 6gb gemerkt dass man bei so einer schwachen Karte doch besser 8 gb braucht.
Wenn nun aber 2023 NV in ihre Oberklasse Rtx4070ti nur 12gn reinhaut und dafür 900€ kassieren will...dann glaube ich es nur einem Tag im Jahr, am 1. April. Denn die Rtx4070ti ist.mit den 12gb nur ein schlechter Scherz. Ich stell mir einen Porche 911 gt3 turbo oder so vor der mit 175er Reifen von Porsche für 100.000€ verkauft wird. Ich glaube damit wären sie die Witzfiguren der ganzen Autobranche. Bei NV gibt's unerklärlicher Weise super viele die so einen Schrott sogar verteidigen & schönreden. ;-)
Leider sehr passend...
 
Alles richtig, habe ja auch nicht das Gegenteil behauptet. Ich wollte nur aufzeigen, daß 1080p eine Auflösung von vielen ist und "absolute Unterklasse" ist sie nur in Foren-Bubbles wie dieser hier. Für den weitaus größten Teil aller Spieler weltweit bedeutet die einfach bezahlbares, effizientes Spielen, was auch immer. Günstig in der Anschaffung, günstig zu betreiben.

Und natürlich ist die 4070 eine gute Karte (wie man will..) auch für diese Auflösung. Weil ein wahrscheinlich gar nicht so kleiner Anteil der FullHD-Spieler mittlerweile mit weitaus mehr hz als 60 unterwegs sein dürfte. Allein um ein Ziel von 144/165 fps zu erreichen, dürfte die Karte bereits bei einigen Spielen ab Kaufdatum an ihre Grenze kommen, wenn sie es überhaupt erreicht. 1080p ist manchmal nicht nur Dully-Auflösung, in Verbindung mit high refresh gaming ist es unter Umständen die einzige Möglichkeit überhaupt high refresh spielen zu können, will man sich keine 4090 für 12000€ kaufen. Das könnte sich jetzt mit dlls3 ändern, muß man mal sehen in einiger Zeit.

Aber nichtsdestotrotz haben wir alle Recht, 12gb Speicher und kleineres Interface machen die Tür nicht gerade auf für diese Karte in Verbindung mit hohen Auflösungen. Mit dieser Kritik muß die Karte jetzt auch leben. Ich kann es übrigens auch, für mich ist derzeit nur der Preis ein Punkt, der gar nicht geht. Alles eben angesprochene wäre für mich kein Ausschlußkriterium, weil ich die 4070 für eine wirkliche Aufrüstoption halte für Leute, die (wie ich jetzt auch wieder) von einer 10x0 oder 20x0 kommen. Der pool von Spielern, die seit Jahren keine Karte zu diesen räudigen Preisen gekauft haben, muß unendlich sein. Und denen haut man nun mit 650 Talern wieder die Bratpfanne vor die Birne, das ist meine Kritik.
 
Guter Artikel :daumen:

Es wurde jetzt endlich mal auch aus "Normaluser-Sicht" mit
beschränktem Budget auf unser Hobby geschaut...

Quasi die rational-ökonomische Betrachtung.

Also was erhalte ich als Normal-User für mein Geld?
Und da fährt man bei AMD/Intel besser, als bei NVidia.

Gut finde ich auch, dass endlich, endlich, endlich mal der
Punkt RT so dargestellt wurde, wie er wirklich ist.

Normal bezahlbare Karten von NVidia machen mit RT nur bei
FHD Sinn, bereits bei WQHD geht denen die Puste aus.
Gutes Feature, unbestritten, aber Zukunftsmusik, oder bereit
sein 800 € auf den Tisch zu legen...

Noch mal, TOP-Artikel, bitte in Zukunft mehr dieser
"abseits vom Mainstream Betrachtungen"...
 
NBB hatte die MSI RX 6800 XT Gaming Z Trio heute für 500€ + ein Kasten Bier raus gehauen. Schnäppchen!

1682659620716.png


Seit etwas über einem Monat bröckelt der Preis der 68XT immer weiter runter, im Bild die Nitro+.
Auch wenn sich AMD redlich Mühe gegeben hat neuen Wein in alte Schläuche zu füllen ist der Verfall nicht aufzuhalten.
Spätestens wenn die neue Mittelklasse auf den Markt kommt dürfte das den 6000'ern einen starken Tritt verpassen.

350-400€ für eine 6800XT wären ein angemessener Preisbereich, je nach Modell.
 
Anhang anzeigen 1424941

Seit etwas über einem Monat bröckelt der Preis der 68XT immer weiter runter, im Bild die Nitro+.
Auch wenn sich AMD redlich Mühe gegeben hat neuen Wein in alte Schläuche zu füllen ist der Verfall nicht aufzuhalten.
Spätestens wenn die neue Mittelklasse auf den Markt kommt dürfte das den 6000'ern einen starken Tritt verpassen.

350-400€ für eine 6800XT wären ein angemessener Preisbereich, je nach Modell.

300 - 400 € wären angemessen...
Wie kommst Du darauf, das das angemessen wäre?
Die Leistung liegt auf Niveau der 4070, die nochmal ca. 200 € mehr kostet.

Der Preis ist gemessen an der Leistung mehr als gerechtfertigt,
haben die Grafiken ja gezeigt.

Aber mal getrost Deinem "Gefühl" von angemessen, wohl eher Geiz,
nehmen wir mal an, die 6800Xt ginge für 300 € über den Tisch.

Die nächste wäre die 6800, dazwischen liegen in der Regel ca. 100 €,
die wäre dann preislich bei 200 €?

Dann kommt die 6750 XT, auch wieder 100 €,
Preis wäre dann 100 €?

Dier nächste ist die 6700, auch wieder 100 € Differenz,
die gibts dann für 0 €, also geschenkt?

Dann kommt die 6650 XT, jetzt wirds komisch...
Bei Differenz von 100 €, gehts ins Minus, bringt der Kunde jetzt 100 € mit?

Was mit der 6650, 6600, 6500....?

Ne, lass mal, die Preisgestaltung bei AMD entspricht im Gegensatz zu NVidia
schon ganz meinen Vorstellungen, fair und angemessen..
 
Die Leistung liegt auf Niveau der 4070, die nochmal ca. 200 € mehr kostet.
Jupp...genau 200€.

Die momentan billigsten Vertreter auf Geuzhals
 
Momentan heisst es für die meisten PC-Bastler wohl RX 6800 16 GB für 499€ oder RTX 4070 12 GB für 599€.
Das wären 100€ mehr für die Geforce mit weniger Speicher, dafür besser nutzbarem Raytracing. So langsam bin ich echt auf die RX 7800 gespannt.
 
Zuletzt bearbeitet:
Zurück