News Wegen RX 7800 XT: Nvidia soll "sehr viele" RTX-4070-Super-GPUs produzieren lassen [Gerücht]

Alles gut und schön, aber wenn Nvidia seine Karten - auch durch die VRAM-Bestückung - nun einmal so positioniert, dass eine 4060 für FHD, eine 4070/4070Ti für WQHD und eine 4080/4090 für UHD taugt, dann ist das halt so. Da bringt es weder etwas, 4070er trotzdem in UHD zu testen, und sich dann darüber zu beschweren, dass in einigen Titeln der VRAM knapp wird, noch bringt es etwas, darauf zu beharren, dass eine Karte für 600 oder 800 Euro doch auf jeden Fall UHD-tauglich sein müsse. Ist doch auch bei AMD kein bisschen anders; aus einer 6800XT oder 7800XT wird ja auch nicht gleich dadurch eine 4k-Karte, dass sie 16 GB VRAM hat. Weil AMD will, dass man für 4k zu einer 7900XT/XTX greift.
 
Da bringt es weder etwas, 4070er trotzdem in UHD zu testen, und sich dann darüber zu beschweren, dass in einigen Titeln der VRAM knapp wird, noch bringt es etwas, darauf zu beharren, dass eine Karte für 600 oder 800 Euro doch auf jeden Fall UHD-tauglich sein müsse.
Habe ich mich beschwert? Ich habe nur etwas klargestellt.
Ich würde wegen dem VRAM nicht mal eine 4070Ti eine 4k Karte nennen, obwohl sie etwas mehr Leistung hat als eine 3090, welche eine 4k Karte der letzten Generation war.

Dank DLSS ist man aber in der Lage mit JEDER >400€ Karte in 4k mit vernünftigen FPS zu spielen. OHNE RT und PT allerdings. RT und PT mit hohen FPS und Auflösungen sind dann halt nur den stärkeren Karten vorbehalten.
Aber damit das auch geht MUSS eine Karte genug VRAM haben.
Ich finde also das JEDE Karte ab 400€ mind 16GB VRAM haben muss, weil jede Karte ab 400€ genug Leistung hat um in 4k mit DLSS 60FPS darzustellen.

Wie gesagt die 4060Ti mit 16GB schafft 60FPS in 4k mit DLSSP in Alan Wake 2, aber ohne RT, PT und ohne FG.
Eine 4070/3080 schafft das nicht, wegen dem VRAM.

Würde ich also eine 4060Ti mit 16GB eine UHD Karte nennen? Nein. Um eine UHD Karte zu sein, sollte diese es in NATIVE ohne DLSS mit mind 60FPS schaffen... mit RT und PT schafft das aber nicht mal die 4090 in AW2, aber ohne RT/PT schon.
Wenn also eine Karte 4k ~60FPS native MIT PT kann, dann ist es für mich eine UHD+ Karte, davon gibt es aber noch keine, vielleicht wird die 5090 die erste.

Eine 4070 ist für mich eine 1440p Karte, bzw FHD+ (+ steht für +RT/PT)
Eine 4070Ti ist dann eine 1440p+ Karte, aber noch keine UHD Karte.
Die allermeisten Neukunden zahlen derzeit 27 Cent für ihren Strom. Keine Ahnung, warum der Preis im Laufe des nächsten Jahres derart explodieren sollte.
Vielleicht weitere Pipelines oder Stromleitungen am Land?
 
Ich finde also das JEDE Karte ab 400€ mind 16GB VRAM haben muss, weil jede Karte ab 400€ genug Leistung hat um in 4k mit DLSS 60FPS darzustellen.
Naja, wünschen kann man sich alles, aber Grafikkartenhersteller - egal ob Nvidia, AMD oder in Zukunft Intel - wollen nun mal auch ihre teureren Modelle an den Mann bringen, und dafür müssen einfach ausreichend Anreize übrig bleiben. Ob es die noch gibt, wenn bereits die Einstiegsklasse bzw. untere Mittelklasse 60 FPS in 4k erreicht (egal ob mit oder ohne DLSS), ist halt die Frage.
Eine 4070 ist für mich eine 1440p Karte, bzw FHD+ (+ steht für +RT/PT)
Eine 4070Ti ist dann eine 1440p+ Karte, aber noch keine UHD Karte.
Sehe ich hundertprozentig genauso.
Vielleicht weitere Pipelines oder Stromleitungen am Land?
Die Strompreise steigen genau dann, wenn entweder der Beschaffungspreis explodiert (wie zuletzt zeitweise durch den Ukraine-Krieg) oder wenn Steuern oder Abgaben massiv erhöht werden, und beides ist für 2024 nicht in Sicht. Ganz im Gegenteil, sind spürbare Preiserhöhungen kurz- und mittelfristig erst mal überhaupt nicht in Sicht. Meine Stadtwerke verlangen derzeit noch 29,4 Cent für die Kilowattstunde und haben fürs Frühjahr 2024 erst mal eine Preissenkung angekündigt - und damit sind sie ganz bestimmt nicht alleine.
 
lieber 200 € mehr für ne Karte die nicht tot ist bei Release

600 -700 € und schon den Regler nach links drehen nein danke
 
Die Präzision deiner Glaskugel scheint exzellent zu sein. Meine zeigt leider nur unscharfe Brühe an. Das passt zwar zum Thema, ist aber noch kein belastbares Ergebnis. ;)

MfG
Raff
Das sind ja auch die zukünftigen Texturen die deine Glaskugel anzeigt... Bei ihm ists ehr die allgemeine Situation. ;-)

Und ich dachte jetzt schon.... Die hätte mal 16GB ... na super! :nene:
 
Zuletzt bearbeitet:
Und dass wird nächstes Jahr kaum noch reichen um bei vielen Spielen auf Mittel zu spielen.
Selbst 20GB werden auf hoch knapp werden.
Lieber versuchen mehr Speicher aufzulöten..Gibt ja Mods.
Nein im Ernst, was für ein Quark. Selbst mit Ner ollen 8GB Karte kann man heute problemlos auf Mittel spielen.
So sehe ich das auch, egal ob NV die schnelleren Karten hat der Aufpreis rechtfertig dies nicht nach meiner Meinung.
Klar rechtfertigt der das. Mehr Leistung durch den besseren Upscaler bei gleicher BQ + RT Vorsprung. Locker.
Pauschal zu behaupten, dass 12 GB schon nächstes Jahr(!) bei vielen Spielen(!!) kaum (!!!) für Mittel (!!!!) reichen werden, ist einfach mal kompletter Blödsinn.
Aber schön zu sehen wer solchen Quatsch liked, dann behaupte ich auch, dass man mit AMD bald gar nicht mehr spielen kann weil RT immer wichtiger wird.
Das hat noch mehr Wahrheitsgehalt.
 
Zuletzt bearbeitet:
Das Problem ist doch das gerade die RT Leistung einen gewissen speicher Vorraussetzt. Muss ja aber jeder selber wissen...
Ist mir bisher noch in keinem Game aufgefallen und ihm Wohnzimmer steckt eine 4070 im PC der besseren Hälfte. WQHD alles maxed out, noch nie ein Problem mit dem Speicher gehabt. Dass der später irgendwann mal knapper wird und man Regler nutzen muss, ja das wird stimmen. Aber RT ist auf der 7800XT ja nicht so prall mit dem Flimmer Upscaler. Man kann sich auch alles schön reden.
Wer so viel für eine Graka ausgibt bitte, ich kaufe meine HW nach anderen Kriterien.
Sagt der mit 7950X3D und 7900XTX, schon klar ^^Ich kaufe meine HW nach objektiven Kriterien wie Leistung Software und BQ. Da verliert eine 7900XTX mit FSR Q Upscaling ja schon gegen die 4070 Ti mit DLSS Performance. :schief:
 
Sagt der mit 7950X3D und 7900XTX, schon klar ^^Ich kaufe meine HW nach objektiven Kriterien wie Leistung Software und BQ. Da verliert eine 7900XTX mit FSR Q Upscaling ja schon gegen die 4070 Ti mit DLSS Performance. :schief:
Keine Ahnung warum du dich jetzt auf meine HW beziehst, außerdem interessieren mich die Benches zwischen AMD und NV überhaupt nicht. Ich habe lediglich meine Meinung geäußert und mehr nicht.
 
Naja, Nvidia kann sich die eher zweckmäßige Ausstattung seiner Karten mit VRAM genau deshalb leisten, weil sie 90% Marktanteil haben; für alles andere fehlt halt der Druck der Konkurrenz. Wenn Nvidias Karten tatsächlich so unglaublich überteuert sind und gleichzeitig über so wenig VRAM verfügen, dass man damit praktisch nichts vernünftig spielen kann, sollte es für AMD doch ein Leichtes sein, den eigenen Marktanteil zu erhöhen, oder?
Jetzt nimm ihm doch bitte nicht das das typische AMD Narrativ.
Die Leute sehen 24 GB auf der 7900XTX und denken die brauche ich.
Das Ende vom Lied ist, dass sie bei BQ und Leistung spielend von der wesentlich effizienteren 4080 abgezogen werden, dann aber 3 oder 4:Jahre warten müssen bis endlich der Vram ohne RT limitiert
Würde das Angebot stimmen, würde man Nvidia genauso Paroli bieten können wie Intel, nur das tut es eben nicht. Stattdessen dackelt man veröffentlichungstechnisch ständig den Grünen hinterher, nur um sich dann mit - grob - gleicher Leistung für gleiches Geld anzubiedern. So gibt das natürlich nichts.
Die PCGH User sind halt immer überzeugt, dass PLV bei AMD so gut wäre, obwohl das nicht mal die PCGH Indizes zeigen und DLSS gar nicht eingepreist ist.
Es wird alles ignoriert und nur mit dem Vram argumentiert, aber 4K Nativ, wenn schon denn schon.
 
Bin bereit, Anschluss steht.
1703106595336.png
 
heftig die 7800xt braucht teilweise 100 watt mehr laut dem video? :wow:
AMD ist für mich schlicht nicht konkurrenzfähig. Wesentlich höherer Verbrauch, im Vergleich mieses Upscaling und RT-Features/Performance. Die nehmen wie meistens in den letzten 10 Jahren mal wieder die Watt-Brechstange, um mithalten zu können.

Und dann gibt es Leute, die sich ne AMD kaufen weil sie ja "etwas schneller im Raster" ist. :lol: Einfach mal den Verbrauch angleichen und dann gucken was schneller ist, oder sich selbst weiter belügen.
 
Die neusten Titel zeigen doch, wohin es geht.
Du bist ein lustiger Zeitgenosse. Argumentierst nur mit dem Speicher der irgendwann zukünftig knapp wird und lässt die Vorteile des um 2 Stufen besseren upscalings, RT, Stromverbrauch usw. völlig unter den Tisch fallen.

Und dann setzt du für die 4070 auch noch 4K voraus.
Klassisches Cherrypicking und die völlige Verzweiflung sprechen da aus dir.
Avatar will in 4K auch seine 12-13 GB VRAM haben mit vollen Details, trotz Upscaling.
Ich hab das mal gemessen und ich komme in QHD mit der 4090 nicht über 11GB hinaus. Und ich rede nicht von allokiertem Speicher.
Alan Wake offenbar auch. Das wird halt die neue Regel werden.

Jaja unbedingt! :D
Da muss man doch nicht lange nachdenken um zu erkennen, dass 12 GB VRAM bei der Preisklasse nicht angemessen sind.
Und bei AMD ist weder die BQ, der Stromverbrauch noch die RT Leistung "angemessen". Aber das juckt dich ja nicht.
Der Speicher wird noch lange für QHD reichen und wenn man man Regler benutzen.
Bei AMD willst du ja RT abschalten, kostet dann auf der Karte mit mehr Speicher weniger Spsicher. Man ganz abgesehen davon, dass Nvidia wesentlich besser mit knappem Speicher auskommt.
 
Und dann gibt es Leute, die sich ne AMD kaufen weil sie ja "etwas schneller im Raster" ist. :lol: Einfach mal den Verbrauch angleichen und dann gucken was schneller ist, oder sich selbst weiter belügen.
komischerweise war der Verbrauch bei Ampere kein Problem für viele, auch hier auf dem Board und jetzt meint man bei Ada wieder dass es gegenüber RDNA3 eines wäre,

wobei der Verbrauch der 4070Ti sowie der 4080 gar nicht soweit auseinander liegt zur 7900XT/X, aber die 4070 gegenüber der 7800XT reißt es dann wieder raus, einfach nur stumpfes Stammtischgehabe mehr nicht
 
Zurück