News Geforce RTX 4070 Ti: Gerüchte sprechen von einer Geforce RTX 4080 Super 12 GB

seh ich nirgends aber ok.

Eh das Problem sind nicht persee 12gb sondern 12gb bei einer über 800€ Karte. Deswegen wenn die 4070ti super whatever mit 16gb kommt und fast so schnell ist wie eine 4080. Ist dass die rundeste Gpu diese Gen die nicht gleich dein bankko0nto frisst.

genug vram, effizient wie sau, gute rt leistung. was will man mehr?

Nvidia 12gb sind mehr als amd 12gb.

Vram belegen ist nicht brauchen. was an vram gebraucht wird lässt scih nur mit dev tools auslesen. eine karte mit 24 gb nimmt sich auch 19gb auch wenn das spiel auch mit 6gb perfekt läuft verstanden?
man kann sich auch jede scheiße schön reden , nur stinkt sie dann immer noch :)
und du meinst nur andere verstehen nicht was man ihnen geschrieben hat ....
 
Ich rede nichts schön aber ich weiß was ich sage denn im gegensatz zu den meisten rede ich nicht wie ein papagei nach sondern habe es selber in unmengen an spielen getestet. Wenn du 5 spiele findest unter 10k wo 12 gb nicht reichen sollen dann bist du gut dabei. Lächerlich.

Das auf uUtra woman in den besagten spielen keine 20 fps mehr hat also was bringen da mehr vram wenn die Leistung soweioso nicht mehr reicht.

Edit : welch wunder einer mit amd gpu. wie sollte es auch anders sein.
 
Ich stark davon aus, das es nur ein Witz ist. Ein Witz weil Nvidia eine 4080 12GB und eine 4080 16GB hatte.
DIESES Gerücht hier würde ich nicht ernst nehmen...
 
Ich rede nichts schön aber ich weiß was ich sage denn im gegensatz zu den meisten rede ich nicht wie ein papagei

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Und ich sage: Tschüss Raytracing!

Und ich sage: das ist Blödsinn. Nvidia hat genug im Programm, das schwächer, als eine RX 7900XTX ist.

Man sollte sich natürlich im klaren sein, dass die RTX 4080 langfristig 50% schneller sein wird, dafür ist dei RX 7900XTX schneller, als die RTX 3080 und hat mehr als doppelt soviel VRAM.

Alles in allem muß man dann bei FSR ungefähr eine Stufe weiter runter gehen, als bei DLSS.

Raytracing als Standart wird frühestens mit der Playstation 6 Einzug erhalten also der nächsten Konsolengeneration.

Das könnte, nach den Voraussetzungen von Alan Wake schon deutlich früher sein. Die einigen Karten, ohne Raytracing, die offiziell berücksichtigt wurden, waren die GTX 1600er und die sind nicht wirklich wichtig.

Du raffst es nicht. Auch wenn du es ausschaltest läuft raytracing nur nicht soviel.

Das würde dann erklären, warum es auf eine GTX 1080Ti so mies läuft.

Nvidia kann es einfach nicht lassen und möchte auf Biegen und Brechen eine RTX 4080 12GB Karte.

Momentan macht Nvidia rein garnichts, da das nur ein Gerücht ist, ein sehr unglauvbwürdiges noch dazu. Man könnte denken, der Typ hat einfach nur die 2 Jahre alten Gerüchte aufgewärmt und "Super" drangeklebt.

Wenn PCGH schon davon berichtet Prost Mahlzeit dann wird die 4080 12GB kommen.

Ich weiß jetzt nicht, ob das ernst gemeint sein soll, aber bei den Gerüchten wurde soviel Käse verzapft, das geht auf keine Kuhhaut mehr. Insgesamt ist nur eine Minderheit der Gerüchte auch wirklich wahr geworden.

(...) und das wird nicht passieren.

Richtig, weil die Karte wohl niemals erscheinen wird.

Ja aber ne 4080 "Super" zu nennen, die dann langsamer ist und weniger VRAM hat, wäre ja schon arglistige Täuschung.

Ich erinnere mich an die GTX 1060 3GB. Die hatte nicht nur die hälfte des VRAM (was durchaus üblich war), sondern auch noch weniger Shader, womit sie auch noch 10% langsamer war.

Also du liegst komplett falsch und dann sagst du das ich unhöflich bin?

Das war schon unhöflich.

lmao wenn das für dich unhöflich ist wie überlebst du diese Welt?

Ich würde eher sagen, wenn du im echten Leben alle so anpflaumst, dann dürftest du Probleme bekommen.

Bin jetzt kein Speicher-Fetischist, aber 12 GB halte ich heute für zu wenig.:-)

Das ist Sinn und Zweck der Sache. Du sollst zum kaufen des besseren Modell animiert werden. Nur die RTX 4060Ti 16GB passt da nicht wirklich rein.

Nur in 4k in ausnahmefällen sind 12gb zu wenig und da auch nur mit Stupmf alles auf Ultra. Für 1440p reichts noch bis zur nächsten Gen. Die nächste Vram welle kommt erst 2027. Also keine Panik.

Ähnliches hat man auch von den 8GB Karten gesagt. Wer seine Karte länger nutzen möchte, der sollte sich dessen bewußt sein.

2027 werden noch zig millionen 8gb haben.

So, wie heute 4GB.

Der Vram hunger wird auch mal stabil bei einem Wert bleiben.

Der Wert ist in den letzten Jahren schon hochgeschnellt. Von 4GB, auf 6GB und bald auf 8GB. Das sind wohlgemerkt die Mindestwerte. Wer nicht so gerne an den Reglern dreht, der sollte mehr VRAM haben.

Das geht nicht endlos hoch.

Und die 64KBit von ISDN reichen für die Ewigkeit...

Das geht quasi endlos hoch. Wenn man es wollte, dann könnte man auch schon heute Texturpakte herausbringen, die eine 128GB Karte in die Knie zwingen.

Sieht man heute schon oft das ultra texturen nicht viel mehr als mehr vram verbrauchen weil man den unterscheid zu hoch einfach nicht mehr wahrnimmt wenn es schon echt knackig ist.

Die Texturen sind eines der Dinge, die man am ehesten wahrnimmt.

genug vram, effizient wie sau, gute rt leistung. was will man mehr?

Genug VRAM auch für morgen.

Nvidia 12gb sind mehr als amd 12gb.

Der Unterschied ist relativ gering und macht wenig aus. Wenn man Karten mit 10,11 und 12Gb vergleicht, dann wird man da einen gewissen unterschied feststellen können,. aber mit einer 10GB Nvidiakarte wird man eine 12GB AMD Karte wohl nicht schlagen können, geschweige denn eine 16GB Karte.

Ich rede nichts schön aber ich weiß was ich sage denn im gegensatz zu den meisten rede ich nicht wie ein papagei nach sondern habe es selber in unmengen an spielen getestet.

Wir werden sehen, ob du eventuellen Speichergeiz, bei den RTX 6000ern auch schön redest.

Wenn du 5 spiele findest unter 10k wo 12 gb nicht reichen sollen dann bist du gut dabei. Lächerlich.

Manche kaufen sich ihre Karte eben auch für etwas längere Zeiträume. Da sollte die Karten dann auch in 2-4 Jahren möglichst gut dastehen. Wenn möglich länger (die GTX 1080Ti war da schon eine Traumkarte).
 
Das könnte, nach den Voraussetzungen von Alan Wake schon deutlich früher sein. Die einigen Karten, ohne Raytracing, die offiziell berücksichtigt wurden, waren die GTX 1600er und die sind nicht wirklich wichtig.


Ich erinnere mich an die GTX 1060 3GB. Die hatte nicht nur die hälfte des VRAM (was durchaus üblich war), sondern auch noch weniger Shader, womit sie auch noch 10% langsamer war.
Raytracing ist jetzt schon Standard bei neuen Spielen (Cyberpunk kam vor 3 Jahren raus) und kommt auch nicht überraschend (Unreal Engine 5), umso erschreckender ist die Performance der aktuellen Hardware, die ohne upscaling kaum in der Lage ist damit umzugehen.

Klar aber die schlechtere Karte dann auch noch "Super" zu nennen, gab es bis jetzt noch nicht.

Ich verstehe nicht warum mit V-Ram gegeizt wird.
Geplante Oboleszenz, weil Nvidia gerne möchte, dass ihre Kunden jede Generation eine neue Grafikkarte kaufen. Genug VRAM gibt es nur bei überteuerten Highend-Modellen (RTX 4080 16GB RTX 4090 24 GB) und zu langsamen Einsteiger Karten (RTX 4060 Ti 16GB), bei denen dann die Rohleistung nicht mehr ausreicht, um eine Generation zu überspringen.
 
Zuletzt bearbeitet:
Das würde dann erklären, warum es auf eine GTX 1080Ti so mies läuft.
Nein, das hat damit nichts zu tun. Das Spiel nutzt als Fallback für einige Effekte einen Software Raytracer. Das sieht man auch an den üblen Denoiser Artefakten wenn Raytracing deaktiviert wird.

Die 1080 Ti ist so lahm in dem Titel weil die Unterstützung für Mesh Shader fehlt...
 
Das geht mir langsam alles auf den Sack, was NVIDIA da abzieht. Bei so marginalen leistungssprüngen, zigtausend Bezeichnungen. Ich sag nur das 4060ti 8gb und 16gb Dilemma, dann die 4080 12 & 16gb. Nix daraus gelernt. Was soll der Scheiss? Werden sie ihren Mist nicht los?
 
Niemals. Die werden keine "Super" als abgespeckte Version eines Basismodels verkaufen.
Hab ich auch gedacht, das ergibt so gar keinen Sinn. Dieses Gerücht halte ich erstmal für Unfug.
Das traurige ist ja, selbst wenn NV wieder mit dem VRAM geizt, kaufen die FAN´s es trotzdem ;)
Nein, eine RTX4080 Super mit 12GB wird sich ganz sicher am schlechtesten verkaufen.
Sieht man sich deren Absätze im Consumer-Segement an, sind die zweifellos keinesfalls "dämlich" sondern habe eher unter Beweiß gestellt, dass sie die Marktverhältnisse recht gut verstehen und für sich zu nutzen wissen.
Darüber hinaus, etwas wie "Hallo AMD Radeon!" sagt nur ein sehr kleiner Teil des gesamten Marktes und ein nahezu verschwindend geringer Teil im HighEnd-GPU-Segment, d. h. wenn das ein paar mehr sagen und auch tatsächlich umsetzen würden, hätte dass einen nur sehr geringen Effekt. ;-)
Insgesamt wird nVidia sein P/L-Verhältnis ein wenig optimieren *) und wie viel oder wenig sie das machen werden, wird zeigen wie groß sie den eh schon geringen Marktdruck durch AMD bewerten.
Eine wesentliche Rolle dabei wird spielen, wie viele GPUs noch im professionellen Segment abgesetzt werden, denn solange sie bspw. den AD103 und AD102 auch noch gut als "ehemaliges Quadro"-Produkt absetzen können, sind die noch mal um einiges weniger gezwungen jetzt schon große Zugeständnisse zu machen. Hinzu kommt noch eine weitere Unbekannte in Form der vorgesehenen Lebensdauer von Lovelace. Soll der Nachfolger Blackwell schon Weihnachten 2024 erscheinen oder wird der möglicherweise erst bspw. in 3Q25 in den Markt gebracht? Entsprechend muss mach sich die verfügbren Ressourcen noch etwas einteilen, so bspw. bzgl. einer möglichen 4080 Ti auf einem weiter down-sized AD102 mit bspw. 20 GB. **)

*) Schlichte Preisnachlässe scheinen bei nVidia eher verpönt zu sein, letzten Endes haben "neue" Produkte auch etwas mehr Vertriebspotential ...

**) Beispielsweise ein recht ähnliches Produkt vertreiben sie hier schon längst in Form der RTX 5000 mit 12800 Shader, nur dass sie es hier bei einem 256 Bit-SI belassen haben und mittels clamshell 32 GB nutzen (also zwei BGAs pro 32 Bit-Controller anbinden).
Aber du glaubst nicht wirklich an eine 4080 super mit 12GB, oder? ;)
Das passt halt nicht ins Portfolio. Ich meine eine 4080 light mit 12GB, könnte man bringen mit reduziertem Preis.
Ich musste erstmal Googlen was das Wort LMAO bedeutetet, nimmt es mir nicht übel bin alt.
Moment, ich denke die 87 in deinem Nickname stellt dein Geburtsjahr... Dann bist du nicht alt.
LMAO bedeutet "laughing my ass off", zu deutsch auch "Ich lache mir den Arsch ab". ist das richtig, wenn Ja wieder was dazugelernt. ^^
Kenne ich auch nicht. Das ist Nerdsprache, das was die pickeligen, verschwitzten Nerds auf der Gamescom von sich geben.
Wir beruhigen uns jetzt alle wieder, ein Dolmetscher wird alle anderen auf English beruhigen.
Bin jetzt kein Speicher-Fetischist, aber 12 GB halte ich heute für zu wenig.:-)
Spieletests in 2023 sprechen eine andere Sprache..
2027 werden noch zig millionen 8gb haben. Der Vram hunger wird auch mal stabil bei einem Wert bleiben. Das geht nicht endlos hoch. Sieht man heute schon oft das ultra texturen nicht viel mehr als mehr vram verbrauchen weil man den unterscheid zu hoch einfach nicht mehr wahrnimmt wenn es schon echt knackig ist. Ratchet und clank war so ein Fall. alan wake 2 auch.
Deswegen sage ich auch immer, das mit wirklich genutzten 10-12GB sich ausreichend hübsche Texturen zaubern lassen und der optische Unterschied zu 14-16GB genutzt gar nicht optisch so deutlich ist. Da ist der Unterschied RT an/aus oft sehr viel deutlicher.
Hier zockt einer alles durch auf 3840x2160:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Allerdings schon etwas angestaubte Games und auf ner RX 6700 XT. Games mit RT kommen dort locker auf die 11.000 MB+. Also ne 4080 SUPER mit 12 GB? Lass stecken Lederstrumpf! Geldverschwendung + :-$
Randinfo:
PCGH hatte mal Anfang 2023 einen VRAM Test, der gab wieder das
12GB bei RTX4000 nicht ruckelten/oder fehlende Texturen, wenn 12GB RTX3000 anfangen zu ruckeln/oder fehlende Texturen.
12GB bei RTX3000 nicht ruckelten/oder fehlende Texturen, wenn 12GB RX6000 anfangen zu ruckeln/oder fehlende Texturen.

Das eine 6700XT 11GB anzeigt, oder anfängt Probleme zu haben, sagt nichts zur RTX4000 oder so mit 12GB aus.
klar reicht es meist, aber manchmal auch nur weil die Engine "clever" Texturen einspart und das ganze dann zwar locker fluffig läuft aber hässlicher ist, als es sein müsste.... CoH3 zB lässt unter 16GB nicht einmal die maximale Grafikeinstellungen zu, selbst wenn eine 4070Ti es an sich packen würde.... man hat also definitiv auch heute schon öfter Nachteile (auch wenn man sie nicht unmittelbar merkt) - aber schon irgendwie doof, wenn man RTX voll genießen will und kann, dafür aber Texturen hässlicher sind... da hab ich lieber bessere Texturen....
Öfter Nachteile?
Dann hau mal Spiele aus 2023 raus, die in Auflösungen bis 2560x1440 / 3440x1440 Texturen reduzieren bei RTX4000 mit 12GB.

Schon doof ist, wenn man PT nicht einmal in 1080p nutzen kann, weil die Hardware einfach mehr als eine Generation zurück ist.

Was einem klar sein muss, wer RT/PT will dem muss auch klar sein, das eine 4070ti maximal eine 2560x1440 Karte ist, eine 4080 für 3440x1440 und für die die das maximale aus 4k raus holen wollen muss es eine 4090 sein.

Geht auch immer alles anders, wer aber nicht schon die ganzen Regler nach links drehen will sollte sich dessen bewusst sein.
man kann sich auch jede *** schön reden , nur stinkt sie dann immer noch :)
und du meinst nur andere verstehen nicht was man ihnen geschrieben hat ....
Auf was möchtest du hinaus? Auf die 12GB Aussage. Dann schau nochmal in PCGH Print 03/2023.
 
Zuletzt bearbeitet:
Und ich sage: das ist Blödsinn. Nvidia hat genug im Programm, das schwächer, als eine RX 7900XTX ist.
Wenn man es auf Rasterleistung begrenzt sicher. Wenn man nach RT geht, ist Nvidia schon günstiger und schneller.
Das was aktuell mit PT geschimpft wird, ist das RT von morgen. Spiele werden demnächst immer öfter so intensiv wie CP2077 und AW2.

Denke das man bis 2027 das noch deaktivieren kann, aber wer max will wird sich wohl an AW2 und CP2077 orientieren können.
Man sollte sich natürlich im klaren sein, dass die RTX 4080 langfristig 50% schneller sein wird, dafür ist dei RX 7900XTX schneller, als die RTX 3080 und hat mehr als doppelt soviel VRAM.
Denke wie gesagt das man AW2 und Cp2077 als Beispiel für die AAA Grafikbomben nehmen kann und dann ist eine 4080 deutlich mehr als 50% schneller.

In CP : Phantom Liberty ist die 4080 75% schneller, als die 7900XTX. Die 4070ti ist 43% schneller und die 3080ti ist noch 23% schneller.

In Alan Wake 2 ist die 4080 RT niedrig schon 50% schneller, mit PT sind es 233%.

Diese Zahlen stammen aus den Tests bei CB und PCGH.
Alles in allem muß man dann bei FSR ungefähr eine Stufe weiter runter gehen, als bei DLSS.
Du meinst eine Stufe höhere Qualität, oder? Das kommt meistens wohl hin, sind aber auch schon wieder 5-7% mehr Fps bei Nvidia.
Das könnte, nach den Voraussetzungen von Alan Wake schon deutlich früher sein. Die einigen Karten, ohne Raytracing, die offiziell berücksichtigt wurden, waren die GTX 1600er und die sind nicht wirklich wichtig.
Ja, einen RT Zwang sehe ich vor 2027 sicher auch noch nicht, aber die Max Details werden deutlich anziehen im Schnitt. Ich meine Alan Wake 2 und Cyberpunk Phantom Liberty sind nur die Vorboten, von dem was demnächst höchste Details bedeutet.
Das würde dann erklären, warum es auf eine GTX 1080Ti so mies läuft.
Kann ich mir zwar dennoch nicht vorstellen, aber ich weiß das auch nicht.
Momentan macht Nvidia rein garnichts, da das nur ein Gerücht ist, ein sehr unglauvbwürdiges noch dazu. Man könnte denken, der Typ hat einfach nur die 2 Jahre alten Gerüchte aufgewärmt und "Super" drangeklebt.
Danke, mir geht das immer zu schnell, von Gerücht, zum Forumsfakt.
Ich erinnere mich an die GTX 1060 3GB. Die hatte nicht nur die hälfte des VRAM (was durchaus üblich war), sondern auch noch weniger Shader, womit sie auch noch 10% langsamer war.
Das war ein Budgetmodell, das hatte nichts mit einem Super Refresh zu tun.
Das war schon unhöflich.
Jupp
Die Texturen sind eines der Dinge, die man am ehesten wahrnimmt.
Naja, also zumeist sind die Unterschiede von Ultra zu hoch, kleiner als RT an/aus.

Von 2 auf 4 Gb war ein großer Sprung, von 4 auf 8GB war auch groß, optisch aber schon weniger auffällig als 2 auf 4.

Umso weiter man den Speicher vergrößert, umso kleiner werden die optischen Unterschiede.
Genug VRAM auch für morgen.
Das Morgen definiert jeder anders. Bei mir bedeutet das Morgen, im Zweifel nur bis zur nächsten Generation, oder auch schon mal nur bis zur nächsten Meinungsänderung, durch ein paar Spiele, die zeigen, das sich die Anforderungen deutlich ändern.

Ich meine, wenn jetzt die nächsten 5 AAA Titel, die mich interessieren alle wie AW2 RT nutzen, oder noch mehr. Dann habe ich ja alles richtig gemacht. Aber wenn diese 5 Titel auf RT Pfeifen, oder nur ein Soft RT Modus nutzen, dafür aber massiv VRam fressen, dann kaufe ich eine 7900XTX und fertig. Oder massiv RT und VRam, dann muss ich halt eine 4080 kaufen, oder gar eine 4090...

Für wen anders ist das Morgen halt irgendwann in 5 Jahren. Was aber erstens nicht sinnvoll abzuschätzen ist und zweitens auch aktuell außer mit der 4090 wohl nicht abzudecken ist.

Aber in dem Fall kann ich verstehen, wenn jemand in erster Linie nach VRam kauft.
Wobei ich da einfach mal das aus meiner Sich zu erwartende Minimum abdecken würde.

Da die Konsolen da bis 2027 die Masse der Spiele limitieren.
Da diese nur um etwa 10GB für die GPU nutzen können.
Der Unterschied ist relativ gering und macht wenig aus. Wenn man Karten mit 10,11 und 12Gb vergleicht, dann wird man da einen gewissen unterschied feststellen können,. aber mit einer 10GB Nvidiakarte wird man eine 12GB AMD Karte wohl nicht schlagen können, geschweige denn eine 16GB Karte.
PCGH Print 03/2023 Beispiele aus den Tabellen.

WQHD Dying Light AMD 10GB ruckeln, Nvidia 10GB kein Ruckeln. (RTX3000)(Keine weggelassenen Texturen)
4k Total War RTX3000 12GB ruckeln, RTX4000 kein Ruckeln (Keine weggelassenen Texturen)

Wir werden sehen, ob du eventuellen Speichergeiz, bei den RTX 6000ern auch schön redest.
Es geht nicht um schön reden!
Es geht darum, das VRam auch nicht alles ist und um einen Realitätscheck.

Manche kaufen sich ihre Karte eben auch für etwas längere Zeiträume. Da sollte die Karten dann auch in 2-4 Jahren möglichst gut dastehen. Wenn möglich länger (die GTX 1080Ti war da schon eine Traumkarte).
Ja, das meinte ich oben. So jemand bewertet anders. Deswegen kann man auch nicht pauschale Aussagen tätigen, das 12GB zum Beispiel reichen, oder nicht reichen.
 
Das würde dann erklären, warum es auf eine GTX 1080Ti so mies läuft.
Deswegen mesh shader pflicht die haben das nicht umsonst gesagt.
Deswegen sage ich auch immer, das mit wirklich genutzten 10-12GB sich ausreichend hübsche Texturen zaubern lassen und der optische Unterschied zu 14-16GB genutzt gar nicht optisch so deutlich ist. Da ist der Unterschied RT an/aus oft sehr viel deutlicher.
Es ist auch die Arbeit der Devs den Vram gut zu verwalten es gibt hässliche spiele die brauchen 12gb und sehen schlechter aus als games die nur 6gb brauchen weil gute Arbeit geleistet wurde.
Die AMD Karten können doch auch RT. Klar, weniger FPS als die Nvidia Karten aber trotzdem auf Ampere Niveau.
In schönwetter benchmarks at best.
 
Zurück