News Nvidia: Das Ende der Geforce-GTX-Ära kommt schon bald [Gerücht]

https://cdn.mos.cms.futurecdn.net/tehBgMkZVLYFSrrDaqMZ8K.png
22FPS bei 1440p *räusper* 4k wird schon gar nicht mehr getestet mit der 7900XTX habe auch keinen Test finden können wahrscheinlich dann FPS im e
22 sind immernoch deutlich mehr als 15. Fast 1/3 unterschied. Ich hab mich auf den Test hier bezogen: https://www.pcgameshardware.de/Cybe...drive-Pathtracing-Update-Benchmark-1418393/2/

(Den hatte ich irgendwann mal gelesen) Nachdem nichtmal die 4080 auf 4K mit Pathtracing gute FPS liefert ist 4K bei dem Thema für mich eh irellevant.

Wie gesagt. Die RX Karten sind sicher nicht gut im Raytracing. Aber die Initalaussage ist trotzdem einfach falsch. (Unabhängig ob du jetzt nach avg. oder min. gehst.) Und dein Bild bestätigt das halt auch nur.

Weil kein Path Tracing ;)

Aber selbst ohne ist eine 4070ti schon 30% vor der 7900XTX.
Siehe Aussage oben. Und das sich das auch bei Pathtracing anders verhält hab ich auch schon einige Beiträge weiter vorne gesagt. Aber auch da ist es egal ob die 4070ti die 7900XTX schlägt. Die Aussage zur Framerate ist halt einfach nicht richtig.
 
ALso ich habe keine Probleme damit auf 720p runter zu stellen.Und auch das glück in Zukunft auf RTX und so verzichten zu können.Ich schalte sogar andere Effekte die nix mit RTX zu tuen haben auch automatisch aus.Man kann sagen das ich in letzter Zeit noch nie auf maximale Details gezockt hatte.Somit bin ich was das angeht total unempfindlich.Wenn es geht versuche ich schon auf das Native 1080p zu zocken aber wenn es nicht geht auch nicht schlimm.

Es kommt ja bald ein Game raus wo dann auf minium 2060 sein wird,wobei das nun auf rtx 2080 gestiegen ist in den letzten Tagen ,siehe hier:


Und ja das wird nicht mal auf alles auf niedrigste und dann auf 720p zum laufen gehen.Das heißt ich kann das game nicht mit einer gtx 1650 starten.ALso verloren.

Wenn es noch mehr solcher Games kommen,dann besiegelt es sogar noch viel schneller das Ende von GTX,ganz sicher.
 
ALso ich habe keine Probleme damit auf 720p runter zu stellen.Und auch das glück in Zukunft auf RTX und so verzichten zu können.Ich schalte sogar andere Effekte die nix mit RTX zu tuen haben auch automatisch aus.Man kann sagen das ich in letzter Zeit noch nie auf maximale Details gezockt hatte.Somit bin ich was das angeht total unempfindlich.Wenn es geht versuche ich schon auf das Native 1080p zu zocken aber wenn es nicht geht auch nicht schlimm.

Es kommt ja bald ein Game raus wo dann auf minium 2060 sein wird,wobei das nun auf rtx 2080 gestiegen ist in den letzten Tagen ,siehe hier:


Und ja das wird nicht mal auf alles auf niedrigste und dann auf 720p zum laufen gehen.Das heißt ich kann das game nicht mit einer gtx 1650 starten.ALso verloren.

Wenn es noch mehr solcher Games kommen,dann besiegelt es sogar noch viel schneller das Ende von GTX,ganz sicher.
Äh es ist schon draußen heißt Alan Wake 2.
Kannst auf einer 1080ti schon starten aber das wird auf Low und RT eine 10 Fps show.

Es werden auf jedenfall immer mehr Spiele die nicht mehr auf GTX laufen.
Die Fallbacks werden rausgenommen, aber irgendwann ist es halt vorbei.

Meine GTX1080 hat lange Zeit gehalten. aber inzwischen gibt es Spiele da reicht in 1080p kein FSR Quali mehr.
Da musst abspecken in Settings, irgendwann sollte man einfach upgraden.

Hab eine RTX4070 und kann dir sagen, das ist schon krass der Unterschied.
Auf 1080p kannst da mit Pathtracing, alles auf Anschlag zocken Frame Gen machts möglich.
Denn Cyberpunk ist sogar in 1080p mit allen Settings gerade mal 52 Fps drin.
Mit Frame Gen hast dann 90 Fps im Schnitt, also gut puffer nach oben.

Selbst eine 4060 dürfte mit der Ki Technik echt nicht schlecht abschneiden.
Ich hätte schon noch gerne Treiber für meine GTX 1080 ti im Zweitrechner. Immerhin kann ich bis heute alle Spiele außer Alan Wake 2 damit zocken und dass auch oft ohne Probleme in 1440p. Also 3-4 Jahre aktiven Treibersupport hätte ich daher schon noch gerne. Aber da würde mir auch jedes Quartal ein neuer Treiber reichen. Man denke auch an die Käufer von neuen Nvidia GTX und GT Billigkarten für E-Sport Titel oder Barebone PC`s. Immerhin stellt Nvidia bisher bei kritischen Sicherheitslücken immer noch neue Treiber zur Verfügung. Auch bei sehr alten Karten. Daher habe ich auch noch eine GTX 660 im Bürorechner.
Remant 2, Lord of the Fallen also Unreal kannst eben nicht mehr zocken.
Meine GTX1080 hat da aufgeben und die 30% mehr reicht da bei weitem nicht mehr aus.
Wenn Unreal eine Engine wo praktisch wieder jeder verwendet solche Probleme macht, dann kann man
das nicht mehr schön reden.
Vieles läuft ja noch gut auf den Karten, aber High-End Games halt echt nicht mehr.
Neue Treiber bringen ja da auch nicht mehr viel, weil der Focus komplett fällt.
Pascal könnte mehr, aber man hat da paar Leute abgestellt und das war es.
Aber ist ja noch Glück mit einer 5700er würde man sich jetzt echt verarscht vorkommen.
 
Zuletzt bearbeitet:
@jadiger Ne ist nicht Alan Wake 2,das ist ein anderes Game.Ich weis noch nicht ob es gut ist.Es wird bestimmt im Feburar oder März raus kommen.Also ist noch ne einige Zeit hin.
 
Das dachte man anno Dazumal über Tile Based Rasterization auch mal ... ;-)

Tile Based Rendering ist ein alter Hut (Kyro) und die besseren Ideen davon befinden sich in heutigen GPUs.
RT wird entgegen dazu aber tatsächlich jedes Jahr ein größeres, wichtigeres Ding. Allein schon aus dem Grund, weil es der aktuell einzig bekannte weg zum Fotorealismus ist.
Aber auch, weil die Performancenachteile immer kleiner werden: je mehr "Tricks" man beim Rasterizing überinanderlegt um richtung Fotorealismus und realistische Beleuchtung zu gehen, desto mehr Performance frisst es. RT macht diese ganzen Tricks quasi in einem Durchlauf, aber frisst von Anfang an viel Leistung.
Es kommt halt irgendwann der Punkt, wo Rasterizing mehr LEistung frisst als Raytracing wenn es versucht noch realistischer zu werden.
Genauer gesagt sind wir schon an diesem Punkt, wenn man an die Ausleuchtung mancher Räume in Metro oder Cyberpunk denkt, die innen hell sind wo eigentlich gar kein Licht sein dürfte.
Klar doch, seit Release der RTX 2000´er Serie im September 2018 (vor über 5 Jahren) ist dies ein must have Feature !!
eher "nice to have". das war damals aber hoffentlich den meisten klar, dass die Leistung der damaligen Raytracing-Karten noch zu gering ist, und die Spiele es noch nicht effizient genug nutzen.
Wir brauchen letzten Endes noch deutlich mehr RT Leistung als eine 4090 bietet, damit es endlich DAS Feature wird. Also sagen wir ca 4x so viel RT Leistung. Vielleicht - mit etwas Glück - also so in 5 Jahren dann.
Und dann nochmal ein paar Jahre, bis diese Leistung der - nennen wir sie 6090 - auch im Mainstream angekommen ist. Also dann mit der RTX 8060. Natürlich wird es davor schon RT Exklusive Spiele geben und es wird ein "Must Have" sein, Aber ab dann sehe ich Raytracing ähnlich "angekommen" wie "Shader" damals. Einige Jahre nach der Einführung (die ersten Jahre waren es nur schöne Spielereien)
 
Remant 2, Lord of the Fallen also Unreal kannst eben nicht mehr zocken.
Remant 2 geht durchaus sehr ordentlich. Man bedenkte dass da alles auf Ultra steht.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Vieles läuft ja noch gut auf den Karten, aber High-End Games halt echt nicht mehr.
Logischerweise wird es da mit der Zeit immer mehr Schwierigkeiten geben. Aber deshalb muss man ja nicht jetzt schon den Treibersupport beenden.
 
Kann ich verstehen:

RX 6400 4GB bietet garnix (außer 4 Lanes :klatsch:)
GTX 1650 4GB genauso nix aber mit 8 Lanes
ARC 380 ums selbe Geld AV1 und 6GB und Raytracing (is ja egal ob das sinnvoll ist :haha: )
 
Eine Arc A580 ist im Schnitt ca. 20 Prozent schneller als die RTX 3050 und kostet 179 USD MRSP plus VAT. Die Radeon RX 6600 XT ist im gleichen Leistungsumfeld unterwegs, kostet aber 329 USD MRSP plus VAT.

Bitte? Die 6600xt ist deutlich schneller (>50%) als die 3050 und kostet real 270€. Die 3050 230€.

Der Counterpart zur 3050 ist ehr die 6600 non-xt, die ist immernoch 30% schneller aber kostet nur 200€ statt 230€.

Quelle: PCGH Benchmarks und Geizhals

Edit: Ja, nicht in RT, aber wen juckt RT bei der 200€ Klasse...
 
GTX 770 Windforce, das war eine stabile Karte, die habe ich 13 Jahre benutz, dann verabschiedete sie sich komplett mit VRam fehler und Artefakten....
 
Aber auch da ist es egal ob die 4070ti die 7900XTX schlägt.
Wieviel FPS eine RX 7900 XTX macht ist mir tatsächlich egal...hab ja keine. Die Möglichkeiten sind bei Nvidia halt momentan höher.
CP.jpg

Bevor CP ohne Raytracing spiele nutze ich lieber alle Möglichkeiten die mir zur Verfügung stehen.

Egal ob mit blingbling

...oder ohne....
....eine andere Welt.

Eine auf 160W gelockte RTX 4070TI reicht eben für 2160p/DLSS P +FG für ~60FPS schon aus.
Die RX 7900 XTX in 1080p/FSR P
CP 1080p.jpg
 
Zuletzt bearbeitet:
Meine wandert 2025 als Ausstellungstück auf einen Schrank im Wohnzimmer, hat die sich dann verdient.
Meinen Ruhestand würde ich auch gerne in Deinem Wohnzimmer auf dem Schrank genießen. :D
Oder eben mit seiner Flaggschiff radeon die in CP2077 15fps aufs Monitor zaubert sobald man die lichtspielereien aktiviert
Oder Du mit Deiner tollen 2000 € Karte 20 FPS (siehe Anhang) :rollen:
Mit "Lichtspielereien" meint er natürlich Pathtracing, und da gehen die AMD unter.
PT braucht KEIN Mensch, da es Lumen gibt !!

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 

Anhänge

  • 20 FPS 4090.jpg
    20 FPS 4090.jpg
    446,7 KB · Aufrufe: 34
Zuletzt bearbeitet von einem Moderator:
Siehe Aussage oben. Und das sich das auch bei Pathtracing anders verhält hab ich auch schon einige Beiträge weiter vorne gesagt.
Und nu? Willst einfach aussagen, das für reduzierte Details die 7700XT über 30Fps schafft?
Aber auch da ist es egal ob die 4070ti die 7900XTX schlägt. Die Aussage zur Framerate ist halt einfach nicht richtig.
Welche denn?, bevor es ein Missverständnis gibt.
Bei meiner Aussage ging es darum, das es eklatante Unterschiede bei schwerer RT Last gibt, zwischen AMD und Nvidia.
 
GTX ist einfach ein Präfix ohne Bedeutung. Bis heute ist sogar unklar, wofür die Abkürzung überhaupt stehen soll, GraphicsTurboXtreme ist das einzige, was ich je gehört habe und selbst das wäre vollkommen bedeutungslos.
Das frühere G-, GT-, GTS- & GTX-System ist ohnehin bereits lang passé. Und auch in dem hatten die einzelnen Stufen keine Bedeutung. Von den Abkürzungen hatte obendrein einst die GTS mal eine Bedeutung, als GigaTexelShader. Aber das war, als das G-, GT-, GTS- & GTX-System entstand auch nicht mehr die Bedeutung.

Bei RTX haben sie "jetzt" das bedeutungslose G durch ein R ersetzt. Oh wow. Da fände ich es ehrlich gesagt deutlich beeindruckender, wenn AMD in der ersten Generation, in der sie in Punkto Raytracing führend sind, Radeon in Raydeon umbenennen würden.
Die Geforce 2 hatte das Kürzel GTS "Giga Texel Shader" um anzudeuten wie leistungsstark sie war.
Die Geforce 200 Jahre später hatte dann das Kürzel GTX "Giga Texel Shader Xtreme".
Das ist dann bis zur Geforce 1660 geblieben.
Doch was bedeutet dann RTX? "Ray Tracing Extreme" womöglich?

Buchstabenkürzel:
  • G oder kein Präfix – Low-Budget
  • GT – Mainstream
  • GTS – Performance
  • GTX – High-End
Quelle: https://de.wikipedia.org/wiki/Nvidia-GeForce-200-Serie
 
Zurück