News Nvidia: Das Ende der Geforce-GTX-Ära kommt schon bald [Gerücht]

Nicht, dass man damit den OEMs vor die Schienbeine Tritt, die gerne mit NVidia werben, aber nur deren verherrlichte Monitoranschlüsse einbauen. Was ersetzt denn das das Segment, wenn die GTX(hier vor allem 1630) wegfällt. Legt man dann einen TU107 oder GA108 auf? Oder rebrandet man die Karte(schwierig, da RTX vom Marketing fest mit Rt-Einheiten verknüpft wurde). Glaube kaum, dass man das große Segment komplett abstoßen will, denn da hängen sicher auch Rahmenverträge dran.
Auf jeden Fall spannend, was da in den kommenden Wochen und Monaten zu kommt.
 
GTX ist einfach ein Präfix ohne Bedeutung. Bis heute ist sogar unklar, wofür die Abkürzung überhaupt stehen soll, GraphicsTurboXtreme ist das einzige, was ich je gehört habe und selbst das wäre vollkommen bedeutungslos.
Giga Texel Shader eXtreme

Vielleicht kommt ja als übernächste Generation eine PTX 6090 Ti ;) Karten mit explizierter Beschleunigung von Pathtracing.
 
Und nu? Willst einfach aussagen, das für reduzierte Details die 7700XT über 30Fps schafft?

Welche denn?, bevor es ein Missverständnis gibt.
Bei meiner Aussage ging es darum, das es eklatante Unterschiede bei schwerer RT Last gibt, zwischen AMD und Nvidia.
Ich hab die Aussage die hier gefallen ist korrigiert laut der die 7900XTX ab "Lichtspielerein" nurnoch 15 FPS auf den "Bildschirm zaubert". Das ist so einfach nicht richtig.

Es ist mir völlig wumpe ob Nvidia-Karten besser in Raytracing sind. Und wenn die 1650 die RX 7900XTX um 700% in RT schlagen würde. Dann soll sie das tun. Wie gesagt. In RT sind die RX jetzt nicht Bombe. Auch das hab ich schon gesagt. Aber man muss sich halt trotzdem keine Zahlen aus dem Allerwertesten ziehen.
Wieviel FPS eine RX 7900 XTX macht ist mir tatsächlich egal...hab ja keine. Die Möglichkeiten sind bei Nvidia halt momentan höher.
Anhang anzeigen 1446499

Bevor CP ohne Raytracing spiele nutze ich lieber alle Möglichkeiten die mir zur Verfügung stehen.
Das ist ja alles schön für dich und wenn du Cyberpunk mit RT spielen willst kannst du dir ja gerne kaufen was du willst. Ich Frage mich nur was das mit meiner Aussage zu tun hat?
Egal ob mit blingbling

...oder ohne....
....eine andere Welt.

Eine auf 160W gelockte RTX 4070TI reicht eben für 2160p/DLSS P +FG für ~60FPS schon aus.
Die RX 7900 XTX in 1080p/FSR P
Anhang anzeigen 1446500
Selbe Frage? Was hat das mit meiner Aussage zu tun? Ich mein? Ich hab literally gesagt das die RX nicht gut in RT sind. Wo willst du mit der Aussage hin?
 
Zuletzt bearbeitet:
Wow, im Durchschnitt ganze 8% schneller. Das ist ja ein richtiges Upgrade. Da gebe ich gerne 350€ für aus. Da bekomme ich dann auch Raytracing mit 20fps und sogar 3GB VRAM weniger :ugly:
Dann kaufst du halt die 60Ti / 70 oder 70Ti alle kosten keine 1k ...

Was ist in den letzten 5-10 Jahren nicht Teurer geworden so gut wie nix ist halt die aktuelle Entwicklung. Evtl sollten die Leute mal wieder Prioritäten in ihren leben setzten als aller 2 Jahre nen neues iPhone (dient jetzt nur als Beispiel) zu kaufen. Wenn man immer das neuste und beste will muss man halt tief in die Tasche greifen.
 
Dann kaufst du halt die 60Ti / 70 oder 70Ti alle kosten keine 1k ...

Was ist in den letzten 5-10 Jahren nicht Teurer geworden so gut wie nix ist halt die aktuelle Entwicklung.
Und die Entwicklung ist halt sau frech funktioniert aber weil die Leute das halt immer abtun als "normal" und trotzdem zahlen.

Evtl sollten die Leute mal wieder Prioritäten in ihren leben setzten als aller 2 Jahre nen neues iPhone (dient jetzt nur als Beispiel) zu kaufen. Wenn man immer das neuste und beste will muss man halt tief in die Tasche greifen.
Aber das ist der Punkt. Eine 4070/7800 ist völlig überteuert und nicht wirklich das Beste. 600 Tacken. Dafür gab's mal die Fury X oder 980ti. Bzw. dann auch Teilweise (BETONUNG AUF TEILWEISE) die 1080ti. Das sind jetzt "Midrange" Preise. Schon hart frech.

Und am Rande. Mein Handy kostet irgendwie 230€ und wird genutzt bis es hin ist. Was auch immer das jetzt aussagt, aber jetzt ist meine Aussage scheinbar viel valider.
 
Ich hätte schon noch gerne Treiber für meine GTX 1080 ti im Zweitrechner. Immerhin kann ich bis heute alle Spiele außer Alan Wake 2 damit zocken und dass auch oft ohne Probleme in 1440p. Also 3-4 Jahre aktiven Treibersupport hätte ich daher schon noch gerne. Aber da würde mir auch jedes Quartal ein neuer Treiber reichen. Man denke auch an die Käufer von neuen Nvidia GTX und GT Billigkarten für E-Sport Titel oder Barebone PC`s. Immerhin stellt Nvidia bisher bei kritischen Sicherheitslücken immer noch neue Treiber zur Verfügung. Auch bei sehr alten Karten. Daher habe ich auch noch eine GTX 660 im Bürorechner.

Naja die Karte ist über 6,5 Jahre alt. Erfahrungsgemäß bietet NVidia ungefähr 7 Jahre Treibersupport für seine Mainstream GPU Serien, kann auch mal ein Jahr mehr oder weniger sein. All zu viel kannst Du da also nicht mehr erwarten, ist gut möglich, dass bald der Support für GTX 900 und GTX 1000 gemeinsam eingestellt wird.

Aber selbst wenn das passiert, kann man die GPU ja trotzdem noch eine ganze Weile weiter nutzen. Hab hier auch noch ein altes Notebook mit AMD GPU, für die es seit 2019 keine neuen Treiber mehr gibt, bisher konnte ich aber noch Alles starten, selbst Sons of the Forest.
 
du meinst in den CUs? Denn im selben Chip sind die RT cores ja schon, nur eben etwas abgegrenzt in ihrer eigenen Sektion.
höchstens wenn sie die RT-cores aufteilen und an die CUs mit anflanschen. raytracing auf allgemeine Rechenknechte zu verschieben macht noch kein Sinn, dafür sind sie nicht schnell genug. ASICs werden immer schneller und effizienter sein, auch wenn es nur ein Bestandteil eines größeren Chips sind und nicht separat.
Das Äquivalent zu AMDs CU nennt sich bei nVidia SM. Die RT Cores sind Bestandteil eines SM.
 
Und die Entwicklung ist halt sau frech funktioniert aber weil die Leute das halt immer abtun als "normal" und trotzdem zahlen.
Das ist keine Sau freche Entwicklung sondern Weltwirtschaftlich tatsächlich normal. Allein durch die Inflation Jahr für Jahr werden Produkte Teurer das ist sogar so gewollt Wenn ich mich recht erinnere ist das Inflationsziel der EZB irgendwo zwischen 2 und 3 %. Fahr an die Tankstelle und vergleiche die Spritpreise mit vor 5 Jahren oder gehe einfach mal in den Supermarkt und vergleiche die Preise da mit denen von vor 5 Jahren. Die Rohstoffe werden immer Teurer und die Arbeiter in der Verwertungskette wollen Jahr für Jahr eine Gehaltserhöhung und einfach nur Nvidia den schwarzen Peter zuschieben zu wollen finde ich Sau frech.
 
Das ist keine Sau freche Entwicklung sondern Weltwirtschaftlich tatsächlich normal. Allein durch die Inflation Jahr für Jahr werden Produkte Teurer das ist sogar so gewollt Wenn ich mich recht erinnere ist das Inflationsziel der EZB irgendwo zwischen 2 und 3 %. Fahr an die Tankstelle und vergleiche die Spritpreise mit vor 5 Jahren oder gehe einfach mal in den Supermarkt und vergleiche die Preise da mit denen von vor 5 Jahren. Die Rohstoffe werden immer Teurer und die Arbeiter in der Verwertungskette wollen Jahr für Jahr eine Gehaltserhöhung und einfach nur Nvidia den schwarzen Peter zuschieben zu wollen finde ich Sau frech.
Eine 4080 kostet heute das Doppelte einer 980ti die damals das Flagschiff war (Titan mal ausgenommen. Sonst würde ich die 4090 zum vergleich nehmen). Ok. Lassen wir mal so 2-3% inflation sprechen. so über 7 Jahre. Das sind dan so 21%. Nicht 100%. Und ja, Leben ist teurer geworden. Aber die Preise die sich geändert haben stehen in keinem Verhältnis zum inflationswerten. Und auch das wurde schon mehrfach angeprangert. Greedflation ist halt nicht ohne Grund ein stehender Begriff geworden.

100% Preisanzug ist schon ziemlich frech. Zumal die Gehälter nicht diesen Werten entsprechend ansteigen. Nvidia (und btw. auch AMD) haben einfach die Mining-Boom-Preise minimal reduziert und als das neue gegeben hergenommen weil sie gemerkt haben das die Leute das zahlen. Es ist schon bezeichnend und wirklich traurig, das du in der hinsicht Unternehmen verteidigst die bekannt dafür sind ihre Kunden bis aufs letzte zu melken. Und deren Gewinnzahlen spiegeln auch wieder, das die nicht gerade am Hungertuch knabbern.

Nvidia ist gierig und war schon immer gierig und hat genau wie AMD mit ekelhaften Geschäftspraktiken und auch in der Vergangenheit schon mit frechen Preiserhöhungen geglänzt. Unternehmen sind nicht dein Freund. Unternehmen werden dich ausnehmen so viel sie können und Unternehmen wie Nvidia und AMD werden alles tun solange sie damit davonkommen. Wenn du das Verhalten verteidigst schadest du dir und den Leuten die das mit dir ausbaden müssen. Ob du das einsiehst oder nicht liegt bei dir.
 
... und einfach nur Nvidia den schwarzen Peter zuschieben zu wollen finde ich Sau frech.
Genau so kommen die Milliarden (!!) Gewinne zustande (mit "Leuten" und deren Einstellung wie Dir)
Eine 16:9 Röhre mit 32" und 100 Hz kostete anno Dazumal ca. 3000 D-Mark,
heute bekommst dafür 55" mit 4K für 299 €.
Merkst was ?

 
Zuletzt bearbeitet von einem Moderator:
Ich hab die Aussage die hier gefallen ist korrigiert laut der die 7900XTX ab "Lichtspielerein" nurnoch 15 FPS auf den "Bildschirm zaubert". Das ist so einfach nicht richtig.

Es ist mir völlig wumpe ob Nvidia-Karten besser in Raytracing sind. Und wenn die 1650 die RX 7900XTX um 700% in RT schlagen würde. Dann soll sie das tun. Wie gesagt. In RT sind die RX jetzt nicht Bombe. Auch das hab ich schon gesagt. Aber man muss sich halt trotzdem keine Zahlen aus dem Allerwertesten ziehen.
Kann ich nachvollziehen, ich reagiere auch öfter auf so etwas.

Nur als Abschluss, der Unterschied bei der RT Perf. ist alles andere als banal. Zuletzt mit Path Tracing, was einfach intensiveres RT ist, ist Nvidia mehr als 100% schneller, als die jeweilige Konkurrenz. Zumindest bei RTX4070ti/4080 nd 4090 sowieso und solange der VRam nicht zum Problem wird.

Was aber auch bei der 4070ti eher sehr selten ist, aber möglich.

Ob man das höher werten möchte, als zum Beispiel eine starke Raster Leistung gerade in nativer Auflösung, kann nur jeder selbst für sich entscheiden.

Deswegen finde ich es gut, wenn man bei solchen Aussagen immer den Bezug mit liefert.
Ich sage, Karte a ist füpr Situation XY, aus dem Grund besser geeignet.
Das ist ja alles schön für dich und wenn du Cyberpunk mit RT spielen willst kannst du dir ja gerne kaufen was du willst. Ich Frage mich nur was das mit meiner Aussage zu tun hat?

Selbe Frage? Was hat das mit meiner Aussage zu tun? Ich mein? Ich hab literally gesagt das die RX nicht gut in RT sind. Wo willst du mit der Aussage hin?
Wer war das denn nochmal mit der Aussage, das die 7700XT ja auch so und so hohe Fps liefert, mit RT in CP?
 
"Laut Gerüchten wird die Marke GTX eingestellt"

Ich sitze es aus, bis sie "RTX" einstellen ... :-S
Dann kommt die GRTX ab 5000€ bis 20000€! :ka: :D

3050 für 80 Kröten - Gönnt euch...
Alles was da keinen "angemessenen" Preis hat ist Betrug!
Schon selbst erlebt! Kleinanzeigen ist ein Paradis für Betrüger! Nur per Zahlung an Freunde möchte der Verkäufer dann haben! Ja ne, is klar! ;-)
 
Wer war das denn nochmal mit der Aussage, das die 7700XT ja auch so und so hohe Fps liefert, mit RT in CP?
Das war basierend auf der Aussage, dass die 7900XTX 15 FPS liefert und da bin ich noch von Raytracing ausgegangen. Und wenn die 7700XT schon über 15 macht, dann wird die 7900XTX definitiv mehr machen. Daher war das durchaus für die Aussage relevant. Den Punkt hab ich auch sofort fallen lassen als es um Pathtracing ging. Die 7700XT wiederum ist zumindest die selbe Produktfamilie und von deren Performance kann man durchaus auf die 7900XTX schließen.

Das hat meine Aussage mit meinem Punkt zu tun. Aber die 4070ti is an keiner dieser Stellen relevant für die Frage wie viel FPS die 7900XTX liefert. Die Karten haben nichts minteinander zu tun. Weder gleiche Produktfamilie noch gleicher Preispunkt. Noch nichtmal gleicher Hersteller. Ich würde mir weder die 4070ti noch die 7900XTX kaufen wenn du es genau wissen willst aber auch das gehört eigentlich nicht zum Punkt.

Deswegen finde ich es gut, wenn man bei solchen Aussagen immer den Bezug mit liefert.
Ich sage, Karte a ist füpr Situation XY, aus dem Grund besser geeignet.
Ist durchaus valide und sollte man für Empfehlungen auch machen. DLSS und RT hilft garnichts wenn man es nicht nutzt und das gleiche gilt für FSR oder Zeug wie Freesync.
 
Zuletzt bearbeitet:
PTX als Nachfolger von rtx ist durchaus denkbar aber da hat nvidia noch gut 5 Generationen Zeit zu.

achja Leistungsdifferenzen nvidia liegt high end ad102 gut 7 mal schneller als low end ad107
real ist das aber eher 55% schneller aufgrund des Cpu limits das bei jeder cpu mit der high end gpu auftritt selbst in 4k
Die meist genutzte Auflösung ist 1080p stark gefolgt von 4k was primär an den tv's liegt.
Folglich hat man derzeit die Wahl rtx4090 oder rtx4080 bei 4k da reden wir über 1200€ und 2000€
Das ist nicht der mainstream sondern die Enthusiasten die mittlerweile abgedeckt sein müssten.
Für 1080p ist derzeit stillstand ob nun ne rtx3060 12gb oder rx6700xt (eol) oder unvernünftig rtx4060ti 16gb macht kaum nen unterschied aus außer beim preis

Die sinnvollste sku ist die rx7700xt und da sind wir schon bei 460€.
Der mainstream guckt aber eher nach 200-300€ gpu rum.
Alle acht gb gpu sind quasi unbrauchbar damit kommt es am ende nur auf die zwei sku hinaus also der rtx3060 12gb 290€ oder rx6700xt 350€
Und letztere ist schon über dem budget

man hat quasi ein stilstand seit 2019 die perf gab es schon als rtx2060 super und rx5700xt 2019 zum relativen selben preis von etwa 330-400€.
Der nächste Sprung kommt erst q2 2024 wenn amd gänzlich die rx6000 Serie abverkauft sind. Und nvidia reagieren muss. Sicher ist nur das rtx40 gpu bald nen Preisschnitt bekommen

P/L ist derzeit definitiv die rx7800xt stark gefolgt von rx7700xt dann rtx4070 für 600€ die im übrigen nur für 1080p ideal ist

Das ist das problem derzeit am gpu markt viel zu hohe Preise genau da wo die meisten einkaufen
High end ist quasi zu billig. Mir wäre es neu wenn ich ne 50% höheres einkommen innerhalb von 4 Jahren bekommen habe.
Was müsste ne rtx3060 12gb kosten maximal 220€ ne rx6700xt maximal 300€ ne rtx4060ti 16gb maximal 390€ und ne rx7700xt maximal 420€

Das gute der n4x node wird einiges billiger machen die frage die offen ist wie aggressiv ist amd und wie reagiert nvidia darauf. Die halbe Welt ist in ner Rezession da ist nix mit hohen einstiegspreisen.
Aber wie von mir prognostiziert nvidia wird ab der rtx60 gen keine low end chips mehr bereitstellen,.
Die ps5 pro kommt (56cu 2,4ghz +- 20tf 16gb gddr6 18gbps)
Und die ps6 wird maßgeblich die preise diktieren am pc (499$ 40tf 32gb hbm4 memory).

Der nächste gpu kauf steht sicher bei ner rtx5060 (4gpc maxed 52sm 2,8ghz 175w 12gb) wenn weiter so geht
alternativ amd rx8700xt mit vermutlich 56sm 3,55ghz maxed 200w 16gb
letztere erwarte ich spätestens dez 2024 nach der ps5 pro Vorstellung nvidia frühestens q4 2024 Spätestens q1 2025
Derzeit würde ich keine sku kaufen der nicht min eine gpu von 2016 hat das dürften die wenigsten sein.
Alle die zwischen 2018 und 2021 aufgerüstet haben zu abnormalen preisen rate ich zum Verzicht den die preise gehen gar nicht.
Nebenbei die inflation seit 2018 betrug nur 14% vs heute gpu preise relativ zur Leistung aber +50% teurer

wer nur komplett Pc kauft wird kaum nen unterschied merken da vermehrt auf Augenwischerei geachtet wird was man vermehrt an starken Einsatz von upscalern merkt.
Das muss die presse anprangern dlss fsr und noch schlimmer frame generation gehen gar nicht als perf Differenz zu sehen.
 
Zurück