News Geforce: Nvidia will Spieler wegen KI-Geschäft nicht vernachlässigen

Wenn das aber schon reicht um AMD an die Wand zu fahren....
Leute lächerlich
Mir ist wurst, wer wen an die Wand fährt. Ich will eine adäquate Bandbreite haben, um auch was vom Performance-Boost des hohen VRAM-Takts zu haben. Unter 384 Bit nehme ich nichts. Früher gab es ja sogar 512 Bit.

Außerdem verzeiht eine hohe Bandbreite auch eher mal, dass man noch mit PCIe 3.0 unterwegs ist, weil mehr Puffer da ist. Mit weniger Bandbreite hätte ich in so manchen streaminglastigen Szenarien größere Performanceeinbußen gegenüber PCIe 4.0, gerade, wenn die Karten dann auch noch mit nur 8 Lanes angebunden sind (hallo RTX 4060 Ti). Da fühle ich mich mit der RTX 4090 relativ safe, selbst eine RTX 4080 würde ich nur mit PCIe 4.0 x16 betreiben...
 
Zuletzt bearbeitet:
Mir ist wurst, wer wen an die Wand fährt. Ich will eine adäquate Bandbreite haben, um auch was vom Performance-Boost des hohen VRAM-Takts zu haben. Unter 384 Bit nehme ich nichts. Früher gab es ja sogar 512 Bit.

Außerdem verzeiht eine hohe Bandbreite auch eher mal, dass man noch mit PCIe 3.0 unterwegs ist, weil mehr Puffer da ist. Mit weniger Bandbreite hätte ich in so manchen streaminglastigen Szenarien größere Performanceeinbußen gegenüber PCIe 4.0, gerade, wenn die Karten dann auch noch mit nur 8 Lanes angebunden sind (hallo RTX 4060 Ti). Da fühle ich mich mit der RTX 4090 relativ safe, selbst eine RTX 4080 würde ich nur mit PCIe 4.0 x16 betreiben...
Wirklich logisch, eine GPU nur nach der Bandbreite zu bemessen und nicht nach der Endleistung.

Natürlich würde ich eine aktuelle GPU, am ehesten in eine aktuelle Plattform stecken.

Hast du benchs zu eine 4080 und pcie 3 damit du deine Befürchtung untermauern kannst.

Du kannst auch nicht von einer völlig verkrüppelten 4060(ti) auf eine 4080 schließen.
 
Wirklich logisch, eine GPU nur nach der Bandbreite zu bemessen und nicht nach der Endleistung.
Das mache ich doch gar nicht. Die RTX 4080 ist an und für sich eine tolle Karte, aber eben nicht für meine Präferenzen.

Natürlich ist die Rohleistung und selbstverständlich auch die Gesamtkapazität des Videospeichers wichtiger. Nichtsdestotrotz KANN das Speicherinterface in bestimmten Szenarien ein limitierender Faktor sein. Wenn ich das doch weiß, warum soll ich das (als Enthusiast) hinnehmen?

Natürlich würde ich eine aktuelle GPU, am ehesten in eine aktuelle Plattform stecken.
Dann mach' DU das doch. ICH bin gerne weiterhin in MEINEN gespielten Spielen zu 98% im GPU-Limit (gemessen nicht nur gelabert, weil ich immer mit RTSS-Overlay spiele), RAM-OC sei dank. Eine neue Plattform steht aber so oder so demnächst an, das tut aber hier nichts zur Sache. An und für sich wäre ich mit meiner CPU sogar fein bis Ende 2026, wenn der nächste GPU-Kauf ansteht. Darüber hinaus gibt es ja noch Frame Generation, was älteren Platformen mit einem Ada-Gespann ein noch längeres Leben beschert. :)

Hast du benchs zu eine 4080 und pcie 3 damit du deine Befürchtung untermauern kannst.
Nö, aber zur RTX 4090:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Für mich passt die "verpasste" Performance in UHD. Mit VRAM-OC (+1700 MHz) negiere ich die auch wieder easy. Es kann sein, dass man auch mit der RTX 4080 (nur) einen ähnlichen prozentualen Performancemalus hat (ich glaube aber, dass er größer ist!), jedoch wäre die Karte für mich so oder so nicht relevant gewesen, da ich bestimmt nicht von einer RTX 3090 auf eine RTX 4080 (mit 8 GiB weniger VRAM und einem 128 Bit kleinerem Speicherinterface) aufgerüstet hätte.

Du kannst auch nicht von einer völlig verkrüppelten 4060(ti) auf eine 4080 schließen.
Die sind für MICH PERSÖNLICH alle nicht das gelbe vom Ei, durch die Bank weg.
 
Nvidia macht den Fehler die Marge aus einem Hype-Bereich (KI und Co.) jetzt auch auf die Gaming Branche übertragen zu wollen.

Gaming ist eine konstante und solide Umsatzquelle, aber nicht so profitabel wie irgendwelche KI-Beschleuniger. Das Problem ist, vor 5 Jahren hat sich niemand wirklich für KI interessiert und niemand weiß, wie das 5 Jahren in der Zukunft aussieht.

Wenn man sich den Hype Cycle anguckt, sind wir beim Thema KI gerade auf dem "Gipfel der überzogenen Erwartungen". Mein ganzer LinkedIn/Instagram Feed ist voll von irgendwelchen tollen neuen KI-Anwendungen. Erinnert mich stark an den Blockchain Hype der letzten 2-3 Jahre. Inzwischen ist es da auch sehr ruhig geworden.
Tatsache ist, das "Tal der Enttäuschung" wird auch bei KI früher oder später kommen. Und Nvidia tut gut daran, sich nicht zu sehr abhängig von diesem Hype zu machen.

Beim Thema "Generative AI" (ChatGPT, DALLE2 etc.) war die Vorhersage von Gartner erstaunlich präzise. 2021 haben die vorhergesagt, dass das Thema in 2-5 Jahren seinen Höhepunkt erreicht, 2023/24 scheint das zu passieren.
Beim Thema NFTs hat Gartner den Höhepunkt in 2021 gesehen und das würde ich Stand heute ebenfalls so unterschreiben.
 
Nvidia macht den Fehler die Marge aus einem Hype-Bereich (KI und Co.) jetzt auch auf die Gaming Branche übertragen zu wollen.

Gaming ist eine konstante und solide Umsatzquelle, aber nicht so profitabel wie irgendwelche KI-Beschleuniger. Das Problem ist, vor 5 Jahren hat sich niemand wirklich für KI interessiert und niemand weiß, wie das 5 Jahren in der Zukunft aussieht.

Wenn man sich den Hype Cycle anguckt, sind wir beim Thema KI gerade auf dem "Gipfel der überzogenen Erwartungen". Mein ganzer LinkedIn/Instagram Feed ist voll von irgendwelchen tollen neuen KI-Anwendungen. Erinnert mich stark an den Blockchain Hype der letzten 2-3 Jahre. Inzwischen ist es da auch sehr ruhig geworden.
Tatsache ist, das "Tal der Enttäuschung" wird auch bei KI früher oder später kommen. Und Nvidia tut gut daran, sich nicht zu sehr abhängig von diesem Hype zu machen.

Beim Thema "Generative AI" (ChatGPT, DALLE2 etc.) war die Vorhersage von Gartner erstaunlich präzise. 2021 haben die vorhergesagt, dass das Thema in 2-5 Jahren seinen Höhepunkt erreicht, 2023/24 scheint das zu passieren.
Beim Thema NFTs hat Gartner den Höhepunkt in 2021 gesehen und das würde ich Stand heute ebenfalls so unterschreiben.
Sehe ich anders. Blockchain und AI kann man schwer vergleichen. Blockchain würde es idR nur ermöglichen, diverse analoge Dinge zu digitalisieren, und bringt daher keinen unmittelbaren (wirtschaftlichen) Nutzen. Mit AI lassen sich aber langfristig Arbeitskräfte einsparen oder ersetzen; AI bietet daher einen ganz erheblichen (wirtschaftlichen) Nutzen. Gerade in passenden Fachkräftemangelberufen wird sich von AI künftig viel versprochen, bspw. sollen AIs Lehrer ersetzen bzw. zumindest supplementieren, um einerseits den Fachkräftemangel zu kompensieren und andererseits die Kinder individueller (durch AI) betreuen zu können. Ich gehe davon aus, dass AI uns noch eine sehr lange Zeit beschäftigen wird.
 
Das mache ich doch gar nicht. Die RTX 4080 ist an und für sich eine tolle Karte, aber eben nicht für meine Präferenzen.

Natürlich ist die Rohleistung und selbstverständlich auch die Gesamtkapazität des Videospeichers wichtiger. Nichtsdestotrotz KANN das Speicherinterface in bestimmten Szenarien ein limitierender Faktor sein. Wenn ich das doch weiß, warum soll ich das (als Enthusiast) hinnehmen?


Dann mach' DU das doch. ICH bin gerne weiterhin in MEINEN gespielten Spielen zu 98% im GPU-Limit (gemessen nicht nur gelabert, weil ich immer mit RTSS-Overlay spiele), RAM-OC sei dank. Eine neue Plattform steht aber so oder so demnächst an, das tut aber hier nichts zur Sache. An und für sich wäre ich mit meiner CPU sogar fein bis Ende 2026, wenn der nächste GPU-Kauf ansteht. Darüber hinaus gibt es ja noch Frame Generation, was älteren Platformen mit einem Ada-Gespann ein noch längeres Leben beschert. :)


Nö, aber zur RTX 4090:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Für mich passt die "verpasste" Performance in UHD. Mit VRAM-OC (+1700 MHz) negiere ich die auch wieder easy. Es kann sein, dass man auch mit der RTX 4080 (nur) einen ähnlichen prozentualen Performancemalus hat (ich glaube aber, dass er größer ist!), jedoch wäre die Karte für mich so oder so nicht relevant gewesen, da ich bestimmt nicht von einer RTX 3090 auf eine RTX 4080 (mit 8 GiB weniger VRAM und einem 128 Bit kleinerem Speicherinterface) aufgerüstet hätte.


Die sind für MICH PERSÖNLICH alle nicht das gelbe vom Ei, durch die Bank weg.
Hast du auch vergleiche zu 7900xtx und rtx 3090, oder so an pcie3?

Sonst ist das nicht viel Wert .

Darüber hinaus ist immer klar, das jeder Kauf auch von individuellen Rahmenbedingungen abhängt.

Unterm Strich vergleicht man aber erstmal stets auf aktuellen Plattformen und da ist die 4080 und ihre Speicheranbindung halt das bessere Produkt. ( War halt der Vergleich, über den ich sprach 4080/7900xtx) und das deswegen die 4080 zurecht etwas teurer ist als die 7900xtx
 
Hast du auch vergleiche zu 7900xtx und rtx 3090, oder so an pcie3?

Sonst ist das nicht viel Wert .
Nein, habe ich nicht, aber Onkel Google hilft Dir da doch bestimmt weiter, wenn es Dich interessiert. :)

Ich würde aber annehmen, dass der jeweilige prozentuale Unterschied in einem ähnlich niedrigschwelligen Bereich liegt, weil beide Karten auch über ein 384-Bit Speicherinterface und 24 GiB VRAM verfügen. Die RTX 4090 und die RX 7900 XTX haben halt auch nochmal ordentlich mehr Cache als die RTX 3090. Ich habe keine Ahnung, ob das etwas bringt oder nicht (vermutlich aber schon ein wenig, bei CPUs kann man ja auch mit viel Cache lahmen RAM kaschieren).

Ich hatte aber vorher auch schon die RTX 3090 drin und da habe ich mit PCIe 3.0 in GPU-Benchmarks ähnliche Ergebnisse erzielt, wie auf PCIe 4.0 Plattformen.

Man müsste halt einfach mal alle GPUs dieser und der letzten Grafikkartengeneration mit PCIe 4.0 x16, x8 (, x4) und PCIe 3.0 x16, x8 (, x4) (und vielleicht sogar noch PCIe 2.0) durch einen Benchmarkparcours jagen, um zu sehen, wann und in welchen Szenarien genau es zu Leistungseinbußen kommt. Da muss man natürlich alle anderen Parameter auch miteinbeziehen. Das ist aber so dermaßen nischig und aufwendig, dass das in diesem Ausmaß niemals passieren wird, weil das keiner stemmen kann und vermutlich auch die wenigsten interessiert.

Hier habe ich aber auch einmal bei einem PCGH-Community-Benchmark mitgemacht (Returnal):
Wie man sieht, bin ich dort mit meinem System quasi gleichauf mit in UHD mit dem PCIe 4.0 System. Das ist aber halt auch nur ein Spiel und bedingt aussagekräftig.

Darüber hinaus ist immer klar, das jeder Kauf auch von individuellen Rahmenbedingungen abhängt.
Alles klar. So sehe ich das nämlich auch. Man muss halt wissen, was man macht und was man braucht. Was auf dem Blatt Papier erst einmal unsinnig erscheint, kann für den individuellen Privatanwender trotzdem Sinn ergeben, wenn er an bestimmten Stellschrauben dreht, die vielleicht sonst nicht mit berücksichtigt werden.

Unterm Strich vergleicht man aber erstmal stets auf aktuellen Plattformen und da ist die 4080 und ihre Speicheranbindung halt das bessere Produkt. ( War halt der Vergleich, über den ich sprach 4080/7900xtx) und das deswegen die 4080 zurecht etwas teurer ist als die 7900xtx
Hmmm. Ich sehe das nicht so. Wenn ich voll auf Raytracing gehe, lege ich die 300-400€ noch drauf und hole mir das dicke Schiff (RTX 4090), ansonsten würde ich ganz klar zur RX 7900 XTX greifen, weil sie einfach 1/3 mehr VRAM hat, günstiger ist und im Rasterizing oft vorne liegt. Das ist aber nur meine persönliche Meinung. Das mag jeder anders sehen.

Ich glaube, wir beenden das auch an der Stelle, weil das schon arg Offtopic wird.
 
also physx war son kram nebenbei, gsync ist ja auch nur freesync mit nvidia logo drauf. :ugly:
Hä ?

Physx ist für mich mehr Wert wie RT und ohne gsync kein feesync, vergisst wohl das Anfgangs Nvidia das ganze per HW gelöst hat und eine Qualitätskontrolle bei den Monitoren gemacht hat.

Freesync war Anfangs ja einfach nur ein Logo was draufgeklatscht wurde weil es keine fest vorgelegten Standard gab an dem sich alle Hersteller halten mussten.
 
Hä ?

Physx ist für mich mehr Wert wie RT und ohne gsync kein feesync, vergisst wohl das Anfgangs Nvidia das ganze per HW gelöst hat und eine Qualitätskontrolle bei den Monitoren gemacht hat.

Freesync war Anfangs ja einfach nur ein Logo was draufgeklatscht wurde weil es keine fest vorgelegten Standard gab an dem sich alle Hersteller halten mussten.
Au contraire,
Freesync basiert auf eine Variable Refreshrate Technologie für mobile Telefone und somit auf einen zuvor schon breit etablierter Standard. Nur nicht im PC Bereich.

Natürlich wird überall dann das Firmenemblem geklatscht, wo es nur geht.

Physik ist jedoch, wie du sagst, ganz klar viel wichtiger als jedes bis heute publizierte RT.
Von mir aus auch mit PhysX, welches voraussetzte entsprechende Hardware zu kaufen.

Stellte sich dann doch heraus (wiedermal) dass, wenn mehrkernoptimiert, es auch sehr gut über CPU funktioniert.
Kleider Animation sieht heute geradezu perfekt aus und kostet keinen fps. Gleiches gilt für RTX Noisesupression mit RTX Karten.

In diesem Zusammenhang ist es noch witzig, dass meine alte GTX1080 schneller oder fast gleich schnell arbeitet in CP2077 Pathtracing ON als meine neuere RX6800xt.
Das kommt dabei raus, wenn man volle Kontrolle über die Plattform/Software hat.
 
Und AMD fährt genau die gleiche Schiene!
Die sind keinen Deut besser das stimmt.
Hä du findest es Asozial das die weniger betuchten Nachwuschspieler keine 4090 kaufen können?
Es geht nicht um die 4090er. Das ist die Speerspitze und dass das ordentlich Asche kostet war schon immer so. Die letzten Prozent kosten unverhältnismäßig viel.
Mir gehts mit meiner Aussage um die restlichen 4000er Karten. Was da abgeht ist einfach asozial. Generell die Strategie von nVidia ist schon dreist in meinen Augen. AMD hat Lunte gerochen und hat auch üble Preise. Hoffe das Intel aus dem Knick kommt bei der nächsten Gen. Dann wäre mal wirklich Wettbewerb angesagt und kein Duopol mit wir verlangen bis zum geht nicht mehr Preisen.
aber wozu wenn die 4070 in meinem kleinen Case die aktuellen Top 10 Titel flüssig abspielt.

4070 ist eig eine Mittelklasse-Karte. Preis weißt du ja selber und von der krüppel 4060er reden wir erst nicht, weil die Out of the Box simple Materialverschwendung ist.
 
Du kannst mit einer GTX 1080 Pathtracing in Cyberpunk nutzen/einschalten?
Für dich, hier:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Das habe ich in der ersten Suche auf YouTube gefunden.
 
Jensen hat den Planet zwar komplett verlassen wie man sehen konnte, aber diese Überschrift dient nur dem Trafik hier.

Die werden Gamer nicht vernachlässigen es macht immer noch enorm viel Geld. Wie es in 20 Jahren aussieht weiß keiner aber in den nächsten 10 werden wir weiterhin genau so bedient.
Da es immer Gamer geben wird, wird es auch weiter Hardware dafür geben und es wird auch immer weiter Netze geben, die die zum dazu passenden Zeitpunkt höchste optische Qualität, nicht gut händeln können.

ja, ich denke das Cloud Gaming gegen 2030 nochmal richtig fahrt aufnehmen wird. Aber ich denke auch das PC Gaming bleiben wird. Dann aber wirklich vielleicht relativ teuer, im Vergleich zu heute.
Denke aber das KI dennoch die Zukunft ist in allen Bereichen auch wenn das manche für eine blase halten. Wenn Gaming gpus irgendwann auch nur noch komplett auf Ki setzen dan ahebn die soeiso den Jackpot geknackt. Wobei sie jz zum 1 Billion Dollar Club gehören also ist die Sache schon geknackt.
Ich weiß nicht, wie überhaupt jemand auf die Idee kommen kann, das KI/AI nicht das Geschäft der nächsten zehn Jahre wird.
Überlegt mal was man alles damit anstellen kann, oder was man tatsächlich damit alles verbessern könnte.

Auch wenn ich persönlich so meine Abneigung habe... Aber das wird die Industrie nicht aufhalten.
Nein, habe ich nicht, aber Onkel Google hilft Dir da doch bestimmt weiter, wenn es Dich interessiert. :)
Na, ich habe nicht das Si der 4080 als Problem dargestellt, oder als Negativ Punkt aufgeführt.

Wenn 4090, 4080 und 7900XTX in ähnlichem Umfang an Leistung einbüßen, bei PCIe 3 gegenüber Gen 4, dann ist die Anbindung der 4080 offensichtlich kein Problem und eher eine Gefühlssache.

Nicht faösch verstehen, ich eher Fraktion Hubraum ist nur durch mehr Hubraum zu ersetzen, aber eine GPU liefert nur Bilder... Da gibt es keine Emotionen, je nachdem wie die das macht. Also zählt nur das Ergebnis.

Ich würde aber annehmen, dass der jeweilige prozentuale Unterschied in einem ähnlich niedrigschwelligen Bereich liegt, weil beide Karten auch über ein 384-Bit Speicherinterface und 24 GiB VRAM verfügen. Die RTX 4090 und die RX 7900 XTX haben halt auch nochmal ordentlich mehr Cache als die RTX 3090. Ich habe keine Ahnung, ob das etwas bringt oder nicht (vermutlich aber schon ein wenig, bei CPUs kann man ja auch mit viel Cache lahmen RAM kaschieren).
Das sieht man ja in den Benchmarks, die das Ergbenis zeigen.
Ich hatte aber vorher auch schon die RTX 3090 drin und da habe ich mit PCIe 3.0 in GPU-Benchmarks ähnliche Ergebnisse erzielt, wie auf PCIe 4.0 Plattformen.
Sind meistens nur wenige Spiele und selbst da Szenenabhängig wie extrem man unterschiede messen kann.

Gab damals bei PCIe3.0 Einführung Benchs von PCGH. Da war es fast immer egal, aber dann in einem CoD von damals waren es 11% unterschied.
Man müsste halt einfach mal alle GPUs dieser und der letzten Grafikkartengeneration mit PCIe 4.0 x16, x8 (, x4) und PCIe 3.0 x16, x8 (, x4) (und vielleicht sogar noch PCIe 2.0) durch einen Benchmarkparcours jagen, um zu sehen, wann und in welchen Szenarien genau es zu Leistungseinbußen kommt. Da muss man natürlich alle anderen Parameter auch miteinbeziehen. Das ist aber so dermaßen nischig und aufwendig, dass das in diesem Ausmaß niemals passieren wird, weil das keiner stemmen kann und vermutlich auch die wenigsten interessiert.

Hier habe ich aber auch einmal bei einem PCGH-Community-Benchmark mitgemacht (Returnal):
Wie man sieht, bin ich dort mit meinem System quasi gleichauf mit in UHD mit dem PCIe 4.0 System. Das ist aber halt auch nur ein Spiel und bedingt aussagekräftig.


Alles klar. So sehe ich das nämlich auch. Man muss halt wissen, was man macht und was man braucht. Was auf dem Blatt Papier erst einmal unsinnig erscheint, kann für den individuellen Privatanwender trotzdem Sinn ergeben, wenn er an bestimmten Stellschrauben dreht, die vielleicht sonst nicht mit berücksichtigt werden.


Hmmm. Ich sehe das nicht so. Wenn ich voll auf Raytracing gehe, lege ich die 300-400€ noch drauf und hole mir das dicke Schiff (RTX 4090), ansonsten würde ich ganz klar zur RX 7900 XTX greifen, weil sie einfach 1/3 mehr VRAM hat, günstiger ist und im Rasterizing oft vorne liegt. Das ist aber nur meine persönliche Meinung. Das mag jeder anders sehen.
1. Gerade die jüngsten Benchs zu CP2077 mit PathTracing haben eindrucksvoll gezeigt, das Nvidia deutlich besser für die Zukunft gerüstet ist. Ob das zur Zeit der RTX4000, RX7000 relevant sein wird, werden wir sehen. Aber auch generell kann man sehen, umso intensiver RT genutzt wird, umso eher ist Nvidia im Vorteil.

2. Das jemand der bereits 24GB VRam hat/hatte ist nur logisch das man nur ungern wieder zurück gehen würde zu weniger. Daher naheliegend eher zu einer 4090 zu greifen. Aber die 7900XTX würde ich nur der 4080 vorziehen, wenn ich wirklich individuelle Gründe haben, die vom Durchschnitt abweichen.

Da, die 4080 bereits sehr gut mit jedem Spiel mit RT zurecht kommt, auch bis hoch in 4k. Sehe ich RT auch als Argument.

Bei CBgibt es Benchs zu jüngeren Spielen, die auch bei AMD sehr gut laufen, aber in Summe ist RT eher auf der grünen Seite der Macht zu finden.

Für alle die nur am Bildschirm zocken und ohne Mods, sind die 16GB und das SI der 4080 absolut ausreichend.
Auch die UE5 Spiele sollten mit der 4080 sehr gut laufen, aber das bleibt noch abzuwarten...

Ich persönlich will zur 7900XTX greifen, da ich erstens ein inviduellen Sonderfall habe, weswegen ich die 24 über 16GB schwerer wiege und ich ansonsten nur auf Bildschirm zocke und das dann auch nur in 1440p und da ist auch die 7900XTX zu allermeist mit RT schnell genug, spätestens mit FSR (Qualität). (und es widerstrebt mir AMD Aktien zu haben und wieder und wieder Nvidia zu kaufen ;))
Ich glaube, wir beenden das auch an der Stelle, weil das schon arg Offtopic wird.
gerne, das sollte nur nochmal meine Schlussnote sein.

Aber bei der VRam Diskussion und SI Diskussion sind wir ja eigentlich wieder beim KI Thema ;). Nvidia will ja KI Beschleunigt den VRam Verbrauch senken...
 
Zurück