Jensen hat den Planet zwar komplett verlassen wie man sehen konnte, aber diese Überschrift dient nur dem Trafik hier.
Die werden Gamer nicht vernachlässigen es macht immer noch enorm viel Geld. Wie es in 20 Jahren aussieht weiß keiner aber in den nächsten 10 werden wir weiterhin genau so bedient.
Da es immer Gamer geben wird, wird es auch weiter Hardware dafür geben und es wird auch immer weiter Netze geben, die die zum dazu passenden Zeitpunkt höchste optische Qualität, nicht gut händeln können.
ja, ich denke das Cloud Gaming gegen 2030 nochmal richtig fahrt aufnehmen wird. Aber ich denke auch das PC Gaming bleiben wird. Dann aber wirklich vielleicht relativ teuer, im Vergleich zu heute.
Denke aber das KI dennoch die Zukunft ist in allen Bereichen auch wenn das manche für eine blase halten. Wenn Gaming gpus irgendwann auch nur noch komplett auf Ki setzen dan ahebn die soeiso den Jackpot geknackt. Wobei sie jz zum 1 Billion Dollar Club gehören also ist die Sache schon geknackt.
Ich weiß nicht, wie überhaupt jemand auf die Idee kommen kann, das KI/AI nicht das Geschäft der nächsten zehn Jahre wird.
Überlegt mal was man alles damit anstellen kann, oder was man tatsächlich damit alles verbessern könnte.
Auch wenn ich persönlich so meine Abneigung habe... Aber das wird die Industrie nicht aufhalten.
Nein, habe ich nicht, aber Onkel Google hilft Dir da doch bestimmt weiter, wenn es Dich interessiert.
Na, ich habe nicht das Si der 4080 als Problem dargestellt, oder als Negativ Punkt aufgeführt.
Wenn 4090, 4080 und 7900XTX in ähnlichem Umfang an Leistung einbüßen, bei PCIe 3 gegenüber Gen 4, dann ist die Anbindung der 4080 offensichtlich kein Problem und eher eine Gefühlssache.
Nicht faösch verstehen, ich eher Fraktion Hubraum ist nur durch mehr Hubraum zu ersetzen, aber eine GPU liefert nur Bilder... Da gibt es keine Emotionen, je nachdem wie die das macht. Also zählt nur das Ergebnis.
Ich würde aber annehmen, dass der jeweilige prozentuale Unterschied in einem ähnlich niedrigschwelligen Bereich liegt, weil beide Karten auch über ein 384-Bit Speicherinterface und 24 GiB VRAM verfügen. Die RTX 4090 und die RX 7900 XTX haben halt auch nochmal ordentlich mehr Cache als die RTX 3090. Ich habe keine Ahnung, ob das etwas bringt oder nicht (vermutlich aber schon ein wenig, bei CPUs kann man ja auch mit viel Cache lahmen RAM kaschieren).
Das sieht man ja in den Benchmarks, die das Ergbenis zeigen.
Ich hatte aber vorher auch schon die RTX 3090 drin und da habe ich mit PCIe 3.0 in GPU-Benchmarks ähnliche Ergebnisse erzielt, wie auf PCIe 4.0 Plattformen.
Sind meistens nur wenige Spiele und selbst da Szenenabhängig wie extrem man unterschiede messen kann.
Gab damals bei PCIe3.0 Einführung Benchs von PCGH. Da war es fast immer egal, aber dann in einem CoD von damals waren es 11% unterschied.
Man müsste halt einfach mal alle GPUs dieser und der letzten Grafikkartengeneration mit PCIe 4.0 x16, x8 (, x4) und PCIe 3.0 x16, x8 (, x4) (und vielleicht sogar noch PCIe 2.0) durch einen Benchmarkparcours jagen, um zu sehen, wann und in welchen Szenarien genau es zu Leistungseinbußen kommt. Da muss man natürlich alle anderen Parameter auch miteinbeziehen. Das ist aber so dermaßen nischig und aufwendig, dass das in diesem Ausmaß niemals passieren wird, weil das keiner stemmen kann und vermutlich auch die wenigsten interessiert.
Hier habe ich aber auch einmal bei einem PCGH-Community-Benchmark mitgemacht (Returnal):
Moin! Das ehemalige Playstation-5-Effektgewitter Returnal ist soeben auf dem PC gelandet und schickt uns in die todschicke Bulettenhölle. ;) Mit dabei ist ein integrierter Benchmark, der nicht nur hübsch anzusehen ist. Er ist auch in "Disziplinen", wie Zerstörung und Partikel, unterteilt...
extreme.pcgameshardware.de
Wie man sieht, bin ich dort mit meinem System quasi gleichauf mit in UHD mit dem PCIe 4.0 System. Das ist aber halt auch nur ein Spiel und bedingt aussagekräftig.
Alles klar. So sehe ich das nämlich auch. Man muss halt wissen, was man macht und was man braucht. Was auf dem Blatt Papier erst einmal unsinnig erscheint, kann für den individuellen Privatanwender trotzdem Sinn ergeben, wenn er an bestimmten Stellschrauben dreht, die vielleicht sonst nicht mit berücksichtigt werden.
Hmmm. Ich sehe das nicht so. Wenn ich voll auf Raytracing gehe, lege ich die 300-400€ noch drauf und hole mir das dicke Schiff (RTX 4090), ansonsten würde ich ganz klar zur RX 7900 XTX greifen, weil sie einfach 1/3 mehr VRAM hat, günstiger ist und im Rasterizing oft vorne liegt. Das ist aber nur meine persönliche Meinung. Das mag jeder anders sehen.
1. Gerade die jüngsten Benchs zu CP2077 mit PathTracing haben eindrucksvoll gezeigt, das Nvidia deutlich besser für die Zukunft gerüstet ist. Ob das zur Zeit der RTX4000, RX7000 relevant sein wird, werden wir sehen. Aber auch generell kann man sehen, umso intensiver RT genutzt wird, umso eher ist Nvidia im Vorteil.
2. Das jemand der bereits 24GB VRam hat/hatte ist nur logisch das man nur ungern wieder zurück gehen würde zu weniger. Daher naheliegend eher zu einer 4090 zu greifen. Aber die 7900XTX würde ich nur der 4080 vorziehen, wenn ich wirklich individuelle Gründe haben, die vom Durchschnitt abweichen.
Da, die 4080 bereits sehr gut mit jedem Spiel mit RT zurecht kommt, auch bis hoch in 4k. Sehe ich RT auch als Argument.
Bei CBgibt es Benchs zu jüngeren Spielen, die auch bei AMD sehr gut laufen, aber in Summe ist RT eher auf der grünen Seite der Macht zu finden.
Für alle die nur am Bildschirm zocken und ohne Mods, sind die 16GB und das SI der 4080 absolut ausreichend.
Auch die UE5 Spiele sollten mit der 4080 sehr gut laufen, aber das bleibt noch abzuwarten...
Ich persönlich will zur 7900XTX greifen, da ich erstens ein inviduellen Sonderfall habe, weswegen ich die 24 über 16GB schwerer wiege und ich ansonsten nur auf Bildschirm zocke und das dann auch nur in 1440p und da ist auch die 7900XTX zu allermeist mit RT schnell genug, spätestens mit FSR (Qualität). (und es widerstrebt mir AMD Aktien zu haben und wieder und wieder Nvidia zu kaufen
)
Ich glaube, wir beenden das auch an der Stelle, weil das schon arg Offtopic wird.
gerne, das sollte nur nochmal meine Schlussnote sein.
Aber bei der VRam Diskussion und SI Diskussion sind wir ja eigentlich wieder beim KI Thema
. Nvidia will ja KI Beschleunigt den VRam Verbrauch senken...