News Geforce RTX 5000 ("Blackwell"): Gerüchte sprechen von einer Chiplet-GPU und weitreichenden Änderungen

Pathtracing ist schon geil. Bei Minecraft RTX auch. Und mir fallen noch Metro, Control und mittlerweile Witcher 3 ein, wo RT wirklich einen spürbaren Mehrwert bietet. Aber das sind alles Titel, die auch schon wieder Jahre auf dem Buckel haben.

Wenn ich so 2023er Titel wie Hogwards angucke, muss ich wirklich lachen wenn mir jemand erzählen will RT habe irgendwelche "Fortschitte" gemacht. :lol:

Anhang anzeigen 1437922 Anhang anzeigen 1437923

Raytracing ist und bleibt ein Nischen-Gimmick. Daran wird auch der Cyberpunk-Hype die nächsten Wochen nichts ändern. Ein Showcase-Spiel reicht einfach nicht.

Aber sicher doch. Bald geht es los.. Das höre ich schon seit 5 Jahren. Nur weil Engines RT beherrschen, nutzen es Entwickler nicht zwangsläufig. Weil es ******* performt, vor allem auf Konsolen, die die Basis stellen für fast alle Spiele, und die noch (mindestens) 4-5 Jahre unzureichende RT-Performance haben werden. Viel Glück beim warten.

Joah, 2 cherry-picked Screenshots machen Deine gesamte Argumentation natürlich direkt valide. Nicht.
Im ersten Screenshot ist man nicht mal im Bereich in dem "Screen Space Reflections" einfach GARNICHTS mehr reflektieren. Da müsste man die Kamera nur ein bisschen nach unten ausrichten und zack, die Brücke verschwindet in der Reflektion. Allein deshalb ist das ein lächerliches Beispiel.

Seit 5 Jahren? Soso. Vor ziemlich GENAU 5 Jahren wurde Turing überhaupt erst released. Also bitte Füße still halten, die Spiele die bereits mit RT im Hinterkopf in die Entwicklung gegangen sind kommen erst noch...
 
Joah, 2 cherry-picked Screenshots machen Deine gesamte Argumentation natürlich direkt valide. Nicht.
Im ersten Screenshot ist man nicht mal im Bereich in dem "Screen Space Reflections" einfach GARNICHTS mehr reflektieren. Da müsste man die Kamera nur ein bisschen nach unten ausrichten und zack, die Brücke verschwindet in der Reflektion. Allein deshalb ist das ein lächerliches Beispiel.
Ich hab zwei mal ins Video geklickt. Nix mit Cherrypicking. Was Nathenhale getan hat ist Cherrypicking. Und das in einer Szene, wo der Entwickler so tut (siehe links), als seien Reflexionen nicht auch ohne Raytracing seit 20 Jahren Standard in Computerspielen. :rolleyes:
Seit 5 Jahren? Soso. Vor ziemlich GENAU 5 Jahren wurde Turing überhaupt erst released. Also bitte Füße still halten, die Spiele die bereits mit RT im Hinterkopf in die Entwicklung gegangen sind kommen erst noch...
Ja, Sherlock, deswegen ja auch 5 Jahre. Und welche Konsole soll die kommenden imaginären RT-Spiele stemmen? Die wenigsten Spiele sind PC-Exklusiv. Das würde ja gar nicht zusammenpassen mit "fast alle neuen Spiele haben RT".

Lass uns abwarten. Ich find RT auch geil, in wenigen Spielen, und freue mich auch auf die Zukunft. Nur wenn mir jemand erzählen will es sei jetzt schon Standard, dann hat das weniger Wahrheitsgehalt als ein Tweet von Donald Trump. Fake-News at it's best. Jeder kann für sich nachprüfen welche aktuellen Spiele RT unterstützen, und welche nicht, und falls ja den "Mehrwert" beurteilen. Damit ist alles gesagt.
 
Um wieder zum Thema zu kommen:
Ich glaube nicht das wir in dem Segement Consumer (RTX5010-5090) ein MCM design sehen.
Ich vermute es eher in Richtung Quadro also Enterprise lösung. (or kp wie NVIDIA die Dinger nennt).
Bin aber gespannt 70% Mehrleistung bei dem Selben Preis würde mir schon reichen.
 
Moin,

vorab, wir diskutieren jetzt so lange, da kann es schon mal penetrant rüberkommen, ist nicht meine Absicht. Ich will hier ja am Ende auch diskutieren um zu lernen, hoffe das ist auf der Gegenseite genauso.
Passt. ;)
Bzgl. der Frametimes bin ich nun völlig verwirrt! Das rein technische hinter FG schließt einen Gewinn der Latenz ja nunmal konsequent aus und bedingt immer einen Latenzanstieg (wie hoch, ist eine andere Frage). Auch der Satz der Redaktion macht mit Blick auf die Graphen keinen Sinn:



Macht aber im zweiten Blick dann wieder Sinn, dadurch das Reflex eben mit DLSS Q nicht aktiviert ist, kommt man so nicht zum entsprechenden Zugewinn. Spannend wäre hier definitiv Reflex on mit DLSS Q ohne FG, die Latenz müsste rein technisch betrachtet noch unterhalb von FG & Reflex liegen.

Wie gesagt, ist mir Latte ob theoretisch nativ + Reflex noch weniger Latenz hätte, wenn es aber schon längst niedrig genug ist. Also ich verstehe deinen Ansatz, sehe aber in vielen Fällen die Relevanz nicht.
Aber man sieht in meinen Augen auch, wie schlecht CP2077 wirklich programmiert ist, denn die Eingabelatenz ist einfach wahnsinnig hoch und korreliert (in Relation zu anderen Spielen) gar nicht erst mit der FPS Zahl. Was meine ich?
Hogwart bspw. hat nativ (nur wegen der Korrelation der Frametimes zur Latenz) eine Frametime von 20ms (ca. Durchschnitt), darauf ergibt sich eine Latenz von ca. 80ms. CP2077 hat eine Frametime von 40ms zur Latenz von 180ms? Mit der 4070 eine Frametime von 30ms zur Latenz 140 ms? Da ist eben auch das Spiel einfach nicht gut! Reflex ist (das behaupte ich ja schon lange) gerade bei CP2077 eine Wunderdroge!

Also JEIN, dein Punkt ist valide und das was ich am Ende immer sage, wenn ein Spiel "nativ" (womit ich einfach nur ohne FG meine, DLSS/FSR & Reflex dürfen gerne aktiviert sein) funktioniert, kann FG es etwas besser machen, hier würde ich aber eben FG nicht den Zugewinn an Spielbarkeit zuweisen, sondern eher Reflex, aber definitiv kann das ein Setting sein, mit dem man spielen kann und FG macht es dann eben etwas flüssiger und besser, keine Frage!


Sorry, da kann es keine zwei Meinungen geben. Die Frames können niemals wie echte Frames funktionieren, sie können niemals die Latenz verbessern, da bin ich mir zu 100% sicher. Die Latenz verbessert Reflex, welches aber ein unabhängiges Feature ist, was man schon daran sieht, dass Reflex eben schon mit der 900er Serie von Nvidia läuft.
Sorry, von mir unglücklich formuliert. Ich meine wenn das Ergebnis passt, als bessere Frames, Frametimes und Latenz... Dann ist mir doch Latte ob wie echte Frames, oder Mogelframes, oder was auch immer.

Ich vergleiche nativ, vs. DLSS (+FG) + RF. Da kann FG für sich genommen immer noch die Latenz verschlechtern, sofern das durch RF wieder runter gebrochen wird, auf ein Maß das ich es nicht merke, bzw. so ist wie nativ, dann stört mich das sicher nicht.

Hundertprozentig!

Mir fällt aber eben immer wieder auf, dass eben diese Latenz in vielen Fällen das eigentliche Problem ist, die schiere Anzahl an FPS ist häufig nur ein Balken. Ansonsten kann man jeden HighFPS Gamer quasi als absurd bezeichnen, der Mensch kann nunmal nur eine geringe Anzahl an Bildern wirklich verarbeiten, eine Studie an Kampfpiloten, die wohl überdurchschnittlich begabt sein müssen in dem Bereich, hat mal gesagt, dass 100-120 Bilder die Sekunde wahrgenommen werden können, aber nur 40-50 wirklich verarbeitet werden.
Ja, das sind zwei paar Schuhe, dem Endanwender aber wieder egal.

Das verarbeiten ist auch so eine Sache worüber man redet. Die Details der Bilder werden die meisten schon früh nicht mehr verarbeiten können. Aber eine flüssigere Bewegung sehen schon noch einige, oberhalb von 120Fps. Das hat an der Stelle auch nichts mit der Latenz zu tun.
Alles was darüber hinaus geht, wäre dann eben tatsächlicher Schwachsinn, was es aber nicht ist, da mehr FPS auch immer die Latenz senkt und wie man an deinem Link schön sieht, diese liegt mitunter drei bis viermal so hoch wie die FPS Zeiten, damit dürfte man völlig theoretisiert in den Bereich um 500 Hz kommen, was High End Gamer ja durchaus anpeilen!
Naja, wie sehr sich die Latenz noch ändert zwischen 240Hz und 500Hz, ist jetzt absolut betrachtet eigentlich zu vernachlässigen.
Ist Gaming denn Mainstream?
Für mich auf jeden Fall.
Der 3D ist ein absoluter Exot, mit einer Technik die eigentlich den Epycs vorbehalten sein sollte
Warum... sehe ich nicht so.
, die aber eben auf Grund der Eigenschaften quasi ideal fürs Gaming sind, ähnlich bspw. der beiden Broadwells seinerzeit mit L4 Cache!
Diese waren auch Mainstream.
Guter Punkt, hat die Vergangenheit aber eben auch schon mehrmals gezeigt, dass Techniken die PC Only sind oftmals an der Umsetzung kranken, da PC Only eben ein signifikant kleinerer Markt als die Konsolen sind.
Ist ja nicht mehr PC Only, daher werden viele neue Titel die nächsten Jahre auf RT setzen, gerade mit so Werkzeugen wie der UE5.
Moment, war das Gegenstand der Unterhaltung? Dann ziehe ich meine Aussgen zurück, das RT für manche ein Argument ist, 100% dabei!
Oftmals handelt es sich um Missverständnisse und unterschiedliche Sichtweisen, die in Foren dann zu entweder, oder geformt werden.
Ich verstehe aber eben auch, dass es für viele kein Argument ist und ich sehe eben nachwievor, dass dies eben der Großteil der Käufer sein sollte.
Ich kenne den Großteil der Käufer nicht.
Ich weiß nur, das in dem Umfeld, das mir bekannt ist eben die Leistung mit RT wichtig ist und das tatsächlich von allen, bei denen ich Kenntnis davon habe zu 100%. Da ist nicht einer dabei, der eher auf die Leistung ohne RT schaut.

Da sind auch Schüler bei, ich selbst weiß zwar nicht warum zwei Schüler, die auch noch Brüder sind, ohne zu arbeiten beide eine 4070ti im Rechner haben müssen (Was ist los mit den Eltern, aber anderes Thema).
Eine 4060/4070 bietet zwar mittlerweile eine ansprechende RT Leistung, aber sie kranken an anderen Dingen, wie bspw. zuwenig VRAM (wobei die 4060 Ti ja zumindest mit 16GB gelistet ist), dazu sind sie recht teuer und liegen eben deutlich hinter den AMD Angeboten (wobei ich in dem Bereich gerade die 6900/6950XT sehe, die preislich deutlich attraktiver ist, bei nahezu gleicher Rasterleistung. Wenn RT aber ein Argument ist und einem dies 200 EUR wert ist, spricht ja grds. nichts außer dem Preis und dem VRAM (wobei man eben auch sortieren sollte, die 4060/4070 sind ja eher für kleinere Auflösungen gedacht, wo VRAM dann eben auch nicht so schnell ausgeht) gegen NV.
Kranken die denn wirklich am Speicher.

Eine Frage dazu, was kommt öfter vor. Das man auf einer AMD Karte RT komplett abschalten muss, weil nicht genug Performance, oder das einer Nvidia Karte gleicher Preisklasse der Speicher bei Ultra Details ausgeht?

Ich meine (subjektiv) das keines der Beiden deutlich häufiger ist. Es ist beides ein Beschneiden der Details und die Wertung kann nur jeder für sich übernehmen.

Wer das nicht möchte, bitte der muss halt eine 4090 kaufen.
keine Bedeutung wollte ich nie andeuten, wie gesagt, ich glaube nur, dass es noch etwas dauern wird bis die Bedeutung groß genug ist um nicht High End Usern relevant genug zu sein!
Einem Arbeitskollegen ist es auch wichtig und der spielt noch mit einer 3070 und wechselt kurzfristig auf eine 4070 in UWQHD.
Aktuell ist es nunmal so, dass unterhalb der 4080 die GPUs (bei AMD quasi jede GPU) nicht wirklich genug Leistung bieten um RT/PT wirklich gut umzusetzen.
Sehe ich absolut nicht so. Mit DLSS, FG und RF haben selbst 4070 und 4070ti oft noch genug Reserven für UWQHD, oder gar 4k mit RT.
NV macht mit DLSS wirklich vieles möglich, bei sehr guter Bildqualität, aber mir macht am Ende dort der VRAM zu schaffen, der eben jetzt schon kaum ausreichend ist um in hohen Auflösungen RT sinnvoll zu nutzen. er über 1k für die GPU ausgibt, der wird RT auch jetzt schon nutzen wollen, ist schließlich ein Nerd und für den gibt es ohnehin nur zwei Lösungen, 4080/4090!
Wie gesagt, was ist öfter? Ich selbst habe mehr Spiele Benchs im Kopf, bei denen RT auf AMD zu schlecht läuft, als das zum Beispiel die 12GB der 4070ti nicht reichen.

Sofern das Spiel nicht verbuggt ist, reichen 12GB noch und selbst wenn nicht. Dann muss ich halt ein, bis drei mal im Jahr etwas mit den Texturen auf Mittel/Hoch spielen. Kann dafür aber RT besser nutzen.

Unterhalb der 4090 sehe ich da keinen klaren Gewinner (ist natürlich subjektiv und vielleicht den bevorzugten Spielen geschuldet, wer weiß)
Entsprechende Hardware wird es aber auf der Konsole wohl erst 2027-2028 geben! Die Ps5 Pro wird zwar kommen, aber auf RDNA 3 aufbauen (wenn wir Glück haben) und damit weiterhin nicht genug RT Leistung bieten.

Da wird FMF helfen, um das die Spiele sich dennoch weiter entwickeln.
Pathtracing ist schon geil. Bei Minecraft RTX auch. Und mir fallen noch Metro, Control und mittlerweile Witcher 3 ein, wo RT wirklich einen spürbaren Mehrwert bietet. Aber das sind alles Titel, die auch schon wieder Jahre auf dem Buckel haben.

Wenn ich so 2023er Titel wie Hogwards angucke, muss ich wirklich lachen wenn mir jemand erzählen will RT habe irgendwelche "Fortschitte" gemacht. :lol:

Anhang anzeigen 1437922 Anhang anzeigen 1437923

Raytracing ist und bleibt ein Nischen-Gimmick.
Sicher ;)
Daran wird auch der Cyberpunk-Hype die nächsten Wochen nichts ändern. Ein Showcase-Spiel reicht einfach nicht.

Aber sicher doch. Bald geht es los.. Das höre ich schon seit 5 Jahren. Nur weil Engines RT beherrschen, nutzen es Entwickler nicht zwangsläufig. Weil es ******* performt, vor allem auf Konsolen, die die Basis stellen für fast alle Spiele, und die noch (mindestens) 4-5 Jahre unzureichende RT-Performance haben werden. Viel Glück beim warten.

Hm, das ist nicht mein Problem, ich habe es jetzt die Tage das erste mal so formuliert.
Titel wie Desordre und ähnliche zeigen, wo die nahe Zukunft hingeht.
 
Die Diskussion dass Raytracing eine Nische ist ist einfach vollkommen absurd.
Raytracing ist die Gegenwart, und Raytracing (bzw Path Tracing) ist die Zukunft.
Kaum ein Spiel welches optisch punkten möchte verzichtet auf Raytracing, alle modernen Engines sind mittlerweile Fit für Raytracing.

Selbst Apple hat im neuen iPhone 15 Pro bzw im A17 Pro Chip hardwarebasierte RT Cores verbaut!

Raytracing war 2018 zu Release von Turing GPU's eine Nische.

Aber im Jahr 2023 definitiv nicht, da mit Nvidia, AMD, Intel, Apple und Qualcomm praktisch alle Chip Designer Raytracing unterstützen und jede fast jede Software in Form von Spielen dieses auch unterstützt.

Und natürlich gibt es da Spiele deren RT Implementierung weniger aufwändig ist (z.Bsp. Hogwarts Legacy) oder auch sehr aufwändig (Cyberpunk 2077, Metro Exodus EE...).
 
Ich hab zwei mal ins Video geklickt. Nix mit Cherrypicking. Was Nathenhale getan hat ist Cherrypicking. Und das in einer Szene, wo der Entwickler so tut (siehe links), als seien Reflexionen nicht auch ohne Raytracing seit 20 Jahren Standard in Computerspielen. :rolleyes:
Dir ist klar dass "Screen Space Reflections" die seit "20 Jahren Standard sind" (allein das ist schon kompletter Unsinn) komplett AUSFALLEN wenn das reflektierte Objekt nicht mehr von der Kamera erfasst wird? Dein Beispiel ist völlig sinnlos was den Vorteil von RT Reflections angeht. Auch "Bounce Light" kann per "SSR" nicht richtig reflektiert werden.

Spiele von vor 20 Jahren waren übrigens (zu Zeiten der PS2):
GTA Vice City
Warcraft 3 Frozen Throne
Gran Turismo 3


Ja, Sherlock, deswegen ja auch 5 Jahre. Und welche Konsole soll die kommenden imaginären RT-Spiele stemmen? Die wenigsten Spiele sind PC-Exklusiv. Das würde ja gar nicht zusammenpassen mit "fast alle neuen Spiele haben RT".
Das schöne ist dass RT gut skaliert. Von einigen wenigen RT Effekten bis zum vollen Pathtracing. In der UE5 ist RT übrigens Standard was Beleuchtung angeht, Lumen nutzt entweder Software-RT oder Hardware-RT. Was besser performed und bessere Optik bringt sollte klar sein.

Lass uns abwarten. Ich find RT auch geil, in wenigen Spielen, und freue mich auch auf die Zukunft. Nur wenn mir jemand erzählen will es sei jetzt schon Standard, dann hat das weniger Wahrheitsgehalt als ein Tweet von Donald Trump. Fake-News at it's best. Jeder kann für sich nachprüfen welche aktuellen Spiele RT unterstützen, und welche nicht, und falls ja den "Mehrwert" beurteilen. Damit ist alles gesagt.
Es ist bereits Standard. Wie gesagt, die Spiele die AKTUELL raus kommen waren meist bereits in Entwicklung BEVOR Turing rauskam...
 
Zurück