News DirectX 12: AMD demonstriert CPU-Entlastung mit Radeon RX 7900 XTX

Ja nicht über den Tellerant schauen. Natürlich haben alle Spieler eine 7950x3d oder 9900k CPU mit einer 4090 gepart. Kein Apieler weltweit hat langsamere Hardware, nie nicht
Eine 9900K ist 6 Jahre alt und immer noch schnell genung
Wie alt oder langsam soll eine CPU den noch sein im Gaming PC?

Wer sich beschwert das die CPU zu langsam ist , ist irgentwie selber Schuld oder?

Oh das neuest AAA Game läuft auf meinem 10 Jahre alten PC nicht - merkste selber oder ?

Zur Zeit ist die GPU das Problem - Nicht die CPU solange 6 oder 8 Kerne da sind
 
wer glaubt denn ernsthaft dass von diesem Leistungsplus etwas am Ende rauskommt.
Die Entwickler werden noch fauler und müssen noch weniger optimieren.

Hauptsache man kauft sich eine 4090 und muss mit ner crappy performance leben auf nativen 1440p + RT/PT.
Wenn man mit ner 2000eu graka Upscaling nutzen muss, ist das oberpeinlich

Das ist eben aus betriebswirtschaftlicher Sicht der Hardwareunternehmen das super Geniale an RT/PT :)
Neue Generation, paar mehr Strahlen und Bounces "als Vorschau zum anfixen" in die Spiele bringen, Vorgänger und Current-Gen sofort überfordert.
Wenn sich jemand darüber beklagt, dass er dieser blinkenden Marketingkarotte folgen "muss"... naja...

Aber für FHD/WQHD-Raster sind halt heutzutage auch Mittelklassekarten sehr gut geeignet, notfalls mit verbessertem Upscaling und Frame Generation. Die alten Marketingkarotten Tessellation und VSR sind totgeritten und das teilproprietäre, oft wie als Fremdkörper wirkendes PhysX an seinem künstlichen Korsett erstickt.
Das ist für die Hardwarehersteller ein Problem in einer Zeit wo die Fertigung zusehends an physikalische Grenzen stösst.
 
Es steht den Entwicklern von Vulkan offen, jederzeit was ähnliches zu implementieren

Auf deutsch: Die (experimentellen) AMD-Extensions dafür gibt es schon seit einer Weile, bis das ganze halbwegs nutzbar ist, dauert es halt.

Ist bei D3D12 nebenbei auch nicht viel anders, da werden zwar reihenweise Features rausgehauen, aber praktisch jedes davon wird offensichtlich kaum getestet und hat haufenweise Bugs in mindestens einem Grafiktreiber. Erst letztens nen Test für View Instancing geschrieben - ein D3D12-Feature von 2017, das aber halt kaum genutzt wird - und abgesehen vom einfachsten denkbaren Use Case fliegt einem das vor allem auf Nvidia gewaltig um die Ohren, einzig WARP verhält sich entsprechend der Dokumentation.
 
Das ist eben aus betriebswirtschaftlicher Sicht der Hardwareunternehmen das super Geniale an RT/PT :)
Neue Generation, paar mehr Strahlen und Bounces "als Vorschau zum anfixen" in die Spiele bringen, Vorgänger und Current-Gen sofort überfordert.
Diese "Strategie" hat so ganz und gar nichts mit RT/PT zu tun. Die ist doch schon Jahrzehnte alt oder was glaubst du, wie sich gewisse Spielserien derart großer Beliebtheit erfreuen können über all die Jahre, während sich am Spielprinzip im Grunde mal so gar nichts ändert (und oftmals auch am Spielinhalt) und es im Gegenteil bzgl. der Funktionalitäten mal von Release zu Release vor- und zurückging, also geringfügig verbesserte oder auch mal verschlimmbesserte. Treibende Kraft war hier immer das Versprechen auf noch bessere, schönere, komplexere (Bombast-)Grafik und höhere Auflösung und das hat offensichtlich schon immer für die breite Masse gezogen, schon lange bevor es RT im Markt gab.

RT/PT und insbesondere PT stellen schlicht nur die neueste Technologie mit den größten Entwicklungsmöglichkeiten dar, da sich hiermit Engines deutlich vereinfachen lassen bei dennoch signifikant höherer Bildqualität in diversen Bereichen.
Btw.., nicht umsonst soll der PS5-Refresh insbesondere beim Raytracing überproportional zulegen. Rasterization hat sein Entwicklungspotential schon lange ausgeschöpft und es bleiben nur noch ein paar kleinere Stellschrauben, jedoch nicht mehr.
Es wird noch eine beträchtliche Zeitspanne vergehen bis mit entpsrechender Hardwaredurchdringung Engines aussschließlich auf RT/PT-basierte Engines umstellen werden, jedoch zeichnete sich diese Entwicklung schon vor längerer Zeit ab. Die erstmalige, vollumfängliche Implementation in einem AAA-Titel wie Cyberpunk (und hier ist es immer noch nur eine gepimpte Rasterizer-Engine und keine, die grundlegend auf PT ausgelegt ist) zeigte lediglich auf, dass die Entwicklung wohl schneller voranschreitet, als so mancher vermutete.
 
Eine 9900K ist 6 Jahre alt und immer noch schnell genung
Sagt der, der auf die schnellste Gaming-CPU von AMD aufgerüstet hat. Nein, ein 9900K ist nicht mehr schnell genug. Teste mal Spiele wie Anno 1800, MS Flight Simulator, Stellaris, Factorio oder Baldur's Gate 3 (Akt 3) – natürlich kann man mit Detailreduktion Engpässe versuchen zu vermeiden, aber die Rohleistung zählt am Ende auch für die Frametimes und hier gewinnt ein 9900K einfach keinen Blumentopf mehr. Hängt natürlich alles vom Anspruch ab. Wenn der lautet "mir reichen 40 Fps unter 5K", ja, dann könnte sogar noch ein 9900K ausreichen. Aber dann schalte Raytracing besser nicht an ;)
 
Hauptsache man kauft sich eine 4090 und muss mit ner crappy performance leben auf nativen 1440p + RT/PT.
Wenn man mit ner 2000eu graka Upscaling nutzen muss, ist das oberpeinlich
Nur hat der Artikel mit der Grafikleistung gar nichts zu tun...
CPU Leistung ist heutzutage kaum ein Problem in Spielen

Vom 9900K zum 7950X3D merkste bei Spielen sogut wie nix
Eine RTX3090 ist einfach nicht schnell genung für ein Unterschied in 3440x1440 oder 5120x1440

Somit ist es einfach egal oben die CPU jetzt 10% oder 25% ausgelastet ist wenn selbst eine RTX4090 zulangsam ist
Also ich sag mal so: Mein 9700K reicht noch aus, ist in moderneren Spielen aber auch stark ausgelastet.
Wenn der lautet "mir reichen 40 Fps unter 5K", ja, dann könnte sogar noch ein 9900K ausreichen. Aber dann schalte Raytracing besser nicht an ;)
Ganz so schlimm ist es nun auch nicht, aber die Luft wird langsam spürbar dünn.
 
GPU Work Graphs wurde schon im Juni 2023 vorgestellt und im Juli in einer frühen Version in DirectX 12 zu Testzwecken implementiert.

In Vulkan wurden ebenfalls experimentelle Funktionen integriert.

Soweit ich das überblicke, ist das kein exklusives Feature von D3D12.
Es ist eine neue Technologie, die von Microsoft-Ingenieuren vorgeschlagen wurde und gemeinsam von Microsoft, AMD, Nvidia, Intel und Qualcom entwickelt wird.
 
Ergänzend: Work Graphs ist schlicht ein neues Programmierparadigma ... eine entsprechende Herangehensweise kann selbstredend jede andere API ebenso implementieren.
DX enthält eine erste offizielle Implementation mit dem Agility SDK 1.613.0 im März diesen Jahres.
Microsoft selbst bringt es schon relativ gut auf den Punkt:
"[...] With Work Graphs, you can generate and schedule GPU work on the fly, without relying on the host. This means you can achieve higher performance, lower latency, and greater scalability for your games with tasks such as culling, binning, chaining of compute work, and much more."
 
Der PCGH Testparkour für CPUs und GPUs hat nicht viele Schnittpunkte, aber wenn man zu jeder GPU Balkentabelle angeben würde welche CPU wirklich nötig ist, um die GPU bei 98%+ zu halten, dann gäbe es wohl schnell erboste CPU Hersteller.

Besonders aus der Reihe fällt bei mir Returnal, deren Ingame Benchmark zeigt selten mehr als 5% CPU Leistung an, wo ich mich dann auch frage, ob da ein i3 von 2010 reichen würde.
 
Und dann muss man noch abwarten, wofür Spiele es nutzen. Die Beschleunigung in der Demo ist ja nett. Aber mit dieser Grafikqualität erscheint es auch vergleichsweise einfach, mehr Fps durch Verlagerung von CPU-Arbeit auf die GPU zu erzielen. Wenn das einer mit Cyperpunk @Pathtracing vorführen würde, wäre ich wesentlich beeindruckter.
Zumindest hilft es in Szenarien, wo die CPU tatsächlich mal das FPS-Limit ist.
Und wenn es allgemein nur dazu geeignet ist, das man anstatt einem kleinen Stotterer gleichmäßigere Frametimes hinbekommt, wäre der Nutzen ja schon gut.
So könnte man auch seinen Fokus mehr auf eine potente Grafikkarte und deren regelmäßiges Aufrüsten legen.
Ein Austausch von CPU, udn dann vielleicht noch Mainboard, Kühler, Ram, das trauen sich die wenigsten (außerhalb vom Forum), und kostet auch verdammt viel Geld.
Jedenfalls sehe ich in der Sache mehr Gewinnchangen als durch DirectStorage.
Natürlich ist das für dich von Nachteil, da du doch so gerne neue Mainboards testests.
By the way: hat der Manu dir wirklich keinen 32:9-Zöller von der Messe mitgebracht? Dieser Kerl behauptet doch wirklich, niemand benötigt so ein Format. Da hab ich nur gedacht: der hat doch nen Vogel. haha. Ja, fast witzig. ^^
Na, jedenfalls war die Alternativdarstellung mit dem aufklappbaren Mittelteil in der Print für Mainboardchipsatztabellen auch nicht verkehrt. ;-)
Schönen Tag euch allen im Büro. :-)

Nachträgliche Anmerkung:
es gab doch einen Test der 4090 in der PCGH?
da hieß es doch, es gäbe aktuell keine CPU, die die 4090 komplett auslasten könnte?
BÄM! AMD hat das Problem gelöst! Zumindest auf dem Papier.
:-)
De Fakto kann man das jetzt schon mal 1:1 auf die 5090 am Ende des Jahres übertragen.
Da wird dann auch ein 14090KS mit zig OC-Umdrehungen und 500 Watt nicht ausreichen.
Ein Test mit dem neuen Feature wäre aus meiner Sicht dann mehr als nur sinnvoll. :-)
 
Zuletzt bearbeitet:
Ich will dir ja nicht deine Illusionen nehmen, aber Microsoft schreibt explizit:
"AMD, NVIDIA, Intel and Qualcomm all helped with the work graphs design."
Und dein "BÄM!" ist mal vollkommen daneben gegriffen, da man daran schon seit Mitte 2020 arbeitet.
Und vielleicht noch als ergänzender Hinweis, dass nVidia bereits in CUDA 10 (2018) erstmals sein CUDA Graphs in einer ersten Version vorstelle. Liest man sich das durch, sieht das sehr stark nach einem Vorläufer dessen aus, was man nun als weiter ausgearbeitetes und generalisiertes Programmierparadigma in ein neues API gegossen hat.
Und abschließend noch der Hinweis, dass Work Graphs und DirectStorage mal so gar nichts miteinander zu tun haben, sondern gänzlich andere Bereiche adressieren und vielmehr als Ergänzung zueinander zu verstehen sind.
 
Zumindest hilft es in Szenarien, wo die CPU tatsächlich mal das FPS-Limit ist.


Nachträgliche Anmerkung:
es gab doch einen Test der 4090 in der PCGH?
da hieß es doch, es gäbe aktuell keine CPU, die die 4090 komplett auslasten könnte?
BÄM! AMD hat das Problem gelöst! Zumindest auf dem Papier.
:-)
De Fakto kann man das jetzt schon mal 1:1 auf die 5090 am Ende des Jahres übertragen.
Da wird dann auch ein 14090KS mit zig OC-Umdrehungen und 500 Watt nicht ausreichen.
Ein Test mit dem neuen Feature wäre aus meiner Sicht dann mehr als nur sinnvoll. :-)

Das kommt immer auf die Eintellungen an wie jeder weiß . :schief:

Grafikkarten wie die Nvidia RTX 4090 und ihrem natürlichem Einsatzgebiet 4-8K werden schon ausgelastet .:D
 
Zurück