News Ryzen gegen Core Ultra: AMD teilt hart gegen Intel aus

PCGH_Sven

PCGH-Autor
AMD hat eine volle Breitseite gegen seinen Konkurrenten Intel abgefeuert und sieht sich und seine Ryzen AI ("Strix Point") in hauseigenen Spiele-Benchmarks durchschnittlich 75 Prozent vor den konkurrierenden Core Ultra 200V ("Lunar Lake").

Was sagt die PCGH-X-Community zu Ryzen gegen Core Ultra: AMD teilt hart gegen Intel aus

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
Benchmarks mit und ohne Frame Generation miteinander vergleichen und den Unterschied in den FPS zu suchen ist schon hart lächerlich. Vor allem, weil Lunar Lake FG ja theoretisch auch kann. Das ist fast so unnütz wie die Graphen, wo Apple ihre M-Prozessoren gegen Core 9000 vergleicht und überraschenderweise gewinnt.
(Und mir egal, ob Nvidia und Intel so etwas auch wo machen, das macht es nicht besser).

Vor allem sieht man dann auf Slide-2 das Lunar Lake quasi ebenbürtig, wenn nicht sogar besser ist, wenn es um Nativ Rendering ohne FG/FSR und ohne XeSS geht. Das lässt mich sehr stark auf Battlemage hoffen, dass es hoffentlich gut genug ist, wenigstens minimale Marktanteile zu bekommen und man vlt. nicht Celestial (Desktop) aufgibt.
 
AMD blamiert sich mal wieder auf die Knochen, nachdem das Marketing zum 9800X3D relativ fair und die Benchmarks auch stimmig waren, kommt jetzt wieder so ein Gesülze.
PCGH testete das Modell ja erst vor kurzem und kam sogar 2-3% über Strix Point heraus.
 
Wenn ich es richtig interpretiere, dann war FSR3 auch bei Intel aktiv.
FSR3 ist aber nicht das gleiche wie AFMF (Fluid Motion Frames ~= Nvidia Frame Generation von AMD).
FSR verringert gewissermaßen die benötigte Rechenleistung, indem man ein Bild hochskaliert.
Das erzeugt aber, im Gegensatz zu AFMF, keine künstlichen Zwischenframes (Manche sagen abwertend "Fake Frames"), die die FPS-Zahl deutlich boosten auf Kosten von Latenz, Bildqualität und Bildstimmigkeit.
 
Zuletzt bearbeitet:
FSR3 ist aber nicht das gleiche wie AFMF (Fluid Motion Frames ~= Nvidia Frame Generation von AMD).

Alleine, dass du Nvidias Framegeneration mit der von AMD in einen Topf wirfst, zeigt, dass du wenig Ahnung hast. Die von Nvidia ist KI basiert und läuft auf den Tensorkernen. Das soll AMDs Gegenstü+ck erst mit FSR4 können.

Ansonsten:
- Fluid Motion Frames ist die Framegeneration in AMDs Treiber. Sie benötigt keine Unterstützung des Spieleentwicklers und läuft prinzipiell mit jedem Spiel.
- FSR3 ist Fluid Motion Frames für alle. Das ganze wird vom Spieleentwickler integriert und läuft dann auf allen Karten.
- FSR2 ist Upscaling, hierbei werden die Bewegungsvektoren aus mehreren Bildern genutzt, so ähnlich, wie bei DLSS2.
- Bei FSR1 erfolgt das Upscaling Bild für Bild.
 
Der Test in der aktuellen PCGH Print ist mMn verheerend (Input-Latenz).

Jeder wie er will. Man kann natürlich auch eine große Stufe bei FSR2 herunter gehen, also auf Performance oder gar Ultra Performance. Dann hat man auch einen ordentlichen Leistungsgewinn, ohne Latenzprobleme. Alternativ könnte man im Spiel die Details herabstellen (grusel)...
 
Mit Anti Lag ist die Input Latenz bei mir zwischen 3 und 7ms. (4ms im Screenshot)
Also weniger Unterschied als wenn ich einen VA Monitor gegen einen OLED Monitor austausche.
(Mein VA hat 8ms Grau zu Grau und moderne haben 0,4ms)
Wenn dass so verheerend wäre, dann dürfte man ja nur noch mit den teuersten Monitoren Zocken :D
4ms average.jpg
 
Mit Anti Lag ist die Input Latenz bei mir zwischen 3 und 7ms. (4ms im Screenshot)
Also weniger Unterschied als wenn ich einen VA Monitor gegen einen OLED Monitor austausche.
(Mein VA hat 8ms Grau zu Grau und moderne haben 0,4ms)
Wenn dass so verheerend wäre, dann dürfte man ja nur noch mit den teuersten Monitoren Zocken :D
Erstens hat das eine nichts mit dem anderen zu tun und zweitens haben moderne VA alles, nur keine 0,4ms gtg.
Aktuellster Test eines VA bei tftcentral.
Selbst mit ordentlich overshoot sinds noch 2,9ms im Mittel.
Nur ein Übergang schafft 0,5ms, dafür hast du auch einen mit 10,6ms.
 
Und Oled ? Weil ich mal gelesen habe diese haben keine ms Verzögerung mehr.
Und ich kann mir nicht vorstellen dass Zocken auf OLED jetzt so viel besser ist dass ein Zocken auf einem normalen VA total unmöglich erscheint.
Daher kann ich diese ganze frame gen Latenz Kritik auch nicht nachvollziehen.
 
Und Oled ? Weil ich mal gelesen habe diese haben keine ms Verzögerung mehr.
Und ich kann mir nicht vorstellen dass Zocken auf OLED jetzt so viel besser ist dass ein Zocken auf einem normalen VA total unmöglich erscheint.
Daher kann ich diese ganze frame gen Latenz Kritik auch nicht nachvollziehen.
Die Latenz von FG ist was völlig anderes als die Reaktionszeit von Monitoren.
Hohe Reaktionszeiten erkennst du an Schlieren auf dem Monitor, ne schlechte Latenz an der Zeit wie lange deine reale Bewegung im Spiel umgesetzt wird.
 
Solange die Intel Treiber noch in vielen Spielen eine fehlerhafte Darstellung liefern ist jeder Benchmark sinnlos. Was nützen mir doppelt so viele Frames wenn die Immersion komplett dahin ist weil die Hälfte der Texturen nicht korrekt angezeigt werden oder ganz fehlen?
 
Ist doch alles völlig klar. *ironie an*

AMD --> NICE
INTEL --> SHICE

xD

So ein Quark alles. Immer diese dämlichen Balkenvergleiche. Ob AMD, Intel oder Nvidia.
Mit Intel kann man absolut alles aktuelle flüssig zocken.
Die GPU ist meistens eh der Flaschenhals.
 
Die Latenz von FG ist was völlig anderes als die Reaktionszeit von Monitoren.
Es ist aber ähnlich behindernd für die Wahrnehmung laut PCGH Artikel.

Zitate:
"Schluss mit dem Mythos der einen Millisekunde Reaktionszeit! Es gibt praktisch keinen Gaming-Monitor, der nicht damit wirbt. Und bei fast allen ist die Angabe schlicht gelogen."

"Nun hat ein Monitor aber nicht nur eine Reaktionszeit"

"bei 144 Hz leuchtet ein Pixel 6,9 Millisekunden lang. Der Wert liest sich wirklich nicht schön im Datenblatt."

"Im Prinzip ist die Reaktionszeit Teil des Input Lags"

"Daher fällt der Lag immer etwas höher aus. Auch den Input Lag messen wir mit zwei unterschiedlichen Methoden."

Und in dem Test kam ein Marken Monitor von Gigabyte statt den angegebenen 4ms auf 24,2ms Reaktionszeit.
Mein Monitor soll angeblich 8ms haben. Also nach dem lesen von dem PCGH Monitor Artikel gehe ich auch eher von 20ms aus.
Und Bildschirm Tests bestätigen auch dass OLED = weniger Inputlag.
Zitat:
"Durch die schnellere Reaktionszeit der Pixel von OLED-Displays können viele OLED-Monitore auch entsprechend bessere Input-Lag-Werte vorweisen. Beim Input Lag gilt bekanntlich: Je geringer der Input Lag, desto besser."

Also wen diese 3-7ms bei AMD Frame Gen 2 + Antilag stören (Bei AFMF 1 ohne Anti lag waren es noch 25ms), der kann gerne einen Oled Monitor verwenden und spürt Frame Gen nicht mehr im vergleich zum verbreiteten VA oder IPS Display.

Mit Intel kann man absolut alles aktuelle flüssig zocken.
Die GPU ist meistens eh der Flaschenhals.
Star Citizen leider nicht. Selbst der 13900K packt da nicht durchgehend 60fps. (Auf Lorevile bricht der sogar auf 25fps ein)
Kumpel von mir hat den 13900K und Average 40fps.
Mit meinem 2 Jahre älteren AMD hab ich mehr fps weil dass Spiel den X3D Cache liebt.
Und die Raptor Lake kann man eh nicht mehr empfehlen, da eingebaute Selbstzerstörung.
Und der neue Intel liegt ja sogar unter Zen 3 (2020) Niveau.
Daher wird im Star Citizen Hardware Discord Channel auch nie ein Intel empfohlen.
Intel 285K slower then 5800X3D in Games.jpg

1731663973038.png

1731663890756.png

Wer zum Zocken im Jahr 2025 also Intel Kauft, wird einen Riesen Fehler machen und nicht mehr alles Flüssig Spielen können.
Selbst so dinge wie World of Warcraft packt der neue Intel nicht mal für 144hz.
Wenn AMD schon beim Zen 2 (2018) einen X3D Chip gehabt hätte, wäre Intel wohl nicht mal schneller als Zen 2 und würde dann über 7 Jahre zurück liegen.
Zum Glück hatte AMD erst mit Zen 3 den X3D Chip. So sind es nur über 5 Jahre Rückstand.
 
Zuletzt bearbeitet:
Wer zum Zocken im Jahr 2025 also Intel Kauft, wird einen Riesen Fehler machen und nicht mehr alles Flüssig Spielen können.
Selbst so dinge wie World of Warcraft packt der neue Intel nicht mal für 144hz.

Psssst... das darfst Du doch nicht so laut sagen, dann bist Du doch gleich ein "AMD Fanboy" und deshalb spielen Daten keine Rolle mehr - wusstest Du nicht, dass ad hominem Argumente viel stärker sind und immer stechen?

Und dass es Spiele gibt, die selbst mit 1440p oder 2160p noch brutal im CPU-Limit hängen können (WoW, Stellaris u.s.w.) ist doch nur ein Gerücht, das kann man doch gar nicht ernst nehmen. Daten dazu sind Fake News, und gespielt wird das doch eh nicht. Nischenmarkt. Und jetzt geh brav wieder sparen, damit Du endlich Alan Wake 2 mit Pathtracing auf Deiner neuen 4090 spielen kannst, dann spielt Deine CPU auch endlich keine Rolle mehr.

(Wer den Sarkasmus findet, darf ihn behalten.)


Wenn AMD schon beim Zen 2 (2018) einen X3D Chip gehabt hätte, wäre Intel wohl nicht mal schneller als Zen 2 und würde dann über 7 Jahre zurück liegen.
Zum Glück hatte AMD erst mit Zen 3 den X3D Chip. So sind es nur über 5 Jahre Rückstand.

Das ist jetzt auch ein wenig verallgemeinernd (so ehrlich muss ich bei der reichlichen Dosis Sarkasmus eben schon sein) - wahr ist aber, dass es sicherlich auch mit Zen2 schon Situationen gegeben hätte, in denen ein 3D-vCache zu beeindruckenden Leistungssteigerungen geführt hätte. Weniger wahrscheinlich als mit Zen3, da die Aufteilung in 2 CCX pro CCD dem Nutzen des Zusatzcaches möglicherweise im Weg gestanden hätte, aber dennoch. Das ist aber reiner Spekulatius und spielt derzeit eh keine Rolle mehr.
 
Zurück