AMD Zen 4: 2023 neue APUs auch für "Spitzen-Gaming"

War es schon damals nicht.

Seit der Voodoo 1 gehören 30+ FPS zum guten Ton, besser waren 40FPS.

Davor war man natürlich weniger gewohnt. Ich erinnere mich an den Cyrix CEO, die gesagt hat "jede 686+ CPU kann Quake mit flüssigen 13FPS darstellen". Wenn dir das reicht: bitte.

Man muß auch sagen, dass die Monitore größer wurden. Auf meinem 17" CRT waren 1024x768 noch eine gute Auflösung, auf meinem 31,5" sieht 1280x720 das horrorhaft aus.

Heute gibt es zumindest die Möglichkeit, das mit FSR aufzublasen, auch auf 4K.

An dem Zitat von dem Cyrix CEO sollte man aber noch erwähnen das die 486er oder auch noch die ersten Pentiums deutlich unter 10 FPS lagen. Da waren die 13 FPS schon ordenlich.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
=> Die Gründe warum sich 3dfx durchgesezt hatte sind da dann aber mehr als klar.

Rest kann ich nur 100% zustimmen.
 
Du rechnest in Watt, die technische Seite ist in deiner Milchmädchenrechnung jedoch noch wichtiger. Die PS6 ist so angebunden, dass sie eher einer normalen Grafikkarte entspricht, daher auch die Leistung.
Das lasse ich ja nicht unerwähnt, sondern verweise explizit darauf. Trotzdem kann man so aus eher abstrakten Zahlen und GamingGamingGaming PR Geplapper etwas machen, das greifbarer ist.

Besonders kann man später dann auch sagen, schaut her, so macht es ein Produkt das wirklich auf Gaming zugeschnitten ist und so macht es die AMD APU, die Gaming nur als Talking Point hat, damit sie sich besser verkauft. Es würde sich feststellen lassen, das ist die Gaming Liestung die sich auf 55W herausholen lassen würde, wenn man architektonisch auf Gaming optimiert und das mit dem vergleichen was man bekommt im Kontext der Architektur wie sie AMD im Laptop verbaut.

Hab ich dann eine Milchmädchen-Rechnung gemacht, weil ich die 55W überschätze und die reale Gaming Leistung davon zu sehr abweicht? Oder wird AMD dann einfach die Architektur schlecht auf den Zweck hin optimiert haben unter der das Marketing versucht den Chip in den Markt zu pressen. Ich behaupte eher letzteres.
 
Hab ich dann eine Milchmädchen-Rechnung gemacht, weil ich die 55W überschätze und die reale Gaming Leistung davon zu sehr abweicht? Oder wird AMD dann einfach die Architektur schlecht auf den Zweck hin optimiert haben unter der das Marketing versucht den Chip in den Markt zu pressen. Ich behaupte eher letzteres.
Vlt bin ich da zu Positiv gestimmt aber wenn ich mir einen 5600G mit einer TDP von 65 Watt anschaue.
Dann vermute ich eine Zen 4 APU mit 55 watt und DDR5 Inklusive RDNA 3 locker auf der Leistung einer RX460.
Und mir Persönlich reicht das als Leistung in einer APU. Besonders wenn man das ganze dann noch in einen Laptop packt mit einem 45 TDP. Da sollte gut was bei rumkommen.
 
War es schon damals nicht.

Seit der Voodoo 1 gehören 30+ FPS zum guten Ton, besser waren 40FPS.
Das hättest Du mal Crytek sagen sollen.
Ich war froh, daß Crysis mit 17 Bildern pro Sekunde lief und öfter mal auf 12 ... 15 droppte.
Und die HD 4850 kochte meist schon im Leerlauf.

Davor war man natürlich weniger gewohnt. Ich erinnere mich an den Cyrix CEO, die gesagt hat "jede 686+ CPU kann Quake mit flüssigen 13FPS darstellen".
Das lag aber nicht an der CPU.
Meist bremste die Grafikkarte.

Man muß auch sagen, dass die Monitore größer wurden. Auf meinem 17" CRT waren 1024x768 noch eine gute Auflösung, auf meinem 31,5" sieht 1280x720 das horrorhaft aus.
Das liegt am "Verschmieren" des Röhrenmonitors.
Meiner schaffte sogar 1600x1200 Pixel, aber nur mit 30Hz.
Trotzdem sah das gut aus.
 
Vlt bin ich da zu Positiv gestimmt aber wenn ich mir einen 5600G mit einer TDP von 65 Watt anschaue.
Dann vermute ich eine Zen 4 APU mit 55 watt und DDR5 Inklusive RDNA 3 locker auf der Leistung einer RX460.
Und mir Persönlich reicht das als Leistung in einer APU. Besonders wenn man das ganze dann noch in einen Laptop packt mit einem 45 TDP. Da sollte gut was bei rumkommen.
Der 5600G ist in erster Linie eine CPU, die auch Grafik kann. Wenn es darum geht welche Art Speicher auf welche Art an den 5600G angebunden ist, dann wurde der 5600G in erster Linie wie eine CPU behandelt, nicht wie eine GPU. Diese architektonische stiefmütterliche Behandlung sorgt dann dafür dass 12 RDNA Kerne in der APU nicht das leisten was 12 Kerne in der GPU leisten würden.

Das ist ein Kontrast zu der Art wie eine Konsole die APU behandelt, nämlich in erster Linie als GPU. Wenn der RAM dann für die CPU nicht ideal ist, dann Pech gehabt. Ist ja nicht so als wäre das OS der Konsole dadurch ein unbedienbares Lag-Fest.

Als Spieler der ein Gamingprodukt kauft würde ich behaupten, dass wenn man schon einen Kompromiss macht, dieser auf Kosten der CPU Leistung der APU geht, nicht auf Kosten des GPU Teils der APU. Eine Gaming APU die mit 16GB festverlötetem Speicher kommt und bei der man 1-2 DDR4 Dimms nachrüsten kann wäre da sicherlich besser als die ganzen Laptops mit 8GB DDR4 RAR verlötet und einem freien S0 Dimm. Solange AMD seine APUs um DDR5 Speicher herum konzipiert wird RDNA immer unter Wert geschlagen.
 
Das hättest Du mal Crytek sagen sollen.
Ich war froh, daß Crysis mit 17 Bildern pro Sekunde lief und öfter mal auf 12 ... 15 droppte.
Und die HD 4850 kochte meist schon im Leerlauf.

Wenn du nicht fähig warst, die Details herunter zu stellen, dann ja. In dem Fall hast du dann auch eine Ruckelorgie verdient.

Wenn man sie runter gedreht hat, dann lief es sogar auf meinem Laptop, mit 2GHz Celeron M und einer 8400M G (das gurkigste vom gurkigem) mit 25FPS. Zwar nur in 800x600 auf niedrigsten Details, aber immerhin. Deine Karte dürfte wohl mehr als 15 mal so stark gewesen sein.

Aber gut, das ist heute ein weit verbreitetes Problem, die Leute wissen nicht, dass man die Details auch runterdrehen kann. Always Ultra und das hat nunmal seinen Preis.

Alle anderen konnten Crysis auch mit wesentlich weniger starker Hardware zocken.

Das lag aber nicht an der CPU.
Meist bremste die Grafikkarte.

Tut mir leid es dir sagen zu müssen: aber du hast offenbar keine Ahnung von der "guten alten Zeit" oder hast sie erfolgreich verdrängt.

Als Quake 1 herauskam, da gab es keine 3D Beschleuniger, die wir heute Grafikkarte nennen. Die Voodoo 1 kam erst 5 Monate später und 3D Beschleuniger blieben ein Luxus, der in einem Gaming PC erst zu Zeiten der Voodoo 3, also 1999, nahezu durchgehend anzutreffen war.

In einem PC, ohne 3D Beschleuniger, kümmert sich die CPU um alles, also auch dem eigentlichen Rendern, mit Texturenbekleben usw.. Das ganze nannte sich später Softwarerender, früher kannte man nichts anderes.

Damit lag es IMMER an der CPU, sie war das begrenzende Bauteil.

Das liegt am "Verschmieren" des Röhrenmonitors.
Meiner schaffte sogar 1600x1200 Pixel, aber nur mit 30Hz.
Trotzdem sah das gut aus.

Nein, es lag durchaus an der Größe, schon bei meinem 21" Röhrenmonitor sahen 1024x768 grenzwertig aus.

30Hz auf einem Röhrenmonitor? Das könnte man sich nicht ansehen, das geflimmer wäre nicht erträglich. Sowas könnte man keine 2min ansehen, geschweige denn damit arbeiten. Irgendwie könnte man glauben, du hast niemals einen Röhrenmonitor gesehen, jedenfalls definitiv keinen mit 30Hz.

An dem Zitat von dem Cyrix CEO sollte man aber noch erwähnen das die 486er oder auch noch die ersten Pentiums deutlich unter 10 FPS lagen. Da waren die 13 FPS schon ordenlich.

Der Punkt war damals, dass Cyrix auf Out of Order CPUs gesetzt hat, die sind wesentlich leistungsstärker als In Order CPUs. Der 686+ wurde deshalb mit einem höheren Marketingtakt beworben, ein 686+ 200+ taktete Real mit 150MHz. Da die Cyrix CPUs die Intel CPUs durchgängig übertrafen, war das kein Problem.

Es gibt nur eine Ausnahme: man kann Software so optimieren, dass sie der In Order CPU die Datenpakete so liefert, wie sie sie braucht. Das ist allerdings kompliziert und nur wenige waren da richtig gut, so wie die Leute bei id Software. Quake 1 war auf den Pentium optimiert, damit war der Vorteil des 686+ dahin. Der Cyrix CEO wollte damals die Wogen glätten nur ist "13 FPS reichen doch auch" eine blöde Strategie, wenn die Konkurrenz bei ähnlicher Bewertung (also 166+ gegen reale 166MHz) erheblich mehr bietet.

Das hat Cyrix einen extremen Schlag versetzt, da viele dachten, dass die 686+ in der Zukunft extrem einbrechen würden. Das Gegenteil war der Fall, aber das half Cyrix dann auch nicht mehr.
 
Der Punkt war damals, dass Cyrix auf Out of Order CPUs gesetzt hat, die sind wesentlich leistungsstärker als In Order CPUs. Der 686+ wurde deshalb mit einem höheren Marketingtakt beworben, ein 686+ 200+ taktete Real mit 150MHz. Da die Cyrix CPUs die Intel CPUs durchgängig übertrafen, war das kein Problem.

Es gibt nur eine Ausnahme: man kann Software so optimieren, dass sie der In Order CPU die Datenpakete so liefert, wie sie sie braucht. Das ist allerdings kompliziert und nur wenige waren da richtig gut, so wie die Leute bei id Software. Quake 1 war auf den Pentium optimiert, damit war der Vorteil des 686+ dahin. Der Cyrix CEO wollte damals die Wogen glätten nur ist "13 FPS reichen doch auch" eine blöde Strategie, wenn die Konkurrenz bei ähnlicher Bewertung (also 166+ gegen reale 166MHz) erheblich mehr bietet.

Das hat Cyrix einen extremen Schlag versetzt, da viele dachten, dass die 686+ in der Zukunft extrem einbrechen würden. Das Gegenteil war der Fall, aber das half Cyrix dann auch nicht mehr.

jaaaaaa langsamm dämmert es mir wieder.
Hatte mich in der "Zeit" vertan.
13 FPS waren -wo Quake 1 rauskam- High-End.
Von daher meien Aussage oben.
Das zu der Zeit nicht mehr der 486er sondern der Pentium der Mitbewerber bei Cyrix war ging vorhin bei mir unter.
 
Wenn du nicht fähig warst, die Details herunter zu stellen, dann ja. In dem Fall hast du dann auch eine Ruckelorgie verdient.
Sei mal nicht so überheblich.

Wenn man sie runter gedreht hat, dann lief es sogar auf meinem Laptop, mit 2GHz Celeron M und einer 8400M G (das gurkigste vom gurkigem) mit 25FPS. Zwar nur in 800x600 auf niedrigsten Details, aber immerhin. Deine Karte dürfte wohl mehr als 15 mal so stark gewesen sein.
Viel "runterdrehen" ging nicht bei Crysis, soweit ich mich entsinne.
Auf vielen PCs gab es eine Diashow.

Aber das Spiel war nicht so mein Geschmack und ich hab es dann nach wenigen Stunden sein gelassen, wenn es auch noch so gut aussah.

Aber gut, das ist heute ein weit verbreitetes Problem, die Leute wissen nicht, dass man die Details auch runterdrehen kann. Always Ultra und das hat nunmal seinen Preis.
Ferkel.

Tut mir leid es dir sagen zu müssen: aber du hast offenbar keine Ahnung von der "guten alten Zeit" oder hast sie erfolgreich verdrängt.
Herr oberschlau.

Als Quake 1 herauskam, da gab es keine 3D Beschleuniger, die wir heute Grafikkarte nennen. Die Voodoo 1 kam erst 5 Monate später
Na und?
Die 5 Monate hatte ich so schon gewartet aber dann kam mir Unreal in die Quere.
Da war Qake gegessen.
Unreal war wesentlich interessanter und besser designt, nicht "schieß auf alles was sich bewegt und nicht bewegt".

und 3D Beschleuniger blieben ein Luxus, der in einem Gaming PC
Bei mir nicht.
So ein Luxus war es auch nicht.
Die Voodoo 2 hat um die 500.- DM gekostet 1996.

Mein PC mit hat 1995 um die 3,500 DM gekostet.
Als o sind 14% vom Gesamtpreis wohl kein Luxus.

erst zu Zeiten der Voodoo 3, also 1999, nahezu durchgehend anzutreffen war.
Die Voodoo 3 hat 350.- DM gekostet 1999.
Das war zwar etwas billiger, aber gar nichts gegen heutige Karten

In einem PC, ohne 3D Beschleuniger, kümmert sich die CPU um alles, also auch dem eigentlichen Rendern, mit Texturenbekleben usw.. Das ganze nannte sich später Softwarerender, früher kannte man nichts anderes.
Ach was.

Nein, es lag durchaus an der Größe, schon bei meinem 21" Röhrenmonitor sahen 1024x768 grenzwertig aus.
Wer stellt sich denn so eine Beule auf den Schreibtisch?

30Hz auf einem Röhrenmonitor? Das könnte man sich nicht ansehen, das geflimmer wäre nicht erträglich. Sowas könnte man keine 2min ansehen, geschweige denn damit arbeiten. Irgendwie könnte man glauben, du hast niemals einen Röhrenmonitor gesehen, jedenfalls definitiv keinen mit 30Hz.
Ich hab sicher mehr Röhrenmonitore verkauft, als Du je sehen wirst und noch mehr weggeschmissen.

Natürlich hat das geflimmert, aber das Bild an sich war gut.

Da die Cyrix CPUs die Intel CPUs durchgängig übertrafen, war das kein Problem.
Aber nur auf dem Papier.

Das hat Cyrix einen extremen Schlag versetzt, da viele dachten, dass die 686+ in der Zukunft extrem einbrechen würden. Das Gegenteil war der Fall, aber das half Cyrix dann auch nicht mehr.
Cyrix war einfach ein Krüppel.
Er soll sogar einen internen Fehler gehabt haben und mit Windows 98 Abstürze verursacht haben.

Das kann ich bestätigen, denn seit dem IDT 200 war der PC mit den selben Komponenten stabil.
 
Man muß auch sagen, dass die Monitore größer wurden. Auf meinem 17" CRT waren 1024x768 noch eine gute Auflösung, auf meinem 31,5" sieht 1280x720 das horrorhaft aus.

Heute gibt es zumindest die Möglichkeit, das mit FSR aufzublasen, auch auf 4K.

Ja gut auf nem fast 32 " ist es ja auch klar weil es wegen der ppi entscheidend ist. Aber es kommt auf das gesamte an wie Sitzabstand ,Augen des Menschen und der kognitiven Fähigkeiten des Spielers drauf an.

Ich habe auf full HD 27" gewechselt weil ich nicht gut sehen konnte. Nun ist das schon angenehmer für mich. Auf ein Game zocke ich sogar auf HD mit 27 " und mich stört das merkwürdiger weiße nicht warum auch immer. Ich scheine auch was falsch zu machen weil trotz der 90 cm Sitzabstand und den 83 ppi noch immer keine einzelne Pixel sehen kann. Dabei sind trotz der Brille meine Augen ja nicht so schlecht das ich das nicht sehen könnte. Nur ein Spiel wo ein sehr großes Gebäude hat sehe ich es die einzelnen Pixel. Der Rest des Spiels sehe ich aber kaum ein Unterschied gegenüber 24 " wqhd dran. Auch dort ja getestet gehabt. Hatte mit großen Änderungen erwartet gerechnet. Dem ist aber nicht so..ich verstehe es nicht.
Beim Fernsehen habe ich nen 24 " HD als native Auflösung. So sehen niedrig aufgelöste Quellen irgendwie viel besser aus als sonst. Sonst flimmerte es immer sehr stark. Ich mag zwar einzelne Pixel sehen aber dafür nix unscharf oder verskaliert mehr .

Achja ich sehe den Vorteil daß dann wirklich die neuen Apus endlich mehr als genug FPS liefern können wird. Man muss nur immer weiter nach unten skalieren dann packen das auch solche Apus bzw gpus mit Sicherheit ebenso.
So dürfte wohl Wonderlands prima auf 720p auch langsam mit Apus spielbar wenn. So meine Vermutung. Endlich kann man bei GPU immer mehr sparen..Dank der niedrigen Auflösung.

Achja wenn Röhrenmonitor nicht so flimmern würde , hätte ich es wohl noch immer die Röhre. Ich hatte so nen 19 " Röhrenmonitor gehabt mit seinen 1280x1024 und es war ein gutes Bild keine Frage. Konnte mich da nicht Beschwerden. Doch dann musste diese ja diese ersetzt werden weil defekt. Ja so war es im Jahre 2008 gewesen. So ist das halt. Man sieht es manches kann man nichts dran ändern.
 
Zuletzt bearbeitet:
Hab ich von mir geredet?
Frag mal Leute die das competitive spielen, die erklären es dir dann.
Und was ist denn nicht unnötige und sinnlose Energieverschwendung?
Jedes Spiel wäre das.
Ich denke nicht, dass czk666 speziell von eSport gesprochen hat. Das ist doch sowieso nur eine Randnotiz am Spielemarkt. Die dürfen gerne weiter dGPUs verwenden. Daher ist dein Einwand auf seinen Beitrag nicht wirklich hilfreich. Und Energieverschwendung ist es deshalb, weil das menschliche Auge sowieso keine 300 fps wahrnehmen kann. Deshalb ergibt es auch wenig Sinn, so hohe fps rendern zu lassen. Ein Frame-Limiter von 60-100 fps ist daher absolut sinnvoll.
 
Oh bitte nicht nicht wieder diese "das menschliche Auge kann das nicht sehen" Diskussion.
Wenn du nicht weisst was das bringt, dann informier dich mal.
Und nein, maximal 100fps sind nicht sinnvoll.
 
Oh bitte nicht nicht wieder diese "das menschliche Auge kann das nicht sehen" Diskussion.
Wenn du nicht weisst was das bringt, dann informier dich mal.
Und nein, maximal 100fps sind nicht sinnvoll.
Ich sags ja nur ungern aber das Menschliche Auge sieht nicht mehr als 8GiB Ram.
Achso und Full-HD ist so scharf da braucht man nicht mehr Pixel.
 
es gibt halt Menschen die haben schlechte Augen oder ne schlechte Kognitive Wahrnehmung.Oder halt am Sitzabstand.Bei mir wird es der hohe Sitzabstand von 90 cm sein der wo dazu führt das ich freiwillig nen downgrade gemacht hatte.Von 4k auf wqhd und von wqhd zu Full HD.Also von daher ,ja sowas wie ich macht eigentlich keiner,jedoch ich ja schon.Ich habe immer von zu klein gejammert gehabt und sah die Gegner kaum.Nun ist es besser und die Augen müssen sich nicht mehr wirklich anstrengen.
Achja höhere Auflösung bewirkt das es kleiner Aussieht.Das musste ich bei gleichen Bildschirm Größe halt so feststellen.
Was gut ist das ich es scheinbar echt nicht so wahrnehme den großen Unterschied.Nur bei rießigen Gebäuden im Spiel merkte ich es.Anonsten nicht.Es muss also richtig fett ins Auge stechen das ich es bemerke.Was also zeigt das meine Visuelle Wahnehmung sehr schlecht ist.Die meisten hier haben gewiss ne sehr gute Visuelle Wahrnehmung beim zocken.
Mich stört es nicht und mich freut es und so habe ich auch geringere Anforderungen an die neue APU und kann so kleiner denken als andere.Was am ende Geld spart und der Umwelt auch schonender ist.
 
Die Gegner sind bei UHD und FHD gleich gross, bei UHD sind sie nur feiner aufgelöst.
Auf dem Desktop sieht das wieder anders aus.
 
Ok verstehe,was kann man da am besten machen,wenn das nicht hilft und warum schmerzt es bei so ner hohen Auflösung dann die Augen.Wenn die nicht kleiner sind,was sind sie denn dann? Weil ich sehe die Punkte zum treffen immer weniger.WIe kann man das denn dann am besten Erklären?
 
Bei welchem Spiel werden denn die Gegner kleiner bei höherer Auflösung?
Und bitte, nutzt endlich mal die Enter Taste, so ist das fast unlesbar.
 
Ja bei Serious sam 2,Saints Row spiele ,Borderlands spiele,Universe at War Angriff Mission Erde,Counterstrike Source,Alien Shooter.

Also im Grunde habe ich mehr Shooter als Strategie und nur 1 Rennspiel.Das ist Need For Speed Most Wanted aus 2005.
Und ich habe gewiss noch weitere Shooter Spiele aus 2008 wie Billig Point aus einer Zeitschrift was dabei ist oder Bad LA oder wie das heißt.

Also im Grunde meistens nur Egoshooter und alte Games. Negativstes Beispiel ist bei Serious sam 2 wo ich bei 4k 24 " am Bildschirm klebte ,die Gegner nicht erkannte und mir dann die Augen und der Rücken durch das dran kleben weh getan hatte. Wechselte dann zu 24 " WQHD und da war es dann besser gewesen.Und die von 4k auf Full HD herunter skalierte unscharfe Bild war auch die Hölle gewesen. Geniesen war also mit 4k nicht möglich gewesen.
Auch so was wie Auflösungswahn war nicht gut gewesen. Die Höhere Auflösung hat auch ne höhere Hardware Anforderung an die GPU. Das mag ich überhaupt nicht.

Nun weist du auch warum ich so hart drauf bin und sogar Counterstrike Source mit 27 " Full HD auf HD zocken kann.Ich kann mich da schön ganz zurück lehnen.die 1 Meter habe ich an Sitzabstand noch nicht ganz erreicht, aber hat schon was sich weiter zurück lehnen zu können.
 
Zuletzt bearbeitet:
Zurück