Sony Playstation 5: Ehemaliger EA-Engine-Entwickler teilt seine Reaktion zum Hardware Deep Dive

Ist es das? In welchem Szenario bin ich denn von der Bandbreite meiner SSD begrenzt?
Ich bin Drawcall limitiert, ich bin GPU Leistung in vielerlei hinsicht limitert. Bin ich Bandbreiten limitiert? Nö. Die Ladezeiten ändern sich von einer billigen Sata SSD zu einer Samsung 970 Evo+ praktisch nicht (oder Optane!).
Beim Laden zählt wohl entpacken, oder bei WoT braucht der Loginprozess fast 1 Minute. Laden Hauptmenü bis Gamestart ist <1Sek.
Die schnelle SSD ist halt dann toll, wenn man Speicherlimitert ist und das trifft auf einen Gaming PC halt nicht zu.

Man sollte sich das Video schon anschauen, welches man kommentiert. Du bist mit den neuen Grafik APIs nicht mehr Drawcall limitiert. Und es geht hier, wie Du selbst sehr anschaulich analysiert hast nicht um theoretisch zu erreichende Bandbreiten.
Zudem stellst Du genau die richtige Frage:
Die Ladezeiten ändern sich von einer billigen Sata SSD zu einer Samsung 970 Evo+ praktisch nicht (oder Optane!).
Das Video geht detailiert darauf ein warum das so ist und was die PS5 eben genau deshalb anders macht.

Die schnelle SSD ist halt dann toll, wenn man Speicherlimitert ist und das trifft auf einen Gaming PC halt nicht zu
Interessant- Wie kommen denn bei Dir die 180 Gigabyte Daten von COD in den Hauptspeicher?

Eine Empfehlung: Schau Dir beide Entwicklervideos an, um die es hier geht.

LG
Zero
 
Zuletzt bearbeitet:
Ich würde sagen, am PC kann man z.B. den Arbeitsspeicher endlich mal als solchen nutzen (bzw. auch aufrüsten), da der eh viel schneller als diese NVMe SSD`s ist ... wenn der RAM richtig schön voll mit den benötigten Daten gepackt wird, benötigt man auch keine super schnelle NVMe SSD für das direkte Streaming der Daten.

Der Vorteil des PC`s viel RAM inne zu haben und verwenden zu können, wurde durch die Konsolen bei Spielen viel zu lange aus gebremst ( wenn man daran denkt wie lange sich 8GB beim PC gehalten haben, bevor einige aufgerüstet haben ).

Daher sage ich mal, sollte der Weg bei den Konsolen gut laufen, muss man ja am PC nicht den Gleichen zwingend gehen.
Ja den Ram endlich mal nutzen. Davon rede ich auch schon lange. Aber auf mich hören die Entwickler leider nicht :daumen2:
16 GB Ram sind, denke ich, fast Standard. Viele haben sogar mehr Ram.... Damit könnte man sicher einiges bewirken.
 
Interessant- Wie kommen denn bei Dir die 180 Gigabyte Daten von COD in den Hauptspeicher?
Vollkommen falsche Frage.
Von die 180GB sind 90GB Singleplayer und 50 GB Videos usw.
Assets den im Livegameplay gebraucht werden passen in 6 GB VRAM + 5 GB RAM.
Wenn man jetzt minimal größer puffert > nutzen 10 Gig der 16 GB RAM, dann reicht sogar wieder eine HDD.
 
Ja den Ram endlich mal nutzen. Davon rede ich auch schon lange. Aber auf mich hören die Entwickler leider nicht :daumen2:
16 GB Ram sind, denke ich, fast Standard. Viele haben sogar mehr Ram.... Damit könnte man sicher einiges bewirken.

Der Flaschenhals ist aber nicht der RAM - Du musst alle Assets/Daten/Texturen da erstmal reinschaufeln. Und das kontinuierlich. Da musst Du in der Entwicklung extrem viel austarieren.
Das kostet I/O Zeit und nicht zu knapp CPU- Leistung.

Zudem musst Du auf dem PC schauen, dass die Spiele sowohl mit Festplatte, als auch mit SSD spielbar sind. Die Leistungsspreizung der Hardware auf dem PC- Sektor ist enorm.
Es ist zu hoffen, dass viele Entwickler rein aus Bequemlichkeit die Mindestanforderungen in zukünftigen Titeln für PCs zumindest annähern werden.

LG
Zero
 
Vollkommen falsche Frage.
Von die 180GB sind 90GB Singleplayer und 50 GB Videos usw.
Verbleiben halt 90GB, die Du im RAM halten müsstest, da Du sonst wieder auf die ERHEBLICH langsamere I/O Pipeline des PCs zurückgreifen müsstest.

Assets den im Livegameplay gebraucht werden passen in 6 GB VRAM + 5 GB RAM
Wenn man jetzt minimal größer puffert > nutzen 10 Gig der 16 GB RAM, dann reicht sogar wieder eine HDD.
Ich nehme mal vorsichtig an, dass Du Dich noch nicht ein wenig umfangreicher mit den Umständen einer Gameengine auseinandergesetzt hast, gerade wenn es um Streaming geht?
Mensch- Die zwei Videos stellen die Knackpunkte, die einen Entwickler jubeln lassen, schon ziemlich deutlich heraus.

Es wird durch Sonys Präsentation mit anschließendem Kommentar des Entwicklers haarklein erklärt, was da bei den neuen Konsolen passiert.
Wer die Erklärungen nicht einordnen kann, täte gut daran sich einfach über die detailierten und umfangreichen, dynamischen Welten freuen, die durch dieses Prinzip entstehen können, oder sich ein wenig eingehender mit der Materie zu befassen.

LG
Zero
 
Zuletzt bearbeitet:
Ja den Ram endlich mal nutzen. Davon rede ich auch schon lange. Aber auf mich hören die Entwickler leider nicht :daumen2:
16 GB Ram sind, denke ich, fast Standard. Viele haben sogar mehr Ram.... Damit könnte man sicher einiges bewirken.
Keine Ahnung wie oft ich diesen Post wiederholen muss, bis auch der Letzte begriffen hat, worum es eigentlich geht:
Gehen wir mal in der Zeit um 25-30 Jahre zurück. Warum wohl wollte Nintendo mit dem N64 an Modulen festhalten? Ja, auch, weil sie robuster als CDs waren. Der eigentliche Grund war jedoch die Datentransferrate und die Zugriffszeit. Dahingehend hat EEPROM auch jede Festplatte nass gemacht. Dies war eben nicht nur essentiell in punkto Ladezeiten, sondern eben um alle möglichen Featuresets in einem laufenden Spiel in Echtzeit austauschen zu können.

Darum konnten Konsolen mit einem Bruchteil an Arbeitsspeicher dennoch grafisch ordentlich was hermachen. Das NeoGeo kam mit lächerlichen 64KB RAM für CPU und 68KB für Videospeicher aus. Selbst in Heimcomputern wie dem Amiga oder aber den PCs Anfang der 90er steckte das 10-40fach an Arbeitsspeicher, und dennoch konnten sie Spiele wie Art of Fighting oder Samurai Showdown nicht in Originalqualität darstellen.

Schnellerer Zugriff auf Daten bei geringeren (Energie)Kosten wird sehr wohl positiven Einfluss auf die Auslastung der Komponenten wie CPU und GPU nehmen. Einfach weil viel von deren Leistung derzeit dafür flöten geht erst mal die Daten zu erhalten.
Minute 16:27-20:38
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Der Massenspeicher muss schneller werden, und das ohne die Leistung der Hardware negativ zu beeinträchtigen. Das ist das Ziel.
 
Donnerstag 22uhr...
Ne Stunde danach gibts keine fragen mehr wer das bessere System entwickelt gerade. Von MS wird nichts besseres kommen da deren Exclusives ja die Konsole unterstützen müssen die ich nicht mehr nenne.
Die Hoffnung auf die Third Partys war auch nicht gerechtfertigt. Denen war es ja freigestellt voll auf Xbox X zu setzen. Aber was da dann zu sehen war war entweder dennoch **** *** kompatibel oder es war maximal AA Class ( Scorn ect) ..

Sony macht alles richtig - Die PS4 läuft in Ruhe aus , bekommt nochmal 2 große Titel als Abgesang einer erfolgreichen Gen. Zukünftige PS4 Titel müssen PS5 unterstützen. Gleichzeitig leuchtet Sony mit ihren Exclusives MS und dem PC Sektor heim was Grafik angehen wird.

Das die PS5 beim Raytracing evtl nicht in Gänze mithalten kann - geschenkt. Schließlich sah auch das realtime GI in der UE5 Demo seeehr gut aus. Das würde mir schon reichen, so ne geile Beleuchtung. Und es braucht hier auch niemand am PC zu trommeln. Raytracing wird für viele DER performancefressende Faktor sein und bleiben. Egal welche Karte man sich einbaut.

Was die "nur" 36 CUs der PS5 angeht - wie man jetzt schon öfter gehört hat skaliert die Leistung nicht gänze mit den CUs.
Im Prinzip hätte man nur Cernys Rede genau anschauen müssen ..
Hier nochmal die Kernpunkte was die Taktung vs Anzahl CUs angeht:

36CU @ 1GHz = 4,6Tflop
48CU @ 0,75Ghz = 4,6Tflop

Dennoch ist die reelle Leistung der 36 CU GPU höher da wie Cerny weiter ausführt sind TF nichts anderes als die Compute Leistung der Vektor ALU. Dies ist aber nur ein Teil einer GPU. Es gibt ja noch weitere wichtige Teile. Durch die höhere Taktung arbeiten diese Bereiche schneller.
Wie Cerny sagt läuft bei 33% höherer Taktung die Rasterisierung um 33% schneller, der Command Buffer arbeitet ebenso 33% schneller. L2 und andere Caches haben 33% mehr Bandbreite.

Das dies am PC bisher nicht wirklich sichtbar war lag sicher auch daran das Hardware am PC generell eher ineffizient angesprochen wird was APIs angeht. Bzw hat man es gesehen wenn man NVidia karten sich ansieht. Welche regelmäßig AMD karten geschlagen haben obwohl sie weniger TF hatten. Das lag auch daran das eben obige Prozesse in der GPU bei Nvidia oft effizienter abliefen als bei AMDs GCN..

Die PS4 hatte den Vorteil relativ (im Vergleich zur PS5) unangepasste PC Hardware wenigstens mit besserer API zu steuern.
Die PS5 geht nun einen Schritt weiter und entfernt sämtliche Engpässe schon auf Hardware Level und steuert diese perfektionierte Hardware auch noch mit unschlagbar guten APIs an.

Was dies anrichtet sehen wir am Donnerstag. Am meisten tut mir der Spencer leid. Oder die Leute die ihm die ganze Zeit erzählt haben das Xbox okay sein wird mit der Unterstützung der **** *** .

Je nachdem wie emotional stabil er ist könnte von rumschreien bis zum Mord im Affekt alles passieren wenn er nach der PS5 Präsi durch die Gänge seiner Etage und Büros tobt. :devil:

Was laberst du da? Die PS4 wird volle drei Jahre noch unterstützt... Ich verstehe wirklich nicht welchen Vorteil es bringt wissentlich die Dinge so falsch darzustellen.

MfG

MfG
 
"Echtes 4K", ich nehme mal an 3840x2160, dürfte dann aber nur einen Vorteil bei der Y-Achse haben, weil nur so sind es 20% mehr Pixel.
Wenn es auch mehr in der X-Richtung sind, dann sind das schnell mehr als 20% (3840x2160 sind 44% mehr Pixel gegenüber 3200x1800) und das packt die XSX ohne extra Abstriche nicht.
Im besten Fall für Sony hat die Xbox Series X nur 18% mehr Rechenleistung, wenn die PS5 GPU mit 2.23 Ghz taktet und dann läuft eben global alles, um den Takt gegenüber der Xbox Series X schneller.
Die Geometrie-Engines, die Rasterizer, die ROPs, die Shader-Cores, die Raytracing-Engines und die Cache-Bandbreiten sind um den gleichem Faktor höher.
Dabei hat die Balance der PS5-GPU einen Vorteil bei Raytracing gegenüber der Xbox Series X, sie hat weniger CUs, was dazu führt das es effektiv mehr L1 und L2$ pro CU gibt.
Bei Raytracing stellt Cache-Trashing ein Problem dar, da Rays selten kohärent verlaufen, also je weniger Recheneinheiten sich wichtige Daten aus dem Cache hauen, desto besser.
Allgemein sind aber Memory-Stalls bei der PS5 in Relation höher.
Beide Systeme haben rein auf das GPU/Memory-System Vor- und Nachteile, ich denke der Unterschied zwischen beiden Konsolen wird, rein darauf bezogen, der Kleinste seit den letzten 7 Jahre sein.
Nein, Du gehst davon aus dass die höhere Pixelzahl 1 zu 1 des real nutzenden Performancevorteiles entnimmt, was nachweislich nicht korrekt ist.
20-30% höhere Leistung kann also sehr wohl in über 40% höherer Auflösung resultieren.
Und in höheren Auflösungen profitiert die XSX zudem von einer besseren CU Auslastung.

Und wenn die RT Leistung an der CU Anzahl gekoppelt ist wird der Vorteil der XSX entsprechend ihrer deutlich höheren Anzahl an CU's sehr bedeutend sein.

Donnerstag 22uhr...
Ne Stunde danach gibts keine fragen mehr wer das bessere System entwickelt gerade. Von MS wird nichts besseres kommen da deren Exclusives ja die Konsole unterstützen müssen die ich nicht mehr nenne.
Was hat das Softwareangebot damit zutun welches System hardwaretechnisch besser ist?
Was die "nur" 36 CUs der PS5 angeht - wie man jetzt schon öfter gehört hat skaliert die Leistung nicht gänze mit den CUs.
Im Prinzip hätte man nur Cernys Rede genau anschauen müssen ..
Hier nochmal die Kernpunkte was die Taktung vs Anzahl CUs angeht:
36CU @ 1GHz = 4,6Tflop
48CU @ 0,75Ghz = 4,6Tflop
Dennoch ist die reelle Leistung der 36 CU GPU höher da wie Cerny weiter ausführt sind TF nichts anderes als die Compute Leistung der Vektor ALU.
Das ist Unsinn, zweitere GPU mit der höheren CU wird fast immer besser performen wie erstere, Cerny nimmt das nur als Ausrede um davon auszuweichen dass der kleine Chip in einer günstigeren Konsole und einer besseren Abwärtskompatibilität zur PS4 resultiert.

Am Beispiel einer übertakteten RX 5700 (36 CU's, wie die PS5) und einer Stock RX 5700 XT (40 CU's) ist sehr schön sichtbar dass erstere, obwohl die Leistung am Papier höher liegt (9,9 Teraflops vs 9 Teraflops) maximal auf dem gleichen Level performt.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
In höheren Auflösungen ist die CU Auslastung sehr bedeutend, die PS5 hätte in der Hinsicht vielleicht vergleichsweise bessere Karten wenn die Spiele in 1080P dargestellt werden würden, aber das wird kaum der Fall sein, man möchte ja hohe Auflösungen anbieten.

Es ist nicht unwahrscheinlich dass wir in GPU fordernden Spielen oftmals sehen werden dass die Spiele auf der PS5 in 1800P und gegebenenfalls Checkerbaord laufen während es auf der XSX eventuell 4K sind.
 
Zuletzt bearbeitet:
Das hier ist eine Aufzeichnung von Mai 2019. Current Gen Spiele auf nicht finaler Playstation Concept Hardware.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Kein Fake! Das sind Ergebnisse mit der Proto Hardware von 2019. Es entspricht ansonsten ja auch dem etwas bekannteren Video, sprich dem Spiderman PS4 Demo.

Hier zur Erinnerung:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Also wenn du wirklich meinst, dass das RDR2/GTA5/DG-Video kein Fake ist, bist du ziemlich naiv.

Der Video-Zusammenschnippsler wurde vermutlich durch die Spider-man-Ladezeiten-Präsentation "inspiriert" und hat seinen eigenen "Vergleich" entsprechend zusammengeschnipselt. Links und rechts scheint sogar dasselbe Video zu laufen, nur dass bei der rechten Hälfte Ladezeiten rausgeschnitten wurden.

Hinweise, dass es ein Fake ist:


Ab 0:17 (rechts) und 1:28 (links): identischer Kameraschwenk bei RDR2? Was für ein Zufall!

Ruckler bei 1:45 absolut identisch auf PS4 und "PS5"... vielleicht doch identisches Videomaterial, bei dem nur rechts Ladezeiten rausgeschnitten wurden?

Bei 2:01 Einblendung von Social Club Notifications bei der PlayStation-Version? Oder war der Video-Ersteller faul und hat einfach Videomaterial der PC-Version von GTA5 verwendet?

2_01.jpg

Bei der PS4 wird das letzte Viertel der Ladezeit unten ein Ladebalken eingeblendet, auf der "PS5" blitzt (3:48 - 3:53) nicht mal eine Millisekunde der Ladebalken auf... nach 2 - 3 Sekunden Laden wurde wohl direkt das Ladeergebnis dahintergeklatscht und die restlichen Ladezeiten rausgeschnitten.

Ab 3:52 (rechts) und 4:55 (links): wieder identischer Kameraschwenks bei Days Gone, mehrere in Folge! Spätestens jetzt sollte es doch klar sein.

3_52_-_4_55.jpg

Und zum Abschluss: warum sollte es jemand wagen, eineinhalb Jahre vor Launch der Konsole so ein Video hochzuladen und Repressalien riskieren? Falls der Videoersteller zu dem Zeitpunkt wirklich Zugriff auf einen PS5-Prototypen hatte (was ich nicht glaube), wäre das ziemlich dumm.

P.S.: und dann wären da noch die anderen Fake-Videos auf seinem Kanal, z.B. der "GTA6-Trailer" inklusive Videoschnipsel aus "The Crew 2".
 
Zuletzt bearbeitet:
Die PS3 hatte geheime Sauce, die XB1 auch und jetzt wieder die PS5. :D
Ich bleibe aus Erfahrung einfach mal lieber vorsichtig skeptisch, denn was am Ende dabei heraus kam ist ja bekannt.

Wie ich aus Seite 1 der Kommentare gelernt habe, nutze ich weiterhin den PC in seiner Nischen-Funktion zum zocken und beobachte das Ganze entspannt von meinem Gaming-Stuhl statt von der viel bequemeren Couch :hmm:
 
Die Produktionsketten für die neue Konsolengeneration dürfte ja schon eine Weile laufen. Sprich, auch die Technik muß dann schon da sein. Das ist bei AMD von der Grafikleistung ne 5700 oder ne 5700XT.

Vielmehr geht da derzeit nicht, wie kommst Du auf die Idee, daß die Grafikleistung bei einer 2080 oder 2080 super landen dürfte? Selbst die 5700XT liegt unter einer 2070 super.

Es sei denn, es gäbe Big Navi schon länger und die hätten schon seit längerem angefangen eine abgespeckte Version davon in den Konsolen zu verbauen, von denen mit Sicherheit schon einige (Teile) zusammengeschaubt werden. Aber das wäre ja dem PC Kunden schwer zu vermitteln.

Es wurde bereits bestätigt, dass die SeriesX GPU [FONT=&quot]3328 Shader-Einheiten haben wird, die mit 1825MHz laufen, die 5700XT hat nur 2580 Shader-Einheiten. Die 5700XT wird mit ca. 10TF angegeben, die der SeriesX mit 12, also bereits ohne mögliche Vorteile der RDNA2-Architektur bereits 20% mehr Leistung als die 5700XT.

Demnach wurde in diversen Artikeln erwähnt, dass die Grafikleistung einer GTX 2080 (Super) erwartet wird.[/FONT]
 
Kein Fake! Das sind Ergebnisse mit der Proto Hardware von 2019. Es entspricht ansonsten ja auch dem etwas bekannteren Video, sprich dem Spiderman PS4 Demo.

Hier zur Erinnerung:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.



Wieviel GDDR6 willste denn in Deinen PC packen? 128GB? 256GB? Und wie lange dauert es dann bis die Daten alle im Speicher sind? Bist Du sicher, dass das die flexiblere Lösung ist? Oder vielleicht doch schneller Massenspeicher, wie einst ROMs?

Jaja, die Konsolen bremsten mal wieder. Als ob nicht genug Bremsbelag da ist durch diejenigen PC-User, die kaum Geld in Hardware stecken, die Industrie aber auch bedienen will.

So wie Anfang der 90er, als die CD als Medium sich zuerst auf den Konsolen breitmachte (3DO, CDi, CD32, Nintendo Playstation (canceled), Sega CD, Turbo Duo).

Tut mir leid aber wieso sollte der Kanal solche Tests machen können? Zumal wenn es echt wäre, hätte man schon längst davon berichtet und Vergleiche zur Series X gemacht. Für mich ist das ein Fan Video zur Playstation 5, genau wie die ganzen anderen Videos vom Kanal auch.

Edit:
Gute Analyse Cohen. Gerade nochmal angeschaut und ich gebe dir da 1.000% Recht.
 
Zuletzt bearbeitet:
Donnerstag 22uhr...
Ne Stunde danach gibts keine fragen mehr wer das bessere System entwickelt gerade. Von MS wird nichts besseres kommen da deren Exclusives ja die Konsole unterstützen müssen die ich nicht mehr nenne.
Die Hoffnung auf die Third Partys war auch nicht gerechtfertigt. Denen war es ja freigestellt voll auf Xbox X zu setzen. Aber was da dann zu sehen war war entweder dennoch **** *** kompatibel oder es war maximal AA Class ( Scorn ect) ..

Sony macht alles richtig - Die PS4 läuft in Ruhe aus , bekommt nochmal 2 große Titel als Abgesang einer erfolgreichen Gen. Zukünftige PS4 Titel müssen PS5 unterstützen. Gleichzeitig leuchtet Sony mit ihren Exclusives MS und dem PC Sektor heim was Grafik angehen wird.

Das die PS5 beim Raytracing evtl nicht in Gänze mithalten kann - geschenkt. Schließlich sah auch das realtime GI in der UE5 Demo seeehr gut aus. Das würde mir schon reichen, so ne geile Beleuchtung. Und es braucht hier auch niemand am PC zu trommeln. Raytracing wird für viele DER performancefressende Faktor sein und bleiben. Egal welche Karte man sich einbaut.

Was die "nur" 36 CUs der PS5 angeht - wie man jetzt schon öfter gehört hat skaliert die Leistung nicht gänze mit den CUs.
Im Prinzip hätte man nur Cernys Rede genau anschauen müssen ..
Hier nochmal die Kernpunkte was die Taktung vs Anzahl CUs angeht:

36CU @ 1GHz = 4,6Tflop
48CU @ 0,75Ghz = 4,6Tflop

Dennoch ist die reelle Leistung der 36 CU GPU höher da wie Cerny weiter ausführt sind TF nichts anderes als die Compute Leistung der Vektor ALU. Dies ist aber nur ein Teil einer GPU. Es gibt ja noch weitere wichtige Teile. Durch die höhere Taktung arbeiten diese Bereiche schneller.
Wie Cerny sagt läuft bei 33% höherer Taktung die Rasterisierung um 33% schneller, der Command Buffer arbeitet ebenso 33% schneller. L2 und andere Caches haben 33% mehr Bandbreite.

Das dies am PC bisher nicht wirklich sichtbar war lag sicher auch daran das Hardware am PC generell eher ineffizient angesprochen wird was APIs angeht. Bzw hat man es gesehen wenn man NVidia karten sich ansieht. Welche regelmäßig AMD karten geschlagen haben obwohl sie weniger TF hatten. Das lag auch daran das eben obige Prozesse in der GPU bei Nvidia oft effizienter abliefen als bei AMDs GCN..

Die PS4 hatte den Vorteil relativ (im Vergleich zur PS5) unangepasste PC Hardware wenigstens mit besserer API zu steuern.
Die PS5 geht nun einen Schritt weiter und entfernt sämtliche Engpässe schon auf Hardware Level und steuert diese perfektionierte Hardware auch noch mit unschlagbar guten APIs an.

Was dies anrichtet sehen wir am Donnerstag. Am meisten tut mir der Spencer leid. Oder die Leute die ihm die ganze Zeit erzählt haben das Xbox okay sein wird mit der Unterstützung der **** *** .

Je nachdem wie emotional stabil er ist könnte von rumschreien bis zum Mord im Affekt alles passieren wenn er nach der PS5 Präsi durch die Gänge seiner Etage und Büros tobt. :devil:

Warum sollte Spencer das tun mit der stärkeren Hardware? Er hat seinen Job demnach im Bereich Hardware gemacht...
 
Und in höheren Auflösungen profitiert die XSX zudem von einer besseren CU Auslastung.
Hmmm... Wie kommst Du denn darauf, dass die XSX mit steigender CU Zahl und niedrigerem Takt eine bessere CU Auslastung hinlegen würde?

Im Normalfall ist es auch bei massiv parallelen Multiprozessorbetrieb so, dass mit steigender Anzahl an Rechenkernen der Overhead ansteigt und man keine lineare Leistungssteigerung erreicht.
So ist eine 2080TI Takt- und Einheitsbereinigt um ca. 15% schwächer als eine nur mit halb so viele Kernen bestückte 2060.

LG
Zero
 
Hmmm... Wie kommst Du denn darauf, dass die XSX mit steigender CU Zahl und niedrigerem Takt eine bessere CU Auslastung hinlegen würde?

Er hat es dir doch sogar mit dem folgenden Video am Beispiel des Vergleichs von übertakteter 5700 und einer Stock-5700XT dargelegt...die Stock-5700XT mit mehr CUs performt teilweise besser, als die übertaktete 5700, obwohl die übertaktete 5700 mit 9,9 teraflops mehr Rohleistung hat, als die Stock-5700XT mit 9.

"Am Beispiel einer übertakteten RX 5700 (36 CU's, wie die PS5) und einer Stock RX 5700 XT (40 CU's) ist sehr schön sichtbar dass erstere, obwohl die Leistung am Papier höher liegt (9,9 Teraflops vs 9 Teraflops) maximal auf dem gleichen Level performt.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
In höheren Auflösungen ist die CU Auslastung sehr bedeutend, die PS5 hätte in der Hinsicht vielleicht vergleichsweise bessere Karten wenn die Spiele in 1080P dargestellt werden würden, aber das wird kaum der Fall sein, man möchte ja hohe Auflösungen anbieten."
 
[...]Ich denke beide Konsolen-GPUs werden auch über die gleichen 4MiBs an L2$ besitzen. [...]

Wenn ich mir die Organisationsstruktur von RDNA ansehe und das als behelfsmäßige Ableitungsgrundlage heranziehe, würde ich eher davon ausgehen, dass die beiden Designs unterschiedliche L2-Cache-Größen aufweisen werden; die Xbox wird mit ihrem 320 Bit-Interface voraussichtlich mehr L2 besitzen.
 
Hmmm... Wie kommst Du denn darauf, dass die XSX mit steigender CU Zahl und niedrigerem Takt eine bessere CU Auslastung hinlegen würde?
Im Normalfall ist es auch bei massiv parallelen Multiprozessorbetrieb so, dass mit steigender Anzahl an Rechenkernen der Overhead ansteigt und man keine lineare Leistungssteigerung erreicht.
So ist eine 2080TI Takt- und Einheitsbereinigt um ca. 15% schwächer als eine nur mit halb so viele Kernen bestückte 2060.
Ich sage nicht dass sie aufgrund einer höheren CU Zahl und niedrigerem Takt besser aufgelastet wird, ich sage dass eine höhere Auflösung grundsätzlich die vorhandenen CU's besser auslastet was in entsprechender Performance resultiert.

In 1080P wird man diesen Effekt kaum sehen, außerdem sprach ich nicht von einer linearen Leistungssteigerung.
 
Nein, Du gehst davon aus dass die höhere Pixelzahl 1 zu 1 des real nutzenden Performancevorteiles entnimmt, was nachweislich nicht korrekt ist.
20-30% höhere Leistung kann also sehr wohl in über 40% höherer Auflösung resultieren.
Und in höheren Auflösungen profitiert die XSX zudem von einer besseren CU Auslastung.

Und wenn die RT Leistung an der CU Anzahl gekoppelt ist wird der Vorteil der XSX entsprechend ihrer deutlich höheren Anzahl an CU's sehr bedeutend sein.
Ich weiß das eine höhere Pixelzahl sich nicht 1:1 mehr Performance gönnt, aber die höhere Auflösung hilft in der Regel Auslastungsprobleme zu mindern, die deutlicher bei breiteren GPUs ausgeprägt ist, die damit eher die theoretische Differenz zu schmaleren GPUs erreichen, nicht aber die theoretische Differenz in der Praxis deutlich erweitern.
Folgendes, krasses Beispiel, um es zu verdeutlichen.
GPU A = sehr breite GPU und theoretisch 70% schneller, als GPU B.
Unter 1080 ist GPU A schlecht auszulasten und praktisch nur 50% schneller.
Unter 4K steigt die Differenz auf 65%, GPU A wird jetzt aber nicht wie z.B. bei dir vorgesehen, die theoretische Differenz von 70% in der Praxis auf 80% oder 90% ausbauen.

Allgemein ändert sich Folgendes bei geringen bzw. hohen Auflösungen:
- In Bezug auf die Geometrielast ändert sich nichts, denn die ist unabhängig von der Auflösung.
Insofern hat die PS5 immer den (bis zu) Vorteil das Fixed-Function-Hardware 22% schneller rechnet und eine schmalere GPU einfacher auszulasten ist, demgegenüber hat die XSX immer einen >18.2% höheren Vorteil bei der Shader-Berechnung.
- Jetzt kommt der Punkt, wo es "dramatisch" für die XSX wird bzw. relativ gut aussieht für die PS5, wenn die Geometrie vom Rasterizer in flache Pixel verwandelt wird.
Das Problem hierbei ist, dass der Rastervorgang bei aktueller Hardware grob erfolgt, hat ein Dreieck die Größe von einem Pixel, dann kann der Rasterizer auch nur 1 Pixel durchschieben.
Dabei kann dieser bei Navi theoretisch bis zu 16 Pixel erreichen (insgesamt gibt es 4 bzw. 64 Pixel pro Takt sind möglich).
Das heißt im schlimmsten Fall, wenn die Anwendung nur Pixelkleine-Dreiecken ausgeben würde, wäre man stark Raster-limitiert (Nur 6.25% Effizienz bzw. Durchsatz) und hier spielt die PS5 ihren 22%-igen Vorteil aus.
In der Praxis sieht es natürlich nicht so schlimm aus, aber bei niedrigeren Auflösungen gibt es weniger Pixel pro Dreieck und potentiell eine schlechtere Rastereffizienz, je höher die Auflösung, desto weniger Vorteil für die PS5 gegenüber der XSX.
- Dann wird Pixel-Shading betrieben, dabei hat man bei niedrigen Auflösungen weniger Threads bzw. Arbeit, schmalere GPUs gewinnen also relativ zu breiten GPUs, steigt die Auflösung, steigt auch die Menge an verfügbarer Arbeit, die man an die Recheneinheiten verteilen kann.
Theoretisch hat die XSX 18.2% mehr Rechenleistung, nimmt man wieder ein krasses Beispiel, könnte unter 720p die XSX vielleicht nur 2% schneller sein, als die PS5, unter 4K sind es dann praktisch 18%.
- Zum Abschluss erfolgt der finale Output durch die ROPs, hier hat die PS5 erneut 22% Vorteil, je höher die Auflösung, desto höher ist auch die benötigte Pixelfüllrate und die ist bei der PS5 eben 22% größer.
Wieder ein krasses Beispiel, unter 1080p braucht man nur eine Pixelfüllrate von 50 Gigapixel/s, dass schaffen beide Konsolen locker und die PS5 hat keinen Vorteil unter niedrigen Auflösungen an der Stelle.
Stellen wir es auf 4K, muss das Backend 200 Gigapixel/s liefern, schafft keine der beiden, aber die PS5 erreicht 142.7 Gigapixel/s (+22%) vs. 116.8 Gigapixel/s und ist hierbei entsprechend zügiger.

Das ist natürlich sehr simpel dargestellt, es gibt viele Feinheiten im Detail, aber an unterschiedlichen Stellen haben die Konsolen ihre Vorteile und eine Auflösungserhöhung oder Reduktion, führt auch zu einem unterschiedlichem Mix an relativen Vor- und Nachteilen für eine Konsole.

----
Die Intersection-Engine für die Raytracing-Beschleunigung ist an die Anzahl der CUs gekoppelt bzw. an die Anzahl der TMUs, es gibt 4 Stück pro CU.
Xbox Series X: 52 (CUs) x 4 (Intersection Engines) x 1.825 (GHz) = 379.6 Intersectiontests/s (+18.2% gegenüber der PS5, wie auch bei der CU-Rechenleistung und dem Texeldurchsatz.)
PS5: 36 (CUs) x 4 (Intersection Engines) x 2.23 (Max GHz) = 321.12 Intersectiontests/s

Am Beispiel einer übertakteten RX 5700 (36 CU's, wie die PS5) und einer Stock RX 5700 XT (40 CU's) ist sehr schön sichtbar dass erstere, obwohl die Leistung am Papier höher liegt (9,9 Teraflops vs 9 Teraflops) maximal auf dem gleichen Level performt.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
In höheren Auflösungen ist die CU Auslastung sehr bedeutend, die PS5 hätte in der Hinsicht vielleicht vergleichsweise bessere Karten wenn die Spiele in 1080P dargestellt werden würden, aber das wird kaum der Fall sein, man möchte ja hohe Auflösungen anbieten.

Es ist nicht unwahrscheinlich dass wir in GPU fordernden Spielen oftmals sehen werden dass die Spiele auf der PS5 in 1800P und gegebenenfalls Checkerbaord laufen während es auf der XSX eventuell 4K sind.
Es klingt ja sehr glaubhaft, dass eine 5700 bei angeblich 2.15 Ghz (+22,9%) gegenüber einer 5700XT @1.75, die gerade mal 4 Compute Units mehr hat (+11.1%), auf die nahezu gleichen Ergebnisse kommt.
Bei so einer kleinen CU-Differenz kann es gar nicht zu so einem deutlichen Skalierungsboost dank mehr Recheneinheiten kommen.
Dass die 5700 nicht um 10% davon zieht und der Takt sich praktisch nur zur Hälfte niederschlägt, kann dann hauptsächlich nur an einem scharfen Bandbreitenlimit liegen.
Oder, der wahrscheinlichere Grund, es wurde wirklich eine 5700XT @ Stock gegenüber einer 5700 @ 2.15 Ghz verglichen und die Taktraten vom Game-Clock falsch abgeschrieben.
Denn 1750 MHz "(Stock Clock)" gibt es gar nicht als Stock-Clock, die offiziellen Taktraten liegen bei 1.605 für den Base-, 1755 für den Game- und 1905 MHz für den Boost-Clock an.
Dabei stellt der Game-Clock nur den Durchschnitt zwischen Base + Boost dar, 1605+1905/2= 1755 Mhz, aber das ist für die Praxis egal, denn die Taktraten sind gar nicht bei der 5700XT, als feste Limits oder Orientierungspunkte hinterlegt, dass sind erfundene Papierwerte, die sich grob an die Praxis orientieren, die GPU taktet tatsächlich höchstvariabel und kommt so hoch, wie es Stromverbrauch und Temperatur erlauben.
Bei Taktraten die eher so bei 1820/1840 MHz (+4-5%) liegen bzw. von 1708-1906 MHz rangieren, ergeben die ermittelten Werte schon mehr Sinn, dann sind es eher 9.3/4TF gegenüber 9.9TF (6%/5%-Vorteil, statt 11%).
AMD Radeon RX 5700 und RX 5700 XT im Test: Die Taktraten sowie Benchmarks in Full HD, WQHD und Ultra HD - ComputerBase

Nehmen wir das Video trotzdem für bare Münzen, dann hat man folgende Ergebnisse vor sich:

-Metro Exodus-
1080p:
5700 @ "2.15" Ghz: Min, Avg = 79, 102 (+3%)
5700XT @ "1.75" Ghz: = 80, 99

1440:
5700 = 50, 68
5700XT = 48, 69 (+1,01%)

4K:
5700 = 28, 46 (+2,22%)
5700XT = 26, 45

Im Prinzip kommt das gleiche Ergebnis heraus, ohne Auflösungstendenz.

- CS:GO -
1080p:
5700 = 345, 371
5700XT = 367, 392 (+6%)

1440p:
5700 = 271, 295
5700XT = 281, 316 (+7%)

4K:
5700 = 202, 237
5700XT = 240, 269 (+14%)

4K stellt einen Spike für die 5700XT dar, dabei gewinnt diese mehr, als sie CU hat, wo die Differenz nur bei 11.1% liegt, dieses Ergebniss ist kaum zu glauben.


- GTA5-
1080p:
5700 = 105, 133 (+1.02%)
5700XT = 98, 131

1440p:
5700 = 68, 85
5700XT = 67, 86 (+1.01%)

4K:
5700 = 32, 50 (+1.04%)
5700XT = 30, 48

Keine klare Tendenz, wie bei Metro Exodus, praktisch gleiche Performance.

- Battlefield V-
1080p:
5700 = 151, 178
5700XT = 156, 181 (+1.02%)

1440p:
5700 = 97, 125
5700XT = 101, 129 (+1.03%)

4K:
5700 = 58, 74 (+1.01%)
5700XT = 51, 73

Keine Tendenz

- Resident Evil 2 -
1080p:
5700 = 153, 179
5700XT = 159, 183 (+1.02%)

1440p:
5700 = 88, 114
5700XT = 89, 117 (+1.03%)

4K:
5700 = 40, 61 (0%)
5700XT = 43, 61 (0%)

Erneut keine eindeutige Tendenz.

Und ab hier habe ich auch keine Lust die Liste weiter zu berechnen, falls die restlichen Spiele überraschenderweise eine deutliche Tendenz aufzeigen, kannst du sie bitte ausführen?
Bei 11% CU-Differenz sollte sich kaum eine Ausprägung ersichtlich zeigen, insofern überraschen die Ergebnisse nicht.
 
Ohne jetzt auf alles einzugehen => Du widersprichst Dir im Ganzen.

Deinen Argumenten nach müsste die sehr hoch getaktete RX 5700 die niedrig getaktete RX 5700 XT unabhängig der Auflösung stets schlagen, das ist jedoch ganz eindeutig nicht der Fall, obwohl die am Papier stärkere RX 5700 mit fast 10 Teraflops deutlich über Jener der RX 5700 XT mit gut 9 Teraflops (oder 9,3 je nach Takt) liegt.
Offenbar kann die RX 5700 mit ihrem sehr hohen Takt die fehlenden 4 CU's nicht ganz ausgleichen (oder nur in wenigen Fällen), und das trotz höherer Rechenleistung.
Außerdem basieren Deine Spekulationen stets darauf dass die PS5 GPU durchgängig mit 2,23 Ghz taktet, was doch sehr bezweifelt werden darf angesichts der Bezeichnung "Boost Takt".


Und was RT angeht, die Argumentation auf Basis der Intersection-Engine ist meines Wissens nach Spekulation, ein offizielles Statement von AMD wie sie RT in RDNA 2 GPU's implementiert haben gibt es noch nicht.
 
P.S.: und dann wären da noch die anderen Fake-Videos auf seinem Kanal, z.B. der "GTA6-Trailer" inklusive Videoschnipsel aus "The Crew 2".

Noch witziger finde ich ja das von der Vita geklaute PS5 Logo :ugly:

Der ganze Kanal ist vollkommen offensichtlich ein kompletter Clickbait Fake.
 

Anhänge

  • vitalogo.jpg
    vitalogo.jpg
    26,9 KB · Aufrufe: 10
Zurück