Xbox Series X: Phil Spencer zeigt AMD-SoC mit Zen-2-CPU und RDNA-2-Grafik

Wie groß ist der Chip? Hat das jemand irgendwo schon geschätzt? Sieht ziemlich offensichtlich nach irgendetwas zwischen 250 und 300mm² aus, damit hat sich der 12Teraflop Unsinn ja auch erledigt.
Ich denke mal die Karte wird 7 bis 8 Teraflops haben und etwa 20% unter einer 5700XT rauskommen, also ne Vega 64 bzw GTX 1080 Leistung in den Konsolen und das ist doch wunderbar.



Wieso Bullshit? Variable Rate Shading wäre genau so ein Feature was zum Beispiel RDNA bisher fehlt, aber für die Konsolen mit dazukommen würde. Am Ende wird das ein Chip sein, der extra für die Konsolen angepasst wurde. Also irgendetwas von RDNA 2 auch enthalten wird. Allerdings bin ich mir ziemlich sicher, dass das eine Mischung sein wird und nicht RDNA 2 wie sie für den Desktop kommt.

Irgendeine Cost-Down Version.

Ca. 400mm2 groß soll er sein. Er wurde auch schon mit dem One X SoC verglichen.
 
Kann funktionieren.

Kann eben nicht funktionieren, weil dieser "Cache" einfach viel zu langsam ist.
Warum heißt das dann überhaupt Cache? Ich verstehs nicht.
Speichermanagement übernimmt dabei der HBCC und befördert die NextGen-Konsolen-Entwickler somit umgehend ins Speicher-Schlaraffen-Land.

Würde der Speed einer SSD ausreichen, dann braucht man auch keinen RAM mehr.:ugly:
Also ich verfolge den Thread im 3DC zum Thema Konsolen schon recht lange und da wird seitens der Entwickler im Thread recht häufig 32GB oder mehr Speicher für die APU gewünscht.

Bzgl. Geschwindigkeit, eine Vega kann sich problemlos den verbauten DDR3 oder DDR4 RAM zu Nutze machen.

Ja, für professionelle Anwendungen, in Spielen bringt das gar nichts.

Bei den NextGen-Konsolen erreicht der per PCI-e 4.0 angebundene Festspeicher die Geschwindigkeiten von DDR2. Macht man dafür im Zweifelsfall den Cache etwas größer.

Daran glaube ich nicht. Die Vorteile die die neuen Konsolen haben werden ist, dass die Ladezeiten geringer sein werden, bzw. es früher oder später keine mehr geben wird.
Eine PCIe 4.0 SSD ist je Lane bei 16 GBit/s ergibt bei 4 Lanes dann rund 64GBit/s /8 dann rund 8GByte/s, damit bist du dann etwa bei der Hälfte der Bandbreite von DDR2 angelangt, denn SR sinds dort ~8,5GByte/s und mit Dualchannel schon ~17 GByte/s, also bist du gerade mal bei der Bandbreite von DDR1 Speicher angelangt, während die Latenz immer noch viel höher ist.

Ca. 400mm2 groß soll er sein. Er wurde auch schon mit dem One X SoC verglichen.

Hast du nen Link für mich?:)
 
Okay, mhm.. ich hätte jetzt maximal 300 geschätzt, aber sollten wirklich mindestens 380mm² sein, wenn nicht doch 400mm²
Aber nehmen wir mal 400mm², das passt eigentlich wunderbar. Ein Zen 2 Chiplet kommt in 7nm auf 80mm², das I/O Die wird ja bei GF in 14nm gefertigt und ist 125mm² groß. Rechnen wir mal großzügig mit nur 50mm² für das I/O Die, also kommt der CPU Teil der APU wohl auf mindestens 130mm², womit für die GPU noch rund 270mm² zur Verfügung stehen. Wo genau will man da 56 CUs unterbringen, wenn eine 5700XT bereits 251mm² groß ist? Sieht alles nach 5700XT + 8c Zen CPU aus. Und selbst wenn man in 7nm+ fertigt, dann bringt das auch nur eine kleine Flächenreduktion, zudem weiß man nicht wie die RT HW-Ergänzungen den Chip noch aufpumpen und was ansonsten noch in den SoC implementiert ist.

12Teraflops sind da sogut wie vom Tisch, weil das Ding höchstens mit 1500MHz GPU seitig takten wird, mehr liegt einfach nicht im Sweetspot.
 
Taktet das Teil ein bissl runter damit es in ein 12"-Tablet passt und ich bin glücklich. Bis dahin dreh ich mich wieder um und mach weiter mein Nickerchen... ;)
 
Okay, mhm.. ich hätte jetzt maximal 300 geschätzt, aber sollten wirklich mindestens 380mm² sein, wenn nicht doch 400mm²
Aber nehmen wir mal 400mm², das passt eigentlich wunderbar. Ein Zen 2 Chiplet kommt in 7nm auf 80mm², das I/O Die wird ja bei GF in 14nm gefertigt und ist 125mm² groß. Rechnen wir mal großzügig mit nur 50mm² für das I/O Die, also kommt der CPU Teil der APU wohl auf mindestens 130mm², womit für die GPU noch rund 270mm² zur Verfügung stehen. Wo genau will man da 56 CUs unterbringen, wenn eine 5700XT bereits 251mm² groß ist? Sieht alles nach 5700XT + 8c Zen CPU aus. Und selbst wenn man in 7nm+ fertigt, dann bringt das auch nur eine kleine Flächenreduktion, zudem weiß man nicht wie die RT HW-Ergänzungen den Chip noch aufpumpen und was ansonsten noch in den SoC implementiert ist.

12Teraflops sind da sogut wie vom Tisch, weil das Ding höchstens mit 1500MHz GPU seitig takten wird, mehr liegt einfach nicht im Sweetspot.

Der SoC benötigt sicher nicht soviel Platz für CPU und I/O da man auf den ganzen L3 Cache verzichten kann und auch nur ein paar Lanes benötigt. Ich würde die CPU und I/O Fläche eher auf 70-80mm2 schätzen womit man noch ca. 320mm2 für den GPU Part zur Verfügung hat. Ob da 3840 Shader passen weiß ich auch nicht da AMD leider noch nichts zu RDNA 2 weiter gezeigt hat.

Allerdings ist Herr Spencer auch nicht dumm und weiß das die halbe Welt sein Bild genau beleuchten wird. Ich könnte es mir durchaus vorstellen mittlerweile das die Series X über 3000 Shader besitzen wird. Hoffentlich stimmt es auch da wir dann von RDNA 2 Mittelklasse GPU'S und auch von Big Navi einiges erwarten dürfen.

Vielleicht hast du aber auch Recht und es sind dann eben ca. 2560 Shader bei ~9 TF

P.S weiß jemand wie groß der Ryzen 4800U/H ist? Damit könnte man ja ca. abschätzen wieviel Platz so eine 8 Kern APU in 7nm veranschlagt.
 
aber 120 fps halte ich für utopisch denn welcher Fernseher soll das darstellen können? Mein TV kann nur bis 60Hz und wenn die PS5 da ist brauch ich einen 4K-TV und bis jetzt kenne ich keine 144HZ TV´s sondern diese gibt es nur bei den Monitoren.

Bist du aber schlecht informiert. Aktuellen LG OLED mit HDMI 2.1 können 4k/120Hz verarbeiten. Fehlen nur GPU mit HDMI 2.1. 1440p/120 geht jetzt schon mit meiner Karte. Auch die Top-Samsung TVs können 1440p/120. Sowie alle künftigen Fernseher für 2020 mit HDMI 2.1.

Sprich Fernseher die 120fps nativ darstellen können gibt es schon und LG hat auch G-Sync jetzt am laufen und es funktioniert.

Acer und Viewsonic bringen sogar 55" OLED Monitore mit 144Hz.
 
Hört sich jetzt der Unsinn von der RX 5700 in der Konsole auf?

Unsinn ist der ganze Spekulatius hier wieder. Und dabei ist Weihnachten längst rum. Niemand weiß was wirklich Konkretes, aber es wird wieder wie wild kluggesch***en. Es sind doch nur noch ein paar Monate bis zu den Vorstellungen. Kann man es echt nicht bis dahin abwarten/aushalten?
 
Kann funktionieren. Gedanke des Prinzips ist ja, dass der eigentliche VRAM in diesem System nur noch als Cache genutzt wird und die NVMe recht zügig die weniger oft benötigten Daten vorhält. Speichermanagement übernimmt dabei der HBCC und befördert die NextGen-Konsolen-Entwickler somit umgehend ins Speicher-Schlaraffen-Land.

Das klingt für mich alles nach HyperMemory 2.0, nur dass jetzt nicht wirklich DDR2-Speicher, sondern SSDs, die angeblich ähnlich schnell sind, genutzt werden sollen. Ich bleibe skeptisch.

Bedenke mal: Wenn nur 1% der Daten mit einer Geschwindigkeit von ca. 2% der des Grafikspeichers geladen werden müssen, sackt die Performance auf rund zwei Drittel ab.
 
Okay, mhm.. ich hätte jetzt maximal 300 geschätzt, aber sollten wirklich mindestens 380mm² sein, wenn nicht doch 400mm²
Aber nehmen wir mal 400mm², das passt eigentlich wunderbar. Ein Zen 2 Chiplet kommt in 7nm auf 80mm², das I/O Die wird ja bei GF in 14nm gefertigt und ist 125mm² groß. Rechnen wir mal großzügig mit nur 50mm² für das I/O Die, also kommt der CPU Teil der APU wohl auf mindestens 130mm², womit für die GPU noch rund 270mm² zur Verfügung stehen. Wo genau will man da 56 CUs unterbringen, wenn eine 5700XT bereits 251mm² groß ist? Sieht alles nach 5700XT + 8c Zen CPU aus. Und selbst wenn man in 7nm+ fertigt, dann bringt das auch nur eine kleine Flächenreduktion, zudem weiß man nicht wie die RT HW-Ergänzungen den Chip noch aufpumpen und was ansonsten noch in den SoC implementiert ist.

12Teraflops sind da sogut wie vom Tisch, weil das Ding höchstens mit 1500MHz GPU seitig takten wird, mehr liegt einfach nicht im Sweetspot.
Der CPU-die von Zen2 ist ~76mm² groß bzw. kleiner als 74mm², wenn man nur die belichtete Fläche anschaut.
Der L3$ alleine belegt schon um die 16,82mm² für 16MiB pro CCX.
Die Konsolen werden diesen definitiv auf mindestens 8MiB pro CCX kastrieren oder gar auf 4MiB wie Renoir vierteln?
Da im L3$-Bereich sich noch einige Taktgeber und Kontrollelemente finden, kann man die 16,82mm² nicht einfach teilen oder vierteln, aber sagen wir mal es sind 12mm² (für 8MiB) oder 6mm² (für 4MiB), dann könnte man auf den Konsolen für zwei CCX gegenüber den CPU-Ablegern grob 9,64mm² oder 4,82mm² sparen, sprich man würde bei ~66,4mm² oder ~71,2mm² landen.

Etwas anders ausfallen wird die Kommunikation zwischen den CCX bzw. der Chip-Interconnect, da alles auf einem Chip zu finden ist.
Es gibt viele Details die wichtig sind, weswegen man manchmal nicht so gut abschätzt.

Folgende Sachen sind zu bedenken:
- Die Konsolen brauchen keine 6-Display-Controller auf dem die, welche schon etwas Platz einnehmen, weswegen man einige mm² von den 251mm² bei Navi10 sparen kann.
- Da alles on-die ist braucht man auch weniger starke Treiber bzw. dedizierte Verbindungen zwischen den CCXes oder zwischen CPU und GPU, man braucht z.B. nicht zwei mal x16-PCIe4-Lanes dafür, spart erneut Platz.
- Falls die Konsolen auf 384-Bit GDDR6 setzten, dann muss man natürlich noch beachten, dass 128-Bit + Control Logic dazu kommen und das Zeug nimmt auch einiges an Platz ein.
- Wie du selber schon sagst, es kommt HW-Logik für RayTracing dazu, andere HW-Komponenten.

Eigentlich kann man sich das relativ genau ausrechnen, wir haben Zen2 die shots und ein paar hässliche von Navi10, dennoch reicht das, um halbwegs genau abzuschätzen, wie viel 8 Zen-Kerne mit 16 oder 8MB L3$ zusammen mit 56 CUs von einer RDNA1 GPU verbrauchen würden.
 
Man kann Dinge auch bewusst falsch einordnen..
Mit 12 TFlops, also einem Leistungsbereich zwischen Vega10 und Vega20, ist es oftmals problemlos möglich in 4K/60FPS zu erreichen.
Vorraussetzung dafür ist einfach eine gute Auslastung der vorhandenen Ressourcen, einhergehend mit einer hardwarenahen Programmierung.
Wenn ich es dann auch mit Beleuchtung, Schatten und Reflexionen nicht übertreibe, steht 4K/60 wirklich überhaupt nichts im Wege.
Neue Streamingfähigkeiten oder auch die grundlegend auf Gaming ausgelegte RDNA-Architektur steuern ferner Ihren Anteil bei.

Ich gehe davon aus, dass überraschend viele Titel die 4K/60 bieten werden.
4K/120 wird es dann in Spielen wie HotS, Dauntless oder Fortnite geben. Also MOBA´s, oder auch Comic-Shooter aka Overwatch.
Wird in dem Bereich halt auch durch den erweiterten Maus & Tastatur-Support der NextGen-Konsolen interessant, wenn ich beispielsweise competitive im Crossplay mit PC oder anderen Kosolen zocken will. Und das wird es definitiv immer mehr geben.

Oft genügen kleine Stellschrauben bei Radeon-GPU´s um die entsprechenden FPS zu erreichen.
Wenn ich nur only-Ultra-Setting Benches vom PC zur Referenz nehme ist das verständlicherweise nur schwer vorstellbar, aber da existiert extrem viel Optimierungs-Potential und ich zweifle im fünften Jahr mit Radeon-GPU´s in 4K Auflösung keinen Moment an der Glaubwürdigkeit von Microsofts Aussagen.
Ja, du kannst auch mit 4TF Spiele @4K 120hz darstellen.
Hängt einfach von den Details und der Optimierung ab.

Der CPU-die von Zen2 ist ~76mm² groß bzw. kleiner als 74mm², wenn man nur die belichtete Fläche anschaut.
Der L3$ alleine belegt schon um die 16,82mm² für 16MiB pro CCX.
Die Konsolen werden diesen definitiv auf mindestens 8MiB pro CCX kastrieren oder gar auf 4MiB wie Renoir vierteln?
Da im L3$-Bereich sich noch einige Taktgeber und Kontrollelemente finden, kann man die 16,82mm² nicht einfach teilen oder vierteln, aber sagen wir mal es sind 12mm² (für 8MiB) oder 6mm² (für 4MiB), dann könnte man auf den Konsolen für zwei CCX gegenüber den CPU-Ablegern grob 9,64mm² oder 4,82mm² sparen, sprich man würde bei ~66,4mm² oder ~71,2mm² landen.

Etwas anders ausfallen wird die Kommunikation zwischen den CCX bzw. der Chip-Interconnect, da alles auf einem Chip zu finden ist.
Es gibt viele Details die wichtig sind, weswegen man manchmal nicht so gut abschätzt.

Folgende Sachen sind zu bedenken:
- Die Konsolen brauchen keine 6-Display-Controller auf dem die, welche schon etwas Platz einnehmen, weswegen man einige mm² von den 251mm² bei Navi10 sparen kann.
- Da alles on-die ist braucht man auch weniger starke Treiber bzw. dedizierte Verbindungen zwischen den CCXes oder zwischen CPU und GPU, man braucht z.B. nicht zwei mal x16-PCIe4-Lanes dafür, spart erneut Platz.
- Falls die Konsolen auf 384-Bit GDDR6 setzten, dann muss man natürlich noch beachten, dass 128-Bit + Control Logic dazu kommen und das Zeug nimmt auch einiges an Platz ein.
- Wie du selber schon sagst, es kommt HW-Logik für RayTracing dazu, andere HW-Komponenten.

Eigentlich kann man sich das relativ genau ausrechnen, wir haben Zen2 die shots und ein paar hässliche von Navi10, dennoch reicht das, um halbwegs genau abzuschätzen, wie viel 8 Zen-Kerne mit 16 oder 8MB L3$ zusammen mit 56 CUs von einer RDNA1 GPU verbrauchen würden.


Jap. Heißt leider auch, dass man was die GPU betrifft im Vergleich zum Desktop wieder nur beim Mainstream landen wird. Aber gut, das bringt das Konzept von leistbaren APUs mit sich. Die Zeiten wo CPU und GPU getrennt waren sind halt leider vorbei. Man darf halt höchstens Träumen von der Leistung eines besseren Zen (16 oder mehr Kern Zen 3) oder eines 500+ mm² Navi Chips extra, die dann erst in 5nm zusammengeführt werden zu einer APU.

Aber mir ist klar, dass das aus Kosten, Powerbudget, Entwicklungsgründen etc nicht sinnvoll ist. Auch Marketing. Was soll man denn in der PS5 Pro verbauen, wenn man schond as ganze Pulver jetzt verschießt.
 
Zuletzt bearbeitet:
Unsinn ist der ganze Spekulatius hier wieder. Und dabei ist Weihnachten längst rum. Niemand weiß was wirklich Konkretes, aber es wird wieder wie wild kluggesch***en. Es sind doch nur noch ein paar Monate bis zu den Vorstellungen. Kann man es echt nicht bis dahin abwarten/aushalten?
Was wäre dieses Forum ohne Spekulationen? ;) Ich finde es toll, mal sehen wer so Recht behalten wird mit seinen Annahmen. :P

MfG
 
Man wirklich ein Chip ohne Belichtung wird wieder der Click bait durch Dorf gepeitscht gibt ja keine neuen Spiele.

Meine Einschätzung
Eine Zen 2 Mobil CPU die stark abgespeckt wurde in Sachen Cache also deutlich weniger Rechenleistung
hat als eine Desktop CPU. Wahrscheinlich 15 Watt bis 25 Watt.

GPU wird ein zwischen Ding zwischen RDNA 1 und 2 sein wie so oft eben, weil das längst Final sein muss.
Im PC Bereich dürften sich die Konsolen eher mit 5600XT und 5700 sein den das dürfte eben die neue Mittelklasse sein.
Außerdem spricht der Verbrauch die Kosten alles dafür und MS Aussage doppelte Leistung der X. Den das sind ca. 8,? Teraflops
in RDNA sind doppelte Leistung.
Wären es 12 Teraflops hätte MS das sofort jeden auf die Nase gebunden da aber RDNA weniger Teraflops bei gleicher Leistung hat
ist die Zahl eben deutlich geringer. Macht sich also nicht gut sie zu nennen, was wird man dann machen man sagt doppelte Leistung.

Ganz zu schweigen das die 12 Teraflop Nummer Mathematischer Unfug ist. 6 mal 2 ist 12 aber Vega die deutlich mehr Teraflops haben
und dann in RDNA einfach umgewandelt werden ist kompletter Unfug.


Jede neue Konsole wurde deutlich zu hoch Spekuliert, das hat auch eher den Grund das solche News sich besser verkaufen als die realität.
Den die ist die Xbox one zur X ist ein deutlicher größer Sprung als das was jetzt kommt in Sachen GPU. Den der GPU Markt trat mit Pascal lange
auf der Stelle und um Upgrade Konsolen kommen die gar nicht drum herum in den nächsten 3 Jahren. Das ist die Realität nur die ist halt nicht so toll
und beide Konsolen Hersteller haben selbst nach release immer Versucht die Tatsächliche Hardware nicht zu nennen.

Konsolen sollen erschwinglich sein und das beste Preisleistungs Verhältnis haben und ganz nebenbei noch Gewinn machen.
Schaut euch mal die Realitätsfernen Spekulationen an ein 3700X nur ein bisschen weniger Takt eine 12 Teraflop GPU die mit einer 2080 verglichen wird.
Könnte AMD auch nur im Ansatz das liefern zu solchen Preisen hätten sie das längst gemacht. AMD kocht auch nur mit Wasser und die GPUs wurden
jedesmal zu Hoch eingestuft.
Ich sag AMD wird schon mühe haben RDNA einigermaßen zu verbessern das wird aber kein riesen Schritt sein. Den AMD hat schon den 7nm Joker gespielt,
viel sollte man von RDNA 2 nicht erwarten. Ich erinnere jetzt auch mal an die Vergangenheit der Konsolen wo oft behauptet wurde das sei die neuste Technik
und in Wirklichkeit waren es nur Teile davon.
 
[...]
Jap. Heißt leider auch, dass man was die GPU betrifft im Vergleich zum Desktop wieder nur beim Mainstream landen wird. Aber gut, das bringt das Konzept von leistbaren APUs mit sich. Die Zeiten wo CPU und GPU getrennt waren sind halt leider vorbei. Man darf halt höchstens Träumen von der Leistung eines besseren Zen (16 oder mehr Kern Zen 3) oder eines 500+ mm² Navi Chips extra, die dann erst in 5nm zusammengeführt werden zu einer APU.

Aber mir ist klar, dass das aus Kosten, Powerbudget, Entwicklungsgründen etc nicht sinnvoll ist. Auch Marketing. Was soll man denn in der PS5 Pro verbauen, wenn man schond as ganze Pulver jetzt verschießt.
Die PS3 hat für Mrd. Verluste gesorgt und da hat Sony richtig auf die Kacke gehauen.
~235mm² groß war der 90nm Cell Chip, die 90nm RSX GPU ~258mm², zusammen ~493mm².
Da sind 400mm² unter 7nm schon eine Ansage, denn die Transistorendichte ist auch massiv gestiegen, stärker als der Energieverbrauch gesunken ist, was zu einer höheren Wärmedichte als früher führt.
Entsprechend ist das von einer Konsolenperspektive eher wieder eine High-End-Geschichte.

Wobei man sich natürlich über jede Kategorisierung streiten kann.
 
War der RSX nicht kleiner?
Also selbst der G71 auf der GeForce 7900 GTX erreichte keine 200mm². Zumindest nicht meiner Erinnerung nach.

Wobei ich aber nicht genau weiß, ob der RSX jetzt mehr G71 oder G70-Derivat war oder wo da die Grenzen verschwimmen. Beim G71 wurde ja u.a. die Länge der Pipelines reduziert, weswegen dieser ja trotz identischer Konfiguration weniger Transistoren benötigte, als der G70. Aber ob das noch den ja quasi Ende 2006 erschienenen RSX noch betraf?
 
Zurück