Sony PS5 und Xbox Scarlett: Verwirrung um RDNA 2 - GPUs der Next-Gen-Konsolen doch auf RDNA-Basis?

Software? Hardware? Patente? Featurelevel? -> PS4/nVidia/AMD alles 2013 auf dem Stand der Technik und darum ging es. Leistung ist eben nicht mit Technik gleichzusetzen.
Ist in doppeltem Sinne falsch. Natürlich kann man Software und umsetzbare Performance im weiteren Sinne auch als Technik sehen. Wie oft spricht man vom "höhepunkt der Technik" bei einem hoch getakteten Modell oder was auch immer. Zum einen war Nvidia und AMD natürlich Ende 2013 schon etwas weiter, auch gab es modernere Fertigungstechniken. Und die in der PS4 verwendete war eben zu dem Zeitpunkt schon über 2 Jahre alt.

Und hier zeigt, dass du null Reflexionsfähgikeit besitzt. Schon mal in den Spiegel geschaut: anderen Charakterzüge anlasten, die einem selbst nicht gefallen
Denunzierung von Anderen ist immer eine feine Sache.Feiner Charakterzug. Bravo. *Mic drop*
Du magst es also nicht, denunziert zu werden? Da spricht genau der Richtige:
Unser Klugscheisser vom Dienst, der sich die Welt immer so schön zurechtlegt wie es ihm passt,
 
Ist in doppeltem Sinne falsch. Natürlich kann man Software und umsetzbare Performance im weiteren Sinne auch als Technik sehen. Wie oft spricht man vom "höhepunkt der Technik" bei einem hoch getakteten Modell oder was auch immer.

Dafür dass du für ein genaues definieren und vorheriges Überlegen stehst, sind deine Aussagen sehr schwammig. Du verwendet recht viele Konjunktive, die sehr viel Interpretationsspielraum lassen. Das kann man machen, wenn man sich im Nachhinein nicht eingestehen möchte, dass man mit einer konkreten Aussage und Definition unrecht hatte.

Zum einen war Nvidia und AMD natürlich Ende 2013 schon etwas weiter, auch gab es modernere Fertigungstechniken. Und die in der PS4 verwendete war eben zu dem Zeitpunkt schon über 2 Jahre alt.

Schauen wir uns das noch einmal genauer an. Was hatte AMD Ende 2013 auf dem GPU Markt?

GCN 2nd gen 28 nm Fertigun. Exakt so wie das SoC und damit die darin integrierte GPU selbst:

SoC-Dies von Xbox One und PlayStation 4 im Vergleich - ComputerBase

Was in der technischen Entwicklung im Jahre 2014 kommt spielt zum kaufbaren Zeitpunkt doch überhaupt keine Rolle. Die PS4 war als Beispiel technisch auf dem neuesten Stand bei Release.

Die Aussagen von Wurstkuchen waren folgende:
... Verglichen zum PC natürlich. Konsolen hinken immer 3-5 Jahre hinter der aktuellen Technik hinterher. Wenn ne neue Konsole raus kommt, ist die Hardware schon 3 Jahre alt im PC.

Und:
AMD Technik hinkt 3-5 Jahre Nvidia Technik hinterher.

Diese Aussagen stimmen nicht. Und hierfür habe ich die PS4 im allgemeinen und die integrierte GPU im speziellen als Beispiel herangezogen. Er hat verallgemeinert und über einen Kamm geschert.

Du hast nicht gefragt welche Technik er meint, sondern dir ganz bestimmte Kirschen rausgepickt und einfach sein Argument damit verdreht.

Welches Argument soll ich denn verdrehen wenn es keines gibt?

Und ich verstehe auch nicht warum du mir ankreidest als dritte Partei, den Thread nur vergiften zu wollen. Das ist das Einzige was wurstkuchen über die Jahre hier macht und mit den Falschaussagen nahezu jeden Thread ins Chaos stürzt. Daher kommt meine rauere Haltung IHM gegenüber.

Und hier zeigt, dass du null Reflexionsfähgikeit besitzt. Schon mal in den Spiegel geschaut: anderen Charakterzüge anlasten, die einem selbst nicht gefallen

Du magst es also nicht, denunziert zu werden? Da spricht genau der Richtige:
Du zeigst mit jedem Satz dass du keinen Deut besser bist, als das was du mir ankreidest.
Warum kommst du als dritte „Partei“ und wirst mir gegenüber ausfallen in einer Diskussion, welche dich gar nicht betraf?

Dazu ist die von Dir gewählte „Aber du...“ Kritik und dies als Hilfsmittel in einer Argumentation im Normalfall vor dem Abitur schon abzustellen. Ich habe mehr von Dir erwartet, da ich deine Posts hier gerne gelesen habe.

Schönen Sonntag und genießt das Leben, für mich gehts jetzt auf nach "Bora Bora" :)
 
Zuletzt bearbeitet:
Nun ich habe ursprünglich nur versucht zu interpretieren was mit den 3-5 Jahren hemeint sein könne. Ausfallend -falls man das so nennen kann- bin ich dabei erst nach deiner Beleidigung geworden

Würde mich auch freuen, wenn eine Diskussion ohne Beleidigungen entstehen könnte. Schönen Urlaub und eine nöglichst kurzweilige Reise
 
Würde mich auch freuen, wenn eine Diskussion ohne Beleidigungen entstehen könnte.

Dann sollte man einfach gewisse User hier entweder auf die Ignor-Liste setzen oder im stillen den Post lesen und darüber schmunzeln. Antworten sollte man darauf allerdings nie da ansonsten genau das passiert was der User will, User gegeneinander aufhetzen und den Thread zerstören.
Schau mal in den Thread ->
Radeon Image Sharpening: Vega-Support vorerst nicht geplant
Da werden neue Accounts erstellt nur um Stunk und schlechte Laune zu verbreiten :wall: Solche Leute darf man einfach keine Aufmerksamkeit geben da diese anscheinend ganz andere Probleme zu bewältigen haben.
Wurstkuchen fällt da genau hinein da er mir persönlich immer so aufgefallen ist. Seine Post waren meist schwammig formuliert, im Kern aber falsch und/oder mit unberechtigter Kritik.

Ich würde mich auch freuen wenn solche User wieder weniger im PCGH Forum unterwegs wären da man gefühlt in jedem zweiten Thread die gleichen sinnlosen Behauptungen oder Anschuldigungen liest und vom eigentlichen Thema ablenkt. Leider wird immer und immer wieder auf solche Posts eingegangen (warum auch immer:huh: )

Zum Thema:

Eventuell ist ja die GPU Einheit der Next Gen auch ein Hybrid aus der RDNA 1/2 Architektur und der darauffolgenden bzgl. separate RT Kerne. Was ich mich allerdings Frage, wie viel Giga Rays die neuen Konsolen schaffen. Eine RTX 2080ti mit ~10 Giga Rays schafft in Control (4K) im Worst Case 15-20Fps. Selbst wenn man die Spiele Engine´s erweitert, optimiert und verbessert müsste die Next Gen Generation (für stabile 30/60Fps) bei ~20 Giga Rays liegen, sofern man die am PC bekannten Effekte damit berechnet.
Ich kann mir allerdings nicht vorstellen, das AMD solch eine Rohleistung bieten kann (wohlgemerkt bei einer Konsolen APU welche wahrscheinlich max. 150 Watt ziehen darf). Hab ich da eine falsche Sichtweise (Denkfehler) oder wie seht ihr das Thema?

Die neuen Konsolen werden mit den ganzen Gerüchten und Informationsfetzen so künstlich aufgeblasen, das man am Ende nur enttäuscht werden kann.
 
Zuletzt bearbeitet:
Gibt es denn schon Informationen wann genau (Event oder co.) MS oder Sony wieder etwas offizielles zur Next Gen berichten?

Technisch klingt die neue Generation dieses mal sehr interessant was die neuen Konsolen alles angeblich können sollen. Hoffe immer mehr das die Next Gen für 599€ an den Start gehen wird.
es ist ein TLOU2 Media Event für 24.September angesetzt. Der Insider ZhugEX schrieb auf resetera außerdem das dies nicht das einzige Sony Event in der Woche seih. Es wird gemunkelt das das zweite Event auch über TLOU2 sein wird aber hinter verschlossenen Türen und das Spiel auf PS5 Hardware gezeigt werden soll. Naja mal sehen was dabei herauskommt. ;)
 
[...] viel Giga Rays die neuen Konsolen schaffen. Eine RTX 2080ti mit ~10 Giga Rays schafft in Control (4K) im Worst Case 15-20Fps. Selbst wenn man die Spiele Engine´s erweitert, optimiert und verbessert müsste die Next Gen Generation (für stabile 30/60Fps) bei ~20 Giga Rays liegen, sofern man die am PC bekannten Effekte damit berechnet.[...]

GigaRays/s ist eine nVidia-spezifische Metrik, die man nicht ganz so einfach übertragen kann und die selbst ist bereits nicht ganz unproblematisch, da es sich hierbei nur um einen theoretischen Peak-Wert handelt. Einerseits werden mit der Einheit nur Einfachstrahlen ausgewiesen, was trügerisch sein kann, da je nach konkreter Verwendung der Raytracing-Funktionalität mehrere bis zu viele Strahlen für einen Pixel notwendig sind (bspw. Reflektion und Refraktion). Beispielsweise Metro Exodus verwendete in der TechDemo Ende 2018 pauschal drei Strahlen pro Pixel pro Frame für die GI-Berechnung.
Hinzu kommt, dass die sogenannten "RT-Cores" nicht grundsätzlich parallel arbeiten können. Es gibt durchaus in den Shadern ablaufende Funktionen, die eine sequentielle Bearbeitung erzwingen und daher mit Blick auf die RT-Cores blockierend wirken.

Die aktuell auf dem PC verfügbare Navi hat rd. 10,3 Mrd. Transistoren auf dem Die bei rd. 225 W Verbrauch für die 5700 XT. Das ist voraussichtlich schon mehr (oder bestenfalls vergleichbar), als man auf den Konsolen zu sehen bekommen wird, denn hier kommen noch zusätzlich acht Zen2-CPU-Kerne zur TDP der Konsole hinzu. *)
Eine RTX 2080 Ti auf Basis des TU102 hat bereits 18,6 Mrd. Transistoren und ist damit deutlich größer. Einige Transistoren könnte man aus der Rechnung streichen, da die Ti nur 68 der 72 SMs nutzt, aber es verbleiben immer noch deutlich mehr Transistoren. Hinzu kommt, dass nVidia's Architektur relativ effizient ist.
Die Konsolen werden bzgl. schlichter Hardware/Funktionseinheiten zweifelsfrei nicht mit der größten Turing-Version vergleichbar sein. Bezüglich der Leistung sagt das jedoch noch vergleichsweise wenig aus, denn auf Konsolen wird deutlich hardwarenäher programmiert, sodass man direkte Vergleiche abwarten muss.

Bezüglich Raytracing braucht man sich aber auch auf den Konsolen keinen Illusionen hinzugeben (es sei den bspw. Sony hat hier noch einen hochspezialisierten ASIC beigesteuert?). Sowenig, wie man in nativem 8K spielen wird oder bei AAA-Titeln durchgehende 4K@120Hz sehen wird, so wird man auch kein hochkomplexes Raytracing auf den Konsolen antreffen. Wenn man in die Nähe einer 2080 Ti kommt, kann man voraussichtlich froh sein und da die Hardware voraussichtlich nicht ausreichen wird, wird ein nennenswerter Teil dieser Leistung auf hardwarenahe Code-Optimierungen zurückzuführen sein und der in 2020 zu erwartende Turing-Nachfolger wird zumindest einen Vergleich mit HighEnd-GPUs unsinnig machen.

Ein Punkt den man aber auch nicht vergessen darf: Eine Konsole kostet bestenfalls die Hälfte einer customized 2080 Ti.

*) Für etwas "Entspannung" könnte man sorgen, wenn die finale Produktion TSMCs N7+ verwendet, der gegenüber dem aktuell genutzten N7 (bei Zen2) auch ein kleineres power saving bietet (bis zu 10 %). Genaues hierzu weiß man jedoch noch nicht. Die Möglichkeit bestünde durchaus, denn die Dev-Kits könnten SoCs aus der Prozess-Risk-Production verwenden. (Der N7+ ist erst seit Mitte 2019 für die Volumenproduktion freigegeben.)
 
Zuletzt bearbeitet:
Man wird auf HBM RAM setzen um Stromverbrauch zu senken. Gab schon einige Insider Gerüchte
Sowie wird der Cache der CPU halbiert und diese Taktet wahrscheinlich mit maximal 3,2 GHz.

225 W verbraucht die RX5700 XT komplett, der Chip 180 W.
Zudem arbeitet die APU energieeffizienter als eine RX5700 XT.
Wenn man auf 7nm+ setzt spart man noch weiteres ein.

Wird eine 10 Teraflops Navi RDNA GPU. Die CPU verbraucht vielleicht maximal 35 W. Kaum mehr als der Jaguar in der PS4.

Wenn man will kann eine Konsole und deren APU mehr als 200 W verbrauchen.

Beeindruckend und das Handicap der Navi/RDNA ist die hohe Packdichte. Bei einer APU wo sich alles auf einem Chip befindet ist es besonders schwer da ein Optimum zu finden.
Gespannt wie Sony und Microsoft es lösen werden. Zudem man auch noch RT Cores drin hat.
 
Zurück