Zen 4: Ryzen 7000 mit bis zu 16 Kernen und 170 Watt?

Rollora

Kokü-Junkie (m/w)
Das ist Tatsache. Siehe über dir.
nein. Weil irgendwas behauptet wird, ist es keine Tatsache.
wenn es rein von den Konsolen abhängig wäre hätten wur seit der PS3 8-Thread Support (bzw 6 bei der Xbox 360).
Das Thema ist aber etwas komplexer, weil parallelisierung von Aufgaben nicht immer einfach ist. Eine immergleiche, simple Aufgabe lässt sich einfach parallelisieren. Die hat man in Spielen aber nur zum Teil, andere Aufgaben sind sehr dynamisch.
Abgesehen davon hängt es neben der Programmierung auch von anderen Dingen ab. Im Idealfall macht das abarbeiten von Jobs/Threads die Hardware ganz allein, tatsächlich sind wir aber noch nicht so weit und OS, HW, API und die Engine müssen gut zusammenarbeiten. Das ist mühsam und verlangsamt den Prozess der Engine- Evolution.
Aber pauschal lässt es sich eben nicht sagen, kriegt man die Jobs in den Griff, läuft ein Spiel suf der Konsole halt mit 32, auf dem PC mit einer anderen Zahl von Threads.
Anno mag Kerne und Doom theoretisch auch.
ID waren sowieso damals mit die ersten, die 2 und 4 Threads supportet haben
 
Zuletzt bearbeitet:

RyzA

PCGH-Community-Veteran(in)
Der Artikel ist schwammig, das Gegenargument von Gruffi aber auch. Es erübrigt sich sowieso jegliche Diskussion, weil letztlich die Ausrichtung eines - sagen wir "vollwertigen" 16 Kerners, etwas anderes ist als ein 8+8 Kerner oder bei Raptor 8+16 (gegen den sich Zen 4 ja zuerst mal stämmen muss).
Und ob Performance-oder E Cores ist dann auch wieder eine Glaubensfrage. Wenn die E-Cores ja Skylake-ähnliche IPC abrufen können, ist diese ja immer noch auf sehr hohem Niveau (wenngleich bei 3Ghz hier es eben am C in IPC fehlt).
Intel hat jetzt mehr Leistung pro P-Core deswegen sind die schneller als AMD.
 

wuselsurfer

Kokü-Junkie (m/w)
Ok du hast, die waren nur sehr lahmarschig.
Lahmarschig?

Die PS3 galt als Embargo-Hardware und durfte nicht in den Ostblock geliefert werden wegen ihrer hohen Rechenleistung:
Der Cell-Broadband-Engine-Prozessor der PlayStation 3 erreicht eine theoretische Rechenleistung von 230,4 Giga-FLOPS, was rein rechnerisch die Rechenkapazität der von Microsoft entwickelten Xbox 360 um mehr als das Doppelte übertrifft.[75]

Nur das Fehlen der doppelten Genauigkeit der SPEs hat den damaligen vorderen Platz im Linpack verhindert.
Sonst wäre die PS3 lange der schnellste kaufbare Computer überhaupt gewesen.
 

Ripcord

BIOS-Overclocker(in)
Irgendwas stimmt da nicht, den jeder hat das bestätigt, dass die Xbox360 schneller gewesen ist.
Die GPU der 360 war auf jeden fall moderner und konnte mehr Speicher nutzen was am Ende für eine bessere Optik auf dem Bildschirm ausschlaggebend war. Leider mangelte es MS damals wie heute an Entwicklerstudios welche die Hardware der Konsole mit Exklusivtiteln bis an das Maximum ausnutzen konnten. Spiele die auf beiden Systemen erschienen sind liefen auf der 360 aber durchgehend besser. Die PS3 kam leider verspätet auf den Markt und nutze noch eine GPU der Geforce 7 Serie. Als die PS3 dann mal raus kam gab es schon die Geforce 8 mit der die PS3 die 360 hinter sich gelassen hätte.
 
Zuletzt bearbeitet:

lucky1levin

Software-Overclocker(in)
Die GPU der 360 war auf jeden fall besser und hatte mehr Speicher was am Ende für eine bessere Optik auf dem Bildschirm ausschlaggebend war.
Ja, hab ich soeben nachgelesen da nicht mehr sicher gewesen bin.

PS3 hat beim Chip Tatsächlich doppelte Leistung aber bei der GPU dafür langsamer.

Letzendlich umentschieden.

Aus Technischer seite.

Aber da GPU wichtiger ist, sehe ich die 360 vorne.
 

gruffi

PC-Selbstbauer(in)
Die "paar Spareffekte" in der Theorie haben manchmal mit der Praxis wenig zu tun.
Es gibt trotzdem offizielle Aussagen und Folien von AMD, die was anderes als "ein paar Spareffekte" nahelegen. Warum hält der Autor sich nicht einfach an diese Infos, anstatt so abwertend zu schreiben? Klar, man muss offiziellen Aussagen nicht glauben. Andere Sachen nimmt der Autor aber auch für bare Münze, wie den angeblichen DDR4 Support. Der nicht mal von offizieller Seite bestätigt wurde, sondern nur den Andeutungen irgendwelcher Leaker entstammt. Das hat wenig mit sachlicher Berichterstattung zu tun. Wie die Praxis ausschaut, ist eh ein völlig anderes Thema. Dem kann man sich dann widmen, wenn die Teile auf dem Markt sind und ausgiebig getestet werden können.

Mit "Auf Augenhöhe" war vielleicht nicht genau 16 Kerne @ 5 Ghz gemeint, sondern eben, dass man nun auf ca 5Ghz liege mit den meisten oder allen Cores. Der Wischiwaschiartikel ist halt hier wirklich nur ein zusammengeklaube an bedeutungsschwangeren Phrasen mit wenig dahinter.
Wenn es wirklich nur um 5 GHz geht, dann kann der Autor das auch weglassen. Das hat Null Informationsgehalt. 5 GHz erreicht auch der Ryzen 6000 schon.


liest du dir auch noch mal durch was du gerade geschrieben hast oder sprudelt das so (emotional) ungefiltert aus dir raus, denn das sieht mit bspw. "schlichtweg Lügen" usw. schon nach recht .... na, ich sag's mal besser nicht.
Oder anders formuliert, du kannst mir also keinen Intel 16-Kerner mit 5 GHz All Core zeigen. Hatte auch nichts anderes erwartet. Damit bestätigst du meine Kritik.

a) Der Mehrverbrauch ist durchaus schon ungewöhnlich und nicht unbedingt zu erwarten gewesen, denn beim Wechsel auf 5 nm sollte man eigentlich die Power Savings des neuen Prozesses mitnehmen können und die sind ja durchaus auch nicht gerade klein. Insofern durchaus legitim, dass der Autor hier eine unerwartete Entwicklung oder gar einen Widerspruch aufzuzeigen versucht.
Irrelevant. "Ein paar Spareffekte" ist trotzdem abwertend formuliert und entspricht nicht den offiziellen Infos. Es ist zudem seit geraumer Zeit bekannt, auch wiederum aus offiziellen Unterlagen, dass AM5 höhere TDPs unterstützt als AM4. Man konnte auch damit rechnen, dass AMD mit mehr Spielraum für die neue Plattform plant. Geschuldet der Konkurrenz, die eine viel höhere Leistungsaufnahme schon seit einigen Generationen erlaubt. Es gibt also keinen Grund, hier irgendwas als "unerwartete Entwicklung" hinstellen zu wollen. Deine Aussage ergibt keinen Sinn.

b) Die unspezifizierten Aussage "ein paar Spareffekte" ist durchaus ok, denn der Autor kann die potentiellen Sparmöglichkeiten nicht beziffern, wie konkret übrigens keiner (deine eigenen Angaben oben sind übrigens ebenso aus der Luft gegriffen).
Falsch und falsch. Weder ist die Aussage okay, noch greife ich was aus der Luft. Ich halte mich an Fakten oder zumindest an offizielle Aussagen. Solltest du auch mal versuchen. ;)

Darüber hinaus, weder weiß man welchen Node AMD genau verwenden wird, noch weiß man welche Art Implementation man gewählt hat. Und zum Schluss kommt man für ein derartiges hochtaktendes High-Power-Design auch nicht wirklich mit TSMCs eigenen Vergleichsangaben aus, da die ihrerseits nur optimale, maximal mögliche Power Savings skizzieren.
Du scheinst echt Null Ahnung von dem Thema zu haben. Bist aber trotzdem der Meinung, mitreden zu können. 🤦‍♂AMD hat genügend Material auf der CES gezeigt. Schau dir das doch erst mal an, bevor du hier noch mehr Käse von dir gibst. Das hätte der Autor übrigens auch machen können bzw sollen.

Und was soll an dem letzten Teil "scheint die lieber in Performance stecken zu wollen" falsch sein
Wo hab ich denn geschrieben, dass es falsch sein soll? Du hast echt arge Verständnisprobleme. Ich sagte, dass es sich wie ein Vorwurf liest. Und dafür gibt es überhaupt keinen Grund. Ein berechtigter Grund wäre es nur dann, wenn AMD alle TDP Klassen angehoben hätte. Das ist aber nicht der Fall. Man wird nach unten hin die gleichen TDP Klassen verwenden und dann auch die vollen Effizienzverbesserungen sehen können. Nach oben hin hat man einfach nur zusätzliche TDP Klassen eingeführt für mehr Spielraum. Das ist alles. Zumal News immer möglich neutral gehalten werden sollten. Davon kann hier aber nun wirklich keine Rede sein.
 

TrueRomance

Lötkolbengott/-göttin
spiele skalieren nicht über noch mehr kerne.
Das ist schlicht falsch. Hättest Du geschrieben "die meisten Spiele" wäre es akzeptabel. Pauschalisierungen haben keine Allgemeingültigkeit. Deine Aussage wird aber nun schon seit vielen Jahren immer wieder gepostet und am Ende wird sie dadurch nicht richtig. Beispiel ist zum Beispiel Battlefield.

Klar reichen 8 Kerne
diese Aussage ist absolut richtig. Den meisten reichen sogar 6 Kerne. Das ist halt ein individueller Faktor. Definitiv benötigen die wenigsten zum Zocken mehr als 8 Kerne.

Das ist Tatsache. Siehe über dir.
Erste Wahl in den Verkaufscharts bedeutet aber nicht, dass Spiele nicht mit mehr als 8 Kernen skalieren können.
 

MHoppe

Komplett-PC-Käufer(in)
Schade das das wieder losgeht mit der höher, weiter, länger Mentalität. Die bisherige Leistungsaufnahme war gut handlebar und schon nicht gerade Nähe des Sweetspots. Manchmal glaube ich wirklich Energie ist auf der Welt viel zu billig...
 

Rollora

Kokü-Junkie (m/w)
Intel hat jetzt mehr Leistung pro P-Core deswegen sind die schneller als AMD.
ja mag sein. Das ist aber alles relativ und hängt vom Betrachtungswinkel ab. Spiele ja, anderes: zum Teil. Bei gleichen Verbrauch? nicht unbedingt. Dann ist das AMD Design teilweise besser.
Preis/Leistung? Gibts von Intel vor allem unter 200 oft die besten Angebote
Pauschal ist keiner vorne oder hinten würde ich sagen
Das waren keine reinen achtkerner...das waren Module wie damals die AMD FX CPU's.

Da haben sich 2 kerne jemals die Aufgabe geteilt, ähnlich wie bei Intel die Virtuellen Kerne.
ähhh nein.
Davon abgesehen: egal wie umgesetzt, bringt es etwas auf mehr Threads hin zu verteilen.
Egal ob SMT, oder der Ansatz im Bulldozer. Die übrigens völlig unterschiedlich sind, auch wenn du sie in einen Topf wirfst
Lahmarschig?

Die PS3 galt als Embargo-Hardware und durfte nicht in den Ostblock geliefert werden wegen ihrer hohen Rechenleistung:


Nur das Fehlen der doppelten Genauigkeit der SPEs hat den damaligen vorderen Platz im Linpack verhindert.
Sonst wäre die PS3 lange der schnellste kaufbare Computer überhaupt gewesen.
war es auch, wir hatten sogar einen Supercomputer mit Cells
 
Zuletzt bearbeitet:

gerX7a

BIOS-Overclocker(in)
Es gibt trotzdem offizielle Aussagen und Folien von AMD [...]
Interessant, dass du dem Autor vorzuschreiben versuchts, was relevant ist und was nicht, sprich, eigentlich versuchst du ihn dir so zurechtzubiegen, dass er das sich grob abzeichenden Szenario doch möglichst genau aus deiner Sichtweise heraus darstellen möge. - Du erkennst hier schon das Probem, oder? ;-)

Und nein, die Verständnisprobleme sind offensichtlich weiterhin bei dir zu suchen, wenn man sich deine Erwartungshaltung vor Augen führt und dass es ja ein Unding zu sein scheint, dass die Berichterstattung nicht in deinem Sinne ausfällt. Entsprechend gibt es hier eine "Abwertung", einen "Vorwurf" und Ähnliches weitaus mehr in deiner Fantasie als in dem Artikel selbst. Wie schon erklärt, wenn du es unbedingtr negativ verstehen willst, vermutlich weil es dir nicht ausreichend positiv oder gar verherrlichend überzeichnet ist, dann ist das unverändert dein Problem und nicht das des Autors, insbsondere, da der hier mit derart viel ungesichertem Halbwissen hantieren muss. - Wo kommen nur immer dieser Beißreflexe her?

Zum Thema Ahnungslos: Mit scheint du hast eher ein Problem zwischen den vielen Gerüchten und sporadischen vagen Teasern seitens AMD im Gegensatz zu harten und gesicherten Fakten zu unterscheiden. AMD hält sich bzgl. Zen4 immer noch recht bedeckt. Das Nachlesen fällt dann erneut dir zu, der noch einmal evaluieren sollte, was er derzeit wirklich faktisch über Zen4 weiß und was derzeit alles eher in die Kategorien reine Spekulation bis Unbestätigt bis Unbestätigt aber zumindest Wahrscheinlich fällt.
Folgt man deiner naiven Argumentation und offensichtlichen Erwartungshaltung liest sich das eher, als wenn du deine persönliche Wunschliste gleich zu Fakten machst und darauf basierend zu argumentieren versuchst.
 

gruffi

PC-Selbstbauer(in)
Interessant, dass du dem Autor vorzuschreiben versuchts, was relevant ist und was nicht
Ich schreibe dem Autor gar nichts vor. Ich habe ihn auch mit keinem Wort persönlich angesprochen im Originalbeitrag. Es ging mir lediglich um den Inhalt. Ich sage zudem, dass es genügend Infomaterial gibt und man durchaus mal einen Blick darauf werfen kann, bevor man solche News verfasst und sich zu fragwürdigen Aussagen hinreissen lässt. Interessant ist eher, dass du dieses Infomaterial zu leugnen scheinst und stattdessen mit persönlichen Kleinkriegen abzulenken versucht. Sagt viel über deine Motive hier. Wie kann es jemand nur wagen, einen inhaltlich fragwürdigen Artikel zu kritisieren. ^^ Und nein, nur du hast Verständnisprobleme und Beissreflexe. Mein ursprünglicher Beitrag wurde 12 mal geliked. Offenbar bin nicht nur ich es, der Kritik durchaus berechtigt findet. Wie oft wurden deine persönlichen Anfeindungen hier geliked? Nimm mal deine Scheuklappen ab und lies dir erst mal alle offiziellen Infos zu Zen 4 durch. Ich kenne diese, du anscheinend nicht. Das Nachlesen ist also deine Aufgabe, nicht meine. Es gibt sehr wohl Fakten, auf die ich mich auch bezogen habe, und nicht nur "vages Teasern".
 
Oben Unten