Ryzen 7000: 16-Kerner schafft 5,5 GHz in Spielen ohne Overclocking

Ich bin sozusagen early Ryzen adopter und habs bis heute nicht bereut. Während Intel Jahrelang den Finger im Arsch hatte, hat AMD mal eben in wenigen Jahren einen Weltkonzern mit einem Zehntel der Belegschaft so ins straucheln gebracht, dass diese wenig bis gar nicht in der Lage waren zu kontern. Dieses Jahr ist das erste Jahr, wo es Intel mal geschafft hat, wieder was einigermaßen adäquates auf die Beine zu stellen und wird jetzt wieder abgeholt. So muss das auch sein, denn das ist Wettbewerb und jeder halbwegs intelligente User sollte froh sein, dass es AMD gibt.
Ohne BigLittle wäre Intel kaum ein Meter weiter. Ganz raus aus der Nummer sind die nicht. Abgekupfert haben die es aus dem Handymarkt, als Notnagel funktioniert es, wie lange wird sich zeigen. Könnte auch sein, das zwischen durch ne cpu entsteht, die Biglittle nicht benötigt. Der CEO kasper auf Steroiden wird bestimmt etwas raushauen das er vorher aus den 80er Actionfilmen adoptiert hat. Es bleibt spannend. Ring frei für Runde ZEN4. Trotz guter Konkurrenz kostet der 12900ks keine 499,- Intel ist da etwas OldSchool und fie Fans feiern es.
 
Was für eine Erbsenzählerei.
Will denn ernsthaft jemand bestreiten, dass in der CPU Entwicklung bei Intel mehr Geld investiert und mehr MA beschäftigt werden?

Ob das nun 10fach weiss wohl keiner hier, selbst wenn man Einblick hätte ist es ja schwer zu sagen wer zu welcher Sparte gehört wenn projektbasiert gearbeitet wird.

Warum all diesen Firmeninterna aber überhaupt wichtig sind um über Prozessoren zu reden weiss ich eh nicht. Ist do h kein Wirtschaftsforum hier, auch wenn es in letzter Zeit mehr und mehr so wirkt
Mich interessieren die Hintergründe und Zusammenhänge schon.
 
Da würde ich lieber eine Ryzen7000 mit 5GHz nehmen, der dafür aber mehr Cache hat, dies wäre für mich die viel bessere CPU.
Takt ist mir mittlerweile ziemlich egal, der 5800X3D hat ja erst kürzlich sehr deutlich aufgezeigt das nicht nur der Takt eine Rolle bei der Leistung spielt.
Punkto Takt kommt mir immer der FX9590 mit 5GHz auf, der vom 2600K mit 3,8GHz in Spielen geschlagen wurde, auf die IPC schauen leider nicht viele.
Die weniger informierte breite Masse schaut natürlich weiter auf den Takt, is klar, denn darauf wurden sie die Jahrzehnte durch die PR getrimmt, darauf setzen die beiden Hersteller auch weiter, sieht man aktuell zum Beispiel am 12900KS wo man weiterhin die Brechstange benutzen will um die eigene PR zu unterstützen, wenn dabei viele Nachteile entstehen sind das Kollateralschäden die in kauf genommen werden - denn Intel verwendet diese CPUs natürlich nicht :schief:

Bei den Ghz dachte ich an den P4; kommt aber unter dem Strich auf das gleiche raus.

Mich juckt ganz ehrlich nur das Endergebnis und das scheind von mehr als nur Mhz, Cache und Kernen abhänig zu sein.
 
Intel macht ein bisschen mehr als nur CPUs zu entwickeln und hat dementsprechend auch mehr Mitarbeiter.
Ach, ich vergaß, dass Intel andere Chips designt und seit 30 Jahren versucht im Grafikkartenmarkt Fuß zu fassen.

Ach du heilige Kuh, ich vergaß ganz, dass AMD dies ja auch tut! So ein Mist.

Im übrigen ist der Einwand mit der Fertigung schon korrekt, blöd nur, dass Intel 50.000 Mitarbeiter mehr hat als AMD und TSMC zusammen, was ausgehend von den Beiden Firmen wohl rund 70% mehr Mitarbeiter sind.
 
hm so hohen takt nur durch ner 280 Wasserkühlung.Bin gespannt wie es dann mit ner Luftkühlung aussieht.
Meine CPU nen Ryzen 9 5950x schafft bei 3.8 ghz 80 Grad bei Vollast.ALso ich habe da ne ANwendung die knallt ordentlich die Temps hoch und Stromverbrauch ist meist dann bei 142 Watt.Also wird ne harte tour bei 5 ghz.Wage ich zu bezweifeln.Wenn dann nur höchstens 4,6 ghz allcore,mehr halt nicht.WIrd nen nur kleines Plus werden,also lohnen wird sich das nicht,aber lasse andere kaufen und bei denen dann testen.WIrd interessant sein was dann so ne CPU so Leisten wird.
 
@Firesign du vergisst da aber was. Ryzen wäre ohne TSMC so nicht möglich gewesen, denn AMD entwirft nur CPUs und Intel fertigt dazu auch noch selbst. Das Problem bei Intel war nicht die Entwicklung der CPU, sondern die Halbleiterfertigung.
Intel konkurriert also mit TSMC und AMD, AMD aber nur mit Intel.
is schon unfair vor allem doof von AMD das sie ihren Mitstreiter-Fertiger abgestoßen haben. Sonst wäre es Fair.
Indes warte und wandle ich im 2 vs. 1 Verfahren mit meinen beiden Füßen über die einzige Erde..junge junge über 14 Milliarden Menschen Füße gegen die völlig allein da stehende Erde.
Und so viele Planenten und Sterne gegen nur Ein einziges bekanntes Universum, Frech frech Frech!
Treppensteigen... das ist meist Fair, 1 vs. 1 !
 
Ohne BigLittle wäre Intel kaum ein Meter weiter. Ganz raus aus der Nummer sind die nicht. Abgekupfert haben die es aus dem Handymarkt, als Notnagel funktioniert es, wie lange wird sich zeigen. Könnte auch sein, das zwischen durch ne cpu entsteht, die Biglittle nicht benötigt. Der CEO kasper auf Steroiden wird bestimmt etwas raushauen das er vorher aus den 80er Actionfilmen adoptiert hat. Es bleibt spannend. Ring frei für Runde ZEN4. Trotz guter Konkurrenz kostet der 12900ks keine 499,- Intel ist da etwas OldSchool und fie Fans feiern es.
Bist du so naiv oder meinst du tatsächlich dass einer der weltgrößten Halbleiterhersteller so einen no-brainer nicht selbst ausbrüten kann? Die viel wichtigere Frage in diesem Kontext ist ab wann es wirtschaftlich sinnvoll für sie ist so etwas umzusetzen oder ab wann man das tatsächlich zwingend braucht. Mit "Abkupfern" hat das nichts zu tun. Darüber hinaus mal nur als weiterführenden Gedanken, dass ARM sein big.LITTLE in 2011 vorstellte, während bspw. Intel seine Architekturen bereits in 2008 mit den Atom's teilte.
Als Ingenieur kommt man sehr schnell zu der Erkenntnis, dass ein konkretes Design bei spezifischen Bedingungen seinen optimalen Wirkungsgrad hat und dass bei einer extrem weiten Spanne an Einsatzzwecken mit sehr unterschiedlichen Bedingungen der Wirkungsgrad schnell abfällt. Das ist fast noch weniger als ein no-brainer. Die Frage ist nur ab welchem Grad es wirtschaftlich wird den Wirkungsgrad durch komplexere oder multiple Designs weiter zu verbessern. Auf dem Desktop/PC/Server bestand da lange Zeit weitaus weniger Druck als im Mobile-Markt.
Zudem hoffe ich nicht, dass du gar meinst, dass ARM das möglicherweise "erfunden" hat. ;-)
A critical question in multiprocessor-CPUs is the size and strength of the replicated (CPU-)core. Many server applications focus primarily on throughput per cost and power. Ideally, a multiprocessor-CPU targeted for these applications would use a large number of small low-power cores. Much of the initial research in multiprocessor-CPUs focused on these types of applications. However, desktop users are more interested in the performance of a single application or a few applications at a given time. A multiprocessor designed for desktop users would more likely be focused on a smaller number of larger, higher-power cores with better single-thread performance. How should designers choose between these conflicting requirements in core complexity?

In reality, application needs are not always so simply characterized, and many types of applications can benefit from either the speed of a large core or the efficiency of a small core at various points in their execution. Further, the best fit of application to processor can also be dependent on the system context — for example, whether a laptop is running off a battery or off wall power.
Thus, we believe the best choice in core complexity is "all of the above" — a heterogeneous multiprocessor with both high- and low-complexity cores. Recent research in heterogeneous, or asymmetric, multiprocessor-CPUs has identified significant advantages over homogeneous multiprocessor-CPUs in terms of power and throughput and in addressing the effects of Amdahl’s law on the performance of parallel applications.
Man könnte durchaus meinen, dass das ein Werbetext zu Intels Alder Lake (oder vielleicht Lakefield) ist. Den Text habe ich nur minimal verändert und die "multiprocessor-CPU" anstelle der damaligen Terminologie "chip multiprocessor (CMP)" eingesetzt. Konkret handelt es sich hier um einen Artikel in der IEEE vom November 2005 von Rakesh Kumar et al. der zudem auch noch frühere Arbeiten referenziert. ;-)

Btw ... kupfert AMD jetzt auch stumpf ab mit Zen4c, nur weil Genoa mit regulärem Zen4 keine reelle Chance gegen die aktuelleren ARM-Cloud-Server-CPUs haben wird? Oder ist das bei AMD in diesem Falle als genialer Einfallsreichtum zu werten? ;-) Und dass Zen5 angeblich ebenso in einigen Produkten mit kleinen Kernen gepaart werden soll?

Darüber hinaus kannst du davon ausgehen, dass es nach der Implementation der ersten heterogenen Designs auf dem PC bzw. x86 nun keinen Weg zurück mehr geben wird (wobei konkrete Einsatzszwecke sowie wirtschaftliche Faktoren bestimmen werden ob es homogene, heterogene oder gar beide Produktarten in einem konkreten Marktsegment geben wird), d. h. bspw. Intel's Hybrid Technology wird in der Form zweifellos recht lange bestehen bis vielleicht was gänzlich Neues irgendwann kommen wird und in der Zwischenzeit wird AMD gezwungen sein nachzuziehen, weil sie ansonsten nicht mithalten können werden.
Im Augenblick spielt Intel dieses Design in Verbindung mit der so spät zu verwendenden und leidgeplagten Intel 7-Fertigung (vormals "10nm") zusätzlich in die Hände. Wenn jedoch die Fertigungsunterschiede nivelliert wurden und das wird bereits in absehbarer Zeit geschehen, wir bei ansonsten gleichwertigen Produkten das heterogene Design über klare Vorteile verfügen weil es sich deutlich flexibler auf die breite Spanne an Workloads in bspw. dem Office/Consumer-Markt einstellen kann.
(Übrigens auf den gleichen Optimierungsdruck sind die mittlerweile vielen unterschiedlichen Ausführungseinheiten in einem heutigen Rechenkern zurückzuführen. Unterschiedliche Workloads bedürfen für einen effizienten Betrieb unterschiedlicher Ausführungseinheiten und ab einer gewissen Marktsituation wird es wirtschaftlich sinnvoll sein diesen Mehraufwand in der Entwicklung und Implementation zu betreiben um eine signifikante Weiterentwicklung gewährleisten und sich hoffenlich einen kompetetiven Vorteil erarbeiten zu können.)

Abschließend noch die Bemerkung, dass dir Marktmechanismen, Preisfindung und die Ziele der Marktteilnehmer anscheinend weitestgehend fremd zu sein scheinen.
Warum sollte Intel seine HighEnd-CPUs unnötigerweise für einen niedrigeren Preis verkaufen? Die sind an Umsatz und Gewinn interessiert ... übrigens in exakt der gleichen Art und Weise wie AMD. Der wesentliche Unterschied ist hier lediglich, dass der Markt AMDs Produkte (derzeit) zu derart hohen Preisen nicht abnimmt und dementsprechend muss hier AMD zwangsweise mit günstigeren Produkten aufwarten. Das hat nichts mit Oldscool oder durchgeknallten Fans zu tun, sondern schlicht mit der (sich aus der Historie) entwickelten, aktuellen Marktsituation.
Und btw, AMD wird nicht umsonst von Generation zu Generation teuerer bei seinen Produkten und die sind noch längst nicht dort angekommen wo sie hinwollen. L.Su hatte nicht umsonst den Investoren Anfang 2020 noch eine weitaus höhere Marge versproche und du kannst dir sicher sein, dass TSMC zweifellos nicht dafür aufkommen wird. ;-)
 
Zuletzt bearbeitet:
Wohl eher Goodbye AMD. Man konnte mit ZEN4 nicht mal Alder Lake im Single Core CB schlagen.
Raptor Lake wird demnach mit AMD in CB den Boden aufwischen.
Ich wünsche weiterhin viel Spaß beim CB spielen. ?

muss jeder PC-Gamer einen reinen AMD-Rechner haben
Das ist ja Quatsch. Wer schreibt das vor? Ich hoffe, dass Intel, AMD und Nvidia weiter um den längsten Balken kämpfen. Alles andere ist schlecht für meinen Geldbeutel.
 
16 Kerne @ über 5 Ghz lachen mich halt auch schon mehr an als 8+8 (bigLITTLE) oder 8+16. Aber das ist Oldschool-Denken, das ich irgendwann ablegen muss ;)
Noch lieber wären mir wenn schon dann schon 16+16, aber das kommt wohl erst
 
Mich interessieren die Hintergründe und Zusammenhänge schon.
Will ich dir nicht absprechen. Gehört aber eher weniger zum Hardware Thema, für solche Gespräche würde ich es lieber sehen wenn die Leute in BWL Foren gehen.
Zumal ich ja nichts sagen würde, wenn es mal Thema ist. Es scheint aber zum Hauptthema zu avancieren.
 
16 Kerne @ über 5 Ghz lachen mich halt auch schon mehr an als 8+8 (bigLITTLE) oder 8+16. Aber das ist Oldschool-Denken, das ich irgendwann ablegen muss
Ich sehe darin kein überholtes denken, sondern relevante Fragen. Die Tage habe ich mir auch überlegt was wohl besser wäre, ich kam FÜR MICH zu dem Entschluss das diese kleinen E Kerne nichts für mich sind. Primär deswegen weil einige Sicherheitssysteme bei Spielen es als zweite CPU wahrnehmen, es dadurch zu Problemen kommen kann, aber auch weil ich sorge habe das Spiele die E Kerne anstatt die P Kerne nutzen, vor allem ältere Spiele - wovon ich nicht wenige habe.

@JoM79 und @seahawk
Lasst dieses "Troll" Gelaber lieber sein, sonst weckt ihr einen Mod aus seinem Schönheitsschlaf auf, ich würde das Wort lieber löschen, sonst gibts wohl ärger...
 
16 Kerne @ über 5 Ghz lachen mich halt auch schon mehr an als 8+8 (bigLITTLE) oder 8+16. Aber das ist Oldschool-Denken, das ich irgendwann ablegen muss ;)
Noch lieber wären mir wenn schon dann schon 16+16, aber das kommt wohl erst
Ich glaube Big/Little macht nur wirklich Sinn in Notebooks.
Wenn man zockt usw kann man sich die E-Cores sparen.
 
Das wird mal wieder sehr spannend. Ich finde die aktuelle AMD/Intel CPU's schon echt geil. Mich juckt es ständig meinen I5 10400f gegen einen 5800x/5700x/12600k zu tauschen. Denke aber warten lohnt sich definitiv auf die nächsten GEN. Letztlich brauch ich auch nix da ich eh zu 100%im gpu (3060ti) Limit zocke. Aber reizen tut es dennoch. ;-)
Intel+Amd machen seid Ryzen und intel 10. Gen wieder einen wirklich guten Job mit Konkurrenz Produkten auf Augenhöhe. Super für uns PC Gamer. Nur GPU'S sind ein totales Desaster. Preise im Weltall, 8GB Vram bei Nvidia für fast 1000€ Karten. Da kommen einem die Trauertränen.
 
Wobei ältere Spiele mit den E-Cores eigentlich völlig ausreichend versorgt sind. Die liefern ja immer noch Leistung auf Höhe eines Intel 6000 oder 7000, also irgendwo im Bereich von dem was 2016-2017 top war.

Ich bin Fan der E-Core-Idee, weil sie den Verbrauch bei geringer Last drücken und auch weil es sehr wenig Software gibt, die mehr als 4 Kerne wirklich ausnutzen kann.

Klar für eine Renderstation ist das was anderes, aber hier stellt sich langsam auch die Frage ob man nicht das Verfahren der CPU Tests nicht neu denken muss.

Für einen Großteil der Heimanwender hat Cinebench oder Blender null Relevanz, während der Stromverbrauch beim Surfen oder beim Videoschauen durchaus relevant ist. Und selbst die allermeisten Spiele brauchen nicht mehr als 4 Performancecores. Was dann noch an Threads übrig bleibt, das können die E-Cores locker.

Für mich gilt bei CPU und GPU, dass hier eher Dinge wie immer weiter steigende Powerlimits zu diskutieren sind, als die Unterschiede in der Balkenlänge.
 
Zuletzt bearbeitet:
@JoM79 und @seahawk
Lasst dieses "Troll" Gelaber lieber sein, sonst weckt ihr einen Mod aus seinem Schönheitsschlaf auf, ich würde das Wort lieber löschen, sonst gibts wohl ärger...
Ich wusste vorher, dass das gelöscht wird.
Du weisst doch, trollen ist erlaubt, aber den Troll als solchen bezeichnen nicht.:schief:

Aber btt.
Mal gucken was am Ende wirklich rumkommt an Takt.
Momentan sieht es eher so aus, als wenn Zen nicht mehr so viel hergibt und der Takt es richten soll.
 
Zuletzt bearbeitet:
Mitlerweile schon denke ich. 6-8 Kerne sind heute doch Standard.
Ich kenne kein Spiel, dass mehr als 3-4 Hochlastthreads hat. Klar nutzen heutige Spiele durchaus mehr Threads, aber die Nebenthreads arbeiten auch die E-Core gut ab.

Schon rein von der Funktionalität eines Spiels werden wir nie eine Parallelität wie bei einem Renderer erreichen. Am Ende wird es immer einen Mainthread geben, der auf die Eingaben des Spielers reagiert.
 
Zurück