News Core Ultra 200: Geleakte Intel-Folien sorgen für gemischte Gefühle bei der Gaming-Leistung

Der Sweet Spot für Silizium liegt bei 3...4 GHz, alles über 4 GHz ist Overclocking.
Und das hast du grade für dich selber definiert und für den Rest der Mesnchheit als gültig erklärt?

Warum nicht gleich 2 GHz oder noch weniger - das ist noch sweeter und noch effizienter als 3 GHz (vergleiche auch Basistakt von T, H, U,... Modellen)?

Ich kann mich noch gut an die ct-Artikel erinnern, wo drin stand, dass sich unter 50% Mehrleistung ein CPU Upgrade nicht lohnt, weil man das in der Praxis eh nicht spürt.
Das hat für den normalsterblichen Nutzer ohne speziellen Workload bis heute nicht an Richtigkeit verloren. Für einen normalen Spieler ohne Highend-Hardware der nahezu immer im GPU-Limit hängt ists noch "schlimmer", da hier eine CPU selbst wenn sie doppelt so schnell ist ggf. Null Auswirkungen auf die Gesamtperformance haben kann.
Andersrum kann eine CPU auch wenn sie nur 30% schneller ist als die ersetzte bei jemandem, der zeitkritische Arbeiten hat und damit Geld verdient am Tag 2,5 Stunden mehr effektive Arbeitszeit bedeuten (was die CPU bei einem 8h-Task früher fertig wäre).

Es gibt bei den ganzen Geschichten einfach keine Pauschalen Aussagen die für alle gelten. Weder was den Takt angeht, noch zu irgendeiner "Konvergenz" oder zu wie viel Mehrleistung sich "lohnt".

Das einzige, was man zweifellos schreiben kann ist, dass die effektiven Performancesprünge pro Zeiteinheit natürlich heutzutage kleiner ausfallen als vor 20 Jahren einfach weil alles was es an "low-hanging-fruits" gegeben hat schon lange abgeerntet ist.
 
Was dann (nach igorslab) in einem Verbrauch von 40W enden würde, denn der 14900k braucht im Schnitt 120W, ein 9950X liegt bei 100W und ein (dann wohl schnellerer) 7800X3D liegt bei 60W. Glaubt da wer dran?
ob es stimmt kann ich dir natürlich nicht sagen, wenn das teil raus ist und die datenblätter vorliegen sieht es schon anders aus, erst recht wenn sich dann leute dran machen und den kram testen.
Und das hast du grade für dich selber definiert und für den Rest der Mesnchheit als gültig erklärt?

Warum nicht gleich 2 GHz oder noch weniger - das ist noch sweeter und noch effizienter als 3 GHz (vergleiche auch Basistakt von T, H, U,... Modellen)?


Das hat für den normalsterblichen Nutzer ohne speziellen Workload bis heute nicht an Richtigkeit verloren. Für einen normalen Spieler ohne Highend-Hardware der nahezu immer im GPU-Limit hängt ists noch "schlimmer", da hier eine CPU selbst wenn sie doppelt so schnell ist ggf. Null Auswirkungen auf die Gesamtperformance haben kann.
Andersrum kann eine CPU auch wenn sie nur 30% schneller ist als die ersetzte bei jemandem, der zeitkritische Arbeiten hat und damit Geld verdient am Tag 2,5 Stunden mehr effektive Arbeitszeit bedeuten (was die CPU bei einem 8h-Task früher fertig wäre).

Es gibt bei den ganzen Geschichten einfach keine Pauschalen Aussagen die für alle gelten. Weder was den Takt angeht, noch zu irgendeiner "Konvergenz" oder zu wie viel Mehrleistung sich "lohnt".

Das einzige, was man zweifellos schreiben kann ist, dass die effektiven Performancesprünge pro Zeiteinheit natürlich heutzutage kleiner ausfallen als vor 20 Jahren einfach weil alles was es an "low-hanging-fruits" gegeben hat schon lange abgeerntet ist.
du hast sowas von recht! wie fast immer :P
ich denke auch das es sehr individuell ist wann man was aufrüstet, da spielen einfach sehr viele persönliche faktoren eine rolle.

sieht man ja auch deutlich an mir selber, ich habe eine zotac gtx 1660 super amp, die befeuert einen monitor mit 5120x1440 auf 120hz. die meisten würden sagen das dies nicht geht und sie haben nicht unrecht. es hängt vom individuellen nutzungsprofil ab. ich mag sachen wie uboat, heats of iron 4 oder space engineers. alle genannten spiele funktionieren und der desktop kann sowieso berechnet werden. jemand der cod, cyberpunk und battlefield spielt würde sicherlich abkotzen.
 
Zuletzt bearbeitet:
Sach Mal was für ein Gras raucht ihr denn?

Die CPUs liegen irgendwo im Spitzenfeld beim Zocken und ihr tut so als könnte man damit maximal WordPad und Paint bedienen? :D
Nur gutes aus kontrolliertem Anbau und Du so?

Kann Dir schon sagen wo die CPUs im Spitzenfeld liegen. Ganz oben im Spitzenfeld bei Kaufpreis, Strombedarf und ja bei Leistung sind sie so halbwegs mit dabei.
Aber das ist doch das Problem:

Was spricht denn für nen Intel zum daddln (angesehen von sehr spezifischen Szenarien die <1% betreffen), wenn
1. Preis höher ist
2. Energieverbrauch höher ist
3. Leistung geringer ist
als bei AMDs alter - wohlgemerkt alter - gen mit X3D, von der neuen gen brauchen wir noch nicht mal zu sprechen.

Das kann man sich auch mit Gras nicht mehr schönrauchen.
 
Und das hast du grade für dich selber definiert und für den Rest der Menschheit als gültig erklärt?

Nö, das hat Mutter Natur (oder Vater Physik?) so festgelegt. :ugly:

"Sweet Spot" ist der Maximalwert von "Performance pro Watt". Und der liegt seit fast 10 Jahren irgendwo zwischen 3 und 4 GHz. Wie Du selbst sagst, kann man das prima an den Basistakten und E-Cores ablesen.

Und wenn man noch mehr runter muss, weil die drölfzig Kerne sonst die TDP sprengen, kommen halt nur 1,x bis 2,x GHz raus, wie bei einigen T-Modellen.

Turbo ist Overclocking. Basistakt über 4 GHz? Klar, die Pentium Gold können das... als Zweikerner mit 58W. Ich hab hier noch einen 6700K in Betrieb mit 4 Kernen, 4 GHz Basistakt und 95W... von 2015.

Nochmal 9 Jahre früher... 2006... ist Intel von 4 GHz Netburst auf 2,x GHz Core2 gewechselt, weil sie da auch am Anschlag waren. Aber da war der IPC-Vorteil von Core2 so groß, dass sie selbst bei halbem Takt mit Netburst (und AMDs K8) den Fußboden gewischt haben.

Genau sowas wäre wieder fällig, aber die Architekturen sind inzwischen so gut optimiert, dass da nicht mehr viel rauszuholen ist.

AMD kann sich dank der Effizienz zwar Basistakte über 4 GHz erlauben, dreht dafür aber auch stärker an der Leistungsaufnahme. Wenn die TDP unter 90W liegen soll, müssen sie auch wieder unter 4 GHz... was sie mit dem 9600X und 9700X auch gemacht haben, worauf es von allen Seiten Schelte gab.
 
"Sweet Spot" ist der Maximalwert von "Performance pro Watt". Und der liegt seit fast 10 Jahren irgendwo zwischen 3 und 4 GHz.
Dazu hätte ich bitte gerne eine Quelle (besser eine von heute und eine von vor 10 Jahren).
Insbesondere, dass der Maximalwert von Performance pro Watt bei 3,5 GHz ist und nicht deutlich unter 3. ;-)

Tipp: Unterscheide auch zwischen Chiplet-CPUs wie einem Ryzen (wo deine Theorie aufgrund des hohen Idleverbrauches tatsächlich hinkommt):
1728461733662.png


...und monolithischen Chips bei denen dein Sweetspot WEIT unter 3 GHz liegt:
1728461775544.png


Eine Pauschalaussage mit "3-4 GHz" ist einfach Quatsch.
 
Zuletzt bearbeitet:
"Sweet Spot" ist der Maximalwert von "Performance pro Watt". Und der liegt seit fast 10 Jahren irgendwo zwischen 3 und 4 GHz. Wie Du selbst sagst, kann man das prima an den Basistakten und E-Cores ablesen.
Das liegt doch aber an der Architektur und am Fertigungsprozess. Die genannten 4 Ghz sind beispielsweise für Broadwell-E aus 2016 nämlich bereits die "Kotzgrenze", weil der damals neue Fertigungsprozess problematisch war.
 
ob es stimmt kann ich dir natürlich nicht sagen, wenn das teil raus ist und die datenblätter vorliegen sieht es schon anders aus, erst recht wenn sich dann leute dran machen und den kram testen.
Es stimmt nicht! Soviel kann ich verraten ohne einen Test zu sehen, eine Effizienzsteigerung von 300% wird es nicht geben; innerhalb von ein, zwei Gens (die man hier ja sehen kann) wird dies immer so um die maximal 30-40% liegen; selbst das wäre ja schon enorm!
Da war so ein 14900K mit 330W schon eine andere Hausnummer. Davon 80W abziehen sind halt immer noch recht viel, und dafür hat die CPU dann halt auch weniger Gaming Leistung als ein 14900K.
Wann zieht ein 14900K denn 330W im Gaming?
Die fetten Jahre sind vorbei. Daher bin ich auch noch am Zweifeln, ob ich meinen 5800X3D gegen einen 9800X3D tauschen werde.
Kommt in meinen Augen stark drauf an, wofür so ein Chip gebraucht wird. AMD bspw. packt im Serverbereich sukzessive mehr Kerne in den Chip und wird in nun zwei Gens von 64 Kernen auf 128 Kerne upgraden, dazu mehr IPC, mehr Takt und du hast deutlich mehr als das doppelte an Leistung, würde mal (ohne nachzuschauen) auf die dreifache Leistung je CPU (nicht je Kern) kommen!

Im Desktop dagegen sehe ich keine riesigen IPC Gewinne mehr kommen, da wird man mit der Fertigung wachsen und 10-15% je Gen halte ich schon für optimistisch. Evtl. wird es nochmal Sprünge geben, wenn man (wie Intel aktuell) einen großen Sprung in der Fertigung macht, aber sonst wird es hier eher homäopatische Dosen geben und man wird eben immer wieder Effizienzsteigerungen sehen, die aber von der minmalen Mehrleistung gefressen werden, da man lieber AllIn geht.

Aber am Ende stellt sich doch ohnehin die Frage, wie oft braucht man ein Update und hier ist es ja gar viel schlimmer, denn am Ende begrenzt in nahezu allen reel anzutreffenden Szenarien zuerst die GPU, selbst eine 4090 liegt bei typischen SetUps eigentlich immer im GPU Limit, also wofür noch mehr CPU Leistung? Damit man bei den 0,1% Percentilen 1FPS mehr hat?
 
Nur gutes aus kontrolliertem Anbau und Du so?

Kann Dir schon sagen wo die CPUs im Spitzenfeld liegen. Ganz oben im Spitzenfeld bei Kaufpreis, Strombedarf und ja bei Leistung sind sie so halbwegs mit dabei.
Aber das ist doch das Problem:

Was spricht denn für nen Intel zum daddln (angesehen von sehr spezifischen Szenarien die <1% betreffen), wenn
1. Preis höher ist
2. Energieverbrauch höher ist
3. Leistung geringer ist
als bei AMDs alter - wohlgemerkt alter - gen mit X3D, von der neuen gen brauchen wir noch nicht mal zu sprechen.

Das kann man sich auch mit Gras nicht mehr schönrauchen.
Naja, er hat Kyuss im Namen, da erwarte ich, wenn schon kein gutes Gras, dann wenigstens viel. ;)

btt: Aktuell wird es AM5, wollte schon früher wechseln aber da kam was dazwischen (ausserdem brauche ich ein spezielles MB für mein usecase, danke nochmal für die Hilfe!). Mein 10900k war schon ne knappe Entscheidung pro Intel, und im Nachhinein wäre ich mit AM4 wahrscheinlich glücklicher geworden.

Ich warte ohnehin erstmal ab was die Tests nach Release so zeigen, und was den Preis angeht. Aktuell liegen alle CPU+MB+RAM Optionen beider Lagèr außerhalb der Range in der es sich P/L für mich lohnt.
 
Eine Pauschalaussage mit "3-4 GHz" ist einfach Quatsch.

Pauschalaussagen sind immer problematisch, also drücke ich es mal so aus (um zum eigentlichen Kernthema zurückzukommen):

Ich wette, wenn Elder Scrolls 6 rauskommt, werden Basis- und Turbotakte in den einzelnen Leistungs-/Preisklassen immer noch im gleichen Bereich wie heute (mit einem Plus von vielleicht 500 MHz) liegen.

Einen großen Architektur-Leistungssprung wird es nur geben, wenn der Ram wie bei Apple mit in die CPU wandert.

Ansonsten könnte man noch auf Galliumarsenid hoffen oder rein optische Chips, die aber auch seit Ewigkeiten nicht aus den Forschungslabors rauskommen.
 
Ja.

Der Sweet Spot für Silizium liegt bei 3...4 GHz, alles über 4 GHz ist Overclocking. Ob das Overclocking jetzt vom CPU-Hersteller, von Mainboard oder vom User kommt, ist egal.

Intel musste aus Marketinggründen immer extremer an der Taktschraube drehen, bis sie mit 13th und 14th gen den Bogen endgültig überspannt haben. Deswegen müssen sie jetzt zurückrudern, selbst wenn die Architekturverbesserungen die Taktverringerung nicht vollständig abfangen können.

Und AMD steht vor dem gleichen Problem. Zen hatte diverse Kinderkrankheiten, die Zen 2 und Zen 3 ausgebügelt haben. Deswegen sind die 3000er und 5000er eingeschlagen wie Bombe. Es hat spürbare Verbesserungen gegeben.

Aber damit war Zen soweit optimiert, dass Zen 4 und Zen 5 nur noch bescheidene Verbesserungen bringen. Und prompt jammern alle rum und fordern, dass AMD den Weg von Intel geht und 60% mehr Verbrauch für 15% mehr Leistung freischaltet... :wall:




Aber halt nur 62% Mehrleistung nach 10 Jahren. Das hatten wir mal alle 18 Monate. Ich kann mich noch gut an die ct-Artikel erinnern, wo drin stand, dass sich unter 50% Mehrleistung ein CPU Upgrade nicht lohnt, weil man das in der Praxis eh nicht spürt.

Die fetten Jahre sind vorbei. Daher bin ich auch noch am Zweifeln, ob ich meinen 5800X3D gegen einen 9800X3D tauschen werde.
Tu es nicht! Ich hab hier den 7800X3D noch auf der Testbench rumstehen, um ihn in mein Mainrigg mit 5900x einzubauen.

Aber weil alle Tests die ich gefahren habe zeigen: Kein Unterschied bei HD high Settings. (Bevor jemand jammert: Von 128 auf 136FPS ist für mich kein (relevanter) praktischer Unterschied).

Scheue ich echt den Aufwand von 2-4 Stunden!

Ich spiele meist in 1440 oder 4k high auf ner 7900XT. Da merkst du von so nem CPU Upgrade gerade 0.
 
Ein 7800X3D benötigt halt nur 50-70W bei 100% CPU auslastung beim Zocken. Mit Undervolting gar 40W.
Mein 5800X3D kann auch nicht mehr als 56W ziehen bei 100% CPU Last beim Zocken.

Das ist aber die TDP ! Und nicht die PPT die hier angezeigt wird bei der CPU.
Der wahre Verbrauch der CPU ist Faktor 1,35 höher. AMD schummelt hier großartig, bei den Verbrauchsanzeigen. Bei 56W TDP (thermische Energie) ist der Verbrauch der CPU 75W (elektrische Energie).
 
Zuletzt bearbeitet:
Aber halt nur 62% Mehrleistung nach 10 Jahren. Das hatten wir mal alle 18 Monate. Ich kann mich noch gut an die ct-Artikel erinnern, wo drin stand, dass sich unter 50% Mehrleistung ein CPU Upgrade nicht lohnt, weil man das in der Praxis eh nicht spürt.
Es sind halt aber nicht nur 62% Mehrleistung. In 2015, der beste Desktop Prozessor war ein Intel i7 6700K. Der hat in Cinebench R23 einen ST Score von knapp 1200, und einen MT Score von 5600.

Ein 14900K schafft 2300 mit einem Kern und 38000 mit allen Kernen. Das sind also knapp 100% Mehrleistung auf einem Kern, und ein Faktor 6 wenn alle Kerne ausgelastet werden.
Die fetten Jahre sind vorbei. Daher bin ich auch noch am Zweifeln, ob ich meinen 5800X3D gegen einen 9800X3D tauschen werde.
Jo, das macht ja auch Sinn, der 5800X3D ist ja noch nichtmal drei Jahre alt, geschweige denn zehn.

Mal davon abgesehen, dass für die meisten Spiele ein GPU Upgrade deutlich mehr bringt als die CPU.
 
Ich erwarte hier ehrlich gesagt nicht sonderlich viel. Da sind die neuen X3D deutlich spannender. Wobei ich im allgemeinen derzeit keinen Aufrüstdruck verspüre in dem Bereich.
 
Dazu hätte ich bitte gerne eine Quelle (besser eine von heute und eine von vor 10 Jahren).
Insbesondere, dass der Maximalwert von Performance pro Watt bei 3,5 GHz ist und nicht deutlich unter 3. ;-)

Tipp: Unterscheide auch zwischen Chiplet-CPUs wie einem Ryzen (wo deine Theorie aufgrund des hohen Idleverbrauches tatsächlich hinkommt):
Anhang anzeigen 1471650

...und monolithischen Chips bei denen dein Sweetspot WEIT unter 3 GHz liegt:
Anhang anzeigen 1471651

Eine Pauschalaussage mit "3-4 GHz" ist einfach Quatsch.

Bei einer TDP von 1Watt ist die Effizienz am höchsten, deshalb sind die obigen charts nicht zu gebrauchen.

Mann muss sich anschauen, wie weit der Zugewinn in einem Delta liegt. z.B. 10% mehr Verbrauch, ermöglichen wie viel Prozent mehr Performance. Und darüber dann ein Integral bilden über die Zugewinnkurve.
 
Ganz sicher nicht bei Desktop-CPUs. :ugly:
Die funktionieren da schlichtweg nicht mal.

Jeder Chip hat da ein Maximum (Handy-SoCs wohl auch im Bereich von einem Watt), ob das in der Praxis sinnvoll ist ist ne andere Frage.

Klugscheißermodus ein:

1728596802226.png


Bei einem Watt ist die Effizienz = 324 und damit am höchsten !!
Rechnerisch bewiesen! :ugly:
 
Zurück