Gerüchte zu Ryzen 7000: Raphael-CPUs mit bis zu 24 Kernen und 5,4 GHz Takt

Ich vermute mal das je mehr Kerne desto größer ist das die. Dadurch kann man auch mit dem boost höher gehen. Bei CPUs mit weniger boost und so, gehen die Temps massiv nach oben weil die wärme kann sich nicht mehr so gut verteilen. Das wird der Grund für das Phänomen sein. Alles andere wäre unlogisch und unschlüssig. Mir kann was anders nicht in Sinn und mir soll es ja recht sein.
 
Nur ist es bei Salvage SKUs genau so. Da ist nix mit anderem DIE.

Theoretisch hast du schon recht, aber der Hauptgrund ist Produktpolitik.

Genauso wie bei Intel z.B. K CPUs in der Regel höhere default Taktraten haben als entsprechende non-K CPUs. Um auch Käufer abzuholen, die eigentlich gar nicht übertakten wollen.
 
Redest von differenziert und blendest einfach mal aus, dass die CPU 16 Kerne hat.

Dass du nicht in der Lage bist zu differenzieren, ist ja forenweit bekannt und deine Unterstellungen kannst du auch für dich behalten, wenn du nicht in der Lage bist richtig zu lesen.
Ich schrieb, dass man die Performancecores hochprügelt, wodurch auch der hohe Verbrauch zustande kommt.
Dass die E-cores nicht noch höher geprügelt werden, kann man hier sehen:
Aber widerspricht wohl deiner blauen Agenda, mal differenziert an die Dinge heranzugehen.

16 Kerne Intel 241W vs (möglicherweise) 16 Kerne AMD 230W.
Wenn also der 12900K als Brechstange bezeichnet wird, dann ist das 230W Monster von AMD ebenfalls als solches zu bezeichnen.

Ach, jetzt machst du aus den 24 Kernen schon 16 Kerne, damit es deiner Propaganda entspricht... Dir ist wohl offensichtlich nichts zu peinlich!
Zum einen handelt es sich hier um Gerüchte und wie schon von vielen Usern erwähnt, muss man dann auch sehen, was bei den 24C an Leistung rauskommt, wenn diese sich bis zu 230W genehmigen sollen.
Und das ist ja immer die Vorangehensweise Leistung XY bei Verbrauch XY.
Von mir aus dürfte sich der neue intel auch 300W genehmigen, wenn dafür die Leistung auch verdreifacht wurde...
Und wenn hierbei bei 230W deutlich mehr Leistung erzielt wird, ist das nunmal eine ganz andere Hausnummer. Der Verbrauch steht immer in der Relation zur erzielten Leistung, solltest du dir vielleicht mal merken.


Bei Nvidia interessiert es euch doch auch nicht, wenn für die doppelte Performance 100W mehr benötigt werden.

Wäre mir neu, dass nvidia mit 100W mehr die doppelte Leistung erzielt, aber scheinbar lebst du hier in einem Paralleluniversum. Ansonsten gilt auch hier, dass auch bei den Grafikkarten die Effizienz interessant ist oder gilt das nur, wenn AMD wie bei Vega dabei ziemlich schlecht ist?

Warum sind die 230W hier auf einmal in Ordnung, wenn der Core count stimmt?

Ist das so schwer zu verstehen? 24 Kerne bei 230W ist leistungsmäßig deutlich über einem Hybridmodell mit 8+8...
Und auch hier muss beachtet werden, was an Leistung rauskommt. Und das man bei mehr Kernen auch das Powerbudget erhöhen muss ist ja nichts neues... Ein Epyic 64 verbraucht auch mehr wie ein 5950X, liegt einfach in der Natur der Dinge.
 
Wurde ja mit gleich schnellem Speicher getestet. Aber du meinst wahrscheinlich den 5700X mit DDR4-3800?! Habe ich natürlich auch gemacht. Ist Teil des Testes. Der 5700X legt mit Speicher OC rund 15% zu. Damit liegt der Ryzen 3D immer noch deutlich vor dem kleinen Bruder mit "Sparcache". Der Unterschied ist hier so extrem, mich haut das aus den Socken. ^^

(Bild von Twitter rüberkopiert, damit man die Zahlen schneller einsehen kann. Das Chart enthält noch nicht die OC Werte für den 5700X.)

Anhang anzeigen 1395054

Ich schaue zuerst auf die Min Fps. Da wären es wie du sagst. Bei +15% beim 5700X, dann 73 zu 69. Dazu wären das bei den 1% und Average gute 20Fps unterschied, die der 5800X3D noch schneller ist. Klar top Sache, aber erstens in einem Bereich den die meisten kaum brauchen, zweitens ist das nicht in jedem Spiel so, bei weitem nicht.
In den Tests die ich gesehen habe, waren oft die max Fps beim 5800X3D meilenweit voraus im Mittel noch schneller und im Minimum eben nicht mehr so deutlich.
Digga, das sind über 50% Vorsprung bei gleichem Speicher. Selbst wenn du da noch 20%, was bei Zen 3 sehr großzügig ist, mit Speicher OC beim 5700X rausholen kannst sind das immer noch 30% Vorsprung. Das alles bei weniger Verbrauch und geringerem Takt. Wenn das nicht beeindruckend ist, was dann?
Seit wann verbraucht der 5800X3D weniger, als der 5700X?
Ja, dann selektiert man halt einen 7850X mit maximalem Singlecore-Boost und macht den etwas teurer. So what? Warum stattdessen, die 16/24 Kerner dafür nehmen, die eigentlich in multithreaded Workloads eingesetzt werden sollen?


Ich meine 50%, wie viele Generationen sind das? Selbst bei AMD sind das 2 Generationen... ^^

Je nach Spiel. Ich meine im Mittel waren das rund 20-30% die der Cache den Achtkerner beschleunigt.
 
Mein Fehler. der 5800X3D braucht 5W mehr. 65 zu 70W um genau zu sein.

Es ging aber nie um einen Mittelwert sondern um genau diesen Fall und da ist die Mehrleistung brutal.
Dann suche ich gleich ein Gegenbeispiel und zeige auf, das Cache nichts bringt und frage warum AMD nicht mehr schafft? Ne, lieber nicht.

Gibt halt Spiele da schlägt der Cache voll durch und welche da kommt fast nichts an. Dem geneigten Käufer aber interessiert ziemlich sicher in den meisten Fällen der Schnitt.

Wer Crysis kennt, wird auch wissen das es herzhaft egal ist, ob man mit 80, oder 100Fps durch die Lande rennt.
 
Es ging aber nie um einen Mittelwert sondern um genau diesen Fall und da ist die Mehrleistung brutal.
Na was bringt einem die maximalen fps wenn wenn man öfter im minimum Bereich hängt. Bei mir ist es so das manche Spiele öfter das minimum annehmen oder sogar schwanken zwischen maximum und minimum. Cuttet man das auf nen bestimmten Menge dann sieht es schlecht aus mit mehr Cache das da was hilft. Naja das sehen wir dann schon noch welche neuen spiele es genauso ist wie bei meinem.
 
Dass du nicht in der Lage bist zu differenzieren, ist ja forenweit bekannt und deine Unterstellungen kannst du auch für dich behalten, wenn du nicht in der Lage bist richtig zu lesen.
Persönliche Angriffe sind hier fehl am Platze und kannst du dir sparen.

Ich schrieb, dass man die Performancecores hochprügelt, wodurch auch der hohe Verbrauch zustande kommt.
Dass die E-cores nicht noch höher geprügelt werden, kann man hier sehen:
Aber widerspricht wohl deiner blauen Agenda, mal differenziert an die Dinge heranzugehen.
Du schriebst, dass die 8 Performance Cores 240W verbrauchen und das ist faktisch falsch.
Die TDP der CPU beträgt 241W und diese 241W teilen sich alle 16 Kerne und nicht nur 8, auch wenn User wie du die E-Cores gerne als "krüppel-" oder "Marketingkerne" bezeichnen, was sie nicht sind.

Aber widerspricht wohl deiner blauen Agenda, mal differenziert an die Dinge heranzugehen.
Siehe erster Absatz.

Ach, jetzt machst du aus den 24 Kernen schon 16 Kerne, damit es deiner Propaganda entspricht... Dir ist wohl offensichtlich nichts zu peinlich!
Anfangs waren es nur 16 Kerne und aktuell geht das Gerücht um, dass es auch 24 Kerne werden könnten, deshalb schriebe ich auch "möglicherweise":
Redest von differenziert und blendest einfach mal aus, dass die CPU 16 Kerne hat.
16 Kerne Intel 241W vs (möglicherweise) 16 Kerne AMD 230W.
Ironisch, dass du mir unterstellst nicht richtig lesen zu können.

Zum einen handelt es sich hier um Gerüchte und wie schon von vielen Usern erwähnt, muss man dann auch sehen, was bei den 24C an Leistung rauskommt, wenn diese sich bis zu 230W genehmigen sollen.
Richtig, es sind alles nur Gerüchte, aber darüber kann man trotzdem diskutieren.

Und das ist ja immer die Vorangehensweise Leistung XY bei Verbrauch XY.
Von mir aus dürfte sich der neue intel auch 300W genehmigen, wenn dafür die Leistung auch verdreifacht wurde...
Und wenn hierbei bei 230W deutlich mehr Leistung erzielt wird, ist das nunmal eine ganz andere Hausnummer. Der Verbrauch steht immer in der Relation zur erzielten Leistung, solltest du dir vielleicht mal merken.
Laut Gerücht soll die 4090 450W verbrauchen und die Leistung verdoppeln. Hier und auf CB heulen etliche User über den Verbrauch und ignorieren dabei völlig den Leistungszuwachs. Wenn AMD das gleiche macht, wird aber auf einmal wieder von sämtlichen Seiten relativiert. Das ist einfach nur pure Doppelmoral.
Sagt doch einfach, dass Intel/Nvidia grundsätzlich schei*e ist, ganz gleich was sie tun, dann spart man sich die Diskussion.

Wäre mir neu, dass nvidia mit 100W mehr die doppelte Leistung erzielt, aber scheinbar lebst du hier in einem Paralleluniversum. Ansonsten gilt auch hier, dass auch bei den Grafikkarten die Effizienz interessant ist oder gilt das nur, wenn AMD wie bei Vega dabei ziemlich schlecht ist?
3090 -> 350W
4090 -> 450W und 2x Performance gegenüber einer 3090:

Ist das so schwer zu verstehen? 24 Kerne bei 230W ist leistungsmäßig deutlich über einem Hybridmodell mit 8+8...
Ist es, aber 230W ist trotzdem Brechstange und wir wissen auch noch gar nicht, ob es 24 Kerne werden.
Bis vor einigen Tagen hieß es noch, dass es 16 werden.
Du nimmst die 24 Kerne als Gottgegeben, aber kommst mir bei den 230W mit der "Gerücht"-Relativierung.
 

Anhänge

  • CPU Index PCGH.jpg
    CPU Index PCGH.jpg
    469,6 KB · Aufrufe: 24
Zuletzt bearbeitet von einem Moderator:
Nur weil´s öfter gepredigt wird, wird´s deshalb NICHT wahrer ... :nicken:
Ihr Nasen. :D Es geht ja auch nicht darum, dass es "wahrer" wird. Es geht darum, über das Thema zu diskutieren und seine Erfahrungen mit einfließen zu lassen. Ich meine, wollte ihr mir echt Erfahrung in dem Bereich komplett absprechen? Es ja nicht so, dass ich mich nicht das eine oder andere Stündchen mit der Materie auseinandergesetzt habe. ^^

Meine Annahmen basieren auf meiner Erfahrung mit Spielebenchmarks von CPUs und dem "Gigabyte Leak". Mal abgesehen davon, wenn dieser Leak wichtige Infos nicht enthält, dann sind meine Prognosen eh für die Katz. Ansonsten müssen wir abwarten, was kommt.

Und mal ganz allgemein, durch meine Twitter Aktivitäten habe ich einen besonderen Zugang zu Infos und zu sehr sehr schlauen Leuten, mit denen ich auch bereits über diese Dinge diskutiert habe. Die sagen natürlich auch, dass Caches nicht alles sind und dass es da noch sehr viele andere Stellschrauben gibt, um die Spieleleistung zu verbessern. Die sagen aber auch ganz klar, dass Spiele eher am Speichersystem hängen. So wie es aussieht, laut "Gigabyte Leak", wird Zen 4 hier keine nennenswerten Verbesserungen bis auf den größeren L2 Cache bekommen und der bewirkt keine Wunder.

Zu glauben, dass ich das aus einer Laune heraus vorbringe oder weil ich angeblich ein Intel Fanboy sein soll, ist einfach nur kleingeistig, sorry.
 
Zuletzt bearbeitet von einem Moderator:
Persönliche Angriffe sind hier fehl am Platze und kannst du dir sparen.

Da muss ich dir in der Tat zustimmen, nur wieso fängst du ständig damit an? Mit deiner unverschämten Art, Leuten Dinge zu unterstellen die nirgends stehen?

Du schriebst, dass die 8 Performance Cores 240W verbrauchen und das ist faktisch falsch.

Nö das schreibe ich nicht, ich hab geschrieben "man einfach nur die 8 Performance Cores auf 240 W prügelt".
Und dies tut intel auch, denn der Verbrauch kommt zu Stande, weil die P Cores und nicht die E Cores geknüppelt werden...
Aber dafür benötigt es etwas Denkarbeit...
Und da bei dir 2,7 ja auch nicht fast 3 sind, hat das an der Stelle eh keinen Wert.

Die TDP der CPU beträgt 241W und diese 241W teilen sich alle 16 Kerne und nicht nur 8, auch wenn User wie du die E-Cores gerne als "krüppel-" oder "Marketingkerne" bezeichnen, was sie nicht sind.

Klar sind sie das, auch wenn du und dein Freund Zero das gerne anders haben wollen. Wäre intel mit der Fertigung nicht hinterher und sie könnten ohne weiteres 16P Kerne in dem Powerbereich unterbringen, dann würden sie das auch tun.


Anfangs waren es nur 16 Kerne und aktuell geht das Gerücht um, dass es auch 24 Kerne werden könnten, deshalb schriebe ich auch "möglicherweise":

In den News hier geht es um 24, jeder spricht darüber, nur du versuchst natürlich die 230W zu den 16 Kernen zu mappen...
Merkste hoffentlich selber?
Zumal das auch recht wenig Sinn ergibt, wenn man vom 5950X ausgeht. Dass sie der nächsten 16C mehr Power geben sollte logisch sein, jedoch werden sie bei besserer Fertigung wohl kaum in dem Maße mehr Strom benötigen, da ist dann ein zusätzliches DIE deutlich wahrscheinlicher.
Aber ich vergas, es geht ja um AMD, da wird von euch ja perse nur das schlechteste angenommen, arbeiten ja nur Pfeifen dort!

Ironisch, dass du mir unterstellst nicht richtig lesen zu können.

Kannst du auch nicht und deine möglicherweise 16 Kerne ändern daran nichts, wenn sich der Rest um 24 unterhält...
Oder wieso fängst du sonst bewusst damit an?
Du versuchst grundsätzlich die Dinge in ein schlechtes Licht zu rücken.
Ist in etwa so, wie wenn sich zwei über Sportwagen unterhalten und du dann kommst, aber der Traktor meiner Oma hat mehr PS.

Richtig, es sind alles nur Gerüchte, aber darüber kann man trotzdem diskutieren.

Wieso tust es dann nicht, wenn hier von bis zu 24C bei 230W die Rede ist und machst 16C bei 230W drauß?
Kann man doch perfekt an der Stelle tun? 50W der IO Teil und dreimal 60W für die Chiplets und schon hast du eine interessante These aufgestellt, die durchaus plausibel sein kann.


Laut Gerücht soll die 4090 450W verbrauchen und die Leistung verdoppeln. Hier und auf CB heulen etliche User über den Verbrauch und ignorieren dabei völlig den Leistungszuwachs. Wenn AMD das gleiche macht, wird aber auf einmal wieder von sämtlichen Seiten relativiert. Das ist einfach nur pure Doppelmoral.

Und wenn du die Beiträge dieser User lesen würdest, würdest du auch wissen wieso so viele rumheulen... Die 450W müssen auch erstmal weggekühlt werden und dies kann im normalen Zimmer im Sommer doch ganz schön warm werden.
Ansonsten sind mir keine Beiträge von ernstzunehmenden Usern bekannt, die sich nicht über eine Verdoppelung der Leistung und damit eine Steigerung der Effizienz freuen.
Im übrigen gilt der Leistungszuwachs auch für AMD Grafikkarten der nächsten Gen und üblicherweise vergleicht man sich auch mit dem Konkurrenten...

Sagt doch einfach, dass Intel/Nvidia grundsätzlich schei*e ist, ganz gleich was sie tun, dann spart man sich die Diskussion.

Gut, dass du mir das sagst. Das erklärt wahrscheinlich auch, wieso ich die letzten 23 Jahre nur Nvidia Grafikkarten und aktuell die erste AMD Grafikkarte verbaut habe.
Vielen Dank für die Aufklärung!

Aktuell nimmt nur ein Hersteller die Brechstange und das ist intel, wie sie es auch bei dem P4 getan haben. Nvidia tut dies nicht, auch wenn sie aktuell bei der Effizienz leicht hinterher sind, was aber daran liegt, dass sie unbedingt den längsten Balken haben wollten. Sie hätten auch knapp dahinter mit schlechterer Effizienz liegen können, aber das wäre fürs Marketing schlecht.


Ist es, aber 230W ist trotzdem Brechstange und wir wissen auch noch gar nicht, ob es 24 Kerne werden.
Bis vor einigen Tagen hieß es noch, dass es 16 werden.
Du nimmst die 24 Kerne als Gottgegeben, aber kommst mir bei den 230W mit der "Gerücht"-Relativierung.

Ich nehme gar nichts als Gottgegeben an, im Gegensatz zu dir, der krampfhaft versucht die 230W den 16C zuzuordnen.
Ich nehme lediglich bezug auf diese News und im generellen glaube ich persönlich keinen Leaks oder Gerüchten, weil sich damit immer irgendwelche Leute profilieren wollen. Aber das kann ja jeder selber handhaben wie er möchte.
Und nein 230W ist keine Brechstange, wenn die Leistung stimmt.
Wie oft muss man dir das eigentlich noch erklären? Auch 450W bei GPUs sind keine Brechstange, wenn die Leistung dafür mehr als das Doppelte beträgt.
Der Verbrauch steht immer in Relation zur Leistung und deswegen kann man den Verbrauch auch ohne die Leistungsdaten nicht bewerten, auch wenn du das nicht verstehen willst/kannst.
Wie bereits im ersten Post erwähnt, kann intel von mir aus auch gerne ne 300W CPU bringen, wenn diese performancetechnisch das doppelte wie eine 200W CPU bringt, wieso nicht?

Zusammendfassend lässt sich ableiten, dass wir nur anhand des Verbrauchs nicht beurteilen können, ob die Brechstange ausgepackt wird oder nicht.
 
Da muss ich dir in der Tat zustimmen, nur wieso fängst du ständig damit an? Mit deiner unverschämten Art, Leuten Dinge zu unterstellen die nirgends stehen?
Ich bin dich nirgends persönlich angegangen und habe dich auch nicht beleidigt, aber wenn du mir dort zustimmst, was soll dann diese Aussage:
Aber dafür benötigt es etwas Denkarbeit...
Du widersprichst dir mal wieder selbst.

Nö das schreibe ich nicht, ich hab geschrieben "man einfach nur die 8 Performance Cores auf 240 W prügelt".
Und dies tut intel auch, denn der Verbrauch kommt zu Stande, weil die P Cores und nicht die E Cores geknüppelt werden...
Es wird nicht wahrer, nur weil du es wiederholst. 16 Kerne teilen sich 241W und nicht 8 Kerne 240W und die anderen 8 nur 1W oder willst du mir das allen ernstes so weißmachen?

Klar sind sie das, auch wenn du und dein Freund Zero das gerne anders haben wollen. Wäre intel mit der Fertigung nicht hinterher und sie könnten ohne weiteres 16P Kerne in dem Powerbereich unterbringen, dann würden sie das auch tun.
Also ist Skylake auch nur ne Marketing CPU gewesen und keine echte oder wie?
Oder hat die CPU nur 8 Kerne und ist damit fast so schnell wie AMDs 16 Kerner?
Dann wären wir wieder auf dem Niveau von Bulldozer wo ebenfalls ein Intel-Kern so schnell war wie 2 AMD Kerne.

Übrigens widersprechen dir da nicht nur ich und Zer0, sondern auch so gut wie alle Tests die sich mit der Thematik beschäftigen. Nur mal so am Rande ;)

In den News hier geht es um 24, jeder spricht darüber, nur du versuchst natürlich die 230W zu den 16 Kernen zu mappen...
Merkste hoffentlich selber?
Und vorher warens 16, deswegen war meine Wortwahl auch entsprechend. Es ist auch egal, ob 16 oder 24. Es ist und bleibt Brechstange, wenn es 230W werden.

Zumal das auch recht wenig Sinn ergibt, wenn man vom 5950X ausgeht. Dass sie der nächsten 16C mehr Power geben sollte logisch sein, jedoch werden sie bei besserer Fertigung wohl kaum in dem Maße mehr Strom benötigen, da ist dann ein zusätzliches DIE deutlich wahrscheinlicher.
Aber ich vergas, es geht ja um AMD, da wird von euch ja perse nur das schlechteste angenommen, arbeiten ja nur Pfeifen dort!
Ich nehme gar nichts an, aber 230W im Mainstream ist Brechstange, egal wie sehr du auf den Boden aufstampfst.
Wenns dann doch nur 16 Kerne werden sollten, wird es noch lustiger x)

Kannst du auch nicht und deine möglicherweise 16 Kerne ändern daran nichts, wenn sich der Rest um 24 unterhält...
Ist mir doch egal, über was sich andere Unterhalten? Was hat meine Aussage mit anderen zutun?
Wir wissen nicht, ob es 16 oder 24 werden und bis vor kurzem waren 16 noch Status Quo. Da es nur ein Gerücht ist und der 5950X ebenfalls 16 Kerne hat, habe ich mich erstmal daran orientiert.

Du versuchst grundsätzlich die Dinge in ein schlechtes Licht zu rücken.
Ist in etwa so, wie wenn sich zwei über Sportwagen unterhalten und du dann kommst, aber der Traktor meiner Oma hat mehr PS.
Ich? Von mir stammt das Wort "Brechstange" nicht und ich bin auch nicht derjenige, der das unter jede Nvidia/Intel News knallt. Das sind eher User aus deinem Lager. Das ist das erste mal, dass ich AMD überhaupt mit dem Wort in Verbindung bringe.

Und wenn du die Beiträge dieser User lesen würdest, würdest du auch wissen wieso so viele rumheulen... Die 450W müssen auch erstmal weggekühlt werden und dies kann im normalen Zimmer im Sommer doch ganz schön warm werden.
Ach und die 230W nicht oder was? Zu mal der CPU DIE idR. eine viel kleinere Kühlfläche bietet.

Ansonsten sind mir keine Beiträge von ernstzunehmenden Usern bekannt, die sich nicht über eine Verdoppelung der Leistung und damit eine Steigerung der Effizienz freuen.
Im übrigen gilt der Leistungszuwachs auch für AMD Grafikkarten der nächsten Gen und üblicherweise vergleicht man sich auch mit dem Konkurrenten...
Ach komm. Unter jeder News wird sich über den Verbrauch echauffiert und das immer nur bei Intel und Nvidia.
Hast du diese User jemals genau so wie mich dafür kritisiert? Nein hast du nicht. Und wieso nicht? Na weil sie gegen Intel/Nvidia wettern und nicht gegen AMD. Passt dir halt ganz gut, nech? ;)

Gut, dass du mir das sagst. Das erklärt wahrscheinlich auch, wieso ich die letzten 23 Jahre nur Nvidia Grafikkarten und aktuell die erste AMD Grafikkarte verbaut habe.
Vielen Dank für die Aufklärung!
Du hast aktuell ne AMD Grafikkarte und möglicherweise ist dies der Grund, weshalb du emotional reagierst, sobald jemand AMD kritisiert?

Ich habe noch nie gesehen, dass du einen der AMD Anhänger hier für seine Doppelmoral oder fürs Cherrypicking kritisiert hast. Aber bei mir bist du mal wieder sofort zur Stelle und in diesem Thread gibt es einige mit roter Brille.
Hier ein paar Beispiele:
Cherrypicking: https://extreme.pcgameshardware.de/...-kernen-und-5-4-ghz-takt.619846/post-11025112
Dicke rote Brille und Intelbashing: https://extreme.pcgameshardware.de/...-kernen-und-5-4-ghz-takt.619846/post-11023377
Relativierung: https://extreme.pcgameshardware.de/...-kernen-und-5-4-ghz-takt.619846/post-11023482
Intel Bashing ohne Substanz: https://extreme.pcgameshardware.de/...-kernen-und-5-4-ghz-takt.619846/post-11023507
Und das waren nur die ersten 3 Seiten. Keinen dieser User hast du für ihren Post kritisiert, weil keiner dieser User AMD kritisiert.
Wie kannst du da ernsthaft behaupten selber neutral zu sein?

Aktuell nimmt nur ein Hersteller die Brechstange und das ist intel, wie sie es auch bei dem P4 getan haben.
Beim 12900KS kann ich da voll und ganz zustimmen, aber der 12900K ist in Spielen genau so effizient wie ZEN3, wenn man mal vom 5800X3D absieht.

Nvidia tut dies nicht, auch wenn sie aktuell bei der Effizienz leicht hinterher sind, was aber daran liegt, dass sie unbedingt den längsten Balken haben wollten. Sie hätten auch knapp dahinter mit schlechterer Effizienz liegen können, aber das wäre fürs Marketing schlecht.
Zum einen das und zum anderen haben müssen sie die schlechte Fertigung ausgleichen, aber man muss AMD bei RDNA2 auch lassen, dass sie da was richtig geiles rausgehauen haben. Einzig die RT Performance hinkt noch massiv hinterher, aber ansonsten sind sie auf Augenhöhe.

Und nein 230W ist keine Brechstange, wenn die Leistung stimmt.
24 Core + 230W im Mainstreambereich, nur um den längeren Balken zu haben klingt für mich definitiv nach Brechstange. Im Mainstreambereich braucht aktuell so gut wie niemand 24 Kerne und wer sie doch benötigt ist nicht Mainstream, sondern zählt zur Zielgruppe von Threadripper und Workstations.
 
Zuletzt bearbeitet:
24 Core + 230W im Mainstreambereich, nur um den längeren Balken zu haben klingt für mich definitiv nach Brechstange. Im Mainstreambereich braucht aktuell so gut wie niemand 24 Kerne und wer sie doch benötigt ist nicht Mainstream, sondern zählt zur Zielgruppe von Threadripper und Workstations.
Wir wissen ja noch nicht, ob die 230W stimmen. Aber wenn AMD bei 16 Kernen bleibt, dann wären die 230W durchaus verwunderlich, weil einerseits die Architektur effizienter wird, aber anderseits vor allem der 5nm Prozess ordentlich Effizienz mitbringt. Wieso muss man dennoch auf 230W gehen?

Das riecht dann doch ziemlich nach Brechstange, falls das so kommt. Auch 24 Kerne im Mainstream ist ne kritische Geschichte. Ein Dual Channel Speicherinterface könnte schnell zum Bottleneck werden.
 
Wir wissen ja noch nicht, ob die 230W stimmen. Aber wenn AMD bei 16 Kernen bleibt, dann wären die 230W durchaus verwunderlich, weil einerseits die Architektur effizienter wird, aber anderseits vor allem der 5nm Prozess ordentlich Effizienz mitbringt. Wieso muss man dennoch auf 230W gehen?
Und wie will man das kühlen? Die Energiedichte ist doch bei Zen2 und 3 in 7nm schon so hoch, dass die CPUs sehr schnell an ihrer Temperaturgrenze sind.
 
Das riecht dann doch ziemlich nach Brechstange, falls das so kommt. Auch 24 Kerne im Mainstream ist ne kritische Geschichte. Ein Dual Channel Speicherinterface könnte schnell zum Bottleneck werden.
Kommt ganz drauf an welche anwendung man verwendet bzw was man vor hat zu nutzen. Wenn man so ein spezieller Nutzer ist wie ich dann stören 24 Kerne mit smt 48 threads mit dual channel überhaupt nicht. Hauptsache endlich mal ordentlich mehr Kerne. Ja solche User wie mich gibt es wirklich auch noch. Ich kann auch mit eingeschränktrn Funktionen wie weniger davon ebenso leben. Die Hauptsache ist endlich mehr Kerne zu besitzen. Ja also es gibt für alles einen Markt, den man bedienen kann so sieht es aus.
 
Zurück