Dann solltest du mal richtig Lesen und Schreiben lernen und nicht in den Post einsteigen mit "So ein Unsinn schon wieder" ...
Richtig Lesen und Schreiben solltest du definitiv mal lernen, wäre allerhöchste Zeit dafür!
Und wenn es Unsinn ist was du schreibst, dann benutze ich auch das Wort Unsinn! Denn Die V-Cache Lösung ist schon lange von AMD geplant und keinerlei Reaktion auf ADL, sondern war vielmehr für den Einsatz im Serversegment gedacht und wandert durch das Chipletdesign auch in den Desktop, was gut für uns ist.
Offensichtlich mache ich das auch nicht. Du musst halt lernen zwischen deinen eigenen Assoziationen und dem was da bei mir tatsächlich zu lesen ist, zu unterscheiden. Das scheint dir offensichtlich schwer zu fallen, das muss ich aber deshalb dennoch nicht zu meinem Problem machen.
Darüber hinaus zum Thema Unterstellungen, siehe oben und die diverse vorausgegangene Postings von dir ...
Nein natürlich machst DU das nicht. Deswegen hast du mir das auch gleich unterstellt und dem Gaus auch gleich mit ein Fanboy zu sein, weil er erwähnte, dass das Cache Monster von AMD im Gaming davon ziehen wird. (Was dir offensichtlich nicht in den Kram passt). Derweil ist das ganz selbstverständlich, dass wenn eine Anwendung/Game darauf anspricht (Cache) auch einen ordentlichen Boost dadurch bekommt...
Von daher ja, solltest du dringend mal lernen das wirklich geschriebene von deinen wirren Assoziationen zu trennen. Nimmt mir ja schon langsam beängstigende Züge bei dir an!
Warum dann die Notwendigkeit für dieses (wie du es bezeichnen würdes Intel-Gebashe) mit "s
ich nicht mehr mit jährlichen 5% Zuwachs begnügen darf." Ah, ich vergaß ... in deinem Kontext ist so etwas natürlich nur immer rein informativ gemeint.
Wo meine Aussage intelbashing war, weißt wohl auch nur du? Aber da wären wir wieder bei dem Punkt Lesen lernen und nicht die eigenen wirren Assoziationen niederschreiben. Denn ich hab klar geschrieben, dass man ja froh über einen ordentlichen Leistungszuwachs von AMD und intel sein kann und nicht nur einen Zuwachs von 5% bekommt (für die wohl die wenigsten aufrüsten würden). Also was stört dich daran, dass ich es gut finde, dass die Leistung bei beiden ordentlich wächst?
Sieht mir eher nach Wahnvorstellungen von dir aus. Wenn man dann dazu dein Geschwurbel von oben bezüglich dem richtigen Lesen zu Rate zieht, ist es der nächste klassische Selfown, mit dem du bewiesen hast, dass du lieber etwas abstrudes hineininterpretierst, als einfach das gelesene zur Kenntnis zu nehmen.
Das um ein "Vielfaches schneller" ist sinnlose Polemik, denn dann gäbe es diese Diskussion hier gar nicht. Der Twitterer spricht bereits beim QS von gemessenen 9300+ Punkten im R20 und damit übertrifft der QS bereits den 5900X um rund 9 %. Was dann noch später im finalen Produkt hinzu kommt, wird man abwarten müssen (wenn noch etwas Nennenswertes hinzu kommt?).
Der Rest hängt noch in der Schwebe, da man nicht weiß wie schnell Gracemont ist und der noch wesentlichere Faktor dürfte sein, wie sich der Chip verbrauchstechnisch verhält, denn mit Luft und Liebe allein werden die zusätzlichen 8 Gracemont-Kerne auch nicht rechnen.
Wieso sollte es denn sinnlose Polemik sein, wenn man die Frage in den Raum wirft, dass die Big Cores deutlich schneller sein müssen? Du scheinst mir wirklich ein grundlegendes Problem zu haben, denn wenn ich bei dem Big-Little Prinzip mit einem reinen Big-Core-Design mithalten möchte, dann müssen die Big Cores zwangsläufig viel Leistung abliefern...
Jedoch stimme ich dir bei dem Verbrauch gerne zu, denn schneller zu sein ist das eine, wie viel dabei verbraucht wird sollte dabei nicht außer Acht gelassen werden. Zudem ist auch sehr interessant, welchen Einfluss DDR5 hat, vor allem auch im Hinblick auf die Leistung die man dann von Zen4 mit DDR5 im Vergleich zu Zen3 erwarten darf.
Und ja, amüsant ist tatsächlich, dass du immer erst auf der persönlichen Schiene mit Unterstellungen und Vorwürfen kommst und es erst im Nachhinein mit einer halbwegs ernst zu nehmenden Diskussion versuchst.
Ja es ist amüsant, dass du nie ohne eine persönliche Schiene auskommst (siehe das Beispiel mit Gaus) und irgendwie nicht daran interessiert bist, einfach mal ohne jeglichen BIAS über AMD zu diskutieren, egal ob bei den CPUs oder GPUs.
Weil grundsätzlich bei dem einen Hersteller immer ultra positiv zu sein und alles als gesetzt zu nehmen, auch bezüglich der Roadmaps (obwohl gerade intel in den letzten Jahren nicht so verlässlich war) und bei dem anderen Hersteller siehst du überall alles kritisch und immer Verspätungen... Nach einer ernsthaften Interesse an einer sachlichen Diskussion sieht mir das nicht aus.
Einfach den Absatz noch mal lesen und deine Fantasie ausschalten, dann ergibt sich der Rest von selbst.
In einer reformulierten, vielleicht für dich leichter verdaulichen Art liest sich der Absatz folgendermaßen:
Tasks wie (u. a.) 3D-Rendering dürften einen idealen Workload darstellen um die Leistungszugewinne bei Alder Lake im bestmöglichen Licht zu demonstrieren, denn hier wird es keine nennenswerten Reibungsverluste aufgrund des Hybrid-Designs geben. Und diesen "idealen Workload" bezeichnete ich in meinem vorausgegangenen Post als "vorteilhaften Workload", nicht mehr und nicht weniger und dort war auch nichts von absoluten Leistungsvergleichen zu lesen.
Ich hab den Absatz gelesen, aber danke der Nachfrage
Jedoch sehe ich nicht, wieso das ein idealer Workload wäre. Denn wenn ich Rendere dann möchte ich eigentlich eher ausschließlich BIG-Cores. Ideal wäre es eher bei einem Mixed Betrieb bzw. im Mobile Segment, aber wenn es auf volle Leistung ankommt, hätten die Leute wohl eher noch lieber mehr von intels Big-Cores
Es ist durchaus machbar, da es ein ES ist (auch wenn die meist eher weniger Takt haben) und die TDP wohl nicht gedeckelt wurde. Wenn der R9 5950X sich nur seine TDP genehmigen kann, der 12900K aber ungedrosselt ist, dann könnten die großen Kerne mit über 5GHz laufen, während der R9 5950X mit unter 4GHz zu werke geht. Macht also schonmal ein gutes Drittel mehr Takt und wenn dann auch noch 10-20% (DDR5) mehr IPC dazukommen, dann ist man da durchaus bei über 12 AMD Kernen. Die große Unbekannte sind ja kleinen Kerne. Gehen wir mal davon aus, dass die Gerüchte über Skylake IPC stimmen und sie sich auf knapp 5GHz takten lassen, dann wäre da etwa die Leistung eines i7 9700K drin. Zusammen könnte es dann tatsächlich ausreichen.
Dass man den 5900 knackt das wird wohl außer Zweifel stehen, aber wie gesagt, wenn der 5950 geschlagen werden soll, dann müssen auch die kleinen Kerne ordentlich performen und das halte ich schon für fragwürdig, weil ihnen ja auch HT fehlt. Sprich im MT steht es dann 24 vs 32 Threads was bei einer entsprechenden Auslastung schon etwas ausmacht. Aber klar, wenn man ein deutlich höheres Powertarget zur Verfügung hat und dadurch einen Taktvorteil hat sieht es anders aus, ich bin jetzt eher davon ausgegangen, dass intel verbrauchsmäßig wieder nach unten geht.
Wenn man allerdings den R9 5950X richtig von der TDP Leine läßt oder den i9 12900K auf seine vermutlichen 125W drosselt, dann könnte es anders aussehen.
Gut, wenn sich eine der beiden die höhere Leistung durch massiv höheren Stromverbrauch erkauft, kann dies natürlich gut sein. Wobei ich das nicht als sinnvollen Leistungsvergleich erachte
Jetzt mal frei erfundene Werte:
Hersteller 1 benötigt für Leistung X 100 Watt
Hersteller 2 benötigt für Leistung X+10% 200 Watt
Dann ist das halt nicht so pralle, weil Hersteller 1 ja seinem Produkt auch mehr Stromaufnahme gewähren könnte, deswegen bin ich da auch skeptisch.