Intel Raptor Lake ... - Das sagen die PCGH-Redakteure dazu

Angenommen wir hätten eine 4090 und angenommen wir mögen 4k und Bildqualität. Wie kaufen also AC Valhalla, Cyberpunk und God of War. In den Spieler liefert uns die 4090 92, 79, 104 fps ab. Das muss also unsere CPU können. Für God of War schafft das ein 5600 ohne X, für Cyberpunk auch und Valhalla taucht im CPU Test nicht auf. Zugegeben, viel Overhead haben wir nicht aber ebensowenig einen zwingenden Bedarf an Raptorlake.

Speziell wenn man als Kunde dann keine 4090 kauft, sondern eine Karte die nur normal überteuert ist, haben sowohl AMD mit der AM5 Plattform, als auch Intel mit der 13.Gen keine wirklich schlüssigen Argumente. Zukunftssicherheit wird immer gerne rumgeworfen, aber bislang kommt jede Generation mit besserem PCIe, oder Uterstützung für noch schnelleren RAM, oder irgendwas. Daher ist aktuell ein 8-Kern AM4 System von der Preis/Leistung eigentlich unmöglich zu schlagen, zumindest bis Intel was am 12700 Preis macht. Die Neuerscheinungen dieses Jahr kann man preislich denke ich abhaken.

Es lohnt auch einen Blick auf die USA und die Sanktionen gegen China zu richten. Das könnte für Made in China Marken noch ganz rüde werden. Im Moment sind wir es gewohnt, dass die Leistung entscheidende Auswirkungen auf den Preis hat, aber auch das könnte sich ändern, wenn U.S. und Taiwan Unternehmen ihre Fertigungsstraßen für Endprodukte schneller verlagern müssen als gedacht. Ich denke aus diesem Grund hält man jetzt schon die Preise hoch, für den Fall das unerwartet Unkosten kommen.
 
just for fun ein ungleicher Test in 1080p:
(nur HZD ist übermäßig im CPU-Limit, da fehlt wohl noch etwas mehr Multithreading)

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Ich folge diesem Mantra nicht mehr. Wer braucht schon 4K mit <100 Frames? Ganz ehrlich: Ich bin jetzt auch in einem gereifteren Alter mit Familie, Eigenheim, Kindern und Beruf. Ich bin nicht im Leben "hängengeblieben". Meine Gedanken drehen sich nicht nur um die neusten PC Bauteile auch zocke ich nicht einsam vor mich hin und Kapsel mich vom Leben ab.

Sagte der Typ, mit dem i7 12700K und der RTX 3080 12GB...

Bis vor zwei Wochen hattest du noch die neueste Generation.

Nimm es mir nicht übel, aber bei dir passt das, was du sagst und das was du vorlebst, einfach nicht zusammen. Ich könnte mir solche konsumkritischen Sprüche leisten (bis ich mir meinen neuen Kasten kaufe), da ich mit entsprechender Hardware unterwegs bin. Wenn man großspurig auftritt, dann sollte man das zumindest irgendwie vorleben. Das ist so, als ob sich jemand, mit einem BMI von 60, darüber beschwert, dass die Jugend von heute zu fett sei.
 
Ich sitz zwar grad am Klo, aber als jemand, der beruflich sowohl mit Technologie, als auch mit Jugendlichen zu tun hat, hier mal meine 50 cent dazu:
Ich folge diesem Mantra nicht mehr. Wer braucht schon 4K mit <100 Frames? Ganz ehrlich: Ich bin jetzt auch in einem gereifteren Alter mit Familie, Eigenheim, Kindern und Beruf. Ich bin nicht im Leben "hängengeblieben". Meine Gedanken drehen sich nicht nur um die neusten PC Bauteile auch zocke ich nicht einsam vor mich hin und Kapsel mich vom Leben ab.
Momentchen mal, das ist mir etwas zu pauschalisierend:
Ich kenne solche Leute, die nie wirklich herausgefunden haben aus ihrer Jugendzeit und heute noch so leben, wie mit 17 Jahren.
das ist so herablassend, was du da schreibst. Dass man keine Zeit mehr fürs Spielen aufwenden möchte hat wenig mit dem Alter zu tun, eher mit der Lebensphase in der man sich befindet.
Auch stimmt es nicht, dass man sich "einsam abkapselt" wenn man Spieler ist.
Ob man nun Spielt, Liest, Fernschaut, Sport schaut oder macht usw ist ja letztlich alles qm Ende verwandt: es geht im gesunden Maße um ein Hobby, und im schlechten Maße um Ablenkung aus der eigenen Lebensrealität.
Jeder findet da für sich was anderes. Manche finden halt Spiele/Filme/Serien/Bücher so toll, dass sie darin versinken wollen, andere bauen Modellflugzeuge, basteln am Auto oder Haus rum usw.

Ad Alter: es gibt genug Leute die erst im Erwachsenenalter begonnen haben zu spielen, Fernschauen oder aktuell modern ist das stundenlange "ins Smartphone starren". Das ist doch genau dasselbe, wenn man Stundenlang auf Facebook, Insta, TikTok, Farmville und Co ist. Und gerade das kann man bei Erwachsenen genauso oft beobachten wie bei Kindern
Mit der Zeit kommt Einsicht und die Freude über Kleinigkeiten ist mindestens genauso groß, wie über eine lächerlich teure Grafikkarte, die zwar das Hobby bereichert aber im realen Leben keinen Mehrwert bringt.
Es stimmt nunmal nicht, dass ein Hobby wie Spielen oder sich mit der Technik dahinter zu befassen keinen Mehrwert bringt.
Es wär jetzt OT aber es gäbe jetzt hunderte Beispiele die dir aufzeigen, dass du falsch liegst.

"Brot und Spiele" ist eine Jahrtausende alte Weisheit und braucht áuch heut noch jeder Mensch, und nicht nur die sub 17-Jährigen, dem kann auch Thomas5010 sich nicht entziehen.
 
Zuletzt bearbeitet:
Kauf dir einen 13900T und gut ist es, dann sind es nur 35W.
Ich hoffe mit Meteor Lake und 4nm oder Alder Lake und 3nm kommen nochmal deutliche Effizienzsprünge. Mir sind die 250W zu viel und auch bei GPUs.
Gerade wenn man etwas um einen Bruchteil der (Verlust)Leistung betreiben kann, bei gleichzeitig fast gleicher (90%) Performance ist mir eine gezähmte "Highend" CPU lieber als eine hochgeprügelte (übertaktete) Mittelklasse CPU. Ebenso bei einer GPU. Aber ich mag es nicht, wenn man extra Hand anlegen muss. Ein "Schalter" im Bios oder Treiber ist mir lieber. Oder gleich ein "E" (für Efficiency) Modell. Nachdem man bei der 4090 sieht, dass sie auch mit deutlich geringerer TDP super Leistungen hat, warum nicht sowas für alle Modelle anbieten?
Siehe hier: https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/5/
Man merkt, die 4090 ist über dem Sweet Spot getaktet. Bei deutlich weniger Verlustleistung nur 10% weniger Performance, wär absolut cool, wenn man da sofort ein effizientes Modell anbietet. Meinetwegen nennt man es dann "Light Edition" (LE)
Meine Zukunftsmusik würde sich nach 9800X3D anhören...
Sowohl das erwähnte T Modell, als auch der X3D sind interessant für mich. Deutlich weniger Hitze, leiser, weniger Stromverbrauch - fast dieselbe Leistung (im Falle des X3D in Spielen sogar bessere)
 
Wie wäre es an dieser Stelle offiziell "Core Overdrive"-Modelle von Meteor Lake zuzusagen, welche die Lebensspanne heute gekaufter Systeme deutlich bis auf [AMD-Zitat] "2025+" verlängern? Technisch würden die Intel-Ingenieure so etwas sicher hinbekommen, wenn man sie nur mal lassen würde.
@PCGH_Torsten:
Viel einfacher Vorschlag für eine technische Lösung: Intel würde einfach ein anderes, LGA1700-kompatibles SOC-DIE (ihr Name für das IO-DIE bei AMD) für MeteorLake auflegen.
Ja, eine solche Ankündigung würde sicherlich einiges bewirken.

Umgekehrt könnte AMD sicherlich auch die CCDs von Raphael mit einem anderen IO-DIE auch auf AM4 zum Laufen bekommen. Nur warum sollten sie, sie können sie ja nicht bloß für Raphael, sondern auch für Raphael-X, Genoa und Genoa-X verwenden.
 
Bei deutlich weniger Verlustleistung nur 10% weniger Performance, wär absolut cool, wenn man da sofort ein effizientes Modell anbietet. Meinetwegen nennt man es dann "Light Edition" (LE)
Mal abgesehen von Notebooks, wo das ja weit verbreitet ist, liegt diese Disziplin den CPU Herstellern mehr. Man hofft einfach, dass sich Leute darüber informieren, wie sie ihre Hardware den Bedürfnissen nach richtig einstellen, was der Computerbase Artikel ja eindrucksvoll belegt bzw. man möchte sich als Hersteller nicht die Blöße geben, erst zuzugeben, dass man sich oberhalb des Sweet Spots bewegt, wobei es immer mehr Leuten offensichtlich wird. Eine Light Edition ist genauso wünschenswert wie vom Markt nicht akzeptiert. Der Frust, dass Leute ihre Hardware falsch betreiben, sinkt mit der Zeit, weil was wir hier an Details herausfinden, macht ja die Runde und einen besseren Überblick zu haben, wird fast alle Leute "betreffen".


Da ein Großteil der Leistungsaufnahme von der Auslastung bei einer gesetzten Taktgeschwindigkeit kommt und weniger von der Taktgeschwindigkeit selbst, ist meiner Meinung nach die Energie entscheidend, die für das Nichtstun schon verbraten wird. Das heißt zwar wurde die Leistungsaufnahme im Leerlauf sehr wahrscheinlich bei 4K mit ??? Hz gemessen, für 1080p Gaming reicht den meisten jedoch auch ein 1080p Monitor. Was da an Auflösung fehlt, kann man durch Auflösungsskalierung im Spiel selbst an zusätzlicher Last noch auf die Grafikkarte drücken. Antialiasing, anisotropische Filterung, Grafik Candy eben. Wie groß der Unterschied zum Leerlauf bei 1080p ist, interessiert mich. Dann wäre klar, wie viel Mehrverbrauch im Schnitt auf die Chipgröße fällt, wie viel auf die Breite des Speicherintefaces (was bringt 64 Bit an Ersparnis zu 384 Bit als Extrembeispiel) und ob die Anzahl der CUDA Kerne überhaupt einen Unterschied macht.

Werte von 80 bzw. 81 Watt sind gut, gehen aber mit kleineren Modellen der Ada Lovelace Generation noch deutlich besser, alleine weil mehr Energiebudget da ist bis zu diesem Punkt, weil beim Nichtstun schon weniger zu tun ist. Deswegen erreichten ja auch Intel CPUs hier so gute Effizienzwerte gegen AMDs mit Infinity Fabric und ohne Grafikeinheit: Nicht weil der Fertigungsprozess so toll war bei Intel, sondern weil mehr Watt verbraucht werden konnten, um gleich viel Watt in der Endabrechnung zu haben. Den Maximalverbrauch einer Grafikkarte dagegen zu begrenzen oder selbst eine Spannungs-Taktfrequenz Kurve einzustellen ist nicht unendlich viel Arbeit. Man kann damit angeben, aber sich für eine "Light Edition" zu rechtfertigen, scheint schwieriger zu sein.


Monitor bei 1080p reicht, dazu nicht allzu viel an maximal verfügbarer Grafikleistung sparen, eher an der Chipgröße und viele Testberichte abwarten, aber keinesfalls das Budget überstrapazieren. Lieber gar nicht das Lieblingsspiel spielen als ewig arm zu bleiben. Mich würde sehr überraschen, wenn es im Desktop Markt wieder LE oder SE, MX etc geben würde. Begrüßenswert ist es, ja, nur würde das vermutlich eher der Einteilung in Leistungsklassen dienen, anstatt sich auf weniger Leistungsaufnahme zu beziehen und damit indirekt auf die Frage, ob die Karte im Sweet Spot betrieben wird oder nicht, weil darüber.

Viele Grüße
 

Anhänge

  • Raff Test 4090 Power.png
    Raff Test 4090 Power.png
    27,4 KB · Aufrufe: 5
Danke für die Info!
Habe gerade mal bei CB geschaut, ... erstaunlich das im Budgetbereich der DDR5 eigentlich nur mit Raytracing
Vorteile hat. (meehrt die CPU da ständig auf dem Ram rum?)
Oder andersrum, gerade Da wo man die high Fps möchte macht scharfer DDR4@G1 mehr Sinn.
(weil man dann ohne RT spielt)

Vorsicht: DDR4 ist nicht gleich DDR4 und DDR5 nicht gleich DDR5. Computerbase vergleicht in dem Beispiel DDR-3600 (400 MHz über Spezifikation) CL16 (=2 Takte langsamer als das Beste gerade im Preisvergleich gelistete) mit DDR5-5600 (= Spezifikation) CL32 (= +4 Zyklen). Das ist vor allen Dingen bei den aktuellen Preisen nicht optimal, denn 32 GiB DDR5-5200 CL16 sind genauso teuer wie 32 GiB DDR5-6000 CL16. Man könnte den gleichen Test also zum gleichen Preis auch mit weiteren 15 Prozent mehr Durchsatz und um 15 Prozent reduzierten Latenz-Nachteil auf DDR5-Seite durchführen; umgekehrt würde DDR4 ohne OC um 13 Prozent ausgebremst. Oder man gleicht in Gegenrichtung an und kauft DDR5-4800 CL38 – den gibt es derzeit für 160 Euro, während beliebter DDR4-3600 CL16 180 Euro kostet.

Ich persönlich bin der Meinung, dass der Preisvorteil von DDR4 mittlerweile so klein ist, dass sich eine Neuanschaffung nicht mehr lohnt. Entweder man hat schon guten DDR4 (dann stellt sich die Frage: Hat man nicht auch eine gute CPU, die noch 1-2 Jahre hält oder ein gutes 5800X3D-Mainboard?) oder man kauft sowieso neu; dann direkt DDR5. Die paar Euro, die man noch sparen kann, rächen sich spätestens, wenn man in ein paar Jahren noch einmal Speicher nachrüsten muss. In Sachen Performance gibt es wesentlich mehr Benchmarks, bei denen die hohe Transferrate von DDR5 gegenüber den niedrigeren DDR4-Latenzen triumphiert, auch wenn natürlich viele Tests einfach gar nicht RAM-limitiert sind und zufällig den einen oder den anderen vorne sehen. Das kann je nach Setting und Szenario sogar im gleichen Spiel geschiehen: Dave misst mit seinen auf CPU-Limitierung optimierten Parcours praktisch keinen Unterschied zwischen DDR4 und DDR5 bei Alder Lake in Cyberpunk, ich komme mit den I/O-fokussierten Settings aus dem Mainboard-Parcours auf einen 27-Prozent-Vorsprung von DDR5-4400 gegenüber DDR4-3200.


@PCGH_Torsten:
Viel einfacher Vorschlag für eine technische Lösung: Intel würde einfach ein anderes, LGA1700-kompatibles SOC-DIE (ihr Name für das IO-DIE bei AMD) für MeteorLake auflegen.
Ja, eine solche Ankündigung würde sicherlich einiges bewirken.

Umgekehrt könnte AMD sicherlich auch die CCDs von Raphael mit einem anderen IO-DIE auch auf AM4 zum Laufen bekommen. Nur warum sollten sie, sie können sie ja nicht bloß für Raphael, sondern auch für Raphael-X, Genoa und Genoa-X verwenden.

Ich hatte mich nur zu der Modellpolitik geäußert. Die Technik ist vergleichsweise simpel: AMDs CPU-Kerne werden immer per IF angebunden und das ist flexibel. Für Zen 4 @AM5 bräuchte also nur ein passendes Package, das die neuen CCDs mit dem alten IOD verbindet, den müsste man nicht einmal neu entwickeln. Aber das noch simplere "AM4 auf AM4", dass dank des SoC-Prinzips technisch immer voll erfüllt war und ist, verweigert AMD bis heute bei einigen Mainboard-Prozessorkombinationen aus verkaufstaktischen Gründen.

Ähnliches gilt für Intel: Die CPUs stehen seit Jahren fast ausschließlich über eine Stromversorgung in ähnlichen Spannungsbereichen, über ein (auch-)DDR4-Dual-Channel-Speicherinterface, über ein paar Display-Links und über skalierbare, PCI-E-basierte Datenleitungen mit der Außenwelt in Verbindung. Wenn Meteor Lake nicht eine grundlegend andere Stromversorgung für einzelne MCM-Chips braucht*, müsste er zumindest in DDR5-Sockel-1700-Platinen komplett ohne Chip-Anpassungen und mit genügend Vorsicht bei der Pinbelegung ist sogar ein Package für beide Sockel denkbar. Genauso wie es möglich ist, Prozessoren zu bauen, die in Sockel 1151 (SKL) und in Sockel 1151 (CFL) funktionieren – und das bis mindestens einschließlich Comet, höchstwahrscheinlich aber auch Meteor und zumindest bei deaktivierten E-Cores auch Alder und Raptor Lake.

*: Aus Stromspargründen wird er sicherlich eine neue Unterteilung bekommen. Aber braucht er die auch, oder könnte er ohne funktionieren?

Das einzige, was derartige CPUs verhindert, ist auch bei Intel die Marktpolitik, die ich dort noch weniger nachvollziehen kann als bei AMD. Letztere machen wenig gut zusätzlichen Umsatz durch die I/O-Hub-Verkäufe und haben trotzdem einen gut Ruf. Aber Intel verschenkt für ein paar Cent PCH-Einnahmen große Teile des Retail-Marktes an die Konkurrenz – was wohl aus Ryzen 5000 geworden, wenn die vom Sockel 1151 kommenden Aufrüster einfach einen "i9-11899K" hätten kaufen können? (11900K mit 95 W PL1/125 W PL2 im Auslieferungszustand, um die alten Spannungswandler-Specs einzuhalten) Bis zur 10000er-Generation war der technische Aufwand für Intel-Upgrades so gering, dass chinesische Nischenhändler in Eigenregie mobile Comet Lakes für Skylake-Mainboards verkaufen. (Leider haben die mobiles auch nur acht Kerne und somit keinen Vorteil gegenüber einem 9900K@Z170 und neuere Architekturen blockiert Intel erfolgreich via Management Engine.)
 
Ich hatte mich nur zu der Modellpolitik geäußert.
Dann hatte ich die Parts Technisch würden die Intel-Ingenieure so etwas sicher hinbekommen und "Core Overdrive"-Modelle einfach überinterpretiert.
Aber hat sich dennoch gelohnt zu posten, denn dein Beitrag ist mal wieder klasse. :daumen:
Nur diesen Abschnitt verstehe ich nicht so ganz:
Das einzige, was derartige CPUs verhindert, ist auch bei Intel die Marktpolitik, die ich dort noch weniger nachvollziehen kann als bei AMD. Letztere machen wenig gut zusätzlichen Umsatz durch die I/O-Hub-Verkäufe und haben trotzdem einen gut Ruf. Aber Intel verschenkt für ein paar Cent PCH-Einnahmen große Teile des Retail-Marktes an die Konkurrenz – was wohl aus Ryzen 5000 geworden, wenn die vom Sockel 1151 kommenden Aufrüster einfach einen "i9-11899K" hätten kaufen können? (11900K mit 95 W PL1/125 W PL2 im Auslieferungszustand, um die alten Spannungswandler-Specs einzuhalten) Bis zur 10000er-Generation war der technische Aufwand für Intel-Upgrades so gering, dass chinesische Nischenhändler in Eigenregie mobile Comet Lakes für Skylake-Mainboards verkaufen. (Leider haben die mobiles auch nur acht Kerne und somit keinen Vorteil gegenüber einem 9900K@Z170 und neuere Architekturen blockiert Intel erfolgreich via Management Engine.)
Die PCHs von Intel sind doch verdammt heftig bepreist? Intel hat dort absolut übertrieben hohe Gewinnspannen und entsprechend sollte eben abkassiert werden. Das war halt anscheinend Teil ihre Strategie unter Krzanich.
Und wieso wäre RocketLake plötzlich konkurrenzfähig gewesen, wenn man ihn auf alte Mainboards hätte schnallen können? Auch dann hätten die gegenüber Vermeer keinen Blumentopf gewonnen. Klar, mit reduzierten Powertargets hätte der i9 besser dargestanden, aber gegen einen 5800X im Ecomode?
 
Dann hatte ich die Parts Technisch würden die Intel-Ingenieure so etwas sicher hinbekommen und "Core Overdrive"-Modelle einfach überinterpretiert.
Aber hat sich dennoch gelohnt zu posten, denn dein Beitrag ist mal wieder klasse. :daumen:
Nur diesen Abschnitt verstehe ich nicht so ganz:

Die PCHs von Intel sind doch verdammt heftig bepreist? Intel hat dort absolut übertrieben hohe Gewinnspannen und entsprechend sollte eben abkassiert werden. Das war halt anscheinend Teil ihre Strategie unter Krzanich.
Und wieso wäre RocketLake plötzlich konkurrenzfähig gewesen, wenn man ihn auf alte Mainboards hätte schnallen können? Auch dann hätten die gegenüber Vermeer keinen Blumentopf gewonnen. Klar, mit reduzierten Powertargets hätte der i9 besser dargestanden, aber gegen einen 5800X im Ecomode?
Also ich selbst hatte auch recht wenig dagegen, 5 CPU Generationen pro Sockel zu unterstützen, weil neue Sockel stets gut passen zu neuen CPUs und man selten genug neu kauft. Diese Ansicht habe ich schon vor ca. 10 Jahren hier geäußert.
 
Ich persönlich bin der Meinung, dass der Preisvorteil von DDR4 mittlerweile so klein ist, dass sich eine Neuanschaffung nicht mehr lohnt. Entweder man hat schon guten DDR4 (dann stellt sich die Frage: Hat man nicht auch eine gute CPU, die noch 1-2 Jahre hält oder ein gutes 5800X3D-Mainboard?)
Wozu willst Du für den 5800x3D extra ein neues Board kaufen, die Abwärtskompabilität sollte doch da sein?
dito
Why not vom 12100 auf 13600/13700nonK wechseln, wenn das B660 und der DDR4 schon da sind und man beim Kauf 22/3 nur den kleinen 12100 als Provisorium für den Übergang drin hatte.
Ich persönlich finds net schlecht, das man ausnahmsweise auch bei Intel mal 2 Gens auf einem Board betreiben kann.
 
Häää? Das macht Intel doch seit Skylake schon immer.
Genau und wenn man Sockel 1150 Broadwell nicht zu Haswell dazu zählt, da nur wenige Modelle bei Desktop auf dem Markt kurz vor Erscheinen vor Sockel 1151 Skylake gab es vorher Sockel 1155 Sandy Bridge (32nm) + Ivy Bridge (22nm), davor Sockel 1156 + 1366 (Nehalem 45nm + Westmere 32nm), wobei da wird es schon wieder kompliziert.
 
Dann hatte ich die Parts Technisch würden die Intel-Ingenieure so etwas sicher hinbekommen und "Core Overdrive"-Modelle einfach überinterpretiert.
Aber hat sich dennoch gelohnt zu posten, denn dein Beitrag ist mal wieder klasse. :daumen:
Nur diesen Abschnitt verstehe ich nicht so ganz:

Die PCHs von Intel sind doch verdammt heftig bepreist? Intel hat dort absolut übertrieben hohe Gewinnspannen und entsprechend sollte eben abkassiert werden. Das war halt anscheinend Teil ihre Strategie unter Krzanich.
Und wieso wäre RocketLake plötzlich konkurrenzfähig gewesen, wenn man ihn auf alte Mainboards hätte schnallen können? Auch dann hätten die gegenüber Vermeer keinen Blumentopf gewonnen. Klar, mit reduzierten Powertargets hätte der i9 besser dargestanden, aber gegen einen 5800X im Ecomode?

Als ich das letzte Mal Preise gesehen habe, kosteten Intel-PCHs deutlich weniger als Intel-CPUs. Je nach Vergleichspaar ein Drittel bis weniger als ein Zehntel. Gut – die Chip-Fläche beträgt ebenfalls nur die Hälfte bis ein Viertel und PCHs können vermutlich mit weniger Totalausfällen produziert werden. Aber Packaging- und Testing-Kosten fallen ja pro Chip an, sodass die Marge der CPU trotzdem das zehn bis zwanzigfache der PCHs betragen könnte – insbesondere im High-End-Bereich, wo Aufrüstung statt Neukauf am wahrscheinlichsten ist. Das heißt jeder zusätzlich verkaufe i9 wiegt aus Intel-Sicht ein Dutzend nicht verkaufter Boards wieder auf und mit mehr Aufrüstfreundlichkeit hätte sicherlich einige zusätzlich verkauft, auch wenn Rocket Lake natürlich in keiner Verbrauchsklasse mehr Leistung als Vermeer bot.

Aber CPUs werden nicht nach Leistung pro Watt gekauft, sondern nach Leistung pro Euro oder bestenfalls nach Leistung@Verbrauchsklasse pro Euro. Nachdem sich Skylake rund 1,5 Jahre praktisch ohne Konkurrenz verkaufte und Coffee Lake im Anschluss durchaus noch gute Marktanteile erreichte, gerade unter Spielern die eher mal Einzelkomponenten aufrüsten, gab es während des Duells LGA1200 vs AM4 2./3.Gen eine breite Palette an Sockel-1151-Besitzern, unter denen zumindest die Quad-Besitzer auf der Suche nach neuer Technik waren. Ein Drop-In-Rocket-Lake hätte diese nur die CPU gekostet, während Zen 2 und 3 noch zusätzlich ein neues Mainboard erforderten – bis 2020 sogar ein teures X570-Modell. Hier hätte Intel mit abwärtskompatiblen CPUs pro investierten Aufrüst-Euro deutlich mehr Leistung geboten. Statt dessen hat man versucht, Z490 und Z590 zu verkaufen. Aber als Komplett-Paket bei einem ohnehin zwingend nötigen Neukauf hatten die keine Chance gegen AM4.

AMD macht das heute schlauer: Nicht zuletzt wegen Intels Marktpolitik ist der AM4 unter Bastlern, die aufrüsten würden, heute die vorherrschende Plattform und mit Ausnahme der Zen-3- und vielleicht noch Zen-2-Ryzen-9-Besitzer besteht dort mittlerweile Interesse an neuen, flotten Prozessoren. Mit dem 5800X3D gibt es einen eben solchen und er verkauft sich wie geschnitten Brot. Ich glaube zwar weiterhin, dass AMD daran deutlich weniger verdient, als an anderen Prozessoren, sodass hier die Verkauseinbußen im Vergleich zu einer Zen-4-X670-Combo stärker drücken. Aber wenn der gleiche potentielle Kundenkreis stattdessen LGA1700 kaufen würde, wäre das noch viel schmerzhafter.


Wozu willst Du für den 5800x3D extra ein neues Board kaufen, die Abwärtskompabilität sollte doch da sein?
dito
Why not vom 12100 auf 13600/13700nonK wechseln, wenn das B660 und der DDR4 schon da sind und man beim Kauf 22/3 nur den kleinen 12100 als Provisorium für den Übergang drin hatte.
Ich persönlich finds net schlecht, das man ausnahmsweise auch bei Intel mal 2 Gens auf einem Board betreiben kann.

Wie bereits erwähnt: Zwei Generationen ist bei Intel Standard. Aber wer in der ersten Generation nicht absichtlich klein kauft, wie in deinem Beispiel, sodass er in der zweiten mindestens zwei Produktlassen nach oben springen kann (i3 => i7; i5 => i9 – besser natürlich i3 => i9), für den lohnt ein Upgrade selten. Jemand, der vor 12 Monaten einen i3-12100F gekauft hat und damit zufrieden war, der kauft heute keinen 13900K. Die meisten Aufrüster haben drei bis fünf Jahre alte Systeme und blicken sich in einer ähnlichen Preisklasse um, wie beim letzten Kauf. Da gibt es aktuell vier Gruppen:
- Besitzer von älteren AM4-Systemen haben das von mir angesprochene, 5800X3D taugliche Board und sollten zu diesem greifen – ganz ohne neuen RAM (Wenn sie nicht zwingend 13900K- oder AM5-Mehrkernleistung brauchen.)
- Besitzer von 1150-, Sockel-2011-v3- und von günstigeren 1151-Systemen: Haben kein 5800X3D-taugliches Board und auch sonst keine Aufrüstoption innerhalb ihres Sockels. (Sieht man von etwaigen Coffee Lake Mods ab, aber auch für die muss man ein gutes Schnäppchen machen oder sehr teure Platinen wählen.) Aber solche Rechner in der Regel auch keinen High-End-DDR4. Also müssten sie selbigen für ein 5800X3D- oder Sockel-1700-DDR4-System neu kaufen und das lohnt meiner Meinung nach nicht.
- Besitzer von jungen AM4-, High-End-1151-(CFL)- und 1200er-Systemen haben zwar meist guten DDR4-RAM, aber noch gar keinen Aufrüstgrund.

Mein Fazit daher: Sockel 1700 DDR4 lohnt sich für keinen. Entweder ist der 5800X3D die günstigere Option oder DDR5 die bessere Wahl oder das Upgrade lohnt allgemein nicht.
 
In allen Testberichten, die ich bisher gelesen habe, finde ich beeindruckend, wie wenig Rechenleistung man beim Einsatz von DDR4 verliert, weshalb ich auch einen Kostenvorteil da für Intel sehe gerade.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

HardwareUnboxed hat genau den Vergleich gebracht und ich finde die Unterschiede in der Performance schon nicht unerheblich.
 
Zurück