News 14900K versus 285K: SSD-Benchmarks zeigen weitere Probleme mit Arrow Lake auf

Hat Arrow Lake noch versteckte Potenziale - oder hoffen Sie stattdessen auf den Nachfolger?

Um mal pro forma die Engagement-Frage zu beantworten:

Ja, ARL hat (zumindest laut Intels VP of Technical Marketing Robert Hallock, vormals AMD) noch Potenziale, die nicht gehoben wurden. Das glaube ich dem Mann sogar.

Nein, das wird ARL nicht zu einer konkurrenzfähigen CPU machen können, wenn man in seinem persönlichen Anwendungsspektrum nicht exklusiv die wenigen Applikationen hat, in denen ARL überzeugend funktioniert.

Dieses Forum gehört zu PC Games Hardware, und in dieser Hinsicht ist ARL ein lost cause.

Nein, ich "hoffe" nicht auf den Nachfolger, jedenfalls nicht persönlich. Ich habe mich bereits mit Zen4 für AM5 entschieden, werde den 7800X3D durch den 9800X3D ersetzen, sobald der breit verfügbar ist und den 7800X3D an den Nachwuchs weitergeben, da steht nämlich ein Upgrade an. Bis nach Zen6 bin ich also versorgt, sollte sich das lohnen i.Vgl.z. dann 9800X3D. Danach steht dann AM5 zur Disposition, und ich werde neu darüber nachdenken müssen, ob es wieder eine AMD-Plattform wird oder ob es einen interessanten Konkurrenten gibt. Das interessiert mich die nächsten Jahre persönlich also nullkommanull.

Für den Gesamtmarkt gesehen wäre es wahrscheinlich gesünder, wenn Intel ggü. AMD konkurrenzfähiger wäre. Aber das kann ich als einzelner Konsument kaum beeinflussen. Deshalb habe ich diese Wünschelrutentaktik schon vor langer Zeit aufgegeben und kaufe zu den für mich relevanten Zeitpunkten einfach das für meine Bedürfnisse passendste Produkt - egal ob die Box jetzt schwarz/rot oder blau ist.
 
Aber der PC läuft doch bei dir keine 12h am Tag im Minimallast-Betrieb?
Im Schnitt - doch. Die Kiste läuft wenn ich zu Hause bin nahezu immer. Nochmal - es ist KEIN Spiele-PC! ;-)
Ich hab meine alte System-SSD ja nicht mehr verbaut und kann nicht mehr schauen aber die hatte nen Betriebsstundenzähler von >20.000h gehabt... ich weiß die zahl natürlich nicht auswendig aber es war ne 2 vorne und sie hatte 5 Stellen. Und der PC war von Sommer 2019. Bei 20000h durch was sind das 5,5 Jahre sind das schon mindestens 10h täglich gewesen.
 
Zuletzt bearbeitet:
Stellt Euch mal vor, Intel hat die CPU extra schlecht in manchen Bereichen gemacht um dann nächstes Jahr mit der eigenen Fertigung eine CPU herausbringt, die auf einmal 50% schneller ist als TSMC 3nm? Wäre schon sehr geniales und geiles Marketing für die Intel Fertigung. Und Marketing kann Intel ja immerhin...
 
- WHEA-Errors (Bios Update nötig)
- fTPM Bugs (BIOS-Update nötig)
- Instabile Boosttaktraten früher Agesa Versionen (BIOS-Update nötig)
- nicht funktionierendes rBAR (bis heute ungelöst)
- Blackscreens mit manchen Treiberversionen von NVidia
- Nach ausschalten totes System bis Bios-Batterie raus (CMOS Reset reicht NICHT, ist ein Gigabyte-AM4-Bug)
- Instabil gesetzte tRFC RAM-Subtimings (Gigabyte-Bug)
- Verschwindende NVME-SSDs während des Betriebes (BIOS-Update, 95%-fix, passiert immer noch aber sehr viel seltener)
- sporadisch extrem lange Bootzeiten/RAM-Trainings
- mehrere gestorbene RAM-Controller in Ryzen-Systemen die ich gebaut habe (AMD-RMA nötig)
- Chipsatzlüfter-ratttttttertatatatatat
(Liste ist nicht vollständig)

Und ja, alles davon findet man bei Google bei zig anderen Anwendern, ich bins also nicht selbst schuld gewesen^^

So das letzte anderthalbe Jahr rum lief das System stabil und fehlerfrei. Nur die ersten 3 Jahre halt nicht ohne zig Workarounds.

Ich hoffe einfach, dass ich bei dem jetzigen ARL davon verschont bleibe (bisher siehts gut aus). Meine Erfahrung als Jemnd der viele PC gebaut hat ist eben, dass AM4-Systeme sehr oft Probleme aller Art machten und ich oft zu den "Kunden" musste um irgendwas zu fixen und auch selbst Probleme hatte, während alle Intel-Systeme fire&forget waren, von denen hab ich nie wieder was gehört bis dieses jahr die Raptorlake-Sache aufgepoppt ist.
Ich wollte jetzt einfach auch mal eins dieser Systeme haben die einfach funktionieren bzw. sich vorhersehbar verhalten. Obs so wird... schaun mer mal. :haha:
 
Im Schnitt - doch. Die Kiste läuft wenn ich zu Hause bin nahezu immer. Nochmal - es ist KEIN Spiele-PC! ;-)
Ich verstehe dich, selbst im Spiel PC wäre die CPU ja voll tauglich.
9800X3D schafft mehr FPS ja aber auch nur wenn mann dann auch eine 4090 oder ähnliches im Rechner hat und High FPS Gamer ist.
Ansonsten spielt die CPU doch eh die untergeordnete Rolle, mal CPU lastige Games wie Anno oder so ausgenommen.
Aber Intel ist auch teilweise selber Schuld an dem Streben nach der "Gaming Krone" , jahrelang ist man ihr hinterher gejagt, nun ist sie erstmal bei AMD gelandet und man musss sich Kritik anhören.
Ich meine , was soll ich denn sagen mit meiner Gurke von 5800X :D
Aber für die 6700XT brauchts einfach auch nicht mehr, zockt sich wunderbar.
Viel Spass mit dem 285K, mir wär der aber zu teuer :sabber:
 
Idle ist wichtig weil es der einzig verbliebene Vorteil ist, auf den sich
Intel noch berufen kann. Entsprechend wird diese Sau wegen läppischer 10W solange durchs Dorf getrieben wie es nur geht.
Mal abgesehen davon, dass es schwierig ist dies am Ende auch akkurat beurteilen zu können.
Denn schlussendlich ist es ja auch immer die Kombination aus Mainboard und CPU und wem der Idle / niedrig Last Verbrauch so extrem wichtig ist, muss sich ja auch nicht immer für einen extrem energiehungrigen X870E entscheiden.
1731770478868.png
 
Viel Spass mit dem 285K, mir wär der aber zu teuer :sabber:
Ist er auch, also nicht nur dir und mir sondern auch vom P/L her ist das Ding zu teuer bei der Konkurrenz. Der Punkt geht ganz klar an AMD.

Aber es geht für mich rein finanziell, ich kaufe ziemlich selten neue Hardware für mich (wie gesagt der PC den ich ersetzt habe war 5,5 Jahre alt), wenn man da regelmäßig was weglegt über die lange Zeit reicht das auch problemlos wenn man dann vierstellig einkaufen muss (und ja, ich verdiene ziemlich viel Geld im Vergleich zum Schnitt, es ist also auch klar, dass nicht jeder die Möglichkeit hat solche CPUs zu kaufen, völlig wertfrei gemeint). Rein auf P/L gesehen ist der 265 und 245 natürlich die weit bessere Wahl im Portfolio.
 
Nun habe ich selber nen 285K und neues Board gekauft und auch noch die damit angeblich furchtbar verbuggte 24H2 von Win11 installiert.
Wenn ich mal die Probleme mit dem Gigabyte Z890M Board ausblende, dann läuft das 285K System fehlerfrei mit DDR5 8333 CL38 und dem 890I Nova. Das System ist absolut leise und hatte noch keine groben Schnitzer, allerdings habe ich noch Windows 23H2 drauf.
Nur damit gewinnste im Netz halt keinen Blumentopf, es ist viel lukrativer, sich über 10% mehr oder weniger Gamingleistung aufzuregen...
Mit meinen Settings komme ich etwa an einen stock 7800X3D heran, das ist jetzt nicht prall, aber es reicht mir auf der Arbeitsmaschine auch mal etwas zu zocken.
Wie sehen denn deine Latenzen aus?

285K.png
 
Manchmal habe ich das Gefühl, das gar kein Produkt überhaupt noch gut weg kommt. Wie Alki schon sagt, für Anwendungen ist es eine gute Plattform. Und es ist ja nicht so, daß man damit überhaupt nicht zocken kann. Man sollte sich primär die Frage stellen, wen Intel mit der Gen ansprechen will und das werden wohl nicht die Gamer sein.
 
Grausam - was aber daran liegt dass ich mich noch nicht dran gemacht habe, AIDA außerhalb der VM-Umgebung zu betreiben und deswegen die Latenzmessungen unterirdisch (und falsch) sind. Da kommen Werte von 130-150 raus.
Real dürfte es wohl nen Stück unter 100 sein.
Mein Optimum mit Timing und Subtiming Optimierungen lag bei 71-72ns , leider habe ich mir die Konfig nicht aufgeschrieben, bzw. gespeichert, jetzt muss halt so laufen.
Wenn ich mal wieder Langeweile hab schau ich ob ich unter 70ns als 24/7 Setting komme.

Sag mal kann es sein, dass du auf einem anderen Planeten lebst,
Das 3DC ermittelt 30% im Schnitt, PCGH 29% und es kommen noch Updates.
Ich gehe nach den Updates von 20-25% Vorsprung für den 9800X3D aus. Das ist definitiv ein Guter, aber deshalb ist die CPU auch nicht unbrauchbar und vor allem bei Spielen mit hoher CPU Last wie Cities Skylines oder Veilguard ziemlich flott. Außerdem profitiert sie enorm von schnellem Speicher, wohingegen der 9800X3D das kaum tut, insofern liegt für mich die Differenz effektiv noch etwas niedriger, was nicht schön ist, aber auch kein Weltuntergang.
 
Zuletzt bearbeitet:
den muss ich, in einer "Intel Blase" lebend, wohl aus versehen gekauft haben :ugly:
Anders ist das nicht zu erklären! :lol:
Der 9900X, der in Anwendungen in etwa gleich schnell ist, kostet 200€ weniger! Da muss man den Rechner im Idle, oder in Minimallast, schon sehr lange laufen lassen, bis man den Unterschied raus hat.
Falls das Mainboard auch teurer war, erst recht.

1731771943860.png

Wie gesagt - ich behaupte nicht dass die Entscheidung einen 285K statt eines 9950X zu kaufen vollstänmdig rational oder rein logisch motoviert war, das ist sie nicht. Ich wollte auch mal wieder von AMD weg weil ich mit dem elenden AM4 System so viele Probleme hatte. Und außerdem war Intel "an der Reihe", anhand meiner Historie
Ok, das macht Sinn! :)
 
Grausam - was aber daran liegt dass ich mich noch nicht dran gemacht habe, AIDA außerhalb der VM-Umgebung zu betreiben und deswegen die Latenzmessungen unterirdisch (und falsch) sind. Da kommen Werte von 130-150 raus.
Real dürfte es wohl nen Stück unter 100 sein.
Leider merkt man diese Gedenksekunde bei den neuen Intelprozessoren wie ich finde. Mein Meteor Lake hat gruselige 140ns im Bestcase.

cachemem3.png
 
Das ist genau das, was @DiePalme grade anspricht: Die Medien (bzw. vor allem einige Selbstdarsteller auf den Sozialen Medien) haben hier ein Szenario aufgebaut in dem ArrowLake irre schlecht wegkommt weil man damit Klicks generiert (was man vorher mit Ryzen9000 auch gemacht hat der genau wie ARL wohl eher 1-2 Monate zu früh released wurde).

Nun habe ich selber nen 285K und neues Board gekauft und auch noch die damit angeblich furchtbar verbuggte 24H2 von Win11 installiert.

Die Realität: Ich hatte NULL Probleme, weder Bugs noch Performanceprobleme oder Stabilitätsprobleme, nichts. Das System ist das bisher unproblematischste das ich die letzten 10 Jahre hatte. Nur damit gewinnste im Netz halt keinen Blumentopf, es ist viel lukrativer, sich über 10% mehr oder weniger Gamingleistung aufzuregen
...und noch dazu in einem Auflösungsbereich, der für einen Gamer in keinem einzigen Szenario relevant ist, sondern nur ein was-wäre-wenn-es-die-UtopiaGrafikkarte-gäbe wiederspiegelt. Ab WQHD ist es bis auf in wenigen generell CPU-lastigen Ausnahmefällen wie z.B. MSFS oder Anno fast vollkommen buggi, ob in der Kiste ein 5600X, 14900K, 285K, 9800K, 3800X oder 9900K werkelt. 6-Kerner reichen oft noch vollkommen aus, wie sogar Onkel Dave in einem YT-Video jüngst festgestellt hatte.

oder wie hier einen vermutlich spezielleren Problemfall zu einem generellen mutmaßlich fürchterlichen Intel-Problem zu erklären als festzustellen, dass vermutlich 99+% aller Benutzer völlig problemfrei unterwegs sind.
Und was mich bei den ach so rasend schnellen M.2-SSDs und bei SSDs im allgemeinen auch immer nervt: Es wird bei den Benchmarks nie das volle Beschreiben einer SSD über 1Tbyte, 2Tbyte oder gar 4 Tbyte gemessen. Immer nur über den kleinen Bereich, wo diese wirklich schnell sind. Würde das anders gebencht, würden viele ihre alten HDDs als Datengrab viel mehr wert zu schätzen wissen.
 
Es ist für mich immer wieder unergründlich, warum der Idle-Wert so wichtig ist. Ich mache meinen (Spiele-) PC an, wenn ich spielen will.
Es ist immer dann unergründlich, wenn der eigene Lieblingshersteller in verschiedenen Disziplinen unterlegen ist.
Mein System mit 9800X3D braucht auf dem Desktop mit den üblichen Tasks einfach durchgängig 20-30 Watt mehr an der Steckdose. Und deshalb greifen Leute die sich eine Workstation holen nicht zwingend zur AMD CPU,
zumal ein 9950X nochmal rund 10 Watt draufpackt.
Du bist halt einer der Märchenerzähler der meint es liegt dauerhaft irgendwelche hohe Last an.
Wenn ich arbeite, habe ich meinen Arbeitspc (bzw. Laptop). Wenn ich "Multimedia" mache (was bei mir Lightroom, OBS und selten Photoshop ist) - ist die CPU nicht im Idle.
Genau und wenn ich nur surfe, gehe ich ans Handy. Springe immer zwischen 3-4 Geräten hin und her.:fresse:
Nicht dass mich der Verbrauch des 9800X3D stören würde, aber deine Story ist Käse.
Und man sollte sich - ganz abgesehen von meinem oberen Punkt - nicht wundern, wenn in einem PC- GAMES - Hardware Forum hauptsächlich die Gaming-Performance besprochen bzw. verglichen wird. Und die ist - anders kann man es nicht sagen - lächerlich niedrig (im Vergleich zum Wettbewerb).
Hauptsache man zieht den Vergleich zu Bulldozer.:P Bei 29% AVG und 18% in den Percentilen, beim derzeitigen Patch-Stand. Letztendlich reden wir hier wahrscheinlich von 25% AVG und mit optimiertem Speicher vielleicht von 15-20% im Mittel und bei den Percentilen dann 5%?
Der 9900X, der in Anwendungen in etwa gleich schnell ist, kostet 200€ weniger! Da muss man den Rechner im Idle, oder in Minimallast, schon sehr lange laufen lassen, bis man den Unterschied raus hat.
Langsam mit den Pferden. PCGH testet die CPU mit 125Watt und 56s TAU, einer Spezifikation die nicht existiert, das kostet 10-15% Performance.
Im Mittel der Tests nehmen sich 285K und 9950X nichts in Anwendungen.

Screenshot 2024-11-16 173636.png
 
Zuletzt bearbeitet:
Anders ist das nicht zu erklären! :lol:
Der 9900X, der in Anwendungen in etwa gleich schnell ist, kostet 200€ weniger! Da muss man den Rechner im Idle, oder in Minimallast, schon sehr lange laufen lassen, bis man den Unterschied raus hat.
Falls das Mainboard auch teurer war, erst recht.

Anhang anzeigen 1474947

Ok, das macht Sinn! :)
Guck dir lieber folgende Anwendungsbenchmarks bei Igor ab Seite 6 folgende an:
1731774395830.png
Da sieht das Bild schon viel durchwachsener und durchaus auch schlechter für AMD 99x0X aus. Es hängt von den echten Anwendungen ab.
 
Genau und wenn ich nur surfe, gehe ich ans Handy. Springe immer zwischen 3-4 Geräten hin und her.:fresse:
Nicht dass mich der Verbrauch des 9800X3D stören würde, aber deine Story ist Käse.
Trinkst du? Oder warum halluzinierst du dir gerade herbei, wie ich meinen Computer benutze?
Und 2 Geräte (eines für Arbeit und eines für Games) ist nun nicht gerade irgendwas Seltenes.
Du bist halt einer der Märchenerzähler der meint es liegt dauerhaft irgendwelche hohe Last an.
Nö. Lies was ich geschrieben (und du sogar zitiert hast) habe. Ich habe auf meinem Spiele-PC zu 80-90% Spielelast anliegen - weil, das mag dir jetzt komisch vorkommen - ich auf meinem Spiele-PC hauptsächlich: TADAA! spiele.
Ich gehe nicht an den PC um zu "scrollen". Ich gehe an den PC um zu spielen oder Bilder zu bearbeiten/zu bewerten. Im Forum stöbere ich dabei auf dem zweiten Bildschirm in Ladezeiten, Flugreisen (bei WoW bspw) oder wenn ich in einer Multiplayer-Lobby bin. Wenn was Interessantes geschrieben wird, so wie hier im Thread, dann antworte ich darauf während das Spiel pausiert (außer beim Multiplayer, offensichtlich).


Bei 29% AVG und 18% in den Percentilen, beim derzeitigen Patch-Stand. Letztendlich reden wir hier wahrscheinlich von 25% AVG und mit optimiertem Speicher vielleicht von 15-20% im Mittel und bei den Percentilen dann 5%?
Und wenn der Mars im Aszendenten steht sinds nur noch 2%. Bei Vollmond führt Intel dann mit 3%! Und wenn ich den AMD-PC nicht anmache, gewinnt Intel sogar mit 20%!
Guck dir lieber folgende Anwendungsbenchmarks bei Igor ab Seite 6 folgende an:
Anhang anzeigen 1474952 Da sieht das Bild schon viel durchwachsener und durchaus auch schlechter für AMD 99x0K aus. Es hängt von den echten Anwendungen ab.
Sind die "echten" Anwendungen nur AutoCAD oder zählt auch Inventor?

1731774842905.png
 
Liegt vllt am Speicher?
Die Samsung hat V-NAND 3-Bit MLC und die Corsair 3D TLC und die PNY SLC.
Die Corsair und PNY sollen den gleichen TLC-Speicher von Micron nutzen (B58R mit 232 Lagen), auch den gleichern Controller, E26 von Phison.
Laut Tests von PCGH bzw. TechPowerUp.

Die Samsung 990 Pro nutzt aber natürlich welchen aus eigenen Speicher und Controller Fertigung, aus der 7. Generation ihres V-NAND mit 176 Lagen - laut PCGH.

Grund könnte also die Kombi, Core U200 + SSD mit Micron B58R, sein.


SLC-Flashspeicher wird afaik nur noch bei (wenigen) Server-/Workstation SSDs genutzt. Bei Endkundenmodelle findet man lediglich Pseudo-SLC als Cache.
 
Zurück