News Intel Arrow Lake: Die neuen CPUs haben mehr als die angegebenen 1.851 Pins

Und warum keinen AMD?
Wenn es um 4k Gaming geht ist das quasi schnurzegal.
Abgesehen davon ist es gut dafür zu sorgen das es auf dem Markt ein Gleichgewicht auf Dauer gibt.
Niemand möchte eine konkurrenzlose Alleinherrschaft von AMD oder Intel haben.
Ich habe zwar selbst keine Intel CPU mehr seit Sandybridge gehabt, hatte aber darüber nachgedacht den 285k in Auge zu fassen. Das dieser keinen Mehrwert zur Vorgänger Version hat, sorgt dafür das ich es aufgeschoben habe, da ich gerne das neuste haben möchte und dies sich daher vom Vorgänger abheben muss.
Das der eine oder andere im CPU Limit den einen zersägt oder nicht oder die TDP um 20 oder 30 Watt höher liegt, juckt weder mich noch denen die wissen das dies immer nur Maximalwerte darstellen und keine echten fühlbare Werte sind und am ende bloß durch Benchmarks effektiv nachweisbar sind um dann sagen zu können ich bin geil....... sorry aber aus dem Alter sind die meisten PCGH User raus.......
Man kann ja ganz gut bei Nvidia erkennen was passiert wenn sich jemand konkurrenzlos fühlt.
 
Wenn es um 4k Gaming geht ist das quasi schnurzegal.
Wenn ich schon wieder solche Aussagen lese... :rollen:

Da kommen diverse Faktoren zum tragen.
1) Welche GPU?
2) Kommt DLSS/FSR zum Einsatz? Meistens schon, sieht so gut wie immer besser aus als nativ. Dann hat man selbst mit Qualität nurnoch QHD
3) Welches Spiel? Insbesondere Aufbau-/Strategie-/Simulationen gehen auf die CPU und weniger GPU.

Dass RAM OC in UHD bei einem 5800x3D einen Unterschied machen kann und sogar mit einem Framelimit (!) ein Unterschied messbar ist, habe ich bewiesen.

Und dabei waren das nichtmal besonders CPU lastige Spiele. Also wieso sollte man keinen Unterschied merken wenn eine CPU 20% schneller ist als eine andere?
Es kommt eben darauf an...

Allgemeingültige Aussagen sind immer schwierig, da ein Beispiel reicht um die Aussage als falsch zu deklarieren.
 
Singlecore zersägt amd den core und bei Multicore praktisch gleich auf.
Wo das denn?

gegterwrhgez5j.JPG
 
WebXPRT ist ein extremer Ausreißer und selbst wenn.
3-4% Abstand nennst du zersägen? Lustig.


Der Stromverbrauch im Singlecore wurde nicht gemessen.
Ja nenne ich.. Doch der Stromverbrauch wurde aug anderen Seiten gemessen
Bei Multicore und singel core sind die AMD sparsamer..Im Leerlauf brauchen sie 10 Watt mehr .
Ich nenne es zersägen wenn man den Preis mit einbezieht..
 
Ok, dann zersägt der Intel Prozessor die AMD Riege im Niedriglast und Idle Verbrauch total.
Challange Accepted. :ugly:
Doch der Stromverbrauch wurde aug anderen Seiten gemessen
Ja, da gibt es so Übersichtsarbeiten wie aus dem 3DC.

rfwfr.JPG

Der 285K benötigt im Schnitt 147W und der 9950X im Schnitt 160W.=)
Bei Multicore und singel core sind die AMD sparsamer
Nicht wirklich. Das Powertarget ist höher, das sagt aber wenig über den tatsächlichen Verbrauch.
Ich nenne es zersägen wenn man den Preis mit einbezieht..
Den hattest du nicht miteinbezogen.
Der AMD Prozessor ist momentan 50 Euro günstiger, in der Hinsicht hast du recht.
 
Ok, dann zersägt der Intel Prozessor die AMD Riege im Niedriglast und Idle Verbrauch total.
Challange Accepted. :ugly:

Ja, da gibt es so Übersichtsarbeiten wie aus dem 3DC.

Anhang anzeigen 1473524
Der 285K benötigt im Schnitt 147W und der 9950X im Schnitt 160W.=)

Nicht wirklich. Das Powertarget ist höher, das sagt aber wenig über den tatsächlichen Verbrauch.

Den hattest du nicht miteinbezogen.
Der AMD Prozessor ist momentan 50 Euro günstiger, in der Hinsicht hast du recht.

Mehr muss nicht gesagt werden zu den Intels:
Der Prozessor ist mit 650 Euro auch sehr teuer. Entsprechend wenige Menschen kaufen sich die CPU für ihren Heimcomputer, zumal AMD-Prozessoren mit ähnlicher Leistung wesentlich günstiger sind
 
Wesentlich günstiger? Den 14900K gibt es ab 430 Euro und der ist nur geringfügig langsamer als 9950X/285k. Für was diskutiere ich überhaupt? Sinnfrei.
 
Zurück