News Core Ultra 200K: Gerüchte zum CPU-Release überschlagen sich

Eindeutig ist da nix, denn viele glauben das mittlerweile tatsächlich.
Der Punkt ist auch, dass Witze über heiße Chips und Leistungsaufnahmen einen Kilometerlangen Bart haben. Es gibt praktisch nichts, was von Pentium4 über AthlonFX bis zu Rocketlake (oder dasselbe bei Grafikkarten) als billige Herdplattenwitze noch nicht gemacht wurde. Was daran ärgerlich ist ist einfach, dass es inhaltlich in den meisten Fällen auch falsch ist/war.

Wenn ich heute nen 14900K mit nem 7950X vergleiche dann ist im Idle und bei geringen Teillasten der Intel sparsamer, bei mittleren Lasten (etwa Spiele) der AMD sparsamer und bei Vollast beide etwa gleich (innerhab aller Specs betrieben). Welches System am Jahresende mehr Kilowattstunden auf der Uhr hat ist im Wesentlichen nur davon abhängig wie das Nutzerprofil des Benutzers ist. Aber diese Zusammenhänge sind nicht in einen einzelnen Balken zu quetschen und erzeugen weniger Aufmerksamkeit (=Geld) im Netz als "14900K frisst 472drölf Watt [mit unlimited-Settings unter dicker Wakü in Prime95 die ersten 2 Sekunden]". :ka:
Glaub sogar der Intel ist auf Dauer sparsamer, wenn er dauernd abstürzt, läuft er ja nicht
 
Glaub sogar der Intel ist auf Dauer sparsamer, wenn er dauernd abstürzt, läuft er ja nicht
Das auch :D

Und in einem Punkt belügt er sich selbst. Ein 7950X ist außer im Leerlauf, IMMER sparsamer als ein 14900K.

Selbst bei volllast nimmt der 14900K 62% mehr Energie auf und ist LANGSAMER.

 
Das auch :D

Und in einem Punkt belügt er sich selbst. Ein 7950X ist außer im Leerlauf, IMMER sparsamer als ein 14900K.

Selbst bei volllast nimmt der 14900K 62% mehr Energie auf und ist LANGSAMER.

Ich glaube du solltest deinen eigenen Link mal öffnen und auf Teillast klicken. Da steht genau das was Alk geschrieben hat: Idle Intel, Teillast unentschieden (1W zu Gunsten Intel), Volllast AMD. Und das war mit offenen Intels.
 
Wunderbar. Ich bin schon gespannt. Brauche zwar aktuell keine neue HW aber freue mich immer, wenn neue Produkte rauskommen und erst Mal ein paar Monate durch alle Testinstanzen gehen können, bis ich mir dann was Schönes raussuchen kann. :D
 
Warum müssen Leute im Internet eigentlich immer so unreflektierten Mist von sich geben?

Fürs Interesse: ArrowLake kommt Gerüchtestand jetzt mit einer maximalen Leistungsaufnahme von 177W beim Topmodell sofern man sich an die Intel-Specs hält. Das ist weniger als die Topmodelle von Ryzen7000 oder 9000 (230W) - und in allen Fällen natürlich weit davon entfernt 1000W-Netzteile zu erfordern.

Anhang anzeigen 1464606

Selbst wenn Intel sich entscheiden würde, das Limit doch auf ~250W zu setzen wäre der Spitzenverbrauch der Topmodelle beider Hersteller ziemlich gleich. Aber ich weiß, damit kann man im Netz weder Rants noch Klicks auslösen.
Jetzt komm hier nicht mit Fakten, ok!

Wir wollen wie gewohnt Intel-bashing betreiben, basierend auf Thesen die wir mal irgendwo gehört oder über drei Ecken im Internet gelesen haben ;)

Außerdem ist es viel bequemer Hersteller aufgrund von Fehlern aus der Vergangeheit zu stigmatisieren, anstatt sich permanent über aktuelle Entwicklungen informieren zu müssen.

Lass uns doch in unseren kleinen Welt leben, in der sich alles in eine überschaubare Anzahl Schubladen ablegen lässt - Herrgottnochmal!
 
Naja, viele haben ja gar keine Ahnung von der Technik und wieder andere erst ein paar Generationen erlebt. Also wenig Erfahrung.
Würden die nicht alle in irgendwelche Hörner blasen, was könnten sie schreiben? Eigentlich nur, dass sie sich darauf freuen, oder nicht. Einzeiler, ohne Angriffspunkte und ohne Möglichkeiten eine Diskussion darauf aufzubauen.
Ja, es kann nerven, aber es hält die Threads am Leben. Auch eure Beiträge wären gar nicht erst entstanden, hätte es vorher nicht die anderen gegeben. Also von daher...
 
Zuletzt bearbeitet:
Zurück