Intel Core i9-13900K im Geekbench: Mit 5,5 GHz an die Spitze

Kommt aufs Spiel an. Gibt Spiele da sollte man die Rollen taste drücken was die dann für die jeweilige Anwendung abschaltet. Denn es kann bei schnellen Spielen zu einer trägbarbeitkeit der Reaktion kommen.
In meinem Beispiel ginge es um Aufbauspiele wie Tropico 6 und Anno 1800.
In meinen anderen Spielen wie F1 2021 ist der 9700K völlig ausreichend.
 
Du wolltest gleich viel Kerne.
Ja.
Wir haben gar keine zukünftigen CPUs zum Vergleich, wir sehen nur die aktuelle Lage, auf die wir schließlich unsere Meinungen beziehungsweise Extrapolation stützen.
Es ging darum wie wahrscheinlich es ist, dass Intel deutlich weniger verbrauchen und/oder AMD deutlich mehr verbrauchen wird, bei ähnlicher Leistung, darum auch das Bild beziehungsweise der Test den ich einfügte.
Wie kannst du die Leistung der kommenden CPUs beurteilen? Beim Verbrauch gehe ich mit dir, solange Intel permanent die Brechstange rausholt. Und jede Architektur die mit Brechstange betrieben wird, wird wohl saufen.

Das Intel auf einmal deutlich weniger verbrauchen wird, nun ja wie soll mans sagen, halte ich für unrealistisch, dazu müsste sich schon sehr viel tun, wie eine deutlich bessere Fertigung und eine signifikant überarbeitete Architektur, was sich in Artikeln nicht abzeichnet.
Die CPUs am Sweetspot betreiben.

Den Vorsprung versaut sich AMD wohl eher nicht puncto Effizienz, die haben sicher aus ihrem FX-Desaster gelernt.
Intel macht gerade denselben Quatsch den AMD damals mit den FX gemacht hat, mit der Brechstange auf biegen und brechen den Takt zu erhöhen.
True
 
Der Verbrauch vom ZEN4 Topmodell ist aber schon bekannt: 230W und das ist einfach nicht die Hälfte von 241W.

Was sollen denn diese Lügen immer wieder?! Es ist eben nicht bekannt, welchen Verbrauch das Zen4 Topmodell haben wird.
Es ist lediglich bekannt für welche Verbräuche der Sockel ausgelegt ist und das ist ein riesiger Unterschied. Und auch wenn das Topmodell dann die 230W benötigen sollte, dann ist überhaupt nicht geklärt bei welchem Szenario das ist. Wenn dadurch alle 16 Kerne mit 5GHz betrieben werden können ist das halt schon ein himmelweiter Unterschied. Aber Objektivität kann man wohl nicht erwarten.
Verbrauch ist immer mit der erbrachten Leistung zu bewerten, ausnahmslos egal welcher Hersteller.
 
Was soll man sagen.
Eine single-core Steigerung von 7%, was hauptsächlich auf den gesteigerten Takt und nebensächlich auf eine verbesserte IPC zurückzuführen ist.
Garniert wird die ganze Sache dann noch, durch die Zugabe von 8 nutzloser, sogennanter e-cores um im CB etwas besser dazustehen und voila ist ein neues urzeitliches Ungetüm geboren.
Und lasst euch anhand der 241W nicht auf die falsche Fährte locken, dass Teil wird euch den letzten Tropfen aus eurer Leitung saugen. Da wird der 12900KS dagegen wohl noch als effizient erscheinen.
Ich war wirklich selten so gelangweilt von einer neuen CPU.
 
Hauptsache die Effizienz steigt und man bekomtm etwas mehr Leistung bei weniger Verbrauch.
Ach, halt. Das war ja noch vor dem Klimawandel und den Kostenexplosionen. Schade.
"Damals war halt alles besser."
Als alter Mann darf man das ja sagen. ^^
Mein erstes Netzteil hatte gefühlt 160 Watt auf der 12v Leitung, heute werden einem darüber schon 1600W "Gaming"-Netzteile mit Bling Bling angedreht.
Und dafür müssen halt auch Kohle, Gas und Öl zur Stromerzeugung verbrannt werden.
Alles aus Russland.

Intel bietet von seinen CPUs auch die T Serie an, die sind auf 35W begrenzt. Also jammere nicht herum, sondern kauf dir das nächste mal so ein Ding.

Aber lass mich raten: das willst du nicht, dann der K hat viel mehr Leistung.
 
Der M2 ist ja gerade erst im Anmarsch. Schau dir mal die Leistung des M1 ULTRA an. Das ist abartig... du musst einfach bedenken wie klein der SoC ist
Na ja, "klein" ... :D

Der M1 Ultra ist ja nur ein doppelter M1 Max mit einer Chipfläche um die 950 mm². Das ist nicht mehr klein, das ist gigantisch. So einen riesigen Chip hat die x86-Welt noch nie gesehen. Chips mit solchen Ausmaßen sind für Intel und AMD wirtschaftlich undenkbar, die beiden sind bemüht so viel Leistung wie möglich auf kleiner Fläche unterzubringen. Deshalb steigen die DIE-Größen auch nicht wirklich an und deshalb verfolgt AMD den Chiplet-Ansatz.
 
Der M1 Ultra ist ja nur ein doppelter M1 Max mit einer Chipfläche um die 950 mm². Das ist nicht mehr klein, das ist gigantisch. So einen riesigen Chip hat die x86-Welt noch nie gesehen.

Gigantisch ist relativ. Da ist ja noch die GPU und RAM drauf.... bitte nicht vergessen. Bei Intel und AMD reden wir von der nackten CPU. Der M1 ist ein SoC.

Pack neben dem Flagship von AMD und Intel noch ne 3080/3090 oder 6800XT/6900XT und nimm noch 128 GB DDR5-6400 RAM dazu und bedenke die TDP sowie die daraus resultierende Abwärme und du hast einen Würfel, da passt der Mac Studio 4x rein... + das x fache am Stromverbrauch. Da kannst im Winter im Zock-Zimmer die Heizung aus lassen...

Ich finde da prallen schon Welten aufeinander und wäre es nicht wirtschaftlich wären die Kollegen bei Apple die ersten, die so einen Ansatz einstampfen würden ;)
 
Zuletzt bearbeitet:
Igor hat es doch gesagt, ich kann hier jetzt nicht wieder den ganzen Kram verlinken, sonst werde ich wieder gesperrt, weil das ist ja hier auch ein Intel thread.

Lasst uns jetzt die paar Wochen noch abwarten, dann wird man schon sehen.
Igor hat getestet, das der 12400f zum Beispiel bei ihm der effizienteste war, bis zum 5800X3D.

Auch das Intel bis zum 5800X3D generell nicht abgeschlagen war, bei der Effizienz. Bei Spielen sowieso auch nicht.

Also was könntest du meinen, außer bewusst wage zu bleiben...

DDR5 ab 6000+ mit geringer Latenz hilft einem 12900k, bei weiterhin nicht wirklich schlechter Effizienz eindeutig auf die Sprünge.
 
Ich habe doch nur User Wuselsurfer bei gepflichtet, zu dem was er sagte.

Er hat doch mit Recht bemängelt, dass neue Hardware immer mehr verbraucht und dass das der falsche Weg ist.
 
Was sollen denn diese Lügen immer wieder?! Es ist eben nicht bekannt, welchen Verbrauch das Zen4 Topmodell haben wird.
Es ist lediglich bekannt für welche Verbräuche der Sockel ausgelegt ist und das ist ein riesiger Unterschied. Und auch wenn das Topmodell dann die 230W benötigen sollte, dann ist überhaupt nicht geklärt bei welchem Szenario das ist. Wenn dadurch alle 16 Kerne mit 5GHz betrieben werden können ist das halt schon ein himmelweiter Unterschied. Aber Objektivität kann man wohl nicht erwarten.
Verbrauch ist immer mit der erbrachten Leistung zu bewerten, ausnahmslos egal welcher Hersteller.
Jaja Lügen:
Vom EMEA-Marketing von AMD kommt heute die Klarstellung, dass es sich bei Zen 4 in der Tat um 170 Watt TDP (Thermal Design Power) handelt. Daraus folgernd hat Ryzen 7000 eine PPT (Package Power Tracking) von 230 Watt (170 x 1,35 = 229,5)
Anzunehmen wäre, dass speziell die großen Modelle mit 12 und 16 Kernen sonst zu sehr hätten eingebremst werden müssen und mit 170 Watt TDP kommen

Ich gebe nur das wieder, was ich in den Foren und Nachrichten lese, also unterstell mir nicht zu lügen.
 
Falsche Richtung, sage ich seit 5 Jahren.
Die CPUs sollten weniger verbrauchen von Generation zu Generation.

Aber man muß ja Bilder in 35MPix berechnen. :stupid:

Dann jammere nicht herum, sondern kauf dir die entsprechenden CPUs - Fertig!

Es gibt auch den 12900T, der Verbraucht nur 35W. Nimm den und setz damit dein kleines Zeichen. Wenn sie ein Erfolg werden, dann wird das AMD und Intel schon zeigen, was die Kundschaft will.

Aber den wirst du dir nicht holen, weil man mit 35W vermutlich nur 60-70% der Leistung rausholen kann, wie mit 125W. Ist in Ordnung, mach das, aber mecker nicht herum.
 
Zurück