blautemple
Kokü-Junkie (m/w)
Ich meine das ich mit dem 13900K(S) in Spider Man damals ca 3,7GHz bei 65W auf den P-Kernen hatte.
Weil die TDP nichts über den Verbrauch aussagt, sondern ein Richtwert für Kühler-Hersteller ist, beziehungsweise für den Kunden, damit er den richtigen Kühler kauft. Kann man heute noch schön beim 11900K beobachten, mit einer TDP von 125 Watt, der fröhlich >300 Watt herausballert.PS wenn die Gerüchte Stimmen das ein 14900K die selbe 253 TDP hat wie ein 13900K wie soll die CPU dann mehr verbrauchen ?
Von der Gen habe ich keine Ahnung da bin ich raus. Verbraucht die CPU immer diese 300 Watt auch in Games oder nur zbs in CB R23 ?Weil die TDP nichts über den Verbrauch aussagt, sondern ein Richtwert für Kühler-Hersteller ist, beziehungsweise für den Kunden, damit er den richtigen Kühler kauft. Kann man heute noch schön beim 11900K beobachten, mit einer TDP von 125 Watt, der fröhlich >300 Watt herausballert.
Stimmt ! Nur haben wir bis dahin keine andere Daten bevor wir nicht selbst gemessen haben so lange müssen wir uns mit denn TDP daten bewerfen xDDie TDP ist nutzlos auf gut Deutsch heute.
Nö. Ein i712700 musste seine P-Cores auf weit unter 3,0 GHz takten, um die 65 Watt einzuhalten. Das ist bei RPL nicht besser, insbesondere nicht, weil die ja noch mehr E-Cores haben, die den P-Cores TDP-Budget stehlen. Intel hat es verpasst, die 65-Watt-Klasse zu überdenken. Es kann nicht funktionieren, wenn ich immer mehr Kerne in die gleiche TDP-Klasse presse.
Auszug aus einem Print-Test dazu:
Anhang anzeigen 1429382
Bei Cinebench gehen die P-Cores auf knapp 1 GHz herunter.
Hängt natürlich vom Spiel/der Last ab, ist logisch.
Ich hatte mein auch auf 340 Watt gehabt das geht keine frage und das hatte ich nie in frage gestellt. Meine Frage bezog sich ja auf im Alltag wo man da die 340-350 Watt sieht ? Ok vielleicht wenn man Videos oder der gleiche verarbeitet ? Selbst wenn man auf Twitch Streamt sollte man an so ein verbrauch nicht kommen oder ?@Ruebenbauer
Das es in games weniger ist ist klar. Es gibt auch noch welche User so wie ich die auch außerhalb des zockens die CPU verwenden. Stelle dir vor es gibt nur nur zocken. Und genau da versagt Intel. Ich swlbst durch per teamview den 13900k testen. Habe sogar Bilder gemacht. Suche ich gerne raus und da haut diese CPU 350 Watt raus also mehr als die 320 Watt. Und das ist nicht mehr lustig. Wenn nun noch mehr takt kommen soll wird es gewiss noch mehr als 350 Watt sein. Da kann man sich sicher sein. Die CPU wird also noch heißer. Ich wünschte es wäre nicht so aber je mehr die CPU an Strom zieht desto mehr abwärme wird erzeugt. Nun ist ja der 13900k nicht so groß um es auf die Fläche zu verteilen. Und es spielen ja auch noch andere Faktoren ne Rolle wie Umgebungstemperstur und so. Und mit nem normalen luftküler will ich sehen wer sowas mit dieser CPU betreibt. Der sieht ganz sicher nicht auf Dauer die 5,7 GHz auf p core das ist sicher. Und die lagen bei dem test auch auf allen kernen an. Die e Kerne waren so auf 4 GHz soweit ich in Erinnerung habe. Müsste ich also noch mal nachsehen. Auf jedenfall schaut es da mies aus. Bei AMD waren es dank drossel auf 142 Watt bei den neuen cpus nur 80 Grad gewesen mit dem luftküler. Ungedrosselt war die CPU bei 95 Grad warm. Scheint von den hersteller zwar Standard sein aber cool ist das nicht. Und ab 100 Grad wird es dann so langsam heikel wie ich finde auch wenn das so von den herstellern konzeptiett worden ist.
In Spielen werden die 253W aktuell ja nicht gerissen, da ist also noch Spielraum nach oben. Bzw. eigentlich allgemein in Teillast Szenarien.PS wenn die Gerüchte Stimmen das ein 14900K die selbe 253 TDP hat wie ein 13900K wie soll die CPU dann mehr verbrauchen ?
Dafür kauft man aber keinen X3D Cache da die da schwach sind, und schon ist auch AMD höher beim verbrauch da man die non Caches braucht.Ok vielleicht wenn man Videos oder der gleiche verarbeitet ?
Stimmt, der 7950X3D ist ein absoluter Krüppel in allem außerhalb von SpielenDafür kauft man aber keinen X3D Cache da die da schwach sind, und schon ist auch AMD höher beim verbrauch da man die non Caches braucht.
Das war auf dem 13900K bezogen. Oder habe ich dich falsch verstanden ?Dafür kauft man aber keinen X3D Cache da die da schwach sind, und schon ist auch AMD höher beim verbrauch da man die non Caches braucht.
Ich kenne nur die Üblichen Test von PCGH und CB deswegen kenne ich nicht alle Daten. Ich kann nur aus meine Persönliche erfahrung berichten das ich in Game so um die 60-160 Watt liege caIn Spielen werden die 253W aktuell ja nicht gerissen, da ist also noch Spielraum nach oben. Bzw. eigentlich allgemein in Teillast Szenarien.
Du siehst, da ist noch reichlich Spielraum nach obenIch kann nur aus meine Persönliche erfahrung berichten das ich in Game so um die 60-160 Watt liege ca
Wenn man denn 13900K auf 125 oder 150 Watt Limitiert ist der Leistungsverlust beim Zocken so Extrem ? Bei Anwendungen wird der Leistungsverlust sehr groß seinJa aber dann kann man ja die tbp begrenzen auf 142 Watt und schon sieht die Sache anderst aus. Ob das dann mit x3d oder ohne spielt dann keine Rolle mehr. Nur das die mit extra cache teuer war. Sonst sieht es halt anderst aus. So werde ich das immer handhaben. Ganz gleich welche CPU. Ich wollte ja auch den 13900k auf 125 Watt drosseln. Da bleibt nur leider nicht mehr viel Leistung übrig. Und warum weil die Limitierung der CPU die leistung einschnürrt.
Klar kauft nun keiner einen 13900k um diese von anfang an zu drossleln weil macht halt keinen sinn. Bei AMD bin ich mir da sicher das es durch wenig leistungs verlust in ordnung geht. Also die 5 % an Leistung kann ich verschmerzen für ne saubere geringe last Verbrauch und so.
Bei Intel und der 13 Gen GarantiertDu siehst, da ist noch reichlich Spielraum nach oben
Gute frage da müssten man ein von 30 Käufer in ganz Deutschland mal fragen xD Ich behaupte denn werden nur wenige haben um diese Daten erfahren zu könnenWie viel Takt schafft denn ein exzellent gebinnter Core i9-13900KS mit nur 8 Threads in Spielen bei 65 Watt (E-Cores off, HT off, moderate Last auf allen 8 Threads)?