TheBadFrag
Lötkolbengott/-göttin
Die sollten die CPU einfach mit angelötetem Wasserblock rausbringen... würde mehr Sinn machen. Ist vorallem bei der Montage simpel. Einfach nur in den Sockel packen, 2 Schläuche dran und läuft.
Also meinst du auch lieber AVX Offset als Watt Grenze und 5.0 Ghz ?
Glaub ich nicht mal... die Intels werden ihren Boost wahrscheinlich eher/länger erreichen als die Ryzens die nur sehr kurz raufpeaken.Ich könnte mir vorstellen, dass der Shitstorm über Intel noch größer wird ald das Rumgemeckere über die angeblich nicht erreichten Boostwerte beim Ryzen 3000.
Stimmt - aber es gibt durchaus Leute, die mit ihrem PC andere Dinge tun als Spielen. Ehrlich, das gibts!
Und jetzt stell dir vor, wenn du ein 4K-Video in HEVC wandelst verbrauchen sowohl Intel als auch AMD-CPUs genauso viel wie im LinPack Xtreme - nämlich ihr volles erlaubtes Powerbudget. Im realen Leben, mit echten Programmen.
....
Also meinst du auch lieber AVX Offset als Watt Grenze und 5.0 Ghz ?
Haste mal nen 9900K gehabt?
Meiner läuft bei 5 GHz und 1,28V. In Spielen komme ich nie über 75W, meistens pendelt die CPU zwischen 60 und 70W. (Kein Vsync, sehr häufig im CPU-Limit, keine AAA-Titel)
Ich wette darauf, dass man ohne Leistungseinbußen in Spielen PL2 deaktivieren kann, weil man immer unter 125W bleibt.
PS: Mit deaktiviertem PL2 dürfte das Teil sogar mit meiner mickrigen 92mm-AiO kühlbar sein, immerhin habe ich momentan auch ein 120W Powerlimit und in Anwendungen, die das brauchen komme ich auf ~85°C.
Verbrauch = Wärme, und die muss weggekühlt werden. Wirds zu heiß, hast du auch deine Leistung nicht mehrwen juckt schon der Verbrauch? Hauptsache Leistung. Der Rest ist mir egal.
Bezüglich Videobearbeitung, lässt man die nicht eh über die GPU statt CPU laufen?
Kann man machen - aber sollte man im Hinterkopf behalten. Einige wenige SPiele starten nicht ohne AVX und man bekommt kryptische Fehlermeldungen. Dann sollte man sich noch dran erinnern dass mans abgeschaltet hat...Sofern AVX nicht benötigt wird, würde ich mir den AVX Offset sparen und AVX in Windows deaktivieren.
Ich könnte mir vorstellen, dass der Shitstorm über Intel noch größer wird ald das Rumgemeckere über die angeblich nicht erreichten Boostwerte beim Ryzen 3000.
Und wer dann noch vSync und Framelimiter einsetzt, spart nochmals Strom.
This. Wenn ich ab und Star Citizen streame, geht bei mir die CPU Last hoch -verwende einen 2700X- aber es wird dann auch keine Monsterleitung benötigt um das 2560*1440 zu streamen.Nicht, wenn man mehr will als mittelmäßige Streamigqualität für Twitch/YT bei vernachlässigbarer Dateigröße.
GPU-Encoding ist super für schnelle Encodes ohne große Hardwarelast zu erzeugen, aber die sind in Qualität und Kodiereffizienz CPU-Encodes Welten unterlegen (da GPUs 90% der HEVC-Funktionen beispielsweise gar nicht benutzen/können). Kommt halt drauf an was das Ziel ist - der schnelle Stream zu Twitch oder das HQ-Video der letzten Familienfeier für die Privatsammlung.
Ja wie immer same Thema... Benchmarks welche keine 24/7 Games wiederspiegeln.
Haste mal nen 9900K gehabt?
Meiner läuft bei 5 GHz und 1,28V. In Spielen komme ich nie über 75W, meistens pendelt die CPU zwischen 60 und 70W. (Kein Vsync, sehr häufig im CPU-Limit, keine AAA-Titel)
Bei der CPU und dem Ziel Gaming würde ich persönlich den AVX-Offset benutzen.
Mir wollte keiner glauben, dass die CPUs auch mal wieder mehr Verbrauchen können, wenn beide Hersteller wieder in einer Konkurrenzsituation sind. Siehe da: seit Ryzen explodiert der reale Stromverbrauch.
Das wird mit diesem Thermal Velocity Boost wohl auf 350W rauslaufen. Aber wer 300€+ für seine Wakü ausgibt, der kann auch 200W beim Netzteil draufsatteln.
Im Gegensatz zu AMD hat Intel hier eine transparente Kommunikationsstrategie verwendet. Es wurde nichts verheimlicht, das beugt dem vor. Jeder wußte lange vorher, dass die CPUs über 300W fressen können, kein PCIe 4.0 haben und der Thermal Velocity Boost nur bei unter 70°C erreicht wird.
Das ganze ist entwaffnend, man hat einfach nichts mehr, warum man auf Intel sauer sein könnte. Von daher ist Intel, zumindest bei der Kommunikationsstrategie, AMD weit voraus. (Ob die sich einen Experten eingestellt haben? Vermutlich)
Wieso wollte Dir keiner glauben, dass wenn AMD die Nase vorne hat, Intel auch nur noch mit Strom weiterprügeln kann. War doch schon zu Zeiten des Athlon so, als der Pentium verzweifelt versuchte mit Takt seine Unterlegenheit zu verringern. Also besondere Weitsicht hast Du damit auch nicht grade bewiesen, das war wohl fast jedem klar.
Aber in einem hast du recht, man ist auf intel nicht mehr sauer. Das würde nämlich nicht zu dem Mitleid passen, was zur Zeit wohl eher viele für intel empfinden.![]()
Was willst du mir jetzt eigentlich sagen? Hast du meinen Beitrag überhaupt komplett gelesen?Dein Prozi läuft in deinen Spielen mit nur so wenig Watt, weil du den nicht forderst.
Ich habe damals Diablo 3 auch mit 170 Watt durchgespielt, aber nur, weil das Spiel bei 60hz abgeschottet hat, und demnach mein 37700K@4,4ghz und die damalige Grafikkarte nicht ausgelastet wurden.
Mit einer Grafikkarte davor habe ich bei einem anderen Spiel mit gleichem Prozessor das damalige 400 Watt Markennetzteil zum Absturz gebracht.
Also wenn du deinen 8 Kerner irgendwann auch auslasten kannst und zudem keine Softwarebedingten Feststellklemmen verwendest, , wirst du das bei regelmäßiger Nutzung auch auf der Stromrechnung merken.
Für dich sind die jetzt gemesenen 100 Watt sicherlich ziemlich wenig, aber was ist, wenn ich dir sage, dass mein 3700X darüber nur lacht?
Da ist oft gefühlt quasi die Wattangabe von der 1080 maßgeblich für den gesamtverbrauch des Systems (leicht übertrieben dargestellt)^^.
Aber ich finde es auch durchaus ok, wenn man sich so einen prozi kaufen möchte, und ihn dann zumindest im Bios auf 95Watt stellt, so wie von Intel vorgesehen, und nicht so wie einige Hersteller einfach mal auf 200 Watt.
Und wer dann noch vSync und Framelimiter einsetzt, spart nochmals Strom.
Das kommt vor. Spiele nutzen AVX und ja, man muss mit AVX das OC testen
Grad beim Ziel Gaming würde ich AVX-Offset auf 0 stellen.