Poulton
BIOS-Overclocker(in)
Und ich dachte es reicht schon für den daheim sein Teil der Altersteilzeit.Wenn ich für jede Unterstellung hier im Forum einen Euro bekommen hätte, dann bräuchte ich nur noch Teilzeit arbeiten gehen
Und ich dachte es reicht schon für den daheim sein Teil der Altersteilzeit.Wenn ich für jede Unterstellung hier im Forum einen Euro bekommen hätte, dann bräuchte ich nur noch Teilzeit arbeiten gehen
Mach ich ganz genausoJa, aber dann tust du doch etwas mit dem PC. Es entsteht Teillast, wenn auch keine große. Für reine Office-Tätigkeiten nutze ich übrigens einen Pentium Silver mit einem Powerlimit von 6 Watt. Zum Mail schreiben brauche ich meinen 7800X3D nicht. Es gibt für alles Lösungen. Ich kann jedem so ein Mini-PC zum Arbeiten empfehlen.
Die 24 Watt waren ja nur die CPU allein. Das Gesamtsystem dahinter habe ich nicht mitgerechnet. Geringer als im Idle kann die Leistungsaufnahme ja nicht sein.Ach ja, ne dumme Frage: mit deiner 24W Einstellung, ist damit dann der Verbrauch im Spiel sogar geringer als im Idle?
Nur Cyberpunk zu wählen ist schon sehr pro AMD, aber das wundert mich nicht.
Letztes mal wurde ich ja auch attackiert, weil ich den 14900K verbaut habe.
Hahahaha. Test im GPU - Limit, Brotato! Oder Broforce. Das sind Games, wenn man die spielt ist der PC im Idle. Nice. Aber lieber erstmal Unterstellungen raushauen, weil die Zahlen nicht ins eigene Weltbild passen.Cyberpunk, ja. Der Rest eher nein. Nur Cyberpunk zu wählen ist schon sehr pro AMD, aber das wundert mich nicht.
Letztes mal wurde ich ja auch attackiert, weil ich den 14900K verbaut habe.
Natürlich. Wenn dein Anwendungsfall 80% Idle ist, dann ist für diese Arbeiten eine High-End CPU schlicht die falsche Wahl. Jede Firma der Welt mit funktionierender IT hat das kapiert - nur du scheinbar nicht. Aber hey, in deiner Firma haben die Leute auch 5600 Ryzen in den Arbeitspcs. Das das absurd ist, hat dir ja schon ein anderer erklärt.Drayygo erklärt wieder wie es richtig geht. Hat AMD schlechte Werte, sind die Nutzer schuld.
Fehlt nur mit der 5800X3D im Vergleich? 🤔
Richtig, und nicht nur deshalb. Es ist auch unglaublich bekannt, beliebt (auch wenn einige Hater seit drei Jahren auf den gleichen Bugs herumreiten) und hat neue Maßstäbe gesetzt. Phantom Liberty hat technisch noch einen draufgesetzt. Es gibt kein besseres Beispiel für ein Spiel, welches die Hardware besser auslastet. Ich kenne jedenfalls keins. Und das wichtigste ist, dass nahezu alle Spieler im "echten Leben" in CP 2077 im GPU-Limit sein werden. Und die 4090 limitiert zu 100 Prozent, das kann ich im Zweifel durch die CX-Logs nachweisen.Cyberpunk wurde gewählt, weil es das Spiel mit der besten Prozessorskalierung am Markt ist.
Hat erstaunlich lange gedauert, bis jemand eine weitere CPU gefordert hat.
Den teste ich jetzt gerade. Kann den gerne als Update einspielen, aber das dauert noch etwas. Der ist aber in jedem Fall schneller als der 7500F, das kann ich schon mal mit Gewissheit sagen. Ob er auch effizienter ist? Das wird die Frage sein.
Du immer mit deinen Fakten, pfui.Richtig, und nicht nur deshalb. Es ist auch unglaublich bekannt, beliebt (auch wenn einige Hater seit drei Jahren auf den gleichen Bugs herumreiten) und hat neue Maßstäbe gesetzt. Phantom Liberty hat technisch noch einen draufgesetzt. Es gibt kein besseres Beispiel für ein Spiel, welches die Hardware besser auslastet. Ich kenne jedenfalls keins. Und das wichtigste ist, dass nahezu alle Spieler im "echten Leben" in CP 2077 im GPU-Limit sein werden. Und die 4090 limitiert zu 100 Prozent, das kann ich im Zweifel durch die CX-Logs nachweisen.
Wäre super, danke! 👍Kann den gerne als Update einspielen, aber das dauert noch etwas.
Tja, ich arbeite hoffnungslos transparent und professionell, entschuldige bitteDu immer mit deinen Fakten, pfui.
Jo. Sagen wir mal, du arbeitest genau 8h am Tag. Und verbrauchst dabei 20 W weniger.
Und du zockst 2 Stunden am Tag, und brauchst da (auch im GPU-Limit) mit der Intel CPU bis zu 100 Watt mehr.
Du hättest dennoch den höheren Durchschnittsverbrauch mit dem Intel Und das, obwohl das ein sehr unrealistisches Szenario ist. Wenn du nur mit Office arbeitest, kannst das auch vom Handy an den Monitor spiegeln und verbrauchst nur noch 5 Watt.
Oder, wie ich eventuell demnächst mache, vom ROG Ally per Dock
Nah. Wenn du 80% der Zeit, die du am PC bist im Idle bist, machst du was falsch. Dann würde sich für dich ein NUC rechnen, mit dem du arbeitest. Der verbraucht für dein Betätigungsfeld dann 5 Watt statt 70 (wie Intel im Idle). Auf 2 Jahre amortisiert sich der Preis des NUCs dann. Also entweder arbeitest oder rechnest du falsch. Such es dir aus.
Und nein, auch im GPU-Limit zieht Intel bis zu 100 Watt mehr. Gibt doch extra n Abschnitt dafür im neuen Test:
Anhang anzeigen 1447988
Aber ich rechne es mal für dich aus: 80% der Zeit idlest du mit deinem 14900K. 20% der Zeit spielst du (im GPU Limit).
Im Idle (ohne Monitor) zieht der 14900K 79 Watt. Der 7800X3D 92. 13 Watt mehr. Im Gaming sinds, wie obiges Schaubild verdeutlicht bis zu 100 Watt mehr. Also selbst in deinem (wahrscheinlich erfundenen) Szenario ist Intel ineffizienter. Danke für dein Beispiel, welches MEIN Argument bestätigt.
Du, bei den Kleinstverbräuchen bin ich ganz bei dir, da hast du Recht. Nur kommt halt von den Intel-igenten Foristen gerne mal das "ABER INTEL VERBRAUCHT NUR IN GAMES MEHR UND AMD IM IDLE; DAS IST VIEL SCHLIMMER!?!?!11!!". Und das hing mir halt auch ein bisschen zum Hals rausDas sind alles Enthusiasten Themen. In der Praxis ist das feilschen um Watt im Idle doch ein Sturm im Wasserglas. Was soll denn da in kw/h nennenswert rum kommen ? Zumal ein Balkonkraftwerk mit 600 Watt, die Kosten eines Gesamt PC über das Jahr mal eben halbiert, auch wenn die Sonne nicht scheint. (Einfach mit kaufen, gibts im Komplettset für 350€) Oder ihr kauft euch einen kleinen BKW-Speicher für 400€ dazu, dann ist der Verbrauch 24/7 egalisiert, da Strom immer eingespeist wird. Gibt sehr viele Angebote.
Da hat man 20-30 Jahre was davon. Das ist auch nicht teurer als ein Oberklasse Prozessor mit Mainboard, welches nach 3-5 Jahren ausgetauscht wird.
Daher: Kraftwerk mit PC zusammenerwerben. Wäre das nicht mal ein Thema für PCGH #Dave ?
Ansonsten: Sei´s drum. Bei solchen Kleinst-Verbräuchen schaue ich auf den Einkaufspreis der CPU und nicht darauf, ob sich 7,40€ im Jahr einsparen lassen.
Wenn man einfach dumpf drauf los baut, ja. Aber dann zieht auch ein intel-system im idle die stromleitung mit in den rechner...Und macht den AMD ziemlich ungeil als typischen Officerechner, der primär Office machen soll.
Letztendlich unerheblich. Wie du schreibst, Kleinverbräuche. Da zieht mein Kühlschrank mehr der 24/7 läuft oder der 5 Liter Wasserboiler in der Küche.Du, bei den Kleinstverbräuchen bin ich ganz bei dir, da hast du Recht. Nur kommt halt von den Intel-igenten Foristen gerne mal das "ABER INTEL VERBRAUCHT NUR IN GAMES MEHR UND AMD IM IDLE; DAS IST VIEL SCHLIMMER!?!?!11!!". Und das hing mir halt auch ein bisschen zum Hals raus
Und auch so ziemlich das einzige, in dem die Intel CPUs im GPU Limit richtig Strom ziehen, grundsätzlich reagieren die CPUs völlig anders.Cyberpunk wurde gewählt, weil es das Spiel mit der besten Prozessorskalierung am Markt ist.
Na klar ist AMD auch im GPU Limit deutlich sparsamer.Davon abgesehen, selbst in deinem verlinkten Test kommt man zu dem Schluß, je mehr die CPU belastet wird (Spielen in Vollast oder im GPU Limit) desto besser wird AMD
Sieht schön aus in Schwarz, aber ich bevorzuge eher Silber, Weiß wäre mir aber lieber gewesen.Meine Kunden bekommen von mir zur Zeit nur noch Passiv gekühlte 5600g in der Form eines Mac Mini.
Edit: Sieht dann so aus.
Da ist auch Cyberpunk, Black Dessert, Resident Evil, God of War und Co dabei. Hast du wohl überlesen.Hahahaha. Test im GPU - Limit, Brotato! Oder Broforce.
Völliger Unsinn.Das sind Games, wenn man die spielt ist der PC im Idle. Nice. .
Die CPU ist ja Teil meines Gamingsystems.Natürlich. Wenn dein Anwendungsfall 80% Idle ist, dann ist für diese Arbeiten eine High-End CPU schlicht die falsche Wahl.
Ja, in einer Firma in der es primär darum geht Rechner zusammen zu bauen und zu konfigurieren, haben wir viel 0815 Stangenware, HP Pro Books aber auch NUCs.Jede Firma der Welt mit funktionierender IT hat das kapiert - nur du scheinbar nicht. Aber hey, in deiner Firma haben die Leute auch 5600 Ryzen in den Arbeitspcs. Das das absurd ist, hat dir ja schon ein anderer erklärt.
Wenn ich die Leistungsaufnahme einer CPU analysiere nehme ich idR. mehr als ein einziges worst Case Spiel. Die anderen Werte sind auch über mehrere Games gemittelt.Ich werde nie aufhören es lustig zu finden, wie Leute irgendwelchen Randoms im Internet mehr Glauben schenken, als Leute, deren Job es ist, Tests zu machen.