Es gibt immer mehr Spiele die mind. 4 Kerne auslasten, da hilft die Single Core auch nicht mehr...Hab ich bis jetzt noch nie erlebt, Spiele lasten eine CPU nie so aus wie Anwendungen. Geht schon gar nicht weil durch die GPU immer irgendwo Leerlaufzeiten entstehen.
Nutzlos nicht, insofern der Singlecore Boost auf alle Kerne ausgeweitet werden kann.
Lachst du auch über 6- und 8-Kerner von AMD mit, oder gibt es die bei dir nicht und alle die AMD nutzen haben sich einen 5900X geholt für 700 Euro alleine für die CPU? Nachdem sie ihre 2600X/3600X2700X/3700X entsorgt haben versteht sich, weil man über die nur lachen kann. Den 5600X gleich mit in die Tonne, sind ja nur sechs Kerne.Singlecore Performance ist unwichtig geworden. Ich spiele seit ein paar Tagen auf meiner 5900X alle möglichen PS3 Spiele mit dem rpcs3 Emulator, der alle Kerne schön nutzt! Viel Spaß mit Intel und 8 Kernen... Da lache ich ja mal!
jedes Triple A Spiel seit hmm lass mich nicht irren etwa 2015 braucht mindestens einen Quad oder DUAL mit HT und das ist auch verdammt noch mal Gut so ! so langsam ist jedes Spiel das was gelten will aber keine 6 Kerne gut auslastet eher eine Schande und 8 Kerne sind eigentlich schon die Regel , wieder mal zum Glück !Es gibt immer mehr Spiele die mind. 4 Kerne auslasten, da hilft die Single Core auch nicht mehr...
Wenn jetzt Firmen aufhören würden wie zuletzt CD Projekt mit CyberPunk Avx aus Ihrer Enging zu Patches weil 10 Jahre alte CPUS kein AVX kann dann würden CPUS auch besser ausgenützt
Ich auch ! Und zwar gegen einen RYZEN 5800 XT mit 4 GHz Base / 5 GHz Boost ...Kommt auf die Auflösung, das Game, die Settings und den FPS Anspruch an, aber ab einer 3080 würde ich einen 3700X austauschen.
Im Single Core 250 Watt? Na da irrst du dich aber, oder lügst du bewusst?Doch bestimmt eh nur wegen der 250 Watt TDP, die Intel für die paar Sekunden nutzen darf, um eben solche Benches zu erreichen.
Nichts von dauer, daher relativ egal.
Dabei benötigen Intel Prozessoren je näher das GPU Limit ist, sogar weniger Strom und in Spielen nicht mehr.Ehrlich gesagt. Mir ist die Performance schon fast irrelevant geworden, wenn die CPUs mehr schlucken als meine GPU.
Ich müsste mir mal eine CPU holen, weil meine schon zu alt ist, aber der Markt ist derzeit nicht so mein Fall.
Ich wäre ja AMD zugeneigt, weil derzeit die Intel einfach zuviel fressen.
Nein - ich stelle nur fest das du lügst.Dann unterstellst du anderen lügen
Ja - und wenn du lesen würdest und nicht lügen dann würdest du dort sehen das der Poster selbst sagt das die Ausgelesenen Daten nicht vertrauenswürdig sind. Die 250W kommen vom selben Programm das auch 1.4V ausliest - was seiner Angabe nach angeblich nicht stimmt.Das ist das was an Informationen bereit steht
Wo sind deine Quellen für deine Behauptungen? Denn was du verlinkst widerspricht direkt deinen Aussagen.Erst Mal kann man nichts anderes zu sagen
Wo sind deine Quellen das es anders ist
Sagte er und ist nur am rumstänkern ohne Sinn.Aber zwing nicht anderen deine Sachen auf
Nein, das machst du schon selbst.Du stellst mich als Lügner da ?
und noch mehr Falschaussagen von dir. Bleib doch mal bei der Wahrheit.Ich soll trollig sein ?
XDDu hast den Sinn eines Forums nicht verstanden sowie den Sinn was diskutieren bedeutet
Aber dafür müssten die ewigen Intel-Hater auch an der Realität interessiert sein und es ist für sie doch viel einfacher zu behaupten das der maximal gemessene Stromverbrauch der Normalverbrauch ist. Sonst müssten sie ja gar noch anfangen richtige Argumente zu formulieren oder - schreck oh schreck - denken.Ergänzend zu deinem Post: Es ist immer verwunderlich welche völlig zusammenhangslosen Zahlen gerne in einen Topf geworfen werden um irgendwas "zu beweisen".
Ich auch ! Und zwar gegen einen RYZEN 5800 XT mit 4 GHz Base / 5 GHz Boost ...
MfG Föhn.
Ist ja meine Aussage das es zum zockn ziemlich schnuppe ist das so ne CPU unter 250 Watt kurzzeitig extrem hochhalten wenn nur ein Kern ausgelastet ist..jedes Triple A Spiel seit hmm lass mich nicht irren etwa 2015 braucht mindestens einen Quad oder DUAL mit HT und das ist auch verdammt noch mal Gut so ! so langsam ist jedes Spiel das was gelten will aber keine 6 Kerne gut auslastet eher eine Schande und 8 Kerne sind eigentlich schon die Regel , wieder mal zum Glück !
Alle Gamer die ich kenne haben dieses Jahr ihren 7700K ausgetauscht weil 4 Kerne heute eben Meh sind .
Mit einem Raspberry Pi 400 hast du einen vollständigen PC, der sogar unter Last nur fünf Watt benötigtEin 15W IDLE System würde ich mir wünschen...
Testet ihr die CPUs dann wieder @pcgh Style oder konform nach Specifikation?Ein Wirbelwind ist unnötig. Wartet einfach auf unseren Test, der wird im neuen CPU-Index schon beweisen, wie schnell die acht Kerne des Topmodells sind.
Das ist dasselbe.Testet ihr die CPUs dann wieder @pcgh Style oder konform nach Specifikation?
Seltsame Ansicht. Warum? Er hat ein paar Prozent weniger Leistung bei deutlich weniger Verbrauch. Machvich auch immer so und brauche selbst mit dem uralt i7, der alten GPU 160W, selten um die 190.Wenn der 3700X und die 2080 Ti soweit untervoltet werden damit sie zusammen 235W ziehen, sollte man sich aber ernsthaft fragen ob man das richtige Hobby hat. Besonders bezogen auf die Grafikkarte. Bei einem derart engen Korsett verkommt die 2080 Ti zur non-Ti
"Gewisse Leute" sind nun Mal eine Vielzahl anderer Tester, die alle CPUs mit demselben Speichertakt testen, nichts individuelles für jeweils jede CPU. Was GamersNexus, HardwareLuxx und auch CB macht, um einige zu nennen.Das ist dasselbe.
Und darüber hinaus genau das Problem, welches gewisse Leute mit dem Testverfahren haben, weil sie lieber Tests mit ihren individuellen Wunscheinstellungen sehen würden.
ich denke der Punkt ist das bei der alten Passmark Version der 3900 noch vor dem 9900 war und bei der neuen auf einmal Überraschung der Intel Deutlich flotter daher kommt !Naja was stört dich daran denn jetzt? Das ist ein 3900X und kein 5900X.
geb ich dir zum Teil recht , aber die Rechnung geht auch nicht auf , in 1-2 Jahren wird er seine 2080Ti eben doch etwas aufdrehen , die CPU ebenfalls . wenn man dann rechnet denn verbrauch dank UV von heute auf 3 Jahre passt es eben nicht so ganz .Seltsame Ansicht. Warum? Er hat ein paar Prozent weniger Leistung bei deutlich weniger Verbrauch. Machvich auch immer so und brauche selbst mit dem uralt i7, der alten GPU 160W, selten um die 190.
Wenn der Leistungsunterschied nicht fühlbar ist, ist Optimierung das Zauberwort. Also ja, man kann sich eine dicke GPU kaufen und ohne große Verluste deutlich effizienter laufen lassen. Das hat viele Vorteile.
Ich hab im Auto auch einen großen Motor, fahr den aber nicht auf Anschlag