News Intel Core i9-14900KF erklimmt den Thron: Schnellste Single-Core-CPU

Ich spiele auf einem TV mit Steam Big Picture und habe keine Tastatur noch sonst was in der Nähe. Was willst du mir jetzt über Screenshots erklären?

Daher ist es für mich am einfachsten mit dem Handy zu machen und dann über das Handy auch zu posten, aber ja da sind wir wieder bei hoher Nase und Leute dumm anmachen!

Cyberpunk kann ich gerne nachreichen, werde es morgen anstarten! Ich habe auch vor kurzem mal dying Light 2 hier gepostet auch weit weg von 230w aber es ist schon okay habe es verstanden, dass man nicht über Ingame sprechen möchte, sondern über 720p.

Es ist mir wirklich egal, was du/ihr (damit meine ich natürlich nicht alle hier, danke für die PN von manchen), sondern nur gezielte User die einfach nur toxisch hier posten wollen!

Ich habe beim 13700k einen guten Schnapper gemacht und hatte noch ein rstguthaben beim Laden! Da war der Preis dann für mich so, dass ich zugreifen musste :)
Klick mich

Und hier hast du ein Beispiel wo du auch in höheren Auflösungen als 720P im CPU Limit bist bei Cyberpunk. Auch das habe ich bereits mehrfach gepostet und sogar in meiner Signatur verlinkt. Du kannst den Strohmann "Hurr Durr 720P ist unrealistisch" also gerne fallen lassen ;)
 
Und hier hast du ein Beispiel wo du auch in höheren Auflösungen als 720P im CPU Limit bist bei Cyberpunk. Auch das habe ich bereits mehrfach gepostet und sogar in meiner Signatur verlinkt. Du kannst den Strohmann "Hurr Durr 720P ist unrealistisch" also gerne fallen lassen ;)
Bin weder im CPU Limit, noch verbraucht mein Prozessor 200 Watt, was mache ich falsch?! :fresse:

Ashampoo_Snap_Freitag, 22. September 2023_22h48m11s_001_.png
 
Bin weder im CPU Limit, noch verbraucht mein Prozessor 200 Watt, was mache ich falsch?! :fresse:

Anhang anzeigen 1438325
Stimmt. Du verbrauchst 100W laut Software, also real irgendwas zwischen 120-150W - und das trotz eines deutlichen GPU-Limits dank der 3080. Ihr versucht aber auch, mit derselben Brechstange, die Intel bei ihren CPUs verwendet, um nicht den Anschluss zu verlieren zu behaupten, der Unterschied zwischen AMD und Intel beim Verbrauch sei nicht relevant. Jetzt kennt man zusätzlich noch deine restlichen Einstellungen nicht, aber das ist egal - du wirst mit einer 3080 in 4K quasi immer im GPU-Limit sein in den meisten Games. Und jetzt führen wir uns gemeinsam zu Gemüte, dass dein Intel doppelt soviel Strom im GPU-Limit zieht wie AMD im Worst Case CPU-Limit. Also danke für dein Beispiel, es stützt meine Argumentation.
 
Stimmt. Du verbrauchst 100W laut Software, also real irgendwas zwischen 120-150W - und das trotz eines deutlichen GPU-Limits dank der 3080. Ihr versucht aber auch, mit derselben Brechstange, die Intel bei ihren CPUs verwendet, um nicht den Anschluss zu verlieren zu behaupten, der Unterschied zwischen AMD und Intel beim Verbrauch sei nicht relevant. Jetzt kennt man zusätzlich noch deine restlichen Einstellungen nicht, aber das ist egal - du wirst mit einer 3080 in 4K quasi immer im GPU-Limit sein in den meisten Games. Und jetzt führen wir uns gemeinsam zu Gemüte, dass dein Intel doppelt soviel Strom im GPU-Limit zieht wie AMD im Worst Case CPU-Limit. Also danke für dein Beispiel, es stützt meine Argumentation.
Achja doppelt soviel? Also er hat hier 100 Watt stehen, jetzt kommen nochmals 50w von dir so dazu weil du es kannst!?

Aja stimmt da wird ja nun das tolle tool herangezogen, weil HW Info usw nicht ordentlich ausliest! Ich hoffe da ist auch das Tool bei deiner Rechnung schon bei der AMD CPU dabei und ich hoffe der AMD Prozessor erreicht auch die gleiche FPS nein sogar mehr stimmt’s?

Gut das doppelte also also 75w nimmt er sich mehr pro Stunde! 2 Stunden am Tag mal 7 sind 14 Spielstunden. Also 14x52 Wochen sind 54 KW mehr Stromverbrauch was ganze 19,65€ im Jahr sind!

Ja hast mich voll überzeugt! Ich verbrenne meine Hexen CPU und kaufe mir sofort ein AM5 Board samt der CPU weil diese 19€ im Jahr die werden mich jetzt vollends killen omg ich beantrage morgen gleich nen Schuldnerberater!
 
Achja doppelt soviel? Also er hat hier 100 Watt stehen, jetzt kommen nochmals 50w von dir so dazu weil du es kannst!?

Aja stimmt da wird ja nun das tolle tool herangezogen, weil HW Info usw nicht ordentlich ausliest! Ich hoffe da ist auch das Tool bei deiner Rechnung schon bei der AMD CPU dabei und ich hoffe der AMD Prozessor erreicht auch die gleiche FPS nein sogar mehr stimmt’s?

Gut das doppelte also also 75w nimmt er sich mehr pro Stunde! 2 Stunden am Tag mal 7 sind 14 Spielstunden. Also 14x52 Wochen sind 54 KW mehr Stromverbrauch was ganze 19,65€ im Jahr sind!

Ja hast mich voll überzeugt! Ich verbrenne meine Hexen CPU und kaufe mir sofort ein AM5 Board samt der CPU weil diese 19€ im Jahr die werden mich jetzt vollends killen omg ich beantrage morgen gleich nen Schuldnerberater!
Ja. Ich habe bei der AMD - CPU bereits "das tolle Tool" eingerechnet - da das die Werte von PCGH sind, welche "das tolle Tool" benutzen.

Und ja, er genehmigt sich doppelt soviel - und zwar während die CPU nicht einmal ausgelastet ist. Es geht mir nicht darum, irgendwen dazu zu bringen, AMD statt Intel zu kaufen (auch wenn das fürs reine Gaming die bessere Wahl ist) - sondern eure, also owned, QIX und deine Aussagen zu entkräftigen, dass "HURR DURR INTEL VERBRAUCHT GAR NICHT SOVIEL MEHR ALS AMD, DAS SIND ALLES FAKE ZAHLEN BEI PCGH". Und diese Aussage ist auch in einem von dir so viel geforderten "realen" Szenario falsch - wie @IICARUS netterweise gezeigt hat. Witzig, wie er das mal eben machen kann, während du dich seit etlichen Tagen über die Benchmarks und den Effizienzvergleich zwischen Intel und AMD vermukierst, es aber nie auf die Reihe gebracht hast, eigene Zahlen aufzuzeigen, die den von dir kritisierten Zahlen widersprechen.

Aber egal:
Ja hast mich voll überzeugt! Ich verbrenne meine Hexen CPU und kaufe mir sofort ein AM5 Board samt der CPU weil diese 19€ im Jahr die werden mich jetzt vollends killen omg ich beantrage morgen gleich nen Schuldnerberater!
Solche Aussagen gepaart mit deiner Aussage von vorhin ala "Me stronk, me smash IRL so no talk!"
Marlboro0815 schrieb:
Und dein Userbenchmark mit mir Vergleich kannst du dir schenken, würden wir ggü. stehen würdest du dich das nicht zu mir sagen trauen aber im Netz auf dicke Dinger machen! Das sind mir die liebsten!
Haben dafür gesorgt, dass du mir keinen Spaß mehr machst. Viel Spaß mit deinem gelöschten Acc drüben bei Userbench.
 
Verstehe diese Argumentationen hier einfach nicht mehr. Vollast genehmigt sich der Intel deutlich mehr als die aktuellen AMD CPUs. Das kann man nicht in Frage stellen. Im Teillast und Niedriglastbereich, geben sich beide nicht soooo viel, auch wenn AMD dennoch vorne liegt.
Overall macht es bei der Stromrechnung pro Jahr nicht die Welt aus. Wo liegt jetzt das Problem?
 
Hier mal ein Auszug von meiner Stromfressenden CPU i7 13700k (4K Ultra 60FPS gelockt Spiel: Starfield)

Horror dieser Verbrauch echt ??
Damit hast du dich leiser ins Aus geschossen und bewiesen, dass du kein Interesse an einer konstruktiven Diskussion hast. @Drayygo Ich würde dir auch empfehlen, hier keine Zeit mehr darauf zu verwenden, spiel lieber BG3 das achte mal durch, oder wie weit du schon inzwischen sein magst :D
 
Verstehe diese Argumentationen hier einfach nicht mehr. Vollast genehmigt sich der Intel deutlich mehr als die aktuellen AMD CPUs. Das kann man nicht in Frage stellen. Im Teillast und Niedriglastbereich, geben sich beide nicht soooo viel, auch wenn AMD dennoch vorne liegt.
Overall macht es bei der Stromrechnung pro Jahr nicht die Welt aus. Wo liegt jetzt das Problem?

Eigentlich gibt es keins. Vielleicht würde es helfen, wenn das Verständnis gegeben wäre, das man sich nicht "wegen" des Stromverbrauches für den 13900K/14900K entscheidet, wie es gerne ausgelegt bzw. interpretiert wird, sondern "trotz" des höheren Stromverbrauches, aufgrund von anderen Präferenzen und persönlichen use cases.
 
CyberPunk, Starfield und Co. 720P/4k, Leistung und Verbrauch hin und her, AMD vs Intel und umgekehrt.
Keiner glaubt dem anderen, was man auch sagt, heute muss wohl irgendwie wissentschaftlich belegt und gerechtfertigt werden, egal was, wie und wo.
Wir haben eine HardwareBuchse die alles misst, Software kann das nicht, hmm einfach mal drüber nachdenken, ne analoge Drehscheibe die die kWh zählt ist da aber auch nicht dran, oder?

Hier mal BF4 in 2K @ 163FPS abgeregelt, wenn sich jemand daran ergötzen möchte, darf er das gerne tun, der 13700KF verbraucht so viel wie AMD im Idle?
Achso, es ist nicht in 720P, es ist kein aktuelles Spiel und es ist einfach in Game via DRUCK auf der Tastatur + Paint entstanden.
Im Durchschnitt nuckelt sich das ganze System da im 64er Multiplayer so um die 170W aus der Dose, im Idle liegt das System bei ca. 70W (bitte vergesst den Wirkungsgrad in der Rechnung nicht)

BF4_2K_nativ_Verbrauch1.jpg
 
Zuletzt bearbeitet:
Echte Tests?? Also meinst du die die echten 720p Tests die im Alltag von 99,9% der Leute angewandt werden?

So misst man halt eben das Potential eine CPU.

Aber wenn du es gerne etwas praktischer willst, dann zock doch mal etwas Anno 1800.

Acht ja ich habe vergessen, das liegt ja nur am GPU Limit und wenn dann 2024 die 5090 am Markt ist, dann aber dann sehe ich was meine tolle CPU eigentlich kann! ??

Zum Beispiel, das ist für Leute, wie mich, die ihre CPU gerne etwas länger nutzen, ist das durchaus eine wichtige Sache.

Im übrigen: wenn einem Leistung nicht wichtig ist, warum sollte man sich dann überhaupt eine 700€ CPU kaufen? Warum nicht 200€? Langsamer und wesentlich billiger.

In der AMD Welt, dass hast du einfach vergessen! Hier werden ja auch ständig die 23€ mehr Stromkosten mehrmals täglich aufgeführt die der AMD Prozessor im Jahr weniger verbraucht dafür aber den längsten Balken aufweisen können aber der AVG Balken dann gerne vergessen oder ausgeblendet wird wo es dann doch nicht mehr so rosig aussieht aber dann wird halt wieder die Stromkosten vom 20iger nach vorne gebracht, darum habe ich es jetzt auch 2x in meinem Text verpackt (Stromkosten), damit es auch dem AMD gerecht wird^^

Beantworte mir eine einfache Frage: warum soll ich so dumm sein und für die schlechtere CPU auch noch mehr Geld ausgeben?

Man ganz davon abgesehen, dass eine höherer Stromverbrauch noch andere Dinge mit sich bringt, etwa mehr Abwärme oder eine geringere Laufzeit der USV,

Ja, hatte vergessen, dass immer nur der Aspekt wichtig ist, in dem AMD die Oberhand hat.
My fault ;)

In dem Fall hat AMD eben in allen Kategorien die Oberhand. Man braucht nur zwei CPUs dafür.

Der 14900K liegt bei 253W und der 7950X bei 214W. In welcher Welt ist das bitte die Hälfte? So ein Schwachsinn!

Ich vermute, dass die Last in Spielen gemeint ist, die ja oft nur eine Teillast ist. Da braucht AMD tatsächlich wesentlich weniger.

Hat eigentlich irgend jemand was davon welche CPU in welcher Disziplin wie viel besser oder schlechter ist ?

Ich zock Anno 1800 und das bringt jede CPU an die Grenze. Da sind 20% schon ein merkbarer Unterschied.

Oder schaut ihr dann auch in Nachbars Garage und freut euch das euer Auto 3 Liter weniger Sprit braucht oder in 2 Sekunden schneller auf 100 ist? ?

Wenn ein Auto 3L weniger Sprit braucht und auch noch in 2sec schneller auf 100 ist, dann ist es unter diesen Gesichtspunkten besser. Wenn man also nur danach (deshalb kann man Autos nicht mit CPUs vergleichen) kauft, dann sollte man sich diese Karre holen.

tja wer kann der kann^^ AMD sollte halt nicht so beschnittene Dinger am Markt werfen dann könnten sie auch mehr leisten im Allrounder Bereich ^^

Intel hat doch kein AVX 512, also sind das die beschnittenen CPUs. Das macht mit AMD sehr sympathisch, da bekommt man AVX 512. Intel hat ja AVX 512 extra nachträglich, ab Alder Lake, deaktiviert.
 
Damit hast du dich leiser ins Aus geschossen und bewiesen, dass du kein Interesse an einer konstruktiven Diskussion hast. @Drayygo Ich würde dir auch empfehlen, hier keine Zeit mehr darauf zu verwenden, spiel lieber BG3 das achte mal durch, oder wie weit du schon inzwischen sein magst :D
Da habe ich auch wirklich kein Problem damit, dass ich mich ins Aus gespielt habe!

Ich habe das gestern nur gepostet, weil ich gerade Starfield gezockt habe, mehr nicht und hier wollte ich einfach auf die Schnelle zeigen, dass es im normalen Alltag und das ist das GPU Limit, keine horrenden CPU Wattzahlen Anliegen habe!

Ja ich locke auf 60 Bilder, gut das kann man für Tests öffnen, werde ich auch heute machen. Was mir aber nicht eingeht, dass man hier immer so tut, als wären 20-50€ (normal Zocker 20€ und extrem Zocker 50€ berechnet) als wäre die Intel CPU eine die die Haare vom Kopf frisst.

Es hat hier auch keiner gesagt und ich auch nicht, dass der AMD Prozzi nicht der effizientere ist, aber hier wird das so dargestellt als wäre der Intel Prozessor eine Gurke und säuft nur und keine Alternative und das ist schlichtweg falsch! Und ich denke wir sind in einem Meinungsfreien Forum und jeder darf seine Meinung äußern oder?

Wenn das nicht gewünscht ist, dann solltet ihr das überdenken, denn dafür ist ein Forum nun mal da und ja ich gehöre halt zu den Usern die es gerne praktisch sehen und nicht theoretisch und ja ich weiß dein Test ist auch praktisch, weil du mit dem 720p Test anzeigst, was die CPU leisten kann ohne den Faktor GPU Limit, aber den haben wir nun mal und nicht erst seit gestern.

Es ist mir auch nicht im Sinne gewesen zu sagen, die Intel CPU ist die bessere, mir geht es einzig und alleine darum zu sagen, dass die Intel keine 230W dauersäuft wie es hier gerne suggesstiert wird!
Ja. Ich habe bei der AMD - CPU bereits "das tolle Tool" eingerechnet - da das die Werte von PCGH sind, welche "das tolle Tool" benutzen.

Und ja, er genehmigt sich doppelt soviel - und zwar während die CPU nicht einmal ausgelastet ist. Es geht mir nicht darum, irgendwen dazu zu bringen, AMD statt Intel zu kaufen (auch wenn das fürs reine Gaming die bessere Wahl ist) - sondern eure, also owned, QIX und deine Aussagen zu entkräftigen, dass "HURR DURR INTEL VERBRAUCHT GAR NICHT SOVIEL MEHR ALS AMD, DAS SIND ALLES FAKE ZAHLEN BEI PCGH". Und diese Aussage ist auch in einem von dir so viel geforderten "realen" Szenario falsch - wie @IICARUS netterweise gezeigt hat. Witzig, wie er das mal eben machen kann, während du dich seit etlichen Tagen über die Benchmarks und den Effizienzvergleich zwischen Intel und AMD vermukierst, es aber nie auf die Reihe gebracht hast, eigene Zahlen aufzuzeigen, die den von dir kritisierten Zahlen widersprechen.

Aber egal:

Solche Aussagen gepaart mit deiner Aussage von vorhin ala "Me stronk, me smash IRL so no talk!"

Haben dafür gesorgt, dass du mir keinen Spaß mehr machst. Viel Spaß mit deinem gelöschten Acc drüben bei Userbench.
Du kritisierst mein Vergleich OK kein Ding, was ist aber mit dem vom IIcarus und dem vom Blechdesigner? Haben die jetzt auch alles falsch gemacht wie ich? Es ist echt traurig, dass man hier so wie du es über mich meinst, nicht akzeptieren kannst, dass es weitere User da draußen gibt, die nicht einverstanden sind mit dem was dem Intel Prozessor nachgesagt wird.
 
Zuletzt bearbeitet von einem Moderator:
aber das ist egal - du wirst mit einer 3080 in 4K quasi immer im GPU-Limit sein in den meisten Games.
Das war kein 4K!
Das Bild war ein Ausschnitt aus diesem Screenshot.
K1600_Cyberpunk2077_2023_09_22_22_47_10_056.JPG


@Drayygo Ich würde dir auch empfehlen, hier keine Zeit mehr darauf zu verwenden, spiel lieber BG3 das achte mal durch, oder wie weit du schon inzwischen sein magst :D
Das ist der Grund, wieso ich auf solche News Themen nichts mehr gebe, weil es jedes Jahr immer das Gleiche ist. AMD Fanboys geben immer irgendein Unsinn von sich, was wir mit solch ein System nicht bestätigen können. Wir testen solch ein System nicht nur 20 Sekunden, weil wir es produktiv nutzen!

Unsere Erfahrungen und Berichte dazu beziehen sich auch nicht auf Dritte, die solch ein System ausgetestet haben. Daher finde ich es von einem User, der noch nicht mal solch ein System vor sich stehen hat, als Unding an, sich so stark mit nur irgendwelche Ergebnisse dritter hineinzuhängen!

Mach dir keine Sorgen, in ein paar Stunden gibt es meinen Account eh nicht mehr. Habe gestern die Löschung beantragt weil das hier immer mehr zu einer reißerischen News Seite wird und nichts „für mich“ mehr mit realen Werten zu tun hat, wo ich mich danach richten kann.
Sehe ich auch so und gäbe es nicht auch andere Themen, wo ich helfend mit dabei bin, wäre ich auch schon lange weg!
 
Zuletzt bearbeitet von einem Moderator:
Man kann mit solch ein News-Theme nicht sachlich diskutieren, weil AMD Fanboys direkt auftauchen und nur noch Blödsinn verzapfen oder ein Grund bekommen, sich künstlich aufzupusten, um sich übertrieben lustig machen zu können.

Aus diesem Grund mache ich da nicht mehr mit, da ich keinem was beweisen muss und mir selbst bestens bekannt ist, wieso ich auf Intel setze und weiterhin nutzen werde. Ich bezahle hier den Strom und dann wäre ich ja schön blöd, wenn ich trotzdem mit allen unsere Systeme auf Intel setzen würde. Ein System von uns hatte die letzten Jahren AMD verbaut und der Stromverbrauch fiel nicht geringer aus, weil dieses System längere Zeit mit Games unterwegs war. Mit Idle hat dieses System auch mehr verbraucht und das hat man auch an der Temperatur im Zimmer gemerkt.

Dieses System lief nicht schlecht, aber der Nutzer dieses Systems klagte oft über Miniruckler oder Games die nicht immer gut liefen. Seit er wieder auf Intel zurück ist, hat er keinerlei Probleme mehr und möchte auch nicht mehr zu AMD wechseln.

Ich bin hier auch wieder weg, weil es im Leben wichtigeres gibt, als AMD oder Intel!
 
Zuletzt bearbeitet von einem Moderator:
Wir testen solch ein System nicht nur 20 Sekunden, weil wir es produktiv nutzen!
Von so einem versierten Nutzer wie dir erwarte ich eigentlich etwas mehr Anspruch. Wir nutzen dieses System auch nicht nur 20 Sekunden. Der ganze Vorgang, mit Aufwärmen, "einruckeln", Spielstände laden, durch die Spielwelt laufen und so weiter dauert viele Minuten und bringt jeden Prozessor, den wir testen, in seinen regulären, vorgesehenen Betriebszustand. Erst dann folgt der Benchmark. Genau in diesem Zustand nutzt jeder von euch seinen Prozessor, wenn er zockt. Der einzige Unterschied ist nur, dass wir die CPU nicht künstlich bremsen, mit einem Fps-Limit etwa und auch nicht weiter verändern (OC, Undervolting, SMT etc.), da es sonst nicht möglich wäre, die Prozessoren untereinander fair zu vergleichen. Zudem erfolgt nicht nur eine Messung, sondern mehrere und wir bilden daraus einen Durchschnittswert.

Wenn ihr mir hier allerdings mit Vergleichen ankommt, bei denen ihr in einer x-beliebigen (nicht vergleichbaren!) Szene in UHD mit Fps-Limit testet, oder wie bei dir im Fall im GPU-Limit, und das als Basis für eure Argumentation nutzt, um zu "beweisen", dass PCGH "falsch" testet, ist diese Diskussion hier für mich beendet. Da kann ich nur noch mit dem Kopf schütteln :wall:

Hier noch ein Screen für euch, denn das kann ich schon lange:
Cyberpunk2077_2023_09_23_11_02_46_447.jpg


"Wie, mein 7800X3D zeigt ja nur 23,6 Watt an. Das bedeutet, die PCGH muss falschliegen, denn die sagen ja, dass die CPU das dreifache verbraucht! Da arbeiten ja nur Stümper. Dass ich mit einem Fps-Limit zocke, spielt dabei überhaupt keine Rolle und auch nicht, dass ich nicht in der gleichen Szene vergleiche. Die Grafikeinstellungen sind auch nicht die gleichen, aber so zocke ich das Spiel halt. Ich hinterfrage den Software-Sensor auch nicht, der wird schon stimmen, ist ja immerhin ein teures Mainboard gewesen! Und ich hab meine CPU ja auch optimiert und SMT abgeschaltet und undervolted, das passt bestimmt zu den Specs der CPUs, welche die Redaktion getestet hat. Die von PCGH haben ja keine Ahnung. Hinterwäldler-Forum hier, ich lösche jetzt meinen Account."
 
Fairerweise solltest du erwähnen, dass in Baldurs Gate auch schon ein Ryzen 5 3600 reicht um 100 FPS zu erzielen.
Wenn wir schon dabei sind zu checherrypicken
Was hat das jetzt hier mit Fairness in BG3 zu tun, dass schon ein 3600er für 100fps reicht?
Es geht darum, dass Intel hier genauso hart ablooset gegen den X3D wie auf der anderen Seite Intel deutlich flotter in Starfield ist.
Cherrypicking eben, für jedes Szenario gibt es eines , wie @Drayygo korrekt anmerkt.

Aber zu deiner Anmerkung in deinem Zitat, dass die AMD Blase unruhig wird aufgrund von Intels langweiligen 200Mhz Aufguss seiner 14th ADL-Refresh-Refresh Gen.
Da mach ich mir keine Sorgen. Intel wird den Gaming Abstand dadurch nicht groß verändern können, und in Anwendungen wird man im Schnitt auch nur ein paar % rausholen.
Alles auf Kosten des Stromverbrauchs....wie Owned eben so schon sagte, die tolle Brechstange.

Mehr kann Intels 14th Gen nunmal nicht bieten.
Und das ist für den Marktführer einfach arm.
Wenn AMD so etwas brächte , gäbe es auch von der versammelten Intel Bias watschen bis der Doktor kommt.
Aber wenn ein so großer, toller CPU Hersteller wie Intel Häme bekommt für so einen lausigen Aufguss, dann wird sowas auf Biegen und Brechen verteidigt :D
Kapier ich net.

Gebt doch mal zu, dass das eine mieser Aufguss von Intel ist. Keiner kann mir erzählen dass Intel User sich auf sowas wirklich freuen?!
Andersrum würde ich AMD genauso verurteilen , dass die Gen nichts geworden ist.
Hab ich bei Ryzen 2000 auch gemacht. Da waren es auch nur 2-5% mehr Leistung. Das war halt nix.

Ich kritisiere auch AMD GPUs dafür dass sie Schwachstellen haben. Muss nicht immer alles auf Biegen und Brechen verteidigen von einem Hersteller den ich mag.

Fertig. Dazu kann man auch stehen. Konstruktive Kritik.

Aber das können manche Intel User einfach nicht.
 
Wenn ich aber einen Mittelwert zum Verbrauch bilden und den in Relation zu dem Alltagsgeschehen setzen möchte, müsste ich dann nicht einen Querschnitt zu allen gängingen Auflösungen und dessen Verbrauch bilden?

Und wie nah nun ein Sensor via Software arbeitet, oder nicht, kann man genauso gut hinterfragen, wie den Gebrauch eines externen Tools, welches genauso mit Software arbeitet und auch noch richtig bedient werden muss.

Dazu sollte auch noch erwähnt werden, um welche Hardware es sich handelt und es sich auch nur in dem Fall bei diesem Exemplar genauso verhält.
Man kann auf das gemessene nur grobe Rückschlüsse ziehen und eine grobe Übersicht abbilden, mehr aber auch nicht.

Es sollte immer lauten, in unserem/meinem Fall und nicht der, die, das ist genau so.
 
Zuletzt bearbeitet:
Zurück