News Intel Core i9-14900KF erklimmt den Thron: Schnellste Single-Core-CPU

Statt die watt und ghz hochzutreiben as soeiwos schrecklich skaliert sollten sie lieber wieder fair spielen.
:devil:
Vielleicht können sich Privatleute in Foren in erster Linie über Produkte den Kopf zerbrechen, statt über Dinge deren Tiefe und Details 99,9% der Forennutzer nicht blicken.

Ich weiß, der Pöbel ist nur zu gern mit Feuer und Mistgabel unterwegs...
 
Siehst du, du versuchst es doch schon wieder. :D
Haha, das ist so witzig Drayygo. Du drehst unserem Lieben owned doch ganz bewusst das Wort im Munde um, wenn man sich den Startpunkt der Diskussion ansieht.
Selbst wenn du mit deinem 13900KS *ausschließlich* Anwendungen betreibst - ist der 7950X3D/7950X die bessere Wahl, weil 1% mehr Leistung weniger wert ist als der erhöhte Stromverbrauch.
Es ging da rein um die Leistung. Und der durchschnittliche Stromverbrauch inkl. der Niedriglastszenarien ist auf dem 7950X nicht per se besser, siehe Igors Lab.
Das hat nix mit Intel oder AMD zu tun - das ist eine einfache, logische Rechnung. Wenn ich für 1% mehr Leistung mehr als 1% mehr Energie benötige, ist die CPU automatisch ineffizienter. Und es sind ja nicht nur 1% mehr Energie.
Ich glaube die Effizienz war doch gar nicht das worum es ging.
Ich hab - da Gaming 80% von dem ist, was ich mit meinem PC mache - auch die "schlechtere" CPU. Für meine Belange ist der 7800X3D besser. Ist mir aber genauso egal wie dir der Fakt, dass der 13900K nun einmal im direkten Vergleich quasi überall abstinkt.
Der 7800X3D hat gerade mal 8 Kerne, also wenn man schon eine Kaufberatung für andere anfängt, dann muss man das auch logisch durchdenken.
Unterschied zwischen uns? Ich kann zugeben, dass ich die unvernünftigere, objektiv betrachtet schlechtere CPU (für meinen Usecase) besitze. Du nicht.
Ich finde es amüsant, wie du das Thema auf die persönliche Ebene verlagerst.
 
Oder so wie QIX anbringt, dass in Starfield (kein Cherrypick, neinein, niemals nicht) AMD CPUs eher meh performen. Was auch korrekt ist.
Ich habe Starfield und Cyberpunk 2.0 genannt. Schon zwei aktuelle Titel, wo der 13900K (mal wieder) vorne ist. Ich mache die Kaufentscheidung (in meinem Fall gab es auch noch keinen 7950X3D, welchen ich alternativ hätte heranziehen können, da Intel deutlich früher um die Ecke kam) auch nicht von 1-5% abhängig, sondern von der gewohnt souveränen Leistung und vor allem Zuverlässigkeit in allen Bereichen.

Allein die angestrengte Argumentation und die andauernden Relativierungen zeigen nur, das AMD eben nicht einsam an der Spitze steht, wie es manche gerne hätten. Für reines Gaming ist der 7800X3D erste Wahl, keine Frage, in Anwendungen loost der halt ab. Der 7950X3D kann theoretisch alles, eckt aber mit Framedrops (siehe mehrere Threads im Forum) oder jüngst in Starfield mit dem Vcache mal wieder an. Den Kauf letztendlich an der Effizienz festzumachen, ist okay, aber für mich wiegen andere Faktoren halt mehr.
 
Zuletzt bearbeitet:
Bei der Behauptung, dass Intel Prozessoren angeblich einen besseren System Idle Verbrauch haben und so über das Jahr betrachtet gar günstiger wie ein AMD System sein sollen, handelt es sich offensichtlich um ein Ammenmärchen.
In der folgenden Tabelle ist deutlich zu erkennen das dies nicht so ist.
Die CPU an sich dürfte dabei wegen ihres Chiplet-Ansatzes und des separierten I/O schon deutlich mehr im Idle verbrauchen.
Wenn man allerdings das Mainboard miteinbezieht, sieht dies gleich ganz anders aus, wo viele Aufgaben bei AMD direkt auf dem I/O erledigt werden, ist das Mainboard bei Intel im Vergleich immer noch sehr komplex und entsprechend fällt auch der Gesamt Idle Verbauch bei Intel monströs aus.


Verwendet wurde für den 7700X ein ASUS ROG Crosshair X670E HERO
Mit einem B650 würde man wohl Kreise beim Idle Verbrauch um die Intels ziehen, von single oder multi core Belastung müssen wir erst gar nicht anfangen, da liegen Welten dazwischen.
Anhang anzeigen 1438268
Hahaha you made my day ???? jetzt ist das Mainboard auch schon schuld. Und dann auch noch ein Bericht von 2022 ich halt’s nicht mehr aus???
 
Ich habe Starfield und Cyberpunk 2.0 genannt. Schon zwei aktuelle Titel, wo der 13900K (mal wieder) vorne ist. Ich mache die Kaufentscheidung (in meinem Fall gab es auch noch keinen 7950X3D, welchen ich alternativ hätte heranziehen können, da Intel deutlich früher um die Ecke kam) auch nicht von 1-5% abhängig, sondern von der gewohnt souveränen Leistung und vor allem Zuverlässigkeit in allen Bereichen.

Allein die angestrengte Argumentation und die andauernden Relativierungen zeigen nur, das AMD eben nicht einsam an der Spitze steht, wie es manche gerne hätten. Für reines Gaming ist der 7800X3D erste Wahl, keine Frage, in Anwendungen loost der halt ab. Der 7950X3D kann theoretisch alles, eckt aber mit Framedrops (siehe mehrere Threads im Forum) oder jüngst in Starfield mit dem Vcache mal wieder an. Den Kauf letztendlich an der Effizienz festzumachen, ist okay, aber für mich wiegen andere Faktoren halt mehr.
Und wäre Starfield nicht einer der Ausnahmefälle, in denen der 13900k vorne ist, hättest du eben ein anderes Game mit großem Interesse herausgepickt. Was hältst du von Baldurs Gate 3 zum Beispiel. Ist doch auch ein aktuelles Game mit großem Interesse. Oder gefällt dir das dann nicht mehr so gut?

1695402763804.png


Oder ist das jetzt Cherrypicking? Wie du siehst, gibt es für alle Szenarien einen passenden Benchmark. Das einzige Szenario, wo es keinen passenden Benchmark für gibt ist die Effizienz. Da ist irgendwie immer AMD vorne. Ist aber auch nur Augenwischerei ich weiß. Also außer Intel ist in der übernächsten Gen wieder effizienter. Dann ist es wieder wichtig. Wie damals beim FX.
Nachtrag: Und genau bei Cyberpunk ist er halt auf Kosten von 64 zu 223 Watt 2 FPS vorne. Das ist wie mein Beispiel vorhin: Tune dein Auto so, dass es 5KM/H schneller ist. Aber dafür schluckt es dann auch 3 Liter mehr.
Wenn du mir ernsthaft sagst, dass dir 2 FPS 160Watt wert sind - dann lasse ich es darauf beruhen. Dann weiß ich, wo ich dich einordnen muss. Aber das kannst du nicht - denn auch du siehst die Absurdität dieser Aussage.
 
Dein Post könnte aus dem Seminar "Wie zitiere ich einen Post mit dem wenigst möglichen Kontext um mein Narrativ zu stärken" sein.
Dann solltest du das imaginäre Seminar vielleicht mal besuchen. Es wird von danyundsahne behauptet AMD bleibt nach dem Launch des 14900K bei Spielen und Anwendungen "vorne", genauso wird behauptet AMD sei in Anwendungen schneller. Beides falsch, in Spielen ist der Unterschied im niedrigen einstelligen Bereich zugunsten AMD, könnte sich mittelfristig sogar aber auch noch ändern.
Welches ist denn dann der Bereich, in dem AMD nicht die Oberhand hat? Ach, stimmt. Aktuell sind das synthetische Benchmarks.
Was soll das Gerede über die Oberhand? Du siehst doch, dass der Intel in Anwendungen mindestens gleichschnell ist und auch in Spielen die Differenz äußerst minimal ist. Anwendungen sind nicht nur synthetisch.
Gibt in der 3DC Meta Analyse jede Menge Auswahl. Cinebench trifft das Leisungsvermögen aber recht gut.

Mir geht es nicht um die Leistung - das wurde von meinen Vorpostern so angesprochen.
Jup. Also ist die neueste Intel - CPU in *einem* Benchmark und da auch nur in *einem* Teil schneller als AMDs alter Kram.
Natürlich geht es dir um die Leistung, du schreibst doch permanent davon.
Rechne halt 5 bis 10% auf die alte Intel Top-CPU den 13900K drauf. Wieso genau, wenn wir jetzt nach reinen Messwerten gehen und nach PCGH Parcour, sollte AMD mit dem "alten Kram" irgendwo vorne liegen?

Das ist doch absurd, davon abgesehen kann AMD nicht an die Singlethreadleistung des 14900K herankommen, sollte diese wirklich bei 6,2Ghz liegen. Da braucht AMD eine neue Generation, oder einen Refresh.
Genau wie @owned139 immer wieder anbringt, dass der 13900KS in Anwendungen 1% besser ist als AMD.
Logisch, würde ich auch machen, wenn behauptet wird AMD sei überall schneller, was einfach falsch ist.
Weder hat AMD die hohe Singlethreadperformance, noch reicht es für AMD für einen Sieg in Anwendungen.
Und natürlich ist der 14900K dann zumindest messbar vor dem 7950X.
Was ja auch korrekt ist.
Und wieso bist du dann auf der Seite von danyundsahne?
Dann ist AMD also in Games 4% schneller. In Anwendungen 1% langsamer. Und in Kombination von beidem ebenfalls schneller.
Schwierig, der 7950X und der X3D sind separate CPUs, also müsstest du wenn überhaupt fair vergleichen und nicht zugunsten AMD argumentieren. Entweder X3D oder die X CPU..., peinlich wenn man auf ungewollte Weise seine parteiische Denkweise zur Schau stellt und sich selbst den Stock ins Rad wirft.
Von "neutral betrachten" ist da nicht viel von dir zu sehen.
Dabei verbraucht AMD noch teils extrem deutlich, teils nicht so extrem deutlich weniger Strom. Das alles sind neutrale FAKTEN, die durch Zahlen hier und überall anders belegt werden.
Im Idle und Niedriglastbereichen wie Surfen usw. ist der Verbrauch bei Intel etwas geringer, sollte man noch ergänzen.
Das hat also, wie du siehst, nichts mit einer "AMD Blase" zu tun.
Ich habe ja denke ich klar skizziert wen und was ich mit dieser Aussage meine.
Leute die sich ihre Urteil unabhängig von den Fakten zurechtbiegen, da gehörst du für mich auch teilweise hinein.
Du kritisierst nirgendwo die kruden Aussagen, sondern greifst in erster Linie owned an, bei dem ich keine Falschaussage sehe. Wenn ich aber bevor das Konkurrenzprodukt überhaupt draußen ist behaupte der alte AMD Kram bleibt teilweise vorne und oder behaupte AMD würde auch in Anwendungen und Spielen schneller bleiben, kann ich nicht objektiv sein.
1% Mehrleistung bzw. 4% Minderleistung trotz massiv höheren Stromverbrauchs zu rechtfertigen mit "Ist ja eh egal, keiner kümmert sich um Verbrauch" - oder "Aber INTEL kann getweaked werden" <- DAS ist eine Intel Blase.
Die 1% bekommst du nur mit dem 7950X, der out of the box einen fast so hohen Verbrauch wie der Intel aufweist.
Und natürlich kümmert der Verbrauch, das wäre dann eine "Intel blase". Man kann den Verbrauch aber auch total übersteigert darstellen denn in der Praxis sind es vielleicht ~50 Watt im wechselnden GPU und CPU Limit.
Was hältst du von Baldurs Gate 3 zum Beispiel. Ist doch auch ein aktuelles Game mit großem Interesse. Oder gefällt dir das dann nicht mehr so gut?
Fairerweise solltest du erwähnen, dass in Baldurs Gate auch schon ein Ryzen 5 3600 reicht um 100 FPS zu erzielen.
Wenn wir schon dabei sind zu cherrypicken.
 
Zuletzt bearbeitet:
Rechne halt 5 bis 10% auf die alte Intel Top-CPU den 13900K drauf.
Das ist doch absurd, davon abgesehen kann AMD nicht an die Singlethreadleistung des 14900K herankommen, sollte diese wirklich bei 6,2Ghz liegen. Da braucht AMD eine neue Generation, oder einen Refresh
Wenn ich aber bevor das Konkurrenzprodukt überhaupt draußen ist behaupte der alte AMD Kram bleibt teilweise vorne und oder behaupte AMD würde auch in Anwendungen und Spielen schneller bleiben, kann ich nicht objektiv sein.
Lies diese 3 Zitate bitte nacheinander, und nachdem du die Hand wieder von der Stirn genommen hast, überlege doch mal, wer hier unbewiesene Behauptungen aufstellt.
Wo hast du die 5-10% her? Der 14900K ist quasi identisch zum 13900K. Er ist im Multicore-Passmark sogar LANGSAMER als der 13900K.

Und anhand der Informationen meinst du zu wissen, dass AMD eine ganze neue Generation braucht, um mitzuhalten. Aber klar: Du bist neutral. Quasi die Schweiz des Forums. Sehe ich absolut genau wie du, no cap.


peinlich wenn man auf ungewollte Weise seine parteiische Denkweise zur Schau stellt und sich selbst den Stock ins Rad wirft.
Irrtum. Ich schrieb von AMD und nicht von "dem 7950X3D". Habe also die Marke, nicht das Produkt gemeint. Aber danke fürs Bestätigen der vermuteten Lesekompetenz
Und wieso bist du dann auf der Seite von danyundsahne?
Ich bin auf meiner "Seite", und sonst niemandes. Wer ist das überhaupt?
Im Idle und Niedriglastbereichen wie Surfen usw. ist der Verbrauch bei Intel etwas geringer, sollte man noch ergänzen.
Klar, gib du mal 3-4000€ dafür aus, mit nem Rechner zu surfen. Ich meine klar, kannst du machen, ist dein Geld. Und jeder darf sein Hobby ausüben wie er möchte. Aber ich bezweifel, dass viele Leute sich so eine Maschine in den Raum stellen, um dann... nix damit zu machen. Mein Usecase bspws. ist 80% Games. An manchen Tagen 90. Da ist mir der um 5-15 Watt höhere Idleverbrauch tatsächlich egal. Kann man aber als tatsächlich legitimen Grund anbringen.

Fairerweise solltest du erwähnen, dass in Baldurs Gate auch schon ein Ryzen 5 3600 reicht um 100 FPS zu erzielen.
Wenn wir schon dabei sind zu cherrypicken.
Irrelevant. Der 13900K ist dort 10%!!!! langsamer als der 5800X3D. Und verbrät dabei mehr als ne typische amerikanische Kleinstadt.

Aber danke für die Bestätigung. Wenn ich Baldurs Gate 3, eines der erfolgreichsten Spiele des Jahres, nicht einmal 2 Monate alt für einen Vergleich heranziehe, ist das Cherrypicking. Aber wenn @QIX Starfield und Cyberpunk, beides nur knapp "jüngere" Spiele heranzieht, ist das kein Cherrypicking. Man man man. Du machst es mir echt zu einfach :ugly:
 
Aber ich bezweifel, dass viele Leute sich so eine Maschine in den Raum stellen, um dann... nix damit zu machen.
Doch, genau das ist der Fall.
1695404857104.png

Bei den meisten Leuten macht der PC die meiste Zeit nix. Klingt komisch, ist aber so. ;-)
Nicht mal bei jedem Vierten User läuft der PC auch nur die halbe Zeit unter Last.

Die leute machen ja nicht nichts - sie machen nur Dinge, die auf nem Raspberry Pi genauso laufen würden :-D
 
Wann darf ich als interessierter Endnutzer denn mal wieder eine CPU von Intel erwarten, die brachiale Leistung bringt, allerdings auch den Stromzähler nicht länger "zur Verzweifelung" bringt? Wann, Intel? Wird das noch was in den 202x Jahren ? :schief:
 
Doch, genau das ist der Fall.
Anhang anzeigen 1438305
Bei den meisten Leuten macht der PC die meiste Zeit nix. Klingt komisch, ist aber so. ;-)
Nicht mal bei jedem Vierten User läuft der PC auch nur die halbe Zeit unter Last.
Okay. Knappe Teilnehmerzahl, nehme ich aber in Ermangelung einer anderen Quelle zur Kenntnis. Kann man so machen - ist halt nicht sinnvoll. Bei mir ist sogar der Launcher des Spieles, welches ich gerade spiele im Autostart (und nur der!), damit die "Downtime" so gering wie möglich ist. Wenn ich Serien oder Filme gucken will hab ich n großen OLED TV. Wenn ich surfen will hab ich n Tablet oder n Handy. Die Butze geht an, wenn ich daddeln will^^
 
Die Nutzerverhalten sind halt verschieden. Ich mache beispielsweise ALLES am PC.
Officekram, Netflix kucken, in komischem Forum schreiben (:ugly:), Musik hören/erstellen, daddeln, Videobearbeitung usw...
Davon ist das allermeiste tatsächlich idle für die CPU (ich wäre also bei den >80% der zeit idle dabei) - denn Zeit zum Daddeln habe ich fast nicht (das sind vielleicht 2 Stunden pro Woche) und das einzige was sonst (sehr) viel last erzeugt ist Videokompression (deswegen ja auch der 16-kerner).

Klar, wenn der PC nur ne bessere Spielekonsole ist ist der Idleanteil zu vernachlässigen - bei nem Allroundgerät ist aber heutzutage halt das meiste was man so tut für moderne CPUs praktisch Null Auslastung.
 
überlege doch mal, wer hier unbewiesene Behauptungen aufstellt.
Lieber Drayygo, ich dachte wir sind uns einig, dass AMD quasi 0 Vorsprung auf Intel hat, also wie soll AMD es schaffen in den Disziplinen außer der Effizienz nach dem Launch des 14900K weiter vorne zu bleiben?
Die Rechnung ist ja nun nicht so wirklich schwierig, es sei denn man ist Teil der AMD Blase und will es nicht wahrhaben. Du hast hier gesagt dir geht es nicht um die Leistung, pickst dir aber dann die besten AMD Werte raus und ignorierst die schlechteren.
Wo hast du die 5-10% her? Der 14900K ist quasi identisch zum 13900K. Er ist im Multicore-Passmark sogar LANGSAMER als der 13900K.
Wieso denn keine 5bis 10% Etwas mehr Takt, schnellerer Speicher, Microcode Updates, etc.
Das sind halt 5 bis 10%. Als ob der Passmark-Wert irgendetwas bedeutet, zählen tun reale Werte bei Launch.
Und anhand der Informationen meinst du zu wissen, dass AMD eine ganze neue Generation braucht, um mitzuhalten.
Sie brauchen halt einen Refresh, wenn sie schneller sein wollen, eine ganze neue Generation? Wo soll ich das geschrieben haben? Oder meinst du Intel packt die ~ 3% in Spielen nicht?
Das wäre aber etwas arg pessimistisch, aber das ist eben deine Meinung.
Aber klar: Du bist neutral. Quasi die Schweiz des Forums. Sehe ich absolut genau wie du, no cap.
Zumindest neutraler als du, soviel ist klar.
Irrtum. Ich schrieb von AMD und nicht von "dem 7950X3D".
Dann kaufst du dir halt den 7950x und den 7950X3D und baust sie je nach Anwendungsfall um. :-)
Tolle "Kombination".
Klar, gib du mal 3-4000€ dafür aus, mit nem Rechner zu surfen. Ich meine klar, kannst du machen, ist dein Geld.
Ich spiele damit, in meiner beschränkten Zeit. Neben der Erwerbstätigkeit. Und ja, nur 2h die Woche wenn es hochkommt. Surfen 5 bis 6h.
Aber ich bezweifel, dass viele Leute sich so eine Maschine in den Raum stellen, um dann... nix damit zu machen.
Und ich bin der Meinung, dass du hier Käse absonderst.
 
Dann kaufst du dir halt den 7950x und den 7950X3D und baust sie je nach Anwendungsfall um. :-)
Tolle "Kombination".
Nö. Man holt sich die CPU, die zum Usecase passt.
Wieso denn keine 5bis 10% Etwas mehr Takt, schnellerer Speicher, Microcode Updates, etc.
Das sind halt 5 bis 10%. Als ob der Passmark-Wert irgendetwas bedeutet, zählen tun reale Werte bei Launch.
Klar. 5-10%.
As per alleged Intel performance projections, the new hybrid chips may only be between 1% to 3% faster than Raptor Lake. Remember that this is a refresh and probably the last breath of air for Intel's LGA1700 platform.

Da haste ne Quelle, die deutlich mehr Ahnung hat die von 1-3% ausgeht. Und das klingt auch realistischer, wenn man bedenkt, dass der 13900K und der 14900K quasi identisch sind. Und wenns 3% sind - dann reichts eben nicht für die Krone in Games, sondern nur zum Gleichstand. Maaaaan, 5-10%. Dude, du bist hilarious :ugly:


Ich spiele damit, in meiner beschränkten Zeit. Neben der Erwerbstätigkeit. Und ja, nur 2h die Woche wenn es hochkommt. Surfen 5 bis 6h.
Klar. 2h die Woche. Stiiiiimmt. Da man in so einem Fall ja 3-5000 Euro für den PC ausgibt. Und ihn sogar noch übertaktet. Aber selbst wenn deine Zahlen stimmen sollten - 2h x 50-150W mehr = 100-300W mehr Verbraucht pro Woche. 5-6h Surfen die Woche bei 5-15W mehr Verbraucht = 25-75W bzw. 30-90W mehr Verbrauch. Das heißt, selbst in deinem erfundenen Szenario, welches richtig krass PRO-Intel ist, ist der Intel ineffizienter. Man, du kannst ja nichtmal richtig biased sein. :fresse:
 
Zuletzt bearbeitet:
Nö. Man holt sich die CPU, die zum Usecase passt.

Klar. 5-10%.


Da haste ne Quelle, die deutlich mehr Ahnung hat die von 1-3% ausgeht. Und das klingt auch realistischer, wenn man bedenkt, dass der 13900K und der 14900K quasi identisch sind. Und wenns 3% sind - dann reichts eben nicht für die Krone in Games, sondern nur zum Gleichstand. Maaaaan, 5-10%. Dude, du bist hilarious :ugly:



Klar. 2h die Woche. Stiiiiimmt. Da man in so einem Fall ja 3-5000 Euro für den PC ausgibt. Und ihn sogar noch übertaktet. Aber selbst wenn deine Zahlen stimmen sollten - 2h x 50-150W mehr = 100-300W mehr Verbraucht pro Woche. 5-6h Surfen die Woche bei 5-15W mehr Verbraucht = 25-75W bzw. 30-90W mehr Verbrauch. Das heißt, selbst in deinem erfundenen Szenario, welches richtig krass PRO-Intel ist, ist der Intel ineffizienter. Man, du kannst ja nichtmal richtig biased sein. :fresse:
Jaja mal dir die Welt wie sie dir gefällt!

Hier mal ein Auszug von meiner Stromfressenden CPU i7 13700k (4K Ultra 60FPS gelockt Spiel: Starfield)

Horror dieser Verbrauch echt ??
 

Anhänge

  • IMG_1037.jpeg
    IMG_1037.jpeg
    4,4 MB · Aufrufe: 29
  • IMG_1038.jpeg
    IMG_1038.jpeg
    1,8 MB · Aufrufe: 27
Zuletzt bearbeitet von einem Moderator:
Jaja mal dir die Welt wie sie dir gefällt!

Hier mal ein Auszug von meiner Stromfressenden CPU i7 13700k (4K Ultra präsent 60FPS gelockt)

Horror dieser Verbrauch echt ??
Versteh mich nicht falsch, das ist kein Flame: Weißt du eigentlich, was du tust? Verstehst du, warum das nicht einmal ansatzweise vergleichbar mit irgendetwas ist, was hier von egal wem im Thread geschrieben wurde oder in irgendeinem Test je irgendwo getestet wurde? Userbenchmark und du, ihr seid euch echt erschreckend ähnlich, ich sags noch n drittes Mal :ka:
 
Versteh mich nicht falsch, das ist kein Flame: Weißt du eigentlich, was du tust? Verstehst du, warum das nicht einmal ansatzweise vergleichbar mit irgendetwas ist, was hier von egal wem im Thread geschrieben wurde oder in irgendeinem Test je irgendwo getestet wurde? Userbenchmark und du, ihr seid euch echt erschreckend ähnlich, ich sags noch n drittes Mal :ka:
Und du bist einfach ein Basher mehr nicht! Was ist denn jetzt wieder dein Problem!? Das ich Ingame nehme, was die meisten auch nutzen oder muss ich für dich jetzt wirklich auf 720p runter um dir zu zeigen das es keine 230W sind!

Deine herablassende Art geht mir am Zeiger! Sowas eingebildetes wie dich sieht man echt selten, ohne das du mit irgendwelchen Fakten kommst.

Was interessiert jetzt einen Spieler das was die CPU verbrauchen kann oder was es dann tatsächlich ist!? Meine Vorliebe in Games sind 4K möglichst alles auf rechts dafür aber 60FPS ist für mich mein Sweetpot! Und hier ist die CPU mehr als ausreichend und ich sehe da auch keine exorpitanten Ausflüge der CPU im Stromverbrauch!

Und dein Userbenchmark mit mir Vergleich kannst du dir schenken, würden wir ggü. stehen würdest du dich das nicht zu mir sagen trauen aber im Netz auf dicke Dinger machen! Das sind mir die liebsten!

Also entweder du sagst mir was du sehen magst oder verhalte dich ruhig!
 
Und du bist einfach ein Basher mehr nicht! Was ist denn jetzt wieder dein Problem!? Das ich Ingame nehme, was die meisten auch nutzen oder muss ich für dich jetzt wirklich auf 720p runter um dir zu zeigen das es keine 230W sind!

Deine herablassende Art geht mir am Zeiger! Sowas eingebildetes wie dich sieht man echt selten, ohne das du mit irgendwelchen Fakten kommst.

Was interessiert jetzt einen Spieler das was die CPU verbrauchen kann oder was es dann tatsächlich ist!? Meine Vorliebe in Games sind 4K möglichst alles auf rechts dafür aber 60FPS ist für mich mein Sweetpot! Und hier ist die CPU mehr als ausreichend und ich sehe da auch keine exorpitanten Ausflüge der CPU im Stromverbrauch!

Und dein Userbenchmark mit mir Vergleich kannst du dir schenken, würden wir ggü. stehen würdest du dich das nicht zu mir sagen trauen aber im Netz auf dicke Dinger machen! Das sind mir die liebsten!

Also entweder du sagst mir was du sehen magst oder verhalte dich ruhig!
Ich habe in diesem Thread alleine mehrere Fakten präsentiert. Alles Messungen von PCGH.

Und was ich "bashe" ist, dass du weder die gleichen Settings, noch die gleiche Szene genommen hast, ja noch nicht einmal das gleiche SPIEL genommen hast, welches PCGH getestet hat und bei dem sie auf die 223W kamen. Das ist Unsinn, mehr nicht. Wenn dir die Wahrheit nicht bekommt, dann ist das ein DU Problem, keines von mir.
Wie wäre es, wenn du die PCGH Cyberpunk - Szene nachbenchst. Gerne in 4K. Ansonsten aber gleiche Settings. Und dann schauen wir mal, wieviel Watt es sind. Wahrscheinlich auch keine 223, aber garantiert nicht viel weniger. Mach doch mal. Savegame kannst du bei PCGH herunterladen, wenn du magst kriegst den Link von mir. Und im gleichen Atemzug lernen wir dann noch Screenshots.

Aber da du kein Interesse daran hast, irgendetwas Sinnvolles zu dieser Diskussion beizutragen postest du einen Ausschnitt aus einem Random-Spiel mit unterschiedlichen Settings und einem Screenshot vom Handy, um zu belegen, dass PCGHs Testergebnisse für Cyberpunk irgendwie nicht mit deinem VÖLLIG ANDEREN Spiel übereinstimmen. Man, sowas kann nicht mal @owned139 oder sonst wer aus deinem Lager ernst nehmen.
Also entweder du sagst mir was du sehen magst oder verhalte dich ruhig!
Hab ich. Mehrfach bereits. Benche bitte die PCGH - Szene aus Cyberpunk nach. Mit identischen Settings. Wenn du darauf bestehst, gerne in 4K-Auflösung. Du wirst dadurch leicht weniger verbrauchen, aber immer noch komplett andere Postleitzahlengebiete erreichen als AMD.
Und dein Userbenchmark mit mir Vergleich kannst du dir schenken, würden wir ggü. stehen würdest du dich das nicht zu mir sagen trauen aber im Netz auf dicke Dinger machen! Das sind mir die liebsten!
Wirklich jetzt? :ugly:
 
Was interessiert jetzt einen Spieler das was die CPU verbrauchen kann oder was es dann tatsächlich ist!? Meine Vorliebe in Games sind 4K möglichst alles auf rechts dafür aber 60FPS ist für mich mein Sweetpot! Und hier ist die CPU mehr als ausreichend und ich sehe da auch keine exorpitanten Ausflüge der CPU im Stromverbrauch!
"Falsch , du hättest schrieben sollen was Interessiert mich was meine CPU unter voll last verbraucht mein Ziel ist 60FPS stabil."

Aber mal anders gefragt wenn dein ziel 4k 60 ist warum dann ein 13700k und nicht was kleiners aka 13600k oder 13400?
 
Ich habe in diesem Thread alleine mehrere Fakten präsentiert. Alles Messungen von PCGH.

Und was ich "bashe" ist, dass du weder die gleichen Settings, noch die gleiche Szene genommen hast, ja noch nicht einmal das gleiche SPIEL genommen hast, welches PCGH getestet hat und bei dem sie auf die 223W kamen. Das ist Unsinn, mehr nicht. Wenn dir die Wahrheit nicht bekommt, dann ist das ein DU Problem, keines von mir.
Wie wäre es, wenn du die PCGH Cyberpunk - Szene nachbenchst. Gerne in 4K. Ansonsten aber gleiche Settings. Und dann schauen wir mal, wieviel Watt es sind. Wahrscheinlich auch keine 223, aber garantiert nicht viel weniger. Mach doch mal. Savegame kannst du bei PCGH herunterladen, wenn du magst kriegst den Link von mir. Und im gleichen Atemzug lernen wir dann noch Screenshots.

Aber da du kein Interesse daran hast, irgendetwas Sinnvolles zu dieser Diskussion beizutragen postest du einen Ausschnitt aus einem Random-Spiel mit unterschiedlichen Settings und einem Screenshot vom Handy, um zu belegen, dass PCGHs Testergebnisse für Cyberpunk irgendwie nicht mit deinem VÖLLIG ANDEREN Spiel übereinstimmen. Man, sowas kann nicht mal @owned139 oder sonst wer aus deinem Lager ernst nehmen.

Hab ich. Mehrfach bereits. Benche bitte die PCGH - Szene aus Cyberpunk nach. Mit identischen Settings. Wenn du darauf bestehst, gerne in 4K-Auflösung. Du wirst dadurch leicht weniger verbrauchen, aber immer noch komplett andere Postleitzahlengebiete erreichen als AMD.

Wirklich jetzt? :ugly:
Ich spiele auf einem TV mit Steam Big Picture und habe keine Tastatur noch sonst was in der Nähe. Was willst du mir jetzt über Screenshots erklären?

Daher ist es für mich am einfachsten mit dem Handy zu machen und dann über das Handy auch zu posten, aber ja da sind wir wieder bei hoher Nase und Leute dumm anmachen!

Cyberpunk kann ich gerne nachreichen, werde es morgen anstarten! Ich habe auch vor kurzem mal dying Light 2 hier gepostet auch weit weg von 230w aber es ist schon okay habe es verstanden, dass man nicht über Ingame sprechen möchte, sondern über 720p.

Es ist mir wirklich egal, was du/ihr (damit meine ich natürlich nicht alle hier, danke für die PN von manchen), sondern nur gezielte User die einfach nur toxisch hier posten wollen!
"Falsch , du hättest schrieben sollen was Interessiert mich was meine CPU unter voll last verbraucht mein Ziel ist 60FPS stabil."

Aber mal anders gefragt wenn dein ziel 4k 60 ist warum dann ein 13700k und nicht was kleiners aka 13600k oder 13400?
Ich habe beim 13700k einen guten Schnapper gemacht und hatte noch ein restguthaben beim Laden! Da war der Preis dann für mich so, dass ich zugreifen musste :)
 
Zurück