• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Intel Core i9-11900K, i7-11700K und i5-11600K im Test: Auf dem Thron ist nur Platz für einen Prozessor

sandworm

Freizeitschrauber(in)
Computerbase bringt es eigentlich sehr gut auf den Punkt:
Hie ein paar Ausschnitte aus dem Fazit:
Wie zur Vorstellung vor zwei Wochen vermutet, bietet Rocket Lake-S am Ende too little, too late.
Zwei Jahre später schafft das der aus der Not geborene Kompromiss nicht. Da hilft auch nicht die Turbo-Brechstange mit Leistungsaufnahmen jenseits von 300 Watt als Nachbrenner
AMD Ryzen 5000 ist und bleibt das bessere Komplettpaket mit in Spielen gleichwertiger oder sogar überlegener Leistung. In Anwendungen ist die Konkurrenz bei niedrigerem Verbrauch sogar deutlich voraus.
Das Gesamtpaket wirkt so unfertig wie zuletzt bei Zen 1. Nur wer wirklich auf grüne Bananen steht, sollte hier zugreifen.
 

Rollora

Kokü-Junkie (m/w)
Nicht überzeugend, ob das dann wirklich die Leistungskrone ist, das mag man auch immer selbst abwägen. Wirkt eher wie ein auf Leistenbruch geprügelter Sitzriese. Intel macht den (Ampere aka) Krampf-Pierre Nvidia. Setzen, ausreichend bis mangelhaft.
Was GPUs betrifft nehmen sich eh gerade beide Hersteller wenig. Da wär' ich fast froh Intel hätte auch GPUs in Eigenproduktion im Angebot.
Was CPUs betrifft ist Intel irgendwie seit 2015 recht uninteressant und jeder neue Skylake-Aufguss war halt eher so "naja ok hmm meh!" Aber Rocket Lake ist die erste neue Architektur im Desktop seit 2015 - und dafür ist sie eigentlich massivst enttäuschend.
Computerbase bringt es eigentlich sehr gut auf den Punkt:
Hie ein paar Ausschnitte aus dem Fazit:

Ja überfliege den Test gerade auch. Aber ist nix neues drin. Anandtech hat das vor 2 Wochen schon vorhergesagt eigentlich. Der 15% Sprung bei 4.8 Ghz macht hier noch am ehesten Mut, dass man noch irgendwie was vorwärts bringt, aber aus 14nm ist halt nichts mehr rauszuholen gewesen, man brauchte halt einen neuen Prozess.
Und auch 10nm wird für Intel das Ruder nicht rumreißen.
7nm - auch nur wenn er gleich gut funktioniert: dann ist man vielleicht gleich auf mit AMD. Aber ich glaube eher immer noch dahinter.
 

Ishigaki-kun

PC-Selbstbauer(in)
Wenn der Slot durch ist - gibt andere Slots (es sei denn es ist mITX).
Wenn das Board durch ist - muss sowieso getauscht werden. Warum auch nicht.
Gerade bei so einem bekloppten Markt sind Ersatzteile gar keine schlechte Idee.

Hab nur einen x16er Slot. Der zweite Slot ist x4.

@Topic:

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 

hrIntelNvidia

Software-Overclocker(in)
Mit dem 5950x alles richtig gemacht. Fürs zocken wird ohne HT gebootet. Dann dreht die CPU Kreise um die 8 Kerner + HT CPUs. Zusätzlich taktet auch die CPU noch etwas höher.

Fürs Arbeiten wird dann mit HT gebootet. Hier benötige ich Threads statt Takt. :)
 

Rollora

Kokü-Junkie (m/w)
Mit dem 5950x alles richtig gemacht. Fürs zocken wird ohne HT gebootet. Dann dreht die CPU Kreise um die 8 Kerner + HT CPUs. Zusätzlich taktet auch die CPU noch etwas höher.

Fürs Arbeiten wird dann mit HT gebootet. Hier benötige ich Threads statt Takt. :)
:lol:
Scherz, oder? Weil du den Unterschied zwischen HT on und off in Spielen so stark spürst?

Und hier mit dem 5950 X
 
Zuletzt bearbeitet:

hrIntelNvidia

Software-Overclocker(in)
:lol:
Scherz, oder? Weil du den Unterschied zwischen HT on und off in Spielen so stark spürst?
Es gibt tatsächlich Games die mit 16 Threads spürbar besser zurecht kommen als mit 32 + der höhere Takt. Wie du richtigerweise anmerkst ist das spezifisch pro Spiel und keine generell gültige Aussage. :)
 

Rollora

Kokü-Junkie (m/w)
Es gibt tatsächlich Games die mit 16 Threads spürbar besser zurecht kommen als mit 32 + der höhere Takt. Wie du richtigerweise anmerkst ist das spezifisch pro Spiel und keine generell gültige Aussage. :)
Welche Spiele sollen das sein? Der Anandtech-Test zeigt ja eher, dass immer mehr Spiele mit HT/SMT gut zurecht kommen
 

cryon1c

Lötkolbengott/-göttin
Kommt mir bekannt vor :D
Wobei ich an Notebooks extrem günstig komme ("alte" Firmen Notbooks).

Habe mir nun zum basteln/kennenlernen/Neugier/was-auch-immer mal ein
Raspberry Pi Foundation Raspberry Pi 400 Kit Mini-PC gekauft.
Hoffe zu Ostern mich da ein wenig einarbeiten zu können.
Nuja, ich hab bei Notebooks bissl höhere Ansprüche als Firmenkisten.
1x Huawei Matebook 13" - mag die Kiste einfach und für nen DJ der sowieso drölftausend Kabel hat sind auch 2x TypeC Ports kein Thema :D
1x MSI 15,6" irgendwas mit i7 & 1050Ti - die Kiste kann als Notnagel auch was produktives produzieren oder unterwegs für nen Livestream taugen - zumindest mit Kamera aka "talking head" usw. langt die. Ist aber für mich schon die Kategorie "Schlepptop" was man halt nicht gerne schleppt xD Die Kiste ist schon repariert, Akku aufgebläht, hat mir den Boden abgesprengt das Vieh, musste bei Aliexpress den Boden kaufen. Passiert wenn die Kiste halt n bissl rumliegt und man das nicht glei merkt.

Ansonsten was CPU angeht.
Gerade alles aktualisiert - VBIOS, BIOS, GPU-Treiber. Resizeable BAR reingeknallt, bissl Cyberpunk angemacht... Kiste sagt +1 FPS xD
Doch alles richtig gemacht mit dem 5800X. Günstig geschossen (bei Release irgendwo um die 480€ rum, natürlich 80€ teurer als aktuell, aber dafür bei Release halt).

Wenn ich jetzt noch meinen 4000er RAM mit CL19 geliefert kriege (Danke Amazon-Streik!), sollte das trotzdem die schnellste Gaming-Kiste in der Stadt bleiben :)
Hab nur einen x16er Slot. Der zweite Slot ist x4.

@Topic:

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
Selbst 4x mit ner einfachen dGPU sollte schneller als iGPU sein.
Klar ist das nett das es da was gab. Das letzte Mal hatte ich die iGPU in nem alten 4770k, dann bin ich auf 5820k und dann auf Ryzen umgestiegen und nie die iGPU vermisst.
Damals habe ich Quicksync bei Intel benutzt, gute Sache, GPU-Beschleunigung ohne die eigentliche GPU zu belasten, 4free halt - war da. Aber die Zeiten sind längst vorbei, die GPU-Beschleunigung mit NVenc&CUDA ist bei Nvidia so was von Lichtjahre voraus das Intel Quicksync einfach nutzlos ist. Bis 2014 war das aber echt brauchbar, das war damals sogar möglich mit OBS Studio oder Xsplit damit Livestreams zu veranstalten mit minimalen Auswirkungen auf die restliche Hardware - richtig geil gewesen, Qualität war zwar schlechter als andere Methoden aber das ging sogar mit popeligen Laptops gut.
Es gab Einsatzgebiete für die iGPU von denen viele bis heute nichts wissen. Damals war das noch mehr ein Nischenthema als heute.
Aber da Intel sich nicht um die iGPU gekümmert hat (sonst wäre die aktuell genau so flott wie die dicke Vega in den Ryzen APUs), ist das mittlerweile nutzlos oder als reiner Notnagel zu gebrauchen wenn absolut nichts anderes zur Hand ist. Aber selbst jetzt mit der GPU-Knappheit würde ich mir was anderes reinknalles statt die iGPU zu nutzen.
 
Zuletzt bearbeitet:

Jobsti84

Software-Overclocker(in)
Ich meinte mit dem Satz...

...ausschließlich die Fälle, in denen vorher ein Vermeer angeboten wird. Wieso sollte man zu einem 11900K oder 11700K anstatt zu einem 5800X greifen? Genau, einziger Grund könnte die iGPU sein. Sonst gibt es einfach nichts - oder etwa doch? Und dabei ist der 5800X ja ausgerechnet auch noch der Prozessor, der erst empfehlenswert wird, wenn man ihn in den Eco-Modus verfrachtet.
Für den 11600K gilt das natürlich einen Tacken weniger, der ist ja etwas günstiger als der 5600X. Aber bei dem soll man ja, wie beim 11700K, mit Gear2 verarscht werden.

Ja, liegen in der Praxis näher zusammen, als man auf dem ersten Blick meinen könnte. Finde da Igors Methode interessant:
Ich muss ganz ehrlich sagen, so gerne ich auch die PCGH lese, alles was Verbrauch angeht,
ignoriere ich da schon immer und schaue da beim Igor oder eben damals TH.
 

IronAngel

BIOS-Overclocker(in)
Puh. Wo fängt man an.:)

Diese CPUs sind etwas enttäuschend. Da habe ich ehrlich gesagt mehr erwartet. Von der angeblich 19 % höheren IPC ist kaum etwas zu sehen. Ich denke die Mehrleistung wurde nur durch den besseren Speichercontroller und agressivieren Turbo gesteigert. Die Energie Effizienz ist auch nochmal deutlich gefallen, dafür gibt es nun pci 4.0.

Aus Preis Leistung Sicht ist wohl ein i5 - i7 sehr interessant. Ansonsten finde ich das Intel und AMD den fallschen Weg gehen. Beide neue CPU Archiktekturen quetschen das letzte MHZ heraus, die energie Effizienz könnte deutlich besser sein.
 

owned139

BIOS-Overclocker(in)
Keine Ahnung. Mir sagt das nur, was AMD für eine tolle Arbeit mit den 5000ern abgeliefert hat.
Und neben Gaming gibt's noch Work-Leistung oben drauf.
Wie kommst du darauf, dass das AMDs Verdienst ist? Soweit ich weiß kommt der 7nm Prozess von TSMC und AMD wäre heute nicht dort, wo sie jetzt sind, wenn sie die 7nm nicht hätten.
Intel jongliert hier noch mit ihrem 14nm Prozess und ist performancetechnisch auf Augenhöhe. Das spricht nicht wirklich für AMD.

Stell dir mal vor Intel wäre jetzt bei 7nm. AMD würde kein Land mehr sehen. Deswegen versteh ich auch nicht so ganz, weshalb AMD immer so in den Himmel gelobt und Intel gehatet wird. TSMC ist der Grund, weshalb AMD die Performancekrone hat.
 

Turbo1993

Freizeitschrauber(in)
Warum wurden Anwendungen aus dem Index entfernt? Die gingen doch immer zu 1/3 in das Ergebnis ein?
Das verzerrt das ganze nämlich schon gewaltig. Der 5950X ist in Multicore Anwendungen nämlich gewaltige 66% schneller als der 11900K (lt. CB Test).
Ich verstehe zwar, warum sich die PCGH nur noch auf Spiele konzentriert (ist ja die Grundmotivation des Hefts) aber das wirft scheinbar ein neues Problem auf. Durch die aktuellen Spiele werden Prozessoren mit nur 8 Kernen verhältnismäßig gut dargestellt, was zum aktuellen Zeitpunkt auch stimmt. Allerdings bleiben Prozessoren aber auch meist einige Zeit im System (mein I5 6600K hat z.B. schon 3 GPU Generationen mitgemacht) und über die Zeit nutzen Spiele immer mehr Kerne. Das heißt im Klartext, während ein I9 11900K aktuell schon sehr gut ausgelastet wird, liegen bei einen 5950X meist die Hälfte der Kerne brach. In 2-3 Jahren denke ich, wird sich das deutlich ändern und der 5950X wird einen deutlichen Vorsprung haben. Leider fehlt mir diese Zukunftssicherheit im aktuell Bewertungssystem. Das haben Anwendungen zum Teil mit übernommen. Hier sollte die PCGH noch mal nachbessern (müssen nicht zwingend Anwendungen sein, wenn es eine bessere Idee gibt).

Damit will ich natürlich nicht Intel schlecht reden. Sie haben ja auch gesagt, dass die neue Generation besonders interessant für Gamer ist, was sie ist. Aber z.B. der Ryzen 5900X eignet sich auch besonders gut für Spiele und bietet durch seine zusätzlichen 4 Kerne einen Mehrwert neben Spiele, welcher sich später sogar in Spielen direkt auswirken kann. Das spiegelt das Testsystem aber nicht so richtig wieder.
 

KaneTM

Software-Overclocker(in)
Ich verstehe zwar, warum sich die PCGH nur noch auf Spiele konzentriert (ist ja die Grundmotivation des Hefts) aber das wirft scheinbar ein neues Problem auf. Durch die aktuellen Spiele werden Prozessoren mit nur 8 Kernen verhältnismäßig gut dargestellt, was zum aktuellen Zeitpunkt auch stimmt. Allerdings bleiben Prozessoren aber auch meist einige Zeit im System (mein I5 6600K hat z.B. schon 3 GPU Generationen mitgemacht) und über die Zeit nutzen Spiele immer mehr Kerne. Das heißt im Klartext, während ein I9 11900K aktuell schon sehr gut ausgelastet wird, liegen bei einen 5950X meist die Hälfte der Kerne brach. In 2-3 Jahren denke ich, wird sich das deutlich ändern und der 5950X wird einen deutlichen Vorsprung haben. Leider fehlt mir diese Zukunftssicherheit im aktuell Bewertungssystem. Das haben Anwendungen zum Teil mit übernommen. Hier sollte die PCGH noch mal nachbessern (müssen nicht zwingend Anwendungen sein, wenn es eine bessere Idee gibt).

Damit will ich natürlich nicht Intel schlecht reden. Sie haben ja auch gesagt, dass die neue Generation besonders interessant für Gamer ist, was sie ist. Aber z.B. der Ryzen 5900X eignet sich auch besonders gut für Spiele und bietet durch seine zusätzlichen 4 Kerne einen Mehrwert neben Spiele, welcher sich später sogar in Spielen direkt auswirken kann. Das spiegelt das Testsystem aber nicht so richtig wieder.
Der größte Haken bleibt einfach, wie weit sich Spiele - im Gegensatz zu so mancher Anwendung - parallelisieren lassen. Dass wir jetzt bei aktuellen Titeln auch wirklich mal einen - wenn auch geringen - Leistungszuwachs im Vergleich zwischen 6 und 8 Kernen sehen, ist ja schon beachtlich. Es lässt sich einfach nicht abschätzen, ob ein 5950X während der Lebenszeit des Chips jemals von Spielen besser ausgelastet wird, als der 11900K. Mag so kommen! Aber es gibt einfach keinen Grund, dass überhaupt in den nächsten 5 Jahren zu erwarten und auch 10 Jahre geben das aus der heutigen Perspektive nicht her.

Klar, vielleicht kommt einem Entwickler morgen die Zündende Idee, wie sich das bewerkstelligen lässt - aber bis jemand mit dieser Idee um die Ecke kommt, gibt es halt keine Perspektive.

Ich möchte da vorsorglich dazu ergänzen, dass ich davon rede, dass eine Erhöhung der Kernzahl von 8 auf 16 auch zu 80-100 % Mehrleistung führt, und nicht nur zu 10 %.
 
Zuletzt bearbeitet:

tigra456

Software-Overclocker(in)
Ist es nicht so, dass bei Spielen oft Entwicklungsgeld gespart wird und PCs ähnlich angesprochen werden wie Konsolen ?

So wie ich das sehe sind die aktuellen Konsolen 8-Kerner CPUs drin, also ist die Chance hoch, dass im PC Bereich mit nem 8-Kerner auch alles super ist ?

Vereinzelte Spiele werden mehr Kerne nutzen und AMD / Intel bevorzugen....aber die grobe Richtschnur 8-Kern ist optimal reicht doch erstmal ?
 

owned139

BIOS-Overclocker(in)
Das ist aber noch sehr optimistisch von Intel, diese Aussage, vor allem wenn man berücksichtigt, dass Intel quasi schon tot ist aber bisher noch zu faul war um um zu fallen.
Warum kommentierst du dann, wenn Intel tot ist und du sowieso nur AMD kaufst?
Du bist in diesem Thread so aktiv wie in keinem anderen und das, obwohl du sogar eher einen FX als eine Intel CPU kaufen würdest. Du würdest im Leben nie Intel/Nvidia Hardware in deinen PC stecken, also weshalb interessiert es dich so, was mit Intel ist und wieso hetzt und stänkerst du dauernd?
 

KaneTM

Software-Overclocker(in)
Ist es nicht so, dass bei Spielen oft Entwicklungsgeld gespart wird und PCs ähnlich angesprochen werden wie Konsolen ?

So wie ich das sehe sind die aktuellen Konsolen 8-Kerner CPUs drin, also ist die Chance hoch, dass im PC Bereich mit nem 8-Kerner auch alles super ist ?

Vereinzelte Spiele werden mehr Kerne nutzen und AMD / Intel bevorzugen....aber die grobe Richtschnur 8-Kern ist optimal reicht doch erstmal ?

Auch wenn man da noch über Details verhandeln könnte, kann man das zur Vereinfachung genau so sagen, finde ich.
 

Turbo1993

Freizeitschrauber(in)
Der größte Haken bleibt einfach, wie weit sich Spiele - im Gegensatz zu so mancher Anwendung - parallelisieren lassen. Dass wir jetzt bei aktuellen Titeln auch wirklich mal einen - wenn auch geringen - Leistungszuwachs im Vergleich zwischen 6 und 8 Kernen sehen, ist ja schon beachtlich. Es lässt sich einfach nicht abschätzen, ob ein 5950X während der Lebenszeit des Chips jemals von Spielen besser ausgelastet wird, als der 11900K. Mag so kommen! Aber es gibt einfach keinen Grund, dass überhaupt in den nächsten 5 Jahren zu erwarten und auch 10 Jahre geben das aus der heutigen Perspektive nicht her.

Klar, vielleicht kommt einem Entwickler morgen die Zündende Idee, wie sich das bewerkstelligen lässt - aber bis jemand mit dieser Idee um die Ecke kommt, gibt es halt keine Perspektive.

Ich möchte da vorsorglich dazu ergänzen, dass ich davon rede, dass eine Erhöhung der Kernzahl von 8 auf 16 auch zu 80-100 % Mehrleistung führt, und nicht nur zu 10 %.
Ich hab vor einiger Zeit einen Artikel gelesen, dass DOOM Ethernal Tasks Pools verwendet, was theoretisch eine ziemliche gut Parallelisierung erlaubt. Scheinbar gibt es aber aktuell nicht genug Aufgaben.

Aber Recht hast du schon, es gibt keine Garantie, dass während der durchschnittlichen Einsatzzeit der aktuellen Prozessors eine Signifikate Verbesserung der Kern-Nutzung von Spielen gibt. Außerdem ist das parallelisieren von Spielen recht kompliziert, weil die Threads meist nicht gleichen Aufgaben lösen, wie im Anwendungsbereich (bin im HPC Bereich auf GPUs unterwegs, weshalb ich da zumindest etwas Ahnung habe ;-)).

Trotzdem würde ich behaupten, dass es aktuell mehr danach aussieht, dass in Zukunft mehr Kerne genutzt werden, als das die Anzahl stagniert. Gerade diese Tasks-Graph Geschichte ist interessant. Wir wollen das nämlich auch einführen, weil unsere Anwendung zwar aktuell noch die schnellsten HPCs der Welt effektiv auslastet, aber es ohne in Zukunft immer schwieriger wird. Interessanter Nebeneffekt bei uns könnte auch sein, dass wir dann neben den GPUs auch die CPUs zum rechnen effektive einspannen können. Das scheint nämlich im HPC Bereich aktuell kaum machbar zu sein ;-)

Ob diese Einschätzung am Ende aber im Wertungssystem widergespiegelt wird, liegt natürlich bei den Testern.
 

CmdrBambina

Komplett-PC-Aufrüster(in)
Das ist aber noch sehr optimistisch von Intel, diese Aussage, vor allem wenn man berücksichtigt, dass Intel quasi schon tot ist aber bisher noch zu faul war um um zu fallen.
Das ist schon behandlungsbedürftiger Realitätsverlust. Intel hat auch in den letzten Jahren Umsatz und Gewinn konstant gesteigert. Im Bereich der Desktop CPUs ist intel seit Ryzen5000 nicht mehr top, das wars aber auch schon.
 

Gurdi

Kokü-Junkie (m/w)
Das Pordukt ist irgendwie enttäuschend. Die Leistung weiß im Grunde zu überzeugen, aber mit der neuen Plattform wird das Teil sündhaft teuer.

Die Leistungsaufnahme steht in keinem Verhältnis und auch übertakten lässt sich nichts. Ich sehe da wenig Gründe den Prozessor einem AMD Pendant vorzuziehen.
 

Pu244

Lötkolbengott/-göttin
Die alten Konsolen waren bereits 8-Kerner ;) .

Schon die PS3 war das.
Ist es nicht so, dass bei Spielen oft Entwicklungsgeld gespart wird und PCs ähnlich angesprochen werden wie Konsolen ?

So wie ich das sehe sind die aktuellen Konsolen 8-Kerner CPUs drin, also ist die Chance hoch, dass im PC Bereich mit nem 8-Kerner auch alles super ist ?

Vereinzelte Spiele werden mehr Kerne nutzen und AMD / Intel bevorzugen....aber die grobe Richtschnur 8-Kern ist optimal reicht doch erstmal ?

Das mit den Konsolen hört man schon seit 15 Jahren, seit die PS3 8 Kerne hatte. Der PC legt sein ganz eigenes Tempo vor, da die 8 Kerne bei den Konsolen auch selten ausgenutzt werden. Selbst wenn ein Spiel die Konsolen CPUs voll nutzt, so ist man mit mehr Kernen am PC dennoch besser dran. Um die CPU voll zu nutzen mu´ß das Konsolenspiel möglichst viele Threads haben, um das SMT der Konsolen möglichst effizient zu nutzen. Am PC kann man dann jedem Thread seine eigene CPU zuweisen.
 

binär-11110110111

Software-Overclocker(in)
@ Gear: Dann werd ich erstmal meine 2666er behalten. Sollte ich mehr RAM brauchen, kaufe ich mir dennoch den 3200er und takte ihn dann auf 2933 + schärfere Timings. Sollte dann erstmal passen. Trotzdem ist der Flaschenhals ne Unverschämtheit ! Was soll der ...eiß !? :nene:
 

PCGH_Dave

Redaktion
Teammitglied
Trotzdem ist der Flaschenhals ne Unverschämtheit !
Bedenke bitte, dass die Intel-Spezifikationen selten das zeigen, was die CPUs wirklich liefern können. Intel zieht die Baseline recht niedrig, damit es auf dem OEM-Markt zu keinen Problemen kommt. Du kannst deinen Arbeitsspeicher natürlich mit DDR4-4400 betreiben, auch mit Rocket Lake. Die Vorgehensweise ist nur etwas anders als bei den Vorgängern (Skylake).
 

tigra456

Software-Overclocker(in)
Nervt mich insofern, dass ich 4000 CL 17 für den 10900K gekauft habe und der 11900K auf Versand wartet.
Ich wollte das Experiment 11th Gen eingehen aber meinen RAM kann ich mit dem 10900K und dem Z490 dann verkloppen... super das Ram gerade so günstig ist
 

Pu244

Lötkolbengott/-göttin
Es ist Zeit, dass die Politik beim Stromverbrauch von PC-Hardware eingreift. 400W+ für eine Desktop-CPU ist nicht akzeptabel. Ein weiterer Schritt beim Absturz von Intel.

Geniale Idee, dann haben Gaming CPUs künftig nur noch 25W und Gaming Grakas 50W, das wird total gut. Die Leute, in den Foren von Gamestar, PC Games und PCGH waren ja gefühlt schon kurz davor einen Aufstand zu machen, als 2012 das Gerücht in Umlauf kam, die EU wolle Karten mit 250W verbieten.

Die Politik sollte sich aus dem Thema Gaming und besonders Hardware möglichst raushalten.

Komischer weise hast du solche Töne nicht angeschlagen, als AMD noch die Stromverschwender geliefert hat.
 

PCGH_Dave

Redaktion
Teammitglied
Nervt mich insofern, dass ich 4000 CL 17 für den 10900K gekauft habe und der 11900K auf Versand wartet.
Warst du nicht der, der sogar ein Golden Sample des 10900K erworben hat? :gruebel:Einen derart optimierten 10900K, der beim Arbeitsspeicher locker auch >DDR4-4700 mit macht, dürfte einen 11900K locker "an die Wand klatschen" (und wäre dabei sogar noch sparsamer). In Szenarien mit hoher Parallelisierung könntest du sogar Leistung verlieren. Wozu dann das "Upgrade"? :ka:
 

seahawk

Volt-Modder(in)
Geniale Idee, dann haben Gaming CPUs künftig nur noch 25W und Gaming Grakas 50W, das wird total gut. Die Leute, in den Foren von Gamestar, PC Games und PCGH waren ja gefühlt schon kurz davor einen Aufstand zu machen, als 2012 das Gerücht in Umlauf kam, die EU wolle Karten mit 250W verbieten.

Die Politik sollte sich aus dem Thema Gaming und besonders Hardware möglichst raushalten.

Komischer weise hast du solche Töne nicht angeschlagen, als AMD noch die Stromverschwender geliefert hat.
Sagen wir 65W für CPUs und 150W für GPUs und ich wäre da völlig dafür.

Zumindest sollte die TDP wieder eine Bedeutung haben und auch für den Kunden klar erkennbar ausgewiesen werden.
 

Pu244

Lötkolbengott/-göttin
Sagen wir 65W für CPUs und 150W für GPUs und ich wäre da völlig dafür.

Als ob sich irgend ein Politiker nach dir richten wird. Das wird natürlich schön niedrig angesetzt. Mit Glück werden es 75W für die GPU und 50W für die CPU. Wobei man da dann das Ziel des unter 100W Gaming PC verfehlen wird.

Zumindest sollte die TDP wieder eine Bedeutung haben und auch für den Kunden klar erkennbar ausgewiesen werden.

Das könnte man so machen, allerdings geben sich Politiker selten mit den Sinnvollen zufrieden. Von daher muß man sagen: wehret den Anfängen.

Ich wette übrigens, wenn AMD wieder zurückfallen sollte und sie diese Maßnahme, mit aller Härte trifft, dann wirst du einer der ersten sein, das herummotzt.
 
Oben Unten