G
gaussmath
Guest
Würde ich niemals tun!oder wolltest du ihn nur aufziehen?
Würde ich niemals tun!oder wolltest du ihn nur aufziehen?
Nicht so klar. Wenn der 12600k mit 6+4 für grob 300€ kommt sieht der 5800X womöglich nicht mehr so frisch aus für aktuell 370€. Die 6 Kerne werden schon mit etwas mehr IPC kommen als die 11. Gen, die kleinen Kerne sollen auch Skylake IPC am Start haben. Im Multithreading wirds da schon eng für Zen3. Aus der Tatsache dass AMD in der Ankündigung nur über Gaming IPC spricht kann man schon auch mal raushören, dass in Sachen Anwendungsperformance nicht der große Hebel da ist. Das wäre auch konsistent mit den Performancesprüngen von Zen2->Zen3. Da wurde die Cachestruktur verbessert und prompt gabs in Spielen den größten Sprung.@gerX7a
Ich sach dazu nur eines:
Die heutige Ankündigung von AMD, 3d Cache CPUs zu Beginn des nächsten Jahres zu bringen ist ein Paukenschlag und wird ADL komplett in Schach halten können. AMD bleibt so weiter am Ball und zeigt technologische Führungsstärke.
Welcher Paukenschlag? Das war kein Paukenschlag, schon Mitte 2021 nicht, als man das teaserte, sondern schlicht die Umsetzung von Plan B im Consumer-Segment, falls Intel's Lineup zu leistungsstark werden würde, bevor Zen4 verfügbar wird.@gerX7a
Ich sach dazu nur eines:
Die heutige Ankündigung von AMD, 3d Cache CPUs zu Beginn des nächsten Jahres zu bringen ist ein Paukenschlag und wird ADL komplett in Schach halten können. AMD bleibt so weiter am Ball und zeigt technologische Führungsstärke.
Das dürfte eine Fehlinterpretation sein. Einige Workloads werden hier in beträchtlichem Maße vom deutlich vergrößerten L3$ profitieren. Im industriellen Umfeld muss man nur nicht dermaßen plakativ die Werbetrommel rühren; das dürfte vielmehr der entscheidende Unterschied sein, zumal mit ADL aktuell ein Consumer-Produkt kommt, d. h. dem begegnet man natürlich auch im entsprechenden Marktsegment. *)[...] Aus der Tatsache dass AMD in der Ankündigung nur über Gaming IPC spricht kann man schon auch mal raushören, dass in Sachen Anwendungsperformance nicht der große Hebel da ist. [...]
Das deckt sich wechselseitig. Die Gefühle von Intel und AMD sind mir ehrlich gesagt auch vollkommen wumpe. Ich bin im Business um den Wirkungsgrad meiner Privatkasse zu maximieren wie auch vermutlich die Mehrheit hier im Forum. Ergo kaufe ich halt nix, wenn P/L nicht stimmt.Schlussendlich sollte aber auch jedem klar sein, dass die in dem Business sind um Gewinn zu erwirtschaften und nicht etwa um irgendwelche verspielten Gaming-Enthusiasten glücklich zu machen.
Gut, ich bin auch hauptsächlich Privatkunde und die Werbung richtet sich auch an Privatkunden. Ich hatte jetzt von den Anwendungen gesprochen, die so auf meiner privaten Kiste laufen und die nennenswert CPU-Zeit fressen: Zip, Videoencoding, -decoding, Photoshop, Matlab, Python. Da erwarte ich bestenfalls niedrige einstellige Vorteile wenn in Spielen 15% rumkommen. Cache-Misses sind da eigentlich kein Hebel...evtl. ist der Browser noch ne Ausnahme. Da gehe ich im Großen und Ganzen schonmal davon aus dass ich das richtig interpretiert habe.Das dürfte eine Fehlinterpretation sein. Einige Workloads werden hier in beträchtlichem Maße vom deutlich vergrößerten L3$ profitieren. Im industriellen Umfeld muss man nur nicht dermaßen plakativ die Werbetrommel rühren; das dürfte vielmehr der entscheidende Unterschied sein, zumal mit ADL aktuell ein Consumer-Produkt kommt, d. h. dem begegnet man natürlich auch im entsprechenden Marktsegment. *)
Wie gesagt ist Milan-X hier der Ursprung der Entwicklung und der muss gegen Sapphire Rapids SP herhalten, denn Milan dürfte Intel voraussichtlich bereits vollständig erreichen und in ML-Workloads wird Intel noch ein weiteres Mal deutlich durchsatzstärker, d. h. auch hier ist ein signifikanter Marktdruck vorhanden, zumal AMD immer noch nur einen sehr kleinen Prozentteil dieses Marktes zu bewirtschaften weiß.
https://cdn.wccftech.com/wp-content...2900K-Alder-Lake-CPU-_-AIDA64-Stress-Test.pngSo so, auf "Bilibili" wird geschrieben ...
dass INTEL mit ihrer Mittelklasse CPU (mit bis zu über 250 Watt und über 100 ° , prost Mahlzeit) endlich mal wieder eine AMD CPU schlagen kann/soll.
Wenn dem so sei, wird bestimmt auch ein Mittelklasse (Wagen) Preis aufgerufen ...
MfG Föhn..
Erstmal abwarten, wie sich das real darstellt. Für uns hier interessiert es real gesehen nicht, ob man unter Vollast 'nen Minikraftwerk gleich mit kaufen muss. Wichtig ist am Ende die Gamingperformance, um unsereins zu sagen: Jo , die Investition in eine neue Plattform lohnt für jeden oder eben nur Leute mit eh gealterter Hardware.
Ich stimme dir völlig zu.Persönliche Note: Für mich ist es tatsächlich relevant, was am Ende für wieviel mehr Leistung an Strom gesoffen wird. Strom kostet mich Geld. Und egal, ob man das Zocken nun Hobby nennt oder nicht, Verbrauchskosten sind ökonomisch (und in Teilen ökologisch) für mich von Belang. Es muss für mich eine Balance zwischen Anspruch und "dafür bekommen" bestehen.
Nicht nur Performance ist wichtig, sondern auch der Stromverbrauch.Wichtig ist am Ende die Gamingperformance
Das von dir gewählte Zitat bezog sich auf die Relevanz für die Leute hier im Forum, wo die allermeisten ja eher am Zocken sind und nicht 24/7 die CPU an der Kotzgrenze betreiben. In sofern gibst du mir ja Recht.Ich stimme dir völlig zu.
Ich breche auch nur noch wenn ich sehe, wie meine Stromkosten immer weiter steigen.
Aber das in dem Zusammenhang hier zu bringen mit dem Thema CPU sehe ich nicht richtig.
und zwar deshalb:
Nicht nur Performance ist wichtig, sondern auch der Stromverbrauch.
Gerade weil du erwähntest, das die Stromkosten immer weiter steigen.
Aber was nehmen sich die ganzen CPUs denn, AMD wie Intel ?
Viel interessanter ist es in der Tat, wieviel die Teile im Idle sinnlos verballern, weil PCs einfach so stundenlang laufen, obwohl man sie da auch abschalten könnte. Da ist vermutlich ein bedeutend größeres Energiesparpotenzial. Ohnehin ist diese vereinfachte Betrachtung von Leistung / Watt als Einstufung nicht wirklich gut. Man müsste, wenn man es mit einer ganzheitlichen Betrachtung über den Energieverbrauch versuchen will, den Energieverbrauch bei der Fertigung des Herstellers und den Transport mit einbeziehen. Denn, was nützt es sich hier über den Stromverbrauch einer einzelnen CPU zu mokieren, wenn der vermeintlich sparsamere Rechenkern wegen einer mieseren Fertigung und langer Transportwege in der Summe viel mehr Energie verbraucht hat Aber das führt dann wohl auch ein bisschen zu weit.Die Zahlen die CPUs im Extremfall verbraucht werden können, mit denen wird immer ganz viel argumentiert und wie furchtbar das doch alles ist.
Ich will das nicht verhamlosen.
Aber wenn wir dann zu realem Verbrauch unter Gaming Bedingungen kommen, nehmen sich die CPUs doch nichts.
(Ich rede nur vom Gaming, keine Blender, Adobe Premiere oder sonstigen Bedingungen - Es geht um einen reinen Gaming Rechner)
Der i5 nimmt ~ 70 Watt
Der Ryzen 5 ~ 60 Watt
Selbst wenn du ein i9 nimmst, dann bewegen die sich bei ~ 90 Watt
Ein Ryzen 9 bei 80 ~ Watt.
Nur mal Beispiele.
Was ich sagen möchte ist, sicher kannst du hier und da wenige Watt sparen bei der Wahl der CPU.
Aber das ganze auf die wenigen Stunden am Tag Gaming ist das quasi nichts, was man da sparen kann.
Ja, bestes Beispiel ist meine RX6900XT. Aber da kann man, wenn man denn überhaupt gewillt ist was zu tun, mit Undervolting einiges an Sparpotenzial rausholen ohne groß an Leistung zu verlieren. Und auch da sehe ich es ganzheitlicher, in dem ich z.B. plane, die Karte deutlich länger als die 1-2 Jahre der bisherigen Karten aus der Liga einer 360 TI / 3070 zu betreiben.Wenn man da bei Hardware ansetzen möchte, würde ich da eher bei Auswahl der Grafikkarte gucken, ob ich wirklich eine Karte brauche die 350 Watt und mehr säuft oder ob es eine 3060 mit 170 Watt nicht auch tut.
Selbst die Werte hier für eine Grafikkarte sind ja auch keine fixen Werte.
Eine Karte kann bestimmte Werte verbrauchen, aber je nach Lastzustände können die auch weitaus niedriger sein.
Es ist das selbe wie beim Thema CPUs.
https://cdn.wccftech.com/wp-content...2900K-Alder-Lake-CPU-_-AIDA64-Stress-Test.png
108°C und 257W wären echt heftig. Die Zeiten, in denen neue Hardware sparsamer wird, sind wohl vorbei.
Grüße!
Richtig.Das von dir gewählte Zitat bezog sich auf die Relevanz für die Leute hier im Forum, wo die allermeisten ja eher am Zocken sind und nicht 24/7 die CPU an der Kotzgrenze betreiben. In sofern gibst du mir ja Recht.
Natürlich es gibt viele Wege Strom zu sparen.Viel interessanter ist es in der Tat, wieviel die Teile im Idle sinnlos verballern, weil PCs einfach so stundenlang laufen, obwohl man sie da auch abschalten könnte. Da ist vermutlich ein bedeutend größeres Energiesparpotenzial.
Ja das ist nochmal ein ganz anderes Thema hinsichtlich Energie.Denn, was nützt es sich hier über den Stromverbrauch einer einzelnen CPU zu mokieren, wenn der vermeintlich sparsamere Rechenkern wegen einer mieseren Fertigung und langer Transportwege in der Summe viel mehr Energie verbraucht hat Aber das führt dann wohl auch ein bisschen zu weit.
Ja, bestes Beispiel ist meine RX6900XT. Aber da kann man, wenn man denn überhaupt gewillt ist was zu tun, mit Undervolting einiges an Sparpotenzial rausholen ohne groß an Leistung zu verlieren. Und auch da sehe ich es ganzheitlicher, in dem ich z.B. plane, die Karte deutlich länger als die 1-2 Jahre der bisherigen Karten aus der Liga einer 360 TI / 3070 zu betreiben.
Du hast mir grade den Abend gerettet...Du darfst Kompetenz nicht mit Glück verwechseln. Chatstar ist ein Kenner der Materie und einer der besten Analysten des Marktes.
In einem Thema von heute erreichte ein User mit solch einem Prozessor und Cinebench R23, 325 Watt und wunderte sich, wieso er mit einer 280er AIO 99°C erreichte.Da sind solche Werte normal, ein 10900K auf einem Z590 Taichi lief im PCGH-Test z.B. ohne manuelle Eingriffe mit 4,9 GHz, 106 °C und 294 W.
Erstmal abwarten, wie sich das real darstellt. Für uns hier interessiert es real gesehen nicht, ob man unter Vollast 'nen Minikraftwerk gleich mit kaufen muss. Wichtig ist am Ende die Gamingperformance, um unsereins zu sagen: Jo , die Investition in eine neue Plattform lohnt für jeden oder eben nur Leute mit eh gealterter Hardware.