Das Einzige, was mich interessiert, ist die Effizienz. Ob die jetzt drei Prozent schneller sind, ist einfach egal.
Nein, immer noch nicht. Es hatte nur jemand Vorabpreise eines Shops abgeschrieben und es als "Leak" ins Netz gestellt - und Gott und die Welt hats abgeschrieben... und (wenigstens manche...) einen Tag später dann korrigiert, hier am Beispiel 3DCenter:
Aber es ist wie immer, was einmal als Gerücht im Netz ist wird so oft wiederholt bis es als Fakt angenommen wird. Und in 4 Wochen heißts dann wenn die CPUs 3 statt 15% teurer werden (keine Ahnung), ja das konnte ja keiner ahnen.^^
Vermutlich kommt das wieder von den realtiätsfernen 720p CPU Benchmarks, wo die CPU dann hoch eskalieren kann und viel Strom frisst. Beim Gaming in realitätsnahen Auflösungen aber wird es nur die bekannten ~20-30 Watt Unterschied geben, weil ich persönlich hab auch noch nie ein Testvideo gesehen wie sonst 150 Watt average zustande kommen sollten.Bei meiner CPU hab ich noch nie 155 Watt während des Gamings gesehen - weder im fordernden Cyberpunk noch in anspruchsvollen VR Situationen. Aber hey, wenn man will findet sich immer eine Möglichkeit um eine CPU schlecht dastehen zu lassen
Bei meiner CPU hab ich noch nie 155 Watt während des Gamings gesehen - weder im fordernden Cyberpunk noch in anspruchsvollen VR Situationen. Aber hey, wenn man will findet sich immer eine Möglichkeit um eine CPU schlecht dastehen zu lassen
Wirklich? Schon wieder? Möchten wir das zum tausenden Mal ausdiskutieren? Fakt ist nun mal, dass ihr im CPU-Limit diese Werte (mit leichten Abweichungen, die aber vollkommen normal sind) ebenfalls erreichen werdet, wenn ihr der CPU das Gleiche abverlangt. Wenn eure CPU weniger benötigt, dann, weil sie entweder weniger leistet oder, insbesondere, weniger leisten muss (GPU-Limit, V-Sync, Fps-Limit) inkl. der Nicht-Vergleichbarkeit eures privaten Systems inkl. Software, die wir nicht kennen und insbesondere inkl. (so meine Annahme) einem falschen Software-Sensor vertraut (die Package Power wird oft nicht korrekt ausgelesen). Bei uns werden dagegen alle Prozessoren unter den gleichen Bedingungen getestet, und daher sind die Werte auch miteinander vergleichbar – völlig egal, ob das ein Zweikern-Intel oder 96-Kern-Server-Prozessor ist.Vermutlich kommt das wieder von den realtiätsfernen 720p CPU Benchmarks, wo die CPU dann hoch eskalieren kann und viel Strom frisst. Beim Gaming in realitätsnahen Auflösungen aber wird es nur die bekannten ~20-30 Watt Unterschied geben, weil ich persönlich hab auch noch nie ein Testvideo gesehen wie sonst 150 Watt average zustande kommen sollten.
Hab nicht angezweifelt, dass das Sinnvoll ist die Leistungsfähigkeit einer CPU zu Vergleichszwecken im CPU Limit zu testen.Und noch ein Satz zu den "realitätsfernen 720p Benchmarks": so testet man CPUs, im CPU-Limit. Für den Prozessor existiert keine Auflösung, sondern nur für die Grafikkarte. Wenn ich Benchmarks in UHD mache, dann teste ich die Grafikkarte, nicht den Prozessor. Viele Beispiele dazu, warum das so wichtig (und richtig!) ist:
Hardware-Limits erkennen: Wann es sich lohnt, die CPU aufzurüsten, und wann nicht
CPU- oder GPU-Limit? Wir erklären, wie Sie es erkennen und was die dagegen unternehmen können.www.pcgameshardware.de
Ändert aber nix daran, dass keinem bis kaum einem diese synthetischen Benchmarkergebnisse im Realen Leben was nützen, da kein Mensch in dieser Auflösung zockt und daher die realen Verbrauchswerte und auch Unterschiede niedriger sind als in diesen Benchmarks, weil die CPU nicht so stark ausgelastet wird.
Theoretisch hast du natürlich recht, wir haben aber von der Praxis gesprochen und da kann mir niemand ein 3x Unterschied in nem GPU Limit verkaufen, 1.5x-2x vielleicht.
ZU 100% da es die selben CPU's sind unter neuer Nummer.Mal sehen, ob der 14700k problemloser betrieben werden kann, um meinen 8700k zu ersetzen
Du sagst also, obwohl du wusstest, dass der Start einer neuen Generation sich schwierig gestalten würde, hast du das Zeug trotzdem gekauft? Selbst schuld. Was damit die CPU zu tun hat, ist mir auch ein Rätsel.Tja, den 7800x3d hatte ich zuhause, nur war der Start von AMD erneut nennen wirs verkorkst, weshalb er zurück ging.
Nur bei AMD scheint sich das schwierig zu gestalten und ich hatte zum Zeitpunkt meiner Bestellung (naiv?) gehofft, dass der Hersteller dazu gelernt hat.Du sagst also, obwohl du wusstest, dass der Start einer neuen Generation sich schwierig gestalten würde, hast du das Zeug trotzdem gekauft? Selbst schuld. Was damit die CPU zu tun hat, ist mir auch ein Rätsel.
Neue AGESA-Versionen hast du also noch nicht mal ausprobiert? Ich verstehe den Sinn einfach nicht. Wenn das Zeug doch da war, und währenddessen Zeit vergangen ist, dann spräche doch nichts gegen einen Test mit aktueller UEFI-Version, oder? Ich nutze den 7800X3D, seit es ihn gibt, auf einem AM5-Brett und ich hab keine Probleme, ich verstehe nicht, wie andere das immer machen.Hardware bei AMD reift ähnlich wie große TripleA Spiele beim Kunden.
Ich auch nicht, aber ich denke das Stichwort ist OC. Bzw. Schön den 6400 RAM in die AM5 Kiste brügeln und dann wundern warum die CPU die Offiziell nur für 5200 Freigegeben ist nicht 100% Stabil läuft.Ich nutze den 7800X3D, seit es ihn gibt, auf einem AM5-Brett und ich hab keine Probleme, ich verstehe nicht, wie andere das immer machen.