Intel Core i9-12900KS: CPU bereits im Handel und sehr viel teurer als Ryzen 7 5800X3D

Wenn ich schon die Verpackung sehe: Spezial Edition, kommt es mir hoch.
Verlangen dafür 800 Euro und es gibt leider Leute die zahlen es.
Einfach nur traurig wohin die reise geht mit nur ein paar Prozent mehr Leistung.
 
Man sollte einfach eine Idee von Loriot aufgreifen.
Da gab es doch den Weihnachtssketch mit dem Spiel "Wir bauen uns ein Atomkraftwerk".
Könnten die großen Discounter dann für nur €1999,99 anbieten und schwupps, schon gibt es keine Probleme mehr.
Dazu gibt es einen Gratis-Bleisack, der strahlende Abfall kann damit einfach in der Biotonne entsorgt werden :devil:
Unbestätigten Gerüchten zufolge forschen Intel und NVidia intensiv auf diesem Sektor, erste Muster werden bereits
in Q1/2023 erwartet (parallel zu den 3,9KW-Grafikkarten)
 
Mir wurde ja unterstellt hier Blödsinn zu schreiben, da ich GPU-Limit angebracht habe und deswegen soviel CPU-Power bzw. noch mehr CPU der jetzigen Situation eigentlich gar nicht nötig wäre, denn seien wir ehrlich, die wenigsten spielen bei 240 oder gar 360 Hz . Bei 144Hz/FPS ist doch für die meisten ausreichend. Gerade wenn man den Step einmal von 60Hz/FPS weg mal ausprobiert und einmal vielleicht sogar gesynct gezockt hat. Da sist schon eine andere Welt. Von daher denke ich, dass wenn man aktuelle Hardware hat, eher im GPU-Limit ist bei entsprechenden Grafiksettings von 1440p oder sogar 2160p.
Bin ich wohl bei dir ;)

Naja, was anderes habe ich ja nicht gesagt. Lisa Su hat den Laden wieder auf Linie gebracht. Und die Mitarbeiter haben die Vision umgesetzt, die sie hatte. Die haben sich ja selbst an der Haaren aus der Grube gezerrt.
Ich würde das nur nicht Lisa Su zuschreiben. Die technische Entwicklung betreibt Frau Su nicht selber.
Da sind auch Prozesse am wirken gewesen, schon bevor Frau Su kam.

Wie der 12900K bereits gezeigt hat, ist er kein Kostverächter. Da können die Vermutungen um weitere Leistungssteigerungen schon seltsame Blüten treiben.

Kein Kostverächter? Ja, unter Volllast und synthetischer Volllast, aber für viele Nutzer eben absolut nicht relevant, aufgrund des Nutzungsprofils. In unserer Firma ist ein Alder Lake 12900k sogar effizienter, als ein Ryzen 5000.

90% der Zeit niedrige Last und in 10% der Zeit hohe, bis sehr hohe Last. Über 100% der Zeit benötigt ein 12900k System in diesem Szenario sogar weniger Energie.

Bei mir Zuhause wäre es genauso. Nur noch deutlicher! Entweder niedrige Last, oder Spiele.

In Spielen verbrauchen Intel 12000 und AMD 5000 eigentlich das selbe (+/- ein paar Watt), dabei ist Intel aber schneller, also in Summe Effizienter.

Das änderst sich auch nicht wirklich durch neue Spiele. Der Traum von perfekter Multi Core Unterstützung ist ein Traum in Spielen. Es werden immer mehr Kerne Sinnvoll eingesetzt, aber eben nicht so belastet, wie bei synthetischen Tests.

Ein 12900K wird in Spielen nie wirklich über eine Durchschnittliche Leistungsaufnahme von ca 140W (nur CPU) kommen.

Dabei bleibt, aktuell ist Intel ist aktuell bei den schnellsten Modellen schneller und Fps/W nicht hinter AMD.

Wer natürlich die meiste Zeit Multi Core Lasten hat, die über die Spiele Leistungsaufnahme hinausgeht, für den kann sich Ryzen 5000 lohnen.

Dazu kommt, das für 95% der User eh ein 5600X, oder ein i5 12600 reichen.
Man sollte einfach eine Idee von Loriot aufgreifen.
Da gab es doch den Weihnachtssketch mit dem Spiel "Wir bauen uns ein Atomkraftwerk".
Könnten die großen Discounter dann für nur €1999,99 anbieten und schwupps, schon gibt es keine Probleme mehr.
Dazu gibt es einen Gratis-Bleisack, der strahlende Abfall kann damit einfach in der Biotonne entsorgt werden :devil:
Unbestätigten Gerüchten zufolge forschen Intel und NVidia intensiv auf diesem Sektor, erste Muster werden bereits
in Q1/2023 erwartet (parallel zu den 3,9KW-Grafikkarten)

Unser Unternehmen fährt mit Alder Lake effizienter, als mit Ryzen 5000 und nu.
Alder Lake kann viel verbrauchen, macht das eben aber auch nur in speziellen Lastszenarien. Von daher ist das etwas differenzierter zu betrachten. Wenn man aber natürlich nur gegen Intel Wettern will, dann reicht das plumpe Gefasel.
 
FC5 hat es z.B. vorausgesetzt, da haben etliche Phenom II Besitzer in die Röhre geschaut.



Damals waren sie aber nur etwas über 5 Jahre alt und wenn ich soetwas umgehen kann, dann mache ich es auch. Es gibt keinen logischen Grund es nicht zu tun. CPUs mit AVX 512 sind einfach die bessere Option.



Mein i7 3770 reicht noch für alles und nochmal: wenn ich so ein potentielles Problem umgehen kann, dann mache ich es auch.

Ich habe bisher keinen gefunden, der mir im Falle eines Falles eine AVX 512 CPU als Ersatz kaufen würde, auch du offenbar nicht. Also kann der potentielle Nutzen nicht bei Null liegen.



Keine Ahnung, ich kann nicht in die Zukunft sehen.

Wenn ich das könnte würde ich auch noch die Lottozahlen vorhersehen, meine Millionen einstreichen und die alle Anwendungsszenarien um die Ohren schlagen, die es für AVX 512 geben wird. Oder ich hätte die Sache von Angang an bleiben lassen, da ich genau wissen würde, dass das in Zukunft nichts bringen wird.

Der Entscheidende Punkt, den du irgendwie nicht kapierst: es ist in jedem Fall besser AVX 512 zu haben als es nicht zu haben. Dass Intel die AVX 512 Einheiten jetzt grillt ist für den Verbraucher im aller besten Fall neutral, im problematischen Fall muß man sich deshalb eine neue CPU kaufen. Deshalb ist es insgesamt eine schlechte Sache.



Keine Ahnung, ich kann wie gesagt nicht in die Zukunft blicken.

Ich habe aber im laufe der Zeit aber von vielen Dingen gehört, die man nicht brauchen wird. Das fängt beim zweiten ISDN Kanal an (128 KBit braucht keiner), geht über die 100MHz CPUs und die Gigabyte HDD über 3D Beschleuniger, mehrkern CPUs und einen Haufen anderer Dinge.

Viele Dinge hat man am Ende doch benötigt, auch AVX, von dem man ähnliches behauptet hat.

Wie schon x mal gesagt gesagt: keiner hat sich bereit erklärt mir eine neue CPU zu kaufen, wenn es doch so käme, aklso würde der Schaden bei mir hängen bleiben.

Ich habe also die Möglichkeit zwischen nichts (der beste Fall) und dem Kauf einer neuen CPU (der schlechteste Fall). Das zu verhindern würde (im Fall von Alderlake) 0€ kosten. Ein Risiko zu kosten von 0€ zu vermeiden ist die logische Entscheidung, da gibt es keine zwei vernünftigen Meinungen.



Bei AVX hat man exakt den gleichen Mist gesagt: für Spiele nicht interessant. Tja, dann kamen 2017/18 die ersten Spiele und dann war es doch von Vorteil. Exakt so halte ich es auch mit AVX 512. Sollte es sich nicht durchsetzen, dann hätte ich keinen Schaden, wird es doch genutzt, dann wäre ich ohne der Depp.

Du kannst dafür nicht garantieren. Im Zweifel reicht ein Entwickler, der das ganze mit zuviel Befehlssätzen durch den Compiler jagt.



Ja, es ist auch Blödsinn.

Zum einen gibt es durchaus einige Spiele, die nahezu nur von der CPU dominiert werden. Journey to the Savageplanet wäre da ein Beispiel. Zum anderen ist das ganze auch nicht so CPU unabhängig, wie du das glauben willst. Es gibt bei vielen Spielen durchaus einen nicht geringen Unterschied.

Das angebliche GPU Limit wird immer von der Fraktion ausgepackt, deren Lieblingshersteller gerade im Hintertreffen ist. Es war schon zu P4 Zeiten Unsinn, das ist es heute und das wird es wohl auch immer sein.
Nein das hat man von AVX nie gesagt das es nicht für Spiele interessant wäre, wurde auch für Spiele entwickelt...

Und du brauchst nicht in die Zukunft blicken, les dir einfach den Artikel über AVX512 durch, was der Unterschied zu AVX2 ist und dann erkläre mir mal was davon in Irgendeiner Weise Relevant für Spiele sein könnte... Es wurde nicht für diesen Einsatzzweckbentwickelt und ich sehe auch keine Funktion die für sowas in Irgendeiner Weise relevant sein könnte
 
Es ist Zeit die Intel Heizplatten endlich über Board zu werfen.
Blöd nur, dass die AMD Chips genau so heiß bzw. sogar heißer werden oder was glaubst du, warum der Takt beim 5800X3D gesenkt wurde? :ugly:

Der 12900KS soll ja eine basis power von 150W und eine turbo power von 260W aufweisen.

Zusammen mit der kommenden 4090ti gibt das dann eine toxische Mischung mit 260W + 850W = 1110W
bzw. fast so viel wie mein Staubsauger. (OC dann wohl etwas mehr als mein Staubsauger)
Ich hoffe, dass das nun dein verqueres Weltbild nicht zerstört:

Es wird auch gemunkelt das Intel lediglich dreizehn Stück mit diesen Taktraten ausselektieren konnte,
aber es sich ausdrücklich nicht um einen paper launch handeln soll.
Es wird auch gemunkelt, dass du sehr viel Stuss von dir gibst.

Mich stört nur, wie schnell bei Intel CPUs in solchen Threads versucht wird, Intel CPUs schlecht dastehen zu lassen.
Willkommen im PCGH Forum. Das ist hier Gang und Gäbe, dass die Threads von AMDlern gekapert und mit Fakenews geflutet werden.
 
Zuletzt bearbeitet:
Naja, das dachte ich auch und bin vom 1600 auf 3900X umgestiegen. Ja das war ein großer Sprung, keine Frage.
Aber ein Ryzen 5600X mit nur 50% der Kerne ist 20-30% schneller in Games.
Also von daher zählt das Argument nicht richtig, dass mehr Kerne auf Dauer unbedingt besser sind...zumal die Konsolen die Entwicklung aktuell auf 8 Kerne deckeln.
In Anwendungen trifft das zu, da hier massiv parallelisiert werden kann. Game Engines sind dazu nicht in der Lage. Jedenfalls die wenigsten.

Und wer unbedingt Spieleleistung braucht, der braucht keine 16C/24T CPU. Zumal die E-Cores nicht mal zu taugen zum Gamen. Gab schon genug Tests dazu.
Der wäre somit mit einem potentiell schnellerem 5800X3D dann wohl besser bedient, oder nicht? ;)

Aber der 5800X3D ist in meinen Augen für Aufrüstwillige AM4 User gedacht, um sie noch bei AMD zu halten und nicht auf ADL wechseln zu lassen bis AM5 mit Zen4 kommt.
Ich hab den Kauf des 5900X nicht bereut, ganz im Gegenteil, er hat mir Sachen ermöglicht, die mit weniger Kernen problematisch wären.
Ich konnte so Ark auf einem Monitor laufen lassen und mich um das langwierige Breeden kümmern und dazu noch FF 14 spielen. Alles noch ruckelfrei (>60fps).

Klar, damit bin ich in einer absoluten Nische, aber für mich ist die CPU perfekt.


Bei den E-Cores von Intel gibt es aktuell noch das Problem, dass selbst rechenintensive Spiele vom OS teilweise auf die E-Cores verteilt werden. Dazu gibt es auch Benchmarks mit ohne ohne E-Cores.
 
Ja, es ist auch Blödsinn.

Zum einen gibt es durchaus einige Spiele, die nahezu nur von der CPU dominiert werden. Journey to the Savageplanet wäre da ein Beispiel. Zum anderen ist das ganze auch nicht so CPU unabhängig, wie du das glauben willst. Es gibt bei vielen Spielen durchaus einen nicht geringen Unterschied.
Dann erläutere, warum es Blödsinn ist und stell hier nicht nur deine Meinung in den Raum. Wenn es kein GPU-Limit gäbe, würden Benchmarks für Grafikkarten gar keinen Sinn ergeben.
Das angebliche GPU Limit wird immer von der Fraktion ausgepackt, deren Lieblingshersteller gerade im Hintertreffen ist. Es war schon zu P4 Zeiten Unsinn, das ist es heute und das wird es wohl auch immer sein.
Okay. Kläre er mich auf. P4 war noch ein Single-Core CPU. Soweit kann ich folgen, und somit pädestiniert dafür, ein 1a CPU oder GPU-Limit darzustellen. Bei MC-Arch kann man ja immer nur mutmaßen, wenn die Graka unter 90% Auslastung fällt, das eventuell die CPU limitiert. Ich bin auf deine Erläuterung gespannt.
Ich würde das nur nicht Lisa Su zuschreiben. Die technische Entwicklung betreibt Frau Su nicht selber.
Da sind auch Prozesse am wirken gewesen, schon bevor Frau Su kam.
Natürlich nicht, es braucht aber starke Persönlichkeiten, um eine Kehrtwende in Unternehmen herbeizuführen.
Das sie nicht mitentwickelt und zusammenbaut steht außer Frage.
90% der Zeit niedrige Last und in 10% der Zeit hohe, bis sehr hohe Last. Über 100% der Zeit benötigt ein 12900k System in diesem Szenario sogar weniger Energie.
okay, das hätte mit dazu schreiben können. Ist ja bei den meisten so.
Unser Unternehmen fährt mit Alder Lake effizienter, als mit Ryzen 5000 und nu.
Alder Lake kann viel verbrauchen, macht das eben aber auch nur in speziellen Lastszenarien. Von daher ist das etwas differenzierter zu betrachten. Wenn man aber natürlich nur gegen Intel Wettern will, dann reicht das plumpe Gefasel.
Wer will wettern? Plumpes Gefasel? Intel sich ja auch 1Jahr Zeit genommen, um auf Ryzen 5000 zu reagieren. Wäre echt traurig, wenn im neuen INTEL7-Prozess nicht ein merkbarer Effizienzsprung abzeichnen würde. Warum sollte ich mir einen MC-Chip holen, wenn ich die Kerne nicht brauch? Nur um mit den E-Cores dann zu idlen und zu sagen: "hier guckt mal wie effizient mein Prozzi ist"? Wenn ich MC kaufe muss ich allover-Verbrauch betrachten, und da geht der 12900K definitv nochmal einen Schritt weiter als AMD im Verbrauch, aber das interessiert dann nur Leute, die eben hauptsächlich MC-Scenarien fahren. Ist ja auch nicht weiter dramatisch.

Nicht desto trotz finde ich den Intel-Ansatz interessant.
 
Nun, ich hoffe dass alle die hier so fleißig am Ineffizienz Bashing teilnehmen diesen Effizienzgedanken im gesamten Leben durchziehen. Ich für meinen Teil bin einfach nur froh darüber, dass wir zumindest die beiden Anbieter haben. Es wäre in meinen Augen schlimm, wenn wir nur einen Anbieter hätten und damit auf mittlere bis lange Sicht quasi den CPU-Trabant.

Und selbst wenn jemand in den Geiss Modus verfällt und sich aus Prinzip nur die teuerste CPU kauft, wem tut er denn damit weh? Was gibt es denn da zu diskutieren? Müssen sich in Zukunft die ganzen Brabus, Lambo, Porsche, Ferrari und Tesla Fahrer persönlich bei euch entschuldigen weil sie viel Geld für Unvernunft ausgeben? Möge doch bitte jeder die für sich passende Entscheidung treffen und damit leben.
 
Moin :kaffee:

bitte Beleidigungen und Provokationen vermeiden. Solltet ihr persönliche Differenzen miteinander haben, so klärt diese doch bitte außerhalb des Threads.

Danke! :daumen:

Gruß
Pain
 
Allein schon die Tatsache das B350 Besitzer den 5800x3D jetzt auch nutzen können, macht diesen für viele attraktiver. Mal sehen, ob AMD mit dem AM5 Sockel genau so nachhaltig agieren wird.
 
Wem war denn die finanzielle Lage vor ZEN geschuldet? Wenn dann am ehesten AMD selbst. Wie auch immer, ich freue mich, das man aktuell für die allermeisten Belange eine gute Auswahl hat, auf beiden Seiten.
Na, es gab da ein kleines Programm bei Intel, bei denen es massive Zahlungen an DELL und Co. gab, damit sie keine AMD CPUs verbauten - Das war schon vor den Bulldozer Zeiten so und hielt AMD ziemlich klein.
Immerhin ist das Geschäft mit Office PCs deutlich größer, als das mit Endkunden.

Auch heutzutage sieht man oft, dass Laptops mit AMD CPU schlechter ausgestattet sind und ein schlechteres Kühlsystem haben.
Oft mit der Begründung, dass AMD CPUs sich als Produkt erst mal verkaufen müssen, bevor man mehr in das Produktdesign investiert...
Nur so wird es dann zur selbsterfüllenden Prophezeiung, dass das Produkt floppt.
Wer kauft schon einen Laptop mit schlechtem Bildschirm, mauer Festplatte, ebensolcher Tastatur und Kühlung?
 
@SilentHunter
Die neue Intel-FAB in Magdeburg. Was anderes kann es eigentlich nicht sein.
Allerdings spuckt die erst ab Ultraturbohastenichgesehen-Lake was aus, so rasch geht da nix in Produktion.
Ist letztlich doch ein klein wenig komplexer als eine Frittenbude im Industriegebiet :)
Aber nur ein bissl.
Unter ca. drei Jahren bis Serienproduktion sehe ich da nix aus der Halle rollen.
 
Der hat heute frei, aber ich richte es ihm aus :)
Es sei denn, die planen was geheimes, 6.000 Effizenzkerne und 1 (ein) Leistungscore und überrollen den Markt
dann von hinten. Irgendwo las ich, dass in Schilda eine weitere FAB in Planung sei.
 
Zurück