News AMD Ryzen 7 9800X3D schlägt Intel Core Ultra 9 285K

Intel weis was AMD tut..
AMD weis was Intel tut..

Nvidia weis was AMD tut
AMD weis was Nvidia tut..

Wahrscheinlich weis sogar Intel was Nvidia tut und Vice Versa

Ich wäre oft froh, wenn AMD wüsste, was AMD tut...

Muss nicht unbedingt sein, könnte mir vorstellen das es bei AMD Patente gibt die Intel dafür brauchen könnte AMD diesmal aber kein Patenttausch haben will sondern Lizenzgebühren und die Pflicht AMD zu nennen.
Das beste Beispiel war AMD64 wo AMD einfach schneller und besser war. Dummerweise haben sie Vereinbarung getroffen so das Intel AMD64 einbauen konnte und AMD SSE ohne das einer den anderen als quelle bewerben musste oder hohe Lizenz Zahlungen zu leisten. Wie es weiter ging weiß ja dann mittlerweile jeder, dank Marketing, viel Geld im Rücken und aggressive vorgehen im Markt wurde AMD kaum oben wieder deklassiert. Den Fehler werden sie wohl nicht zwei mal machen.

Sehr schwer vorstellbar. V-Cache macht, soweit bekannt, nichts anders als stink normaler Cache, außer die physische Verbindung mit dem Rest des Systems. Und genau diese Verbindung ist überhaupt nicht von AMD, sondern von TSMC und wurde dort zudem erst nach Vorstellung vergleichbarer Techniken durch Intel eingeführt. Also was für eine AMD-Lizenz sollte Intel für einen Nachbau benötigen? Jeder Core Ultra nutzt genau die gleiche Verbindungstechnik, nur das bislang keine Speicherzellen auf dem zweiten Stück Silizium sind.

Übrigens ist auch die, weit verbreitete, Darstellung zu x86-64 grundsätzlich falsch: AMD64 war weder "schneller" noch "besser" noch wurden technische Schaltungen übernommen. CPUs mit AMD64 waren (wenig) schneller und (solange man mit Single Threading zufrieden war) besser (vor allem aber ein gutes Stück effizienter und günstiger). Aber das lag nicht an AMD64. Das ist, wie SSE auch, schlicht ein Befehlssatz und ob man Aktion X mit "rosaEinhorn" (AMD) oder "pinkUnicorn" (ursprünglicher Intel-Plan) betitelt, ändert nichts an der Geschwindigkeit. Die Technik zur Ausführung der Befehle haben dagegen beide Firmen unabhängig von einander und lange vor der Kreuz-Lizensierung entwickelt, wie man an den Veröffentlichungsterminen entsprechender CPUs erkennen kann. Tatsächlich arbeitet Intels EM64T in einigen Details sogar anders als AMD64, es wurden nur die Befehlsbezeichnungen in letzter Minute angepasst – gezwungenermaßen: Microsoft hat sich geweigert, neben Windows XP 64-Bit (für Intel Itanium) und Windows XP x64 (für AMD64) noch eine dritte 64-Bit-Version aufzulegen. Da Intel die möchtegern-Profi-Sparte nicht killen wollte, haben sie wohl oder übel die Ansteuerung der eigenen x86-64-Erweiterung auf die AMD64-Befehle umgestellt. (Rückblickend ein Glücksfall für Anwender. IA64 wurde, wenn überhaupt, eher mit Solaris & anderen ixoiden betrieben; dort den Windows-Support zu opfern, hätte Intel kaum geschadet. Aber wenn zum Aufkommen der ersten 64-Bit-Heimanwender-Software 10 Prozent AMD64 gegen 90 Intel Core 2/Core i mit proprietärem Yamhill-as-planned gestanden hätten, dann wäre ersteres den Weg von FMA4, SSE4a und 3Dnow! gegangen und hätte die Firma dahinter vermutlich mitgerissen.)
 
Naja Dual X3D bei Unreal Engine v5 und alle anderen wo mehr wie 8 Kerne genutzt werden, bringt einen Leistungsschub ist doch klar. Intel hat X3D halt nichts entgegenzusetzen im Moment. AMD sollte sich da aber auch nicht Ausruhen darauf.
Intel könnte sehr wohl eine CPU mit extra Cache herstellen. Das hat man ja schon früher mal gemacht.
Ich gehe davon aus, dass man das bewusst nicht macht. Kürzlich war ja wieder ein großer CPU Vergleich von PCGH wo noch der i7 5770C dabei war und dank Cache stieg die Leistung in Spielen knappe 40%.
Das bedeutet aber auch - ähnlich wie AMD das gerade mit Zen 5 demonstriert -dass sämtliche Modelle ohne Cache schlecht aussehen (in SPielen), so auch eine mögliche Nachfolgegeneration die wieder 10% bringt. Das bringt wirtschaftlich wesentlich weniger Einnahmen, als wenn die ganze Serie hochgeprügelt wird auf 300W um dieselbe Leistung zu erreichen.
Die sollen die 9000er x3d endlich mal releasen.
Endlich mal. Als wäre es ein Jahr her, dass die 9xxx Released wurden.
Man muss ja auch nicht, solange Intel nicht released.
 
Nicht wirklich!

Schreibe es immer wieder und wieder, ja ein 14900k ist ineffizient @Max aber mit wenig Einbußen schafft man es gut über die Runden. Die 3Ds fürs Gaming sind nicht erreichbar, aber eben auch sehr speziell und eigentlich nur fürs Gaming gut. Insofern kann ich dein Totschlagargument auch nicht ganz nachvollziehen.
Begrenzen wir einen 14900K oder 285 auf die gleiche Watt/Verbrauchszahlen beim Gaming, würde sogar mein oller 5800X3D noch gut mithalten können :lol:
Gruß T.
 
Gut wenigstens gibt er es zu, nach dem Mikrocode Debakel habe ich mit was anderem gerechnet. Ich denke, solange Intel nicht auf gestapelte Prozessoren setzt, wird sich da nicht viel dran ändern. Intel ist AMD eine Gen hinterher aber gut sie verbessern wenigstens die Effizienz und machen was und nehmen die Kritik an, die seit Jahren immer wieder von Testern angesprochen wird.
 
Ich wäre oft froh, wenn AMD wüsste, was AMD tut...



Sehr schwer vorstellbar. V-Cache macht, soweit bekannt, nichts anders als stink normaler Cache, außer die physische Verbindung mit dem Rest des Systems. Und genau diese Verbindung ist überhaupt nicht von AMD, sondern von TSMC und wurde dort zudem erst nach Vorstellung vergleichbarer Techniken durch Intel eingeführt. Also was für eine AMD-Lizenz sollte Intel für einen Nachbau benötigen? Jeder Core Ultra nutzt genau die gleiche Verbindungstechnik, nur das bislang keine Speicherzellen auf dem zweiten Stück Silizium sind.

Übrigens ist auch die, weit verbreitete, Darstellung zu x86-64 grundsätzlich falsch: AMD64 war weder "schneller" noch "besser" noch wurden technische Schaltungen übernommen. CPUs mit AMD64 waren (wenig) schneller und (solange man mit Single Threading zufrieden war) besser (vor allem aber ein gutes Stück effizienter und günstiger). Aber das lag nicht an AMD64. Das ist, wie SSE auch, schlicht ein Befehlssatz und ob man Aktion X mit "rosaEinhorn" (AMD) oder "pinkUnicorn" (ursprünglicher Intel-Plan) betitelt, ändert nichts an der Geschwindigkeit. Die Technik zur Ausführung der Befehle haben dagegen beide Firmen unabhängig von einander und lange vor der Kreuz-Lizensierung entwickelt, wie man an den Veröffentlichungsterminen entsprechender CPUs erkennen kann. Tatsächlich arbeitet Intels EM64T in einigen Details sogar anders als AMD64, es wurden nur die Befehlsbezeichnungen in letzter Minute angepasst – gezwungenermaßen: Microsoft hat sich geweigert, neben Windows XP 64-Bit (für Intel Itanium) und Windows XP x64 (für AMD64) noch eine dritte 64-Bit-Version aufzulegen. Da Intel die möchtegern-Profi-Sparte nicht killen wollte, haben sie wohl oder übel die Ansteuerung der eigenen x86-64-Erweiterung auf die AMD64-Befehle umgestellt. (Rückblickend ein Glücksfall für Anwender. IA64 wurde, wenn überhaupt, eher mit Solaris & anderen ixoiden betrieben; dort den Windows-Support zu opfern, hätte Intel kaum geschadet. Aber wenn zum Aufkommen der ersten 64-Bit-Heimanwender-Software 10 Prozent AMD64 gegen 90 Intel Core 2/Core i mit proprietärem Yamhill-as-planned gestanden hätten, dann wäre ersteres den Weg von FMA4, SSE4a und 3Dnow! gegangen und hätte die Firma dahinter vermutlich mitgerissen.)
Da muss ich widersprechen
Amd64, also x64 ist eine Befehlsatzerweiterung von AMD
Deswegen findet man such unter Windows und vor allem Linux immer noch den Namen AMD64.

Intel wollte eine ganz neue 64 Bit Architektur einführen, itanium, Microsoft war mit an Board siehe XP für Itanium
Nur der Markt hat nicht mitgezogen.
Dann hat Microsoft halbherzig Windows Xp64 bit für x86 rausgebracht und Intel hat die Srchitektur mit ganz kleinen Änderungen übernommen

Lizenz für kreutechnoligie hatten beide
Zb. Mmx und See (beides intel)
 
Baseline ist, dass 14900K, 7800X3D und 285K ungefähr gleichauf liegen. Von dort aus wird der 9800X3D sich ca. 10% absetzen, ganz ohne OC natürlich.
Nur mal ne Frage, wie kommst du auf die Baseline? Die Abstände passen so gar nicht, vieleicht mit den Release Tests, aber nach den immer weiteren Updates liegt man dann doch mittlerweile deutlich vorne.

Ich tippe auf 25% die ein 9800X3D vor dem Dreigestirn liegen wird, also in etwa das was ein 9700X auf den 7700X gut macht zzgl. einem geringeren Taktverlust
 
5% schätzt intel also, daß sie dahinter lägen. Selbst, wenn es im besten Fall wirklich so wäre, stünde immer noch der sicherlich deutlich höhere Stromverbrauch der intel-cpus im Raum. AMD hat es tatsächlich wieder mal geschafft.
 
5% schätzt intel also, daß sie dahinter lägen. Selbst, wenn es im besten Fall wirklich so wäre, stünde immer noch der sicherlich deutlich höhere Stromverbrauch der intel-cpus im Raum. AMD hat es tatsächlich wieder mal geschafft.
5% hinter den 7950X3D im Gaming, nicht dem 9800X3D. Einer von Intel hat dies behauptet. (siehe Wccftech)
Andere Gerüchte sagen, das der 9800X3D in CBR23 2145 Punkte im Single und 23315 Punkte im Multi hat.
Wenn ich die Ergebnisse vom 7800X3D Test auf PCGH nehme (1782/18417) dann wären es 20% im Single und ca 26,5% im Multi.
Cinebench R23 testet nicht den Cache und gerade der soll ja auch besser sein.

Somit wäre der 9800X3D eine Bombe im Gaming wie vom 5800X3D zum 7800X3D und wäre von der Leistung 1-2 Generationen weiter als Intel.

Und was den Verbrauch angeht, so glaube ich, das der im Gaming derselbe sein wird wie bei AMD.
X3D könnte vorne liegen, aber nur wenn sie niedriger getaktet sind.
 
Von 4550MHz auf 5050MHz auf 5500MHz (58X3D auf 78X3D auf 98X3D) und schon ist der Abstand fast gleich wie von 58X3D auf 78X3D, also ja, da geht was.

Und ja man kann den auch noch mit BO und CO optimieren + höherer MT/s im RAM OC (kein 8000er Lock mehr wie bei den 7000ern).
 
Zuletzt bearbeitet:
AMD darf das mit Ryzen nicht mehr zu lange ausreizen.
So langsam muss wieder ein richtiger Technologieschritt eingelegt werden.
Man wird sicherlich im nächsten Jahr nochmal eine Gen für den Sockel nachlegen, aber dann sollte Intel in der Lage sein auch in Sachen Effizienz anzugreifen, wenn denn die Fertigung endlich mal mit macht.
Und AMD hat mit Ryzen ja noch 2 Probleme: die Probleme mit den CCD, die vor allem Spiele ärgern, und dann noch die Grundlast im Idle, so ein 1-2 Minikern Block mit Abschaltung der allermeisten anderen Sachen wäre mal was, vor allem im Mobilbereich, wo man auch gegen Apple und ARM allgemein kämpfen muss. Intel scheint da ja ordentlich was zu machen.

Wichtig wird für AMD natürlich auch die Radeon 9000, denn mit Raytracingleistungseinbußen an dritter Stelle hinter Intel wird das nicht ewig gut gehen, wenn sich zukünftig alle Spiele dahingehend orientieren und entwickelt werden udn man einige Blockbuster dann vielleicht nur noch damit spielen können wird, weil ein Fallbackmodus kostensparend udn vielleicht auch effizienzfördernd (bessere Optimierung für mehr FPS) weggelassen wird.
Ich persönlich bin mit Rastern völlig zufrieden und will nur viel FPS sehen, aber der Großteil der Gamer lässt sich halt mit Schlagwörtern und Blendwerk "überzeugen".

Jein.
Für mich kann AMDs Ryzen sogar (etwas) langsammer als Intel sein.
Der beste Vorteil für mich ist aber das man das MoBo locker für zwei CPUs nutzen kann.
Es sieht aber zum Glück seit länger Zeit nach Pari mit Intel aus; ggf. seit dem Ryten 3x00 sogar Vorteil AMD.
Abgesehen davon habe ich mich mit dem "itx-APU" Virus infiziert.
Macht echt Laune kleine Kisten zusammenzubauen und schauen was man mit tuning so alles machen kann.
Ist auch relativ günstig da keien GPU gebraucht wird :D

Ich hoffe das ich den ganzen Hick-Hack mit den neuen RX 8x00 Serie so verstanden das es nur als Übergangslsg. für
ein "echten" Nachfolger kommen soll.

Mit RT gebe ich Dir völlig Recht. Für heute ggf. noch ein nettes Spielzeig aber in Zukunft wichtig.
Bis heute habe ich mit der RX 6800XT nichts falsch gemacht.
Neben CP2077 und AlanWake 2 gibt es für mich keine Titel die nicht gut mit der Karte laufen und oder mich nicht interessieren. Wenn mich (vor)letztes Jahr wirklich schon RT brenend interessiert hätte ich eine RTX 4080 kaufen müsen; alles darunter macht in 1440p keinen Spass.
Die 4080 wäre dann laut PCGH 252% schneller als meine 6800xt (von 33 auf 84FPS) :ugly:
 
Intel lässt diese Serie an CPUs immerhin bei TSMC fertigen, da wäre es komisch wenn es groß Unterschiede zu AMD geben würde die auch dort fertigen lassen. Jedoch scheint AMD architektonisch leicht einen Vorsprung zu haben, denn AMD nurtzt noch 6nm und 4nm, wohingegen Intel den N3B Node benutzt.

Besonders auffällig ist halt, dass bei Intel die Cache Größen steigen und AMD X3D weiterhin das Maß aller DInge bleiebn soll, die Variante mit dem vielen Cache. Das deutet darauf hin, dass wie immer tiefer in ein Software Optimisierungs-Loch fallen. Wir kennen das auch auf GPU Seite im Zusammenhang mit Rendern in nativer Auflösung.

Als jemand der stets GPU Limitiert ist in Sachen Spiele-Einstellungen, sehe ich aktuell keinen Unterschied zwischen Intel und AMD. Am interessantesten wären fast Benchmarks mit denen die Effizienz getestet wird. Also zweimal Cyberpunk auf 80fps laufen lassen ohne DLSS (o-Ä.) und dann messen welche CPU mehr Strom verbraucht. Nicht dass es auf die 10W Unterschied ankommen wird, wenn man gerade den 300W Nvidia Heizlüfter gegen kalte Winternächte am laufen hat.
 

Si, hier gibt's schon interne erste Präsentationen der Performance 9000'3D vs 7000X3D.
Jetzt könnt ihr auch hier weiter philosophieren.
Real werden 5-15% mehr Performance auf den 7800X3D draufkommen und das wars dann.
Keine Wunder, aber werden die mit Abstand flottesten Gaming CPUs.
 

Si, hier gibt's schon interne erste Präsentationen der Performance 9000'3D vs 7000X3D.
Jetzt könnt ihr auch hier weiter philosophieren.
Real werden 5-15% mehr Performance auf den 7800X3D draufkommen und das wars dann.
Keine Wunder, aber werden die mit Abstand flottesten Gaming CPUs.

404 - page not found. :D
Da gabs wohl mal wieder blutige Fingerchen...
 
Da muss ich widersprechen
Amd64, also x64 ist eine Befehlsatzerweiterung von AMD
Deswegen findet man such unter Windows und vor allem Linux immer noch den Namen AMD64.

Intel wollte eine ganz neue 64 Bit Architektur einführen, itanium, Microsoft war mit an Board siehe XP für Itanium
Nur der Markt hat nicht mitgezogen.
Dann hat Microsoft halbherzig Windows Xp64 bit für x86 rausgebracht und Intel hat die Srchitektur mit ganz kleinen Änderungen übernommen

Nein. Intel "wollte" Itanium nicht einführen, Intel hat Itanium eingeführt. Trotz diverser Verzögerungen noch mehrere Jahre bevor an AMD64 überhaupt zu denken war. Das habe ich sogar ausdrücklich angesprochen.

Zusätzlich/im Anschluss an diese Server-/Mainstream-Sparte hat sich Intel aber auch Gedanken gemacht, wie man den 32-Bit-x86-Mainstream auf die nächste Stufe heben kann. Damit hat man sich deutlich mehr Zeit gelassen, weil man keinen Bedarf sah ("Athlon64" für Endkunden war bei AMD auch nur ein Abfallprodukt der Opteron-Entwicklung, die hatten eben keine zwei getrennten Entwicklungslinien), aber das Ergebnis war genauso eine x86-64-Bit-Erweiterung wie bei AMD. Stichwort "Project Yamhill". Und (Prescott-)Prozessoren, in denen Technik später aktiviert wurde, hat Intel sogar schon vor dem Athlon-64-Launch vorgeführt, entsprechend viel früher und somit Jahre vor dem Crosslizenzierungsabkommen haben sie die Technik darin entwickelt. Der einzige Haken war, wie geschrieben: Die Ansteuerungsbefehle mussten vom Betriebssystem unterstützt werden. Und Microsoft hat gesagt: "Nö, ist nicht. Entweder ihr kommt mit "AMD64"-Code klar oder ihr macht das ohne uns."

Intel lässt diese Serie an CPUs immerhin bei TSMC fertigen, da wäre es komisch wenn es groß Unterschiede zu AMD geben würde die auch dort fertigen lassen. Jedoch scheint AMD architektonisch leicht einen Vorsprung zu haben, denn AMD nurtzt noch 6nm und 4nm, wohingegen Intel den N3B Node benutzt.

N4 und N5 für AMDs CPU-Kerne, was aber beides 7-nm-Prozesse sind. Im Gegensatz zu N3, der zur 5-nm-ITRS-Klasse gehört und genau deswegen hat Intel diesmal eigentlich einen massiven Vorsprung auf der Fertigungsseite – zum ersten Mal seit den Duellen zwischen Kaby Lake und Coffee Lake gegen Zen/Zen+. Eigentlich sollte Intel also klar in Führung gehen. Zumindest wenn man alle Parameter (Chipgröße, -verbrauch, -leistung) gewichtet – bislang waren vier E-Cluster nicht zwingend so viel "wert" sind, wie acht "große" Kerne und eine Intel 8+16-Konfiguration somit eigentlich ein Konkurrent für 12-Kerner. Darüber konnte man nur mitkämpfen, weil man übertaktet hat. Macht man das jetzt wieder, würde das den (Effizienz-)Vorteil von N3 natürlich auffressen und "nur" einen Gleichstand zum 9950X erwarten lassen. Hat man dagegen die Investitionen pro Kern deutlich erhöht (und das hat Intel im Vorfeld suggeriert), könnten auch vergleichbare Transistorbudgets gegeneinander antreten und dann wäre zu erwarten, dass Intel bei gleicher Absolutleistung viel Effizienter dank der moderneren Fertigung ist.
 
Zurück