News Intel-Chef: AMD nur noch im Rückspiegel dank Alder Lake

Erwartest du wirklich, dass sie die Tatsache, dass AMD bei Big Little um 5 Jahre hinterherhinkt, weil sie sie den Trend nicht erkannt haben? Dass sie dann noch den recht unschönen Fakt, dass Alder Lake dadurch deutlich besser ist, wenn man die Leistungsaufnahme stark einschränkt, etwa bei Laptops. Die Tatsache, dass Intel nun seit gut 5Jahren AVX 512 anbietet, passt nicht wirklich ins Konzept. Sie wird auch mit keinem Wort erwähnen, dass AMD über 10 Jahre gebraucht hat, um die Core i Kerne zu schlagen und dass sie da wieder hinten dran sind. weiterhin unerwähnt bleiben wird auch die Tatsache, dass auch Intel und Nvidia wohl deutliche Leistungssteigerungen erreichen können. Bei den Grakas läßt man oder in dem Fall Frau, die Tatsache unter den Tisch fallen, dass Nvidia momentan die doppelte Raytracingleistung hat und dass DLSS ein massives Problem wird, wenn es sich durchsetzen sollte. Bei den Finanzen wird garnicht darauf eingegangen, dass AMD ein Zwerg ist und bei einem Krieg, zwischen Nvidia und Intel, zerreiben werden kann.

Also ich denke, da läuft es wirklich anders, bodenständiger, realistischer, was zum Aufstieg auch wesentlich mit beitrug. Mit ner großen Klappe baut man keine guten Produkte. Darin liegt der wesentlich Unterschied bei chinesischer und auch deutsch geprägter Kultur zu der der amerikanischen. Klar, man stellt sich auf öffentlichen Events hin und verkauft, was man hat, mit den besten Worten. Aber bei Gelsinger kann ich mir gut vorstellen, dass der seinen Laden generell so führt wie er im Video auftritt.

Was die technischen Dinge angeht, naja, AVX512 ist Intel so wichtig, dass sie es aus den AL CPUs via Microcodeupate "entfernen". Die Core i Kerne waren 10 Jahre lang eine Lizenz zum Gelddrucken ohne einer wirklich guten Entwicklung für uns User. Intern wurde das bestimmt in Gelsinger-Manier als geiles Produkt verkauft. Für RT und DLSS muss man sich aktuell schon begeistern können, um das wirklich toll zu finden, aber ich muss einräumen, dass es langsam spannend wird. Jedenfalls habe ich den Eindruck, dass kommende Games nicht mehr so fürchterlich künstlich mit RT wirken. Und am Ende wird man weder Intel noch Nvidia gestatten den einzigen Konkurrenten mit Potenzial zu zerreiben, denn in USA ist man sehr darauf bedacht keine Monopole zu haben.
 
Nein, tun diese nicht. Aber das ist die Gruppe, für die diese CPU sinnvoll wäre.
Und warum geht diese Gruppe nicht auf den 5900X oder 5950X?
Den Geschwindigkeitsvorteil hat der 5800X3D nur ne kurze Zeit lang bei einigen Spielen. Zukunftssicherer sind die beiden anderen Chips und möglicherweise ist der 5900X sogar günstiger.
 
Also ich denke, da läuft es wirklich anders, bodenständiger, realistischer, was zum Aufstieg auch wesentlich mit beitrug. Mit ner großen Klappe baut man keine guten Produkte. Darin liegt der wesentlich Unterschied bei chinesischer und auch deutsch geprägter Kultur zu der der amerikanischen. Klar, man stellt sich auf öffentlichen Events hin und verkauft, was man hat, mit den besten Worten. Aber bei Gelsinger kann ich mir gut vorstellen, dass der seinen Laden generell so führt wie er im Video auftritt.
2020 - Frank Azor auf Twitter:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Nene, bei AMD hat man keine große Klappe. Nie. :schief:


Was die technischen Dinge angeht, naja, AVX512 ist Intel so wichtig, dass sie es aus den AL CPUs via Microcodeupate "entfernen". Die Core i Kerne waren 10 Jahre lang eine Lizenz zum Gelddrucken ohne einer wirklich guten Entwicklung für uns User. Intern wurde das bestimmt in Gelsinger-Manier als geiles Produkt verkauft. Für RT und DLSS muss man sich aktuell schon begeistern können, um das wirklich toll zu finden, aber ich muss einräumen, dass es langsam spannend wird. Jedenfalls habe ich den Eindruck, dass kommende Games nicht mehr so fürchterlich künstlich mit RT wirken. Und am Ende wird man weder Intel noch Nvidia gestatten den einzigen Konkurrenten mit Potenzial zu zerreiben, denn in USA ist man sehr darauf bedacht keine Monopole zu haben.
Für RT + DLSS muss man sich begeistern können um das toll zu finden? Da ist die Fachpresse aber durchweg anderer Meinung. Es ist nicht in jedem Spiel gut umgesetzt, aber wenn dann ist es ein Mehrwert. Die Integration beider Features in ALLE gängigen Engines zeigt auch eindeutig in welche Richtung sich die Industrie entwickelt.
 
Nene, bei AMD hat man keine große Klappe. Nie. :schief:
So kann man das nicht sagen, aber es fällt schon auf, dass Intel und Nvidia scheinbar gerne zu große Brötchen backen und dann eben oftmals nicht im Ansatz liefern. Bei Intel muss man nur mal schauen, das wievielte Mal kündigen Sie nun an GPUs auf Niveau der Konkurenz zu bringen? 10 mal? Geschafft haben sie es nie auch nur im Ansatz.

Ansonsten muss man sagen, dass viele Aussagen die in der Vergangenheit bei AMD getroffen wurden ähnliches Niveau hatten, das wird hier keiner abstreiten, aber gerade in der jüngeren Vergangenheit wurden solch markante und belgbare Falschaussagen eben nicht mehr getroffen. Ja, es wurde gesagt kein Paperlaunch und ja ich kann mich gut daran erinnern, dass ganz zu Beginn die Lieferbarkeit deutlich besser war als bei den RTX Karten ganz zu Beginn. Von einem Paperlaunch war man seinerzeit weit weg, es kamen dennoch Faktoren zusammen die eine unbefrieidgende Lieferbarkeit zur Folge hatten, ein Paperlaunch war es dennoch nicht (auch nicht bei Nvidia).

Wenn ich aber nun die Sprüche hier lese, kann ich nunmal nur schmunzeln, AL ist ein Riesenfortschritt und eine absolute gute und mehr als brauchbare Architektur, zumindest die großen Kerne (meine Meinung). Aber sie haben AMD damit noch nicht wieder überholt und in den Rückspiegel gestellt, im Gegenteil, AMD hat in gewissen Bereichen nach wie vor einen großen Vorsprung und gerade wenn man dann mit dem Begriff Workstation umher kommt ist AMD nachwievor in der Lage Kreis um alles zu fahren was Intel derzeit anbietet. Intel selbst bewirbt die Xeon-W als Workstation CPUs, der W-3375 mit 38 Kernen auf IceLake Basis läuft einem 3995WX aber nunmal um viele viele Prozentpunkte hinterher. Also von Rückspiegel sehe ich da nichts, im Gegenteil, Intel befindet sich deutlich mehr im Rückspiegel als AMD dies derzeit tut, zumindest wenn man sich auf die Leistung bezieht.
Mit Alder Lake hat man zweifelsohne in einem kleinen Marktbereich die Technologieführerschaft wieder zurück geholt und den doch teils deutlichen Rückstand auf seinen Mitbewerber komplett egalisiert, vorbei gezogen sehe ich aber selbst in diesem Markt "noch" nicht.

P.S.
Wichtig ist vieleicht alle Aussagen rein auf die Leistung bezogen zu verstehen, wirtschaftlich war Intel (warum auch immer) aber immer sehr weit vorne und AMD konnte trotz Technologieführerschaft nur geringe Werte (wenn auch wichtig) hinzugewinnen.
 
So kann man das nicht sagen, aber es fällt schon auf, dass Intel und Nvidia scheinbar gerne zu große Brötchen backen und dann eben oftmals nicht im Ansatz liefern. Bei Intel muss man nur mal schauen, das wievielte Mal kündigen Sie nun an GPUs auf Niveau der Konkurenz zu bringen? 10 mal? Geschafft haben sie es nie auch nur im Ansatz.
Nicht mal im Ansatz liefern, ja ne ist klar... Intel startet meines Wissens nach gerade den 2. Versuch im dGPU Geschäft, aber übertreib ruhig weiter.


Ansonsten muss man sagen, dass viele Aussagen die in der Vergangenheit bei AMD getroffen wurden ähnliches Niveau hatten, das wird hier keiner abstreiten, aber gerade in der jüngeren Vergangenheit wurden solch markante und belgbare Falschaussagen eben nicht mehr getroffen. Ja, es wurde gesagt kein Paperlaunch und ja ich kann mich gut daran erinnern, dass ganz zu Beginn die Lieferbarkeit deutlich besser war als bei den RTX Karten ganz zu Beginn. Von einem Paperlaunch war man seinerzeit weit weg, es kamen dennoch Faktoren zusammen die eine unbefrieidgende Lieferbarkeit zur Folge hatten, ein Paperlaunch war es dennoch nicht (auch nicht bei Nvidia).
Doch, GENAU DAS wird abgestritten. Nur Intel und NV agieren so laut einiger Leute hier.

Bezüglich RDNA2, ich weiss ja nicht wo Du Ende 2020 warst, aber die Lieferbarkeit war noch schlechter im Vergleich zu Ampere.


Wenn ich aber nun die Sprüche hier lese, kann ich nunmal nur schmunzeln, AL ist ein Riesenfortschritt und eine absolute gute und mehr als brauchbare Architektur, zumindest die großen Kerne (meine Meinung). Aber sie haben AMD damit noch nicht wieder überholt und in den Rückspiegel gestellt, im Gegenteil, AMD hat in gewissen Bereichen nach wie vor einen großen Vorsprung und gerade wenn man dann mit dem Begriff Workstation umher kommt ist AMD nachwievor in der Lage Kreis um alles zu fahren was Intel derzeit anbietet. Intel selbst bewirbt die Xeon-W als Workstation CPUs, der W-3375 mit 38 Kernen auf IceLake Basis läuft einem 3995WX aber nunmal um viele viele Prozentpunkte hinterher. Also von Rückspiegel sehe ich da nichts, im Gegenteil, Intel befindet sich deutlich mehr im Rückspiegel als AMD dies derzeit tut, zumindest wenn man sich auf die Leistung bezieht.
Mit Alder Lake hat man zweifelsohne in einem kleinen Marktbereich die Technologieführerschaft wieder zurück geholt und den doch teils deutlichen Rückstand auf seinen Mitbewerber komplett egalisiert, vorbei gezogen sehe ich aber selbst in diesem Markt "noch" nicht.

P.S.
Wichtig ist vieleicht alle Aussagen rein auf die Leistung bezogen zu verstehen, wirtschaftlich war Intel (warum auch immer) aber immer sehr weit vorne und AMD konnte trotz Technologieführerschaft nur geringe Werte (wenn auch wichtig) hinzugewinnen.
Ganz einfach, AMD mag technologisch im Multi-Threading vorne sein, das hilft ihnen aber wenig da sie nicht die erforderlichen Mengen liefern können um im OEM / Datacenter / Supercomputer Markt groß aufzutrumpfen. AMD kann halt keine Verträge eingehen wo innerhalb eines Jahres zig tausend CPUs geliefert werden müssen weil ihnen dazu schlicht die Kapazität bei TSMC fehlt. Deswegen bleibt Intel in diesem sehr lukrativen Markt weiterhin vorne.
 
Des Weiteren streicht AMD die Lorbeeren für ihr Design ein und nicht für die Fertigung. Sieht man am besten an RDNA und der Effizienzsteigerung innerhalb des GLEICHEN Fertigung!
Natürlich ist die ZEN und RDNA2 Arch genial, aber ohne TSMC wären sie heute nicht vor Intel und gleichauf zu Nvidia.
Schau dir mal die Unterschiede zwischen Samsungs 8nm und TSMCs 7nm an. Nvidia musste den schlechteren Fertigungsprozess kompensieren und AMD konnte sie trotzdem nicht schlagen, sondern nur gleichziehen. Ohne TSMC wären sie also auch heute noch abgeschlagen.
 
Natürlich ist die ZEN und RDNA2 Arch genial, aber ohne TSMC wären sie heute nicht vor Intel und gleichauf zu Nvidia.
Schau dir mal die Unterschiede zwischen Samsungs 8nm und TSMCs 7nm an. Nvidia musste den schlechteren Fertigungsprozess kompensieren und AMD konnte sie trotzdem nicht schlagen, sondern nur gleichziehen. Ohne TSMC wären sie also auch heute noch abgeschlagen.
Und Zen auch erst seit Zen2, die erste Generation war noch nicht gleichauf mit Intel.

Ende des Jahres / Anfang 2023 kommen RDNA3 + Lovelace im selben Prozess, dann wird man sehen wie gut die Architektur wirklich ist. Im Vergleich mit Raptor Lake wird Zen4 vermutlich vorne liegen, ist dann eben auch TSMC 5nm vs Intel 7. Da wird man auf Meteor Lake mit Intel 4 warten müssen um halbwegs vergleichbare Prozesse zu haben.
 
...
Nene, bei AMD hat man keine große Klappe. Nie. :schief:
...
Es gibt da für mich einfach einen sehr wichtigen Unterschied:
Wenn ein Unternehmen sein Produkt bewirbt (von mir aus agressiv oder übertrieben), hat das, wohlgemerkt nur für mich (!), einfach einen anderen Geschmack, als wenn ein Unternehmen einem anderen Unternehmen mit so herabwürdigenden Sprüchen entgegen tritt. Mir ist nicht bewusst, wann AMD solche Sprüche jemals gegen Intel präsentiert haben soll.
Natürlich haben sie auch mal Müll abgeliefert. Welches der 3 Spiele-Hardware herstellenden großen Unternehmen, Intel/NVidia/Amd, hat das mal nicht. Aber welches Unternehmen zeigen nicht unregelmäßig mit beleidigenden, denunzierend- und herablassenden Bemerkungen auf ein anderes Unternehmen, statt seine Produkte zu bewerben.

Das isst das, was mich nervt.

Nur meine Meinung ... :confused:
 
Mir ist nicht bewusst, wann AMD solche Sprüche jemals gegen Intel präsentiert haben soll.
Geht auch gegen Nvidia? Dann würde mir sofort "Poor Volta" einfallen.
Man muss schon harter AMDler sein, wenn man sowas von heute auf morgen vergessen hat und AMD als den heiligen und erlösenden Samariter darstellt.
 
  • Like
Reaktionen: rum
Nicht mal im Ansatz liefern, ja ne ist klar... Intel startet meines Wissens nach gerade den 2. Versuch im dGPU Geschäft, aber übertreib ruhig weiter.
Für den Bereich der diskreten GPUs ist das so!

Sie haben mehr als einmal gesagt, dass sie in diesen Markt wollen und sind mehr als einmal daran gescheitert. Aktuell geht man beim kommenden Topmodell von einer Leistung oberhalb einer 2060 aus! Das ist wohl weit entfernt von allem was die Konkurenz zu bieten hat.

Doch, GENAU DAS wird abgestritten. Nur Intel und NV agieren so laut einiger Leute hier.
Nein, es wird sehr oft in der Gegenwart gesprochen und da ist AMD eben nicht mit solchen rein provokanten Aussagen aufgefallen. Im Gegenteil, man hat wirklich überaschend oft die Ankündigen bestätigen und halten können. Dies war nicht immer so, aber in den jüngeren Geschichte konnte man sehr oft Ankündigen in der Realität bestätigen.

Deswegen bleibt Intel in diesem sehr lukrativen Markt weiterhin vorne.
Bestreitet das jemand?

Nein, es wird hier eine Aussage diskutiert, wo eben von Intel behauptet wird mit Alder Lake haben Sie AMD die Grenzen aufgezeigt und die Führerschaft zurückgeholt. Da man niemals die Absatzführerschaft abgegeben hat, kann hier nur die Leistung gemeint sein. In diesem Bereich sind sie aber eben bei weitem nicht so weit vorne, dass eine solche Aussage zutreffen würde, Im Gegenteil, nimmt man die intelschen Worte "Workstation" mit auf, habe ich doch klar dargelegt, dass sie nahezu hoffnungslos hinten liegen.
Natürlich ist die ZEN und RDNA2 Arch genial
Das Schicksal wenn man keine eigenen Bänder am Laufen hat! Genau deswegen ist Intel ja nachwievor im Vorteil und kann eben preislich eine Menge machen, was sie aber nicht tun. Fairerweise muss man eben auch sagen, dass AMD aus genau diesem Punkt auch lange Jahre einen entscheidenden Nachteil hatte und eigentlich nie auf dem gleichen Prozessniveau wie Intel agieren konnte. Die CPUs hätten es wohl seinerzeit auch schon hergegeben, aber wenn du in 28nm statt 14nm fertigen muss (wobei Intels 14nm ja noch bedeutend besser gewesen wäre als TSMCs der GloFos 14nm) kannst du nicht gleichwertig agieren. Ich kann mich daran nicht erinnern, dass dies seinerzeit auch mal ernsthaft hier in die Waagschale geworfen wurde, im Gegenteil da wurde dann eben gesagt "selber schuld, könnten ja was eigenes aufbauen". Jetzt dreht sich der Vogel um und plötzlich ist nicht mehr AMD "schuld" am Erfolg, sondern ein anderer? Cherrypicking!
 
Es gibt da für mich einfach einen sehr wichtigen Unterschied:
Wenn ein Unternehmen sein Produkt bewirbt (von mir aus agressiv oder übertrieben), hat das, wohlgemerkt nur für mich (!), einfach einen anderen Geschmack, als wenn ein Unternehmen einem anderen Unternehmen mit so herabwürdigenden Sprüchen entgegen tritt. Mir ist nicht bewusst, wann AMD solche Sprüche jemals gegen Intel präsentiert haben soll.
Natürlich haben sie auch mal Müll abgeliefert. Welches der 3 Spiele-Hardware herstellenden großen Unternehmen, Intel/NVidia/Amd, hat das mal nicht. Aber welches Unternehmen zeigen nicht unregelmäßig mit beleidigenden, denunzierend- und herablassenden Bemerkungen auf ein anderes Unternehmen, statt seine Produkte zu bewerben.

Das isst das, was mich nervt.

Nur meine Meinung ... :confused:
Hast Du das Video überhaupt angeschaut? Ich denke nicht... Ab Minute 2:26, schau mal nach. Oder lies das Zitat hier im Artikel:

AMD in the rearview mirror in clients and never again will they be in the windshield; we are just leading the market.

Das ist für mich alles andere als "beleidigend, denunzierend- und herablassend" wie Pat Gelsinger es da sagt, aber was interessiert schon die echte Aussage, hm? Besser man steigt in den Hate-Train ein. In dem Punkt geht es übrigens um "opportunities ahead" und er sagt es mit einem Lächeln im Video, keine Spur von der Intention die Du beschreibst.
 
2020 - Frank Azor auf Twitter:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Nene, bei AMD hat man keine große Klappe. Nie. :schief:
Klar, man stellt sich auf öffentlichen Events hin und verkauft, was man hat, mit den besten Worten.
Da sind wir wieder bei der Wahrnehmung ^^

Für RT + DLSS muss man sich begeistern können um das toll zu finden? Da ist die Fachpresse aber durchweg anderer Meinung. Es ist nicht in jedem Spiel gut umgesetzt, aber wenn dann ist es ein Mehrwert. Die Integration beider Features in ALLE gängigen Engines zeigt auch eindeutig in welche Richtung sich die Industrie entwickelt.
DLSS macht RT erst spielbar. Insofern ist es nicht verwunderlich, dass die "Fachpresse" auch begeistert ist. Besonders dann, wenn man sowas auf einer gesponserten 3080 oder größer ausprobieren darf. Die "Fachpresse" ist mir da aber ehrlich gesagt egal, denn Grafik liegt im Auge des Betrachters. Ich weiß nur für mich, dass mir die meisten Games damit viel zu künstlich rüberkommen, sich das aber so langsam ändert, was ich wiederum spannend finde. Nur ist aktuell RT - und DLSS als dessen Abhängigkeit für Spielbarkeit bei hohen Auflösungen - für mich, der mehr als mit 1440p unterwegs ist, schlicht nicht reizvoll genug.
 
Für den Bereich der diskreten GPUs ist das so!

Sie haben mehr als einmal gesagt, dass sie in diesen Markt wollen und sind mehr als einmal daran gescheitert. Aktuell geht man beim kommenden Topmodell von einer Leistung oberhalb einer 2060 aus! Das ist wohl weit entfernt von allem was die Konkurenz zu bieten hat.
Soweit mir bekannt geht man von der Leistung einer 3070(ti) aus beim Intel dGPU Topmodell. Und 2 Versuche sind nicht 10 Versuche wie Du behauptet hast.


Nein, es wird sehr oft in der Gegenwart gesprochen und da ist AMD eben nicht mit solchen rein provokanten Aussagen aufgefallen. Im Gegenteil, man hat wirklich überaschend oft die Ankündigen bestätigen und halten können. Dies war nicht immer so, aber in den jüngeren Geschichte konnte man sehr oft Ankündigen in der Realität bestätigen.
Die Vergangenheit ist manchmal egal, dann wieder nicht, wie es halt gerade passt...


Bestreitet das jemand?

Nein, es wird hier eine Aussage diskutiert, wo eben von Intel behauptet wird mit Alder Lake haben Sie AMD die Grenzen aufgezeigt und die Führerschaft zurückgeholt. Da man niemals die Absatzführerschaft abgegeben hat, kann hier nur die Leistung gemeint sein. In diesem Bereich sind sie aber eben bei weitem nicht so weit vorne, dass eine solche Aussage zutreffen würde, Im Gegenteil, nimmt man die intelschen Worte "Workstation" mit auf, habe ich doch klar dargelegt, dass sie nahezu hoffnungslos hinten liegen.
Du hast offensichtlich weder das Video gesehen noch den Artikel gelesen. Es ging in der Aussage nur um Client (Consumer) CPUs. Aber dreh es ruhig weiter bis es passt.


Das Schicksal wenn man keine eigenen Bänder am Laufen hat! Genau deswegen ist Intel ja nachwievor im Vorteil und kann eben preislich eine Menge machen, was sie aber nicht tun. Fairerweise muss man eben auch sagen, dass AMD aus genau diesem Punkt auch lange Jahre einen entscheidenden Nachteil hatte und eigentlich nie auf dem gleichen Prozessniveau wie Intel agieren konnte. Die CPUs hätten es wohl seinerzeit auch schon hergegeben, aber wenn du in 28nm statt 14nm fertigen muss (wobei Intels 14nm ja noch bedeutend besser gewesen wäre als TSMCs der GloFos 14nm) kannst du nicht gleichwertig agieren. Ich kann mich daran nicht erinnern, dass dies seinerzeit auch mal ernsthaft hier in die Waagschale geworfen wurde, im Gegenteil da wurde dann eben gesagt "selber schuld, könnten ja was eigenes aufbauen". Jetzt dreht sich der Vogel um und plötzlich ist nicht mehr AMD "schuld" am Erfolg, sondern ein anderer? Cherrypicking!
Bitte wie bitte was? Die ADL CPUs sind doch P/L mäßig vor den direkten Zen3 CPUs?

Und noch mal, bitte was?? Man sieht doch was AMD bei RDNA1 in 7nm gebracht hat, da war NV mit Turing in 12nm trotzdem vorne. Es ist halt beides, Architektur + Prozess. Wenn beide Architekturen ungefähr gleich abliefern, dann entscheidet der Prozess.

Fairerweise kann man auch sagen dass AMD sich den Prozess Vorteil eingekauft hat während Intel dafür sorgt dass es nicht nur einen Hersteller von Hochleistungs-Chips gibt. Das kostet Intel Milliarden an Forschung die AMD einfach nicht ausgeben muss.
DLSS macht RT erst spielbar. Insofern ist es nicht verwunderlich, dass die "Fachpresse" auch begeistert ist. Besonders dann, wenn man sowas auf einer gesponserten 3080 oder größer ausprobieren darf. Die "Fachpresse" ist mir da aber ehrlich gesagt egal, denn Grafik liegt im Auge des Betrachters. Ich weiß nur für mich, dass mir die meisten Games damit viel zu künstlich rüberkommen, sich das aber so langsam ändert, was ich wiederum spannend finde. Nur ist aktuell RT - und DLSS als dessen Abhängigkeit für Spielbarkeit bei hohen Auflösungen - für mich, der mehr als mit 1440p unterwegs ist, schlicht nicht reizvoll genug.

Man kann DLSS auch ohne RT einsetzen, ist ja auch so ein schöner FPS Boost und liefert die beste Anti-Aliasing Lösung die es aktuell gibt. Diverse Titel die ohne RT erscheinen / erschienen sind haben trotzdem DLSS an Bord, man sollte die beiden Features also sehr wohl getrennt betrachten.
 
Mit dem Phenom I wurde Intel nur fertig wegen der einzigartigen Fertigung Intels , auf dem Papier steht der Phenom I dem Core 2 in Nichts nach , aber zu der Zeit hat Intels Fertigung alles weg gefegt und ohne die Smartphones (allen voran Samsung) wäre das bis heute noch so !
Die Fury war mit HBM was besonderes und war auch der 980/Ti recht nah am Hacken und VEGA ist verdammt Gut gealtert wunder Treiber hin oder her , wo steht denn eine 1070/1070Ti heute im vergleich zu einer VEGA 56 ? ;)
Meine Vega läuft immer noch wunderbar in FHD mit Grafik auf Hoch oder auf Ultra mit kleinen Abstrichen wie Schattenauflösung oder AA.
 
Natürlich ist die ZEN und RDNA2 Arch genial, aber ohne TSMC wären sie heute nicht vor Intel und gleichauf zu Nvidia.
Schau dir mal die Unterschiede zwischen Samsungs 8nm und TSMCs 7nm an. Nvidia musste den schlechteren Fertigungsprozess kompensieren und AMD konnte sie trotzdem nicht schlagen, sondern nur gleichziehen. Ohne TSMC wären sie also auch heute noch abgeschlagen.

Man braucht immer einen vernünftigen Prozess, zumindest einen halbwegs konkurrenzfähigen! Bulldozer war z.B. auf hohe Taktraten vom Design her ausgelegt ~5GHz, jedoch hatte Glofo das bei weitem nicht geschafft und er war dann unter hohen Taktraten ineffizient...
Und hätte intel damals nicht die bessere Fertigung gehabt, wären sie auch nicht soweit vorne gewesen, das nur mal am Rande. Aber ich weiß damals war es egal, jetzt wo AMD eine etwas bessere Fertigung nutzt, geht das natürlich plötzlich gar nicht mehr...

Dein Beispiel mit Nvidia ist absoluter nonsens, zum einen ist AMD bei den meisten seiten ohne RT und DLSS leicht in Führung. Ich würde sagen es herrscht bezüglich der Leistung Gleichstand zwischen den beiden, weil es einfach auf die Spiele drauf ankommt und für jeden User ist es eine reine individuelle Entscheidung ob Hersteller A oder B in seinem eigenen Parcour besser abschneiden. Bei meinen Spielen wäre es z.B. deutlich AMD, das kann bei dir wiederum genau das Gegenteil sein.
Aber dieser ständige Blödsinn mit Nvidia hat die schlechtere Fertigung bei Samsung, nein haben sie nicht. Sie haben relativ große DIEs und bekommen bei Samsung einen Prozess geliefert, mit dem sie ihre DIEs relativ kostengünstig fertigen können und die gewünschte Leistung wird erzielt. Oder meinst du bei TSMC mit 7nm würden sie plötzlich 300 MHz mehr rausholen? Bei RDNA 2 liegt das einfach auch am Design, dass die Karten so hoch takten...
Vor allem wäre es für Nvidia auch deutlich teurer gewesen, von daher war das für Nvidia die beste Entscheidung die sie hätten treffen können! Die Marge stimmt, die Stückzahlen stimmen und das vielleicht der Stromverbrauch etwas höher ausfällt, ja mei, meinst du ernsthaft das interessiert die großartig? Vor allem sieht man ja, wenn sie nicht so aggressiv takten würden, würde der ganz anders ausfallen...
An ihrer Stelle hätte ich genauso gehandelt.

Und für AMD war 7nm einfach das Beste, da alle Produkte in 7nm gefertigt wurden und sie so den Bedarf besser aufteilen können, sprich wenn mehr Epycs benötigt werden, können sie so einfach ein anderes Produkt hintenanstellen.
Aus der Sicht haben sowohl AMD als auch Nvidia alles richtig gemacht.
 
In Sachen Anwendungsleistung sowie Effizienz ist Zen 3 allerdings immer noch stärker als Alder Lake.
Achso? Also ich habe letzte Woche Donnerstag meinen 12900K zusammen gebaut, dieser läuft auf einem ASUS ProArt B660-Creator D4 Board bei 88 Watt. Dazu habe ich schon eine weile einen 5950X auf einem Dark Hero V8 im ECO Modus. Beide PCs haben ansonsten das selbe Setup: 128GiB RAM, be quiet! Dark Power 12 1000W, Samsung SSD 980 PRO 2TB, Sound BlasterX AE-5 Plus, ASUS ROG Strix 1080TI OC.

Wenn man 20 Watt abzieht für die GPU (laut HWINFO) kommt folgendes zusammen: Der Alder Lake zieht im Idle (dekstop) 43 Watt aus der Steckdose**, das sind gerade mal 3 Watt mehr wie mein alter 7700K. Beim Ryzen zieht alleine das Crosshair VIII Dark Hero schon ~56 Watt (ohne WLAN, ohne RGB, ohne Onboard Sound) dazu der 5950X mit seinen ~36 Watt (mit Windows Energiesparprofil) sind das mal eben 92 Watt*. Bewege ich die Maus, springt der 5950X einfach mal so auf etwa 70 Watt und das System demnach auf ~125 Watt*. Ja, wirklich effizient das ganze.

Dazu braucht der Ryzen in Spielen laut Igors Lab deutlich mehr wie der Intel (wusste ich nicht mal: Anno1800 5950X 87 Watt, 12900KF 50 Watt), auch da, super effizient der Ryzen. Ich habe zwar schon ein paar mal nun gelesen das man sich ja keinen 16 Kerner kauft um zu Spielen aber es hieß doch Zen3 sei so Stromsparend und einfach toll. Das gilt offenbar nur wenn man 24/7 Volllast fährt.

Doch der eigentlich Witz kommt erst noch, ich habe im Hintergrund eine Webcam Software am laufen. Auf dem 12900K läuft diese nun auf EINEM E-Core! Dieser braucht dafür gerade einmal 8 lächerliche Watt. Der Ryzen 5950X jedoch Boostet gleich nach oben und verbraucht dann (auch wenn ein thread nicht voll ausgelastet ist) fast 80 Watt (schwankt stark aber trotzdem). Der Intel ist in diesem Szenario also Pi*Daumen 10x so effizient! Unfassbar.

Mir gefällt die Performance des 5950X (auch wenn die des 12900K nochmals deutlich besser ist, zumindest single thread) aber mit dem Stromverbrauch konnte ich mich nie wirklich anfreunden. AMDs Effizienz kann ich somit für mich persönlich und mit den Erfahrungen die ich jetzt damit gemacht habe, nicht entdecken. Ich vermute das Intel einfach unbeliebt ist und sich dieses Image festgesetzt hat. Beflügelt durch die ganzen Tests der Print und Online Medien wie PCGH die dem 5950X eine tolle Effizienz bescheinigen, gilt das dann einfach als Fakt.

Hier mal ein Auszug von Igors Alder Lake Test:
Selbst der Core i9-12900KF mit dem PL1 auf 241 Watt ist noch sparsamer als alle Rocket Lake CPUs und beide Ryzen 9. Fällt das CPU-Limit teilweise oder ganz weg, sind alle Alder Lake CPUs sogar sparsamer als alle Ryzen 9 und Ryzen 7. Nur der Ryzen 5 5600X kann da noch mithalten, ist aber fast immer auch die langsamste CPU im Testfeld. Hier hat Intel einen grandiosen Job erledigt und ich finde es wirklich schade, wenn das Marketing nur die FPS-Balken herausstreicht. Das, was sich bei der Leistungsaufnahme getan hat, ist aus meiner Sicht um ein Vielfaches höher zu bewerten. Man muss es nur cleverer verkaufen.

Also wenn ich beim 5950X nicht irgendwas grundlegend falsch mache dann ist für mich ganz klar Alder Lake effizienter. Und abseits der Mainstream Medien scheint sich das auch anderswo rauszustellen.

*gemessen
**zugegeben, das Messgerät ist ein billig teil aus dem Discounter und vermutlich nicht sehr genau, jedoch lassen sich die werte untereinander dennoch vergleichen, da sie mit dem selben Messgerät entstanden sind.
 
Und warum geht diese Gruppe nicht auf den 5900X oder 5950X?
Den Geschwindigkeitsvorteil hat der 5800X3D nur ne kurze Zeit lang bei einigen Spielen. Zukunftssicherer sind die beiden anderen Chips und möglicherweise ist der 5900X sogar günstiger.
Weil mehr als 8 Kerne beim Spielen aktuell keinen Vorteil bringen und auch der „normalo“ keinen Mehrwert von mehr als 8 Kernen hat.
 
Soweit mir bekannt geht man von der Leistung einer 3070(ti) aus beim Intel dGPU Topmodell. Und 2 Versuche sind nicht 10 Versuche wie Du behauptet hast.
Man hat definitiv öfter als zweimal etwas angekündigt, ich glaube es kam aber nur einmal (bisher) dazu, dass dann auch eine Grafikkarte kam. Die restlichen Versuche (10 waren es sicherlich nicht, das war etwas flapsig gesprochen) sind bereits in der Entwicklung verendet.

Bzgl. der Leistung wäre 3070 Niveau in jedem Fall schonmal ein Erfolg, bisherige Benchmarks (klar sind das noch Vorserienmodelle) liefern aber wohl nur 2060 Niveau, wieviel da noch drin steckt? Ich weiß es nicht, die Taktraten lagen wohl schon bei über 2 Ghz im Boost, viel Takt wird also vermutlich nicht mehr drin stecken.
Die Vergangenheit ist manchmal egal, dann wieder nicht, wie es halt gerade passt...
Die Vergangenheit ist niemals völlig egal, aber irgendwann haben sich Sachen auch mal verlebt. Niemand spricht hier noch von Intelschen Zeiten wo sie eben Hersteller von Komplett PCs bestochen haben um keine AMD Produkte zu verbauen, oder?

Mir geht es genauso auf den Kecks, wenn man AMD in den Klee loben möchte, die haben auch ihre schwarzen Stunden in der Firmengeschichte, aktuell sieht dies nunmal etwas anders aus und man ist in breiter Front (CPU und GPU) wieder voll bei der Musik, darüber sollte jeder hier im Forum froh und glücklich sein. Ich glaube nämlich nicht, dass wir heute bei dieser Leistung stehen würden, wenn nicht AMD so gut aufgeschlossen hätte.
Du hast offensichtlich weder das Video gesehen noch den Artikel gelesen. Es ging in der Aussage nur um Client (Consumer) CPUs. Aber dreh es ruhig weiter bis es passt.

"Every product category it competes" bedeutet wohl in jeder Kategorie die man anbietet, man bietet definitv Xeon-W an und da liegt man hinten. Im Serverbereich beschreibt er es zumindest noch damit, dass das kommende Produkt diese Führerschaft übernehmen soll, im Workstation und AUCH im Consumer Bereich ist es aber nunmal Fakt, dass man nicht von einer eindeutigen Führung reden kann. Imm Consumerbereich rechnet der 5950X eben 20% schneller als der 12900k, wenn es aus den Games rausgeht, siehe dazu gerne auch hier die Benchmarkbestenliste. Die Aussagen, so wie sie getroffen wurden (ich entschuldige mich im übrigen, dass ich Consumer mit Workstation überlesen hatte) sind faktisch nicht korrekt. Beide CPU Serien haben ihre Stärken, dass AMD hier im Rückspiegel auftaucht sieht man aber eben nicht!
P.S.
Selbst der 5900X (der aktuell 509 EUR kostet und damit ist der 12900k runde 17,5% teurer) rechnet in Anwendungen nahezu exakt gleich (1% Differenz).
Bitte wie bitte was? Die ADL CPUs sind doch P/L mäßig vor den direkten Zen3 CPUs?
Bitte was?
Wo genau?
5900X = 509 EUR zu 12900k 598EUR
5800X = 366 EUR zu 12700k 421 EUR (18% schneller und 15% teurer)

Einzig der 12600k ist ein echter Preisbrecher 3% langsamer als ein 5800X und 12,5% günstiger!

Und noch mal, bitte was?? Man sieht doch was AMD bei RDNA1 in 7nm gebracht hat, da war NV mit Turing in 12nm trotzdem vorne. Es ist halt beides, Architektur + Prozess. Wenn beide Architekturen ungefähr gleich abliefern, dann entscheidet der Prozess.
Was willst du damit sagen?

Habe ich behauptet, dass man zwangsläufig das schnellere Produkt haben muss mit der besseren Fertigung? Sicher nicht, natürlich gehört die Arch dazu! Aktuell ist es doch so, dass beide ziemlich identisch abliefern, die Leistungsunterschiede einer 3090 zu einer 6900XT sind marginal, die 3090 hat einen höheren Verbrauch, den man evtl. auf Samsung etwas schlechteren 8nm Prozess runterbrechen kann. So what?
Auf Intel und AMD bezogen muss man eben beide Seiten sehen, was du scheinbar nicht hinbekommst. Externe Fertiger (die Intel ja auch nutzt) sind Fluch und Segen zugleich, genauso ist es eben mit der eigenen Fertigung. Du stellst es aber jetzt gerade so hin, dass Intel einen Heiligenschein verdient hätte, weil sie ja die einzigen sind die die Fertigung ankurbeln, was natürlich völliger Blödsinn ist. Wenn Intel nicht wäre, hätte GloFo, Samsung und TSMC eben mehr Anlagen, denn die Chips würden ja trotzdem benötigt. Intel hat jahrelang auf dem Fertigungsvorteil gesessen und nach 10 Jahren wurden sie dann von einem Konkurenten überholt. Hätte AMD seinerzeit 14nm bekommen, wäre der Abstand zu Intel deutlichst geringer gewesen, die Sprünge waren damals ja nochmals deutlich größer (meine 70% Effizienz zwischen 28nm TSMC und 14nm Intel gelesen zu haben) und wenn Bulldozer auf über 5Ghz gegangen wäre, ja dann weiß man nicht wo sie im direkten Vergleich zu Intel gelegen hätten, der Abstand wäre massiv geringer gewesen. Da hackt aber keiner der blauen Fraktion drauf rum, stattdessen wird hier nur rumgeheult, weil Intel nach 10 Jahren Siegeszug mal zwei Schritte zurückmachen musste und AMD ja jetzt so im Vorteil ist? Ernsthaft?
Man kann DLSS auch ohne RT einsetzen, ist ja auch so ein schöner FPS Boost und liefert die beste Anti-Aliasing Lösung die es aktuell gibt. Diverse Titel die ohne RT erscheinen / erschienen sind haben trotzdem DLSS an Bord, man sollte die beiden Features also sehr wohl getrennt betrachten.
DLSS ohne RT ist natürlich nutzbar und mehr als sinnvoll. RT ohne DLSS ist aber in vielen Fällen noch nicht wirklich nutzbar, bzw. gehen die FPS dann oft zu sehr in den Keller. -
 
Zurück