Soweit mir bekannt geht man von der Leistung einer 3070(ti) aus beim Intel dGPU Topmodell. Und 2 Versuche sind nicht 10 Versuche wie Du behauptet hast.
Man hat definitiv öfter als zweimal etwas angekündigt, ich glaube es kam aber nur einmal (bisher) dazu, dass dann auch eine Grafikkarte kam. Die restlichen Versuche (10 waren es sicherlich nicht, das war etwas flapsig gesprochen) sind bereits in der Entwicklung verendet.
Bzgl. der Leistung wäre 3070 Niveau in jedem Fall schonmal ein Erfolg, bisherige Benchmarks (klar sind das noch Vorserienmodelle) liefern aber wohl nur 2060 Niveau, wieviel da noch drin steckt? Ich weiß es nicht, die Taktraten lagen wohl schon bei über 2 Ghz im Boost, viel Takt wird also vermutlich nicht mehr drin stecken.
Die Vergangenheit ist manchmal egal, dann wieder nicht, wie es halt gerade passt...
Die Vergangenheit ist niemals völlig egal, aber irgendwann haben sich Sachen auch mal verlebt. Niemand spricht hier noch von Intelschen Zeiten wo sie eben Hersteller von Komplett PCs bestochen haben um keine AMD Produkte zu verbauen, oder?
Mir geht es genauso auf den Kecks, wenn man AMD in den Klee loben möchte, die haben auch ihre schwarzen Stunden in der Firmengeschichte, aktuell sieht dies nunmal etwas anders aus und man ist in breiter Front (CPU und GPU) wieder voll bei der Musik, darüber sollte jeder hier im Forum froh und glücklich sein. Ich glaube nämlich nicht, dass wir heute bei dieser Leistung stehen würden, wenn nicht AMD so gut aufgeschlossen hätte.
Du hast offensichtlich weder das Video gesehen noch den Artikel gelesen. Es ging in der Aussage nur um Client (Consumer) CPUs. Aber dreh es ruhig weiter bis es passt.
"Every product category it competes" bedeutet wohl in jeder Kategorie die man anbietet, man bietet definitv Xeon-W an und da liegt man hinten. Im Serverbereich beschreibt er es zumindest noch damit, dass das kommende Produkt diese Führerschaft übernehmen soll, im Workstation und AUCH im Consumer Bereich ist es aber nunmal Fakt, dass man nicht von einer eindeutigen Führung reden kann. Imm Consumerbereich rechnet der 5950X eben 20% schneller als der 12900k, wenn es aus den Games rausgeht, siehe dazu gerne auch hier die Benchmarkbestenliste. Die Aussagen, so wie sie getroffen wurden (ich entschuldige mich im übrigen, dass ich Consumer mit Workstation überlesen hatte) sind faktisch nicht korrekt. Beide CPU Serien haben ihre Stärken, dass AMD hier im Rückspiegel auftaucht sieht man aber eben nicht!
P.S.
Selbst der 5900X (der aktuell 509 EUR kostet und damit ist der 12900k runde 17,5% teurer) rechnet in Anwendungen nahezu exakt gleich (1% Differenz).
Bitte wie bitte was? Die ADL CPUs sind doch P/L mäßig vor den direkten Zen3 CPUs?
Bitte was?
Wo genau?
5900X = 509 EUR zu 12900k 598EUR
5800X = 366 EUR zu 12700k 421 EUR (18% schneller und 15% teurer)
Einzig der 12600k ist ein echter Preisbrecher 3% langsamer als ein 5800X und 12,5% günstiger!
Und noch mal, bitte was?? Man sieht doch was AMD bei RDNA1 in 7nm gebracht hat, da war NV mit Turing in 12nm trotzdem vorne. Es ist halt beides, Architektur + Prozess. Wenn beide Architekturen ungefähr gleich abliefern, dann entscheidet der Prozess.
Was willst du damit sagen?
Habe ich behauptet, dass man zwangsläufig das schnellere Produkt haben muss mit der besseren Fertigung? Sicher nicht, natürlich gehört die Arch dazu! Aktuell ist es doch so, dass beide ziemlich identisch abliefern, die Leistungsunterschiede einer 3090 zu einer 6900XT sind marginal, die 3090 hat einen höheren Verbrauch, den man evtl. auf Samsung etwas schlechteren 8nm Prozess runterbrechen kann. So what?
Auf Intel und AMD bezogen muss man eben beide Seiten sehen, was du scheinbar nicht hinbekommst. Externe Fertiger (die Intel ja auch nutzt) sind Fluch und Segen zugleich, genauso ist es eben mit der eigenen Fertigung. Du stellst es aber jetzt gerade so hin, dass Intel einen Heiligenschein verdient hätte, weil sie ja die einzigen sind die die Fertigung ankurbeln, was natürlich völliger Blödsinn ist. Wenn Intel nicht wäre, hätte GloFo, Samsung und TSMC eben mehr Anlagen, denn die Chips würden ja trotzdem benötigt. Intel hat jahrelang auf dem Fertigungsvorteil gesessen und nach 10 Jahren wurden sie dann von einem Konkurenten überholt. Hätte AMD seinerzeit 14nm bekommen, wäre der Abstand zu Intel deutlichst geringer gewesen, die Sprünge waren damals ja nochmals deutlich größer (meine 70% Effizienz zwischen 28nm TSMC und 14nm Intel gelesen zu haben) und wenn Bulldozer auf über 5Ghz gegangen wäre, ja dann weiß man nicht wo sie im direkten Vergleich zu Intel gelegen hätten, der Abstand wäre massiv geringer gewesen. Da hackt aber keiner der blauen Fraktion drauf rum, stattdessen wird hier nur rumgeheult, weil Intel nach 10 Jahren Siegeszug mal zwei Schritte zurückmachen musste und AMD ja jetzt so im Vorteil ist? Ernsthaft?
Man kann DLSS auch ohne RT einsetzen, ist ja auch so ein schöner FPS Boost und liefert die beste Anti-Aliasing Lösung die es aktuell gibt. Diverse Titel die ohne RT erscheinen / erschienen sind haben trotzdem DLSS an Bord, man sollte die beiden Features also sehr wohl getrennt betrachten.
DLSS ohne RT ist natürlich nutzbar und mehr als sinnvoll. RT ohne DLSS ist aber in vielen Fällen noch nicht wirklich nutzbar, bzw. gehen die FPS dann oft zu sehr in den Keller. -