News Intel Arrow Lake: Deutliches Performance-Plus gegenüber Raptor Lake Refresh [Gerücht]

Wo in aller Welt erkennt der Autor denn hier ein "deutliches Performanceplus"?

Alle anderen von Igor abgeschriebenen Artikel die ich bisher gesehen habe einschließlich der großen Mehrheit der Kommentare darunter empfinden 20% im absoluten bestcase als völlig enttäuschendes kleines Performanceplus.

Was am ende wirklich da steht ist zwar ohnehin ein völlig anderes Thema aber wenn "bis zu 20% mehr" für eine neue Architektur in einem neuen Prozess bei gleicher TDP heutzutage ein "deutliches Plus" sind dann gute Nacht.
Vor allem wenn das Ganze im Zusammenhang mit neuen AVX Versionen diskutiert wird und der Gewinn ausschließlich in Floating Point vorliegt. Damit könnte die Mehrleistung fast vollständig aus dem neuen Befehlssatz kommen, den halt keine Anwendung zum Release unterstützen wird
 
Wo in aller Welt erkennt der Autor denn hier ein "deutliches Performanceplus"?
Ich kann mir nur vorstellen, dass da jemand übernächtigt war oder aber nur den Wert der iGPU genommen hat, dort ist die Leistungssteigerung jedenfalls mehr als großzügig bemessen.


Was am ende wirklich da steht ist zwar ohnehin ein völlig anderes Thema aber wenn "bis zu 20% mehr" für eine neue Architektur in einem neuen Prozess bei gleicher TDP heutzutage ein "deutliches Plus" sind dann gute Nacht.
Es kommt ja noch schlimmer, es ist nicht ein Prozess, es sind nicht zwei Prozesse, nein es sind drei Prozessgrößen! Raptor Lake wird in Intel 7 produziert, bereits Intel 4 alias Meteor Lake schafft es mangels Leistung nicht in den Desktop (wir rechnen hier mal Intels Folie rein + 20% Perfomance Gain / Watt), danach folgt noch Intel 3 (mit nochmals 18% Gain / Watt) erst dann steht Intel 20A auf dem Fahrplan (hier nochmal 10% zu rechnen halte ich nicht für falsch), ergo sollte alleine die Fertigung 50-55% mehr Effizienz bringen! Wenn Intel es schafft, da lächerliche 20% herauszuholen, ist das ein extrem herber Rückschlag.


Allerdings wird dies dennoch reichen um nicht ins Hintertreffen zu geraten, denn das sollte man bei all dem was bei Intel nicht funktioniert auch nicht vergessen. AMD hat den Sprung auf 5nm schon hinter sich und wird in 2024, also passend zum Release von Arrow Lake nicht 2nm (oder 20A) anbieten, sondern "nur" TSMCs N3 (E oder P) Prozess (in etwa äquivalent zu Intel 4). Man wird also fertigungstechnisch in Rückstand geraten, sofern Intel seinen Plan durchzieht. Daher wird Arrow Lake mit nur 20% Verbesserung ziemlich sicher auf Augenhöhe zu Zen 5 sein und bleiben (wobei hier erwartet man ja relativ durchgängig 20%, durch IPC Verbesserungen). Spannend wird natürlich dann auch die Kostenfrage sein, wir werden dies zwar nie klären können, aber 20A hört sich ja erstmal recht teuer. Vor allem, was kommt danach, Intel fertigt dann (was halt irgendwie seltsam ist) besser und ist trotzdem nur auf Augenhöhe, die letzten Jahre haben ja gezeigt, dass Intel bei etwas schwächerer Fertigung dennoch CPUs auf Augenhöhe liefern konnte, jetzt wechselt dieser Vorteil und dennoch kommt man nicht vorbei?

Oder leicht geschlagen. :ka:
Und was war? Die Raptoren haben die non X3D CPUs zum Frühstück vernascht :ugly:
@owned139 : Du lebst auch irgendwie in einer Parallelwelt, oder? Die Raptoren haben letzendlich die Balkendiagramme leicht gewonnen, dies allerdings mit neuen Eskalationen von Boostszenarien erreicht. Man liegt im Anwendungsbereich 3% vor AMD, allerdings mit 276W Durchschnittsverbrauch, dagegen sieht der 7950X mit seinen 214W nahezu als Kostverächter aus. Also bitte, die 3% bekommt man aus dem 7950X auch rausgequetsch mit 60W mehr Verlustleistung.
vielleicht lief das Sample auch nur bei den üblichen 3 GHz eines Engineeringsamples um einen anderen Extremfall zu skizzieren, dann wäre Arrow überwältigend stark
Ich glaube, dass du dies ausschließen solltest, hatte auch erst drüber nachgedacht wie man zu den Werten kommt, aber da man RPLR hier ein Plus von 3-5% zugesteht (dies kann nur über den Takt kommen), wird man schon Taktwerte genomen haben die "realistisch" sind. Man hat bei Intel 4 ja wieder gesehen, dass man bei Intel nicht mehr takten kann wie man will. 14++++++ war noch taktbar, Intel 7 (oder 10nm) scheint auch mittlerweile taktbar zu sein, aber man hat nun seit der Umstellung auf 10nm damit zu kämpfen, dass die Prozesse nicht so taktbar sind, wie man möchte. Daher wird Intel 4 ja auch nicht in den Desktopn kommen, hier braucht es Takt (nirgends anders).

Aber 3Ghz und 20% mehr Leistung, würde einem IPC Gain von 240% entsprechen, ich denke da sind wir uns alle einig, dass ist ausgeschlossen. 5Ghz und 20% mehr Leistung halte ich schon für fast unmöglich! Wären immer 43% IPC Gain, denke da eher so an 5,2Ghz - 5,4Ghz was einem IPC Gain von immer noch 29% entsprechen würde.

Warum nimmt eigentlich fast jeder PCGH_User solche "Folien" für voll?
Hast du nicht bei AMD auch die Aussagen für "sehr voll" genommen, dass man bei Starfield evtl. Einfluss nehmen könnte?

Nehmen wir an Arrow Lake schafft die gleichen Taktraten, dann ist das auch in diesem Bereich.
3 Nodes und 20% mehr Leistung? Viel zu wenig für den Aufwand den man betreiben musste! Der IPC Gain wird auch viel größer sein und in Richtung 30% gehen müssen.

AMD hat ja schon angekündigt die Kernzahlen nicht mehr zu steigern.
Im Desktop ja! Im wichtigeren Server / Workstation Bereich sieht das anders aus, da erhöht man gerade auf 96 Kerne und Zen4c bereits erhöht auf 128 Kerne.

Entweder die haben die Fertigung komplett vergeigt, was ich bei TSMC für absolut unwahrscheinlich halte, oder die Folie ist Blödsinn.
Ich halte letzteres für deutlich wahrscheinlicher.
Was hat TSMC damit zu tun? Meines Wissens nach fertigen die nur einen kleinen Teil des Chips, die eigentliche CPU wird bei Intel in 20A gefertigt.
 
@owned139 : Du lebst auch irgendwie in einer Parallelwelt, oder? Die Raptoren haben letzendlich die Balkendiagramme leicht gewonnen, dies allerdings mit neuen Eskalationen von Boostszenarien erreicht. Man liegt im Anwendungsbereich 3% vor AMD, allerdings mit 276W Durchschnittsverbrauch, dagegen sieht der 7950X mit seinen 214W nahezu als Kostverächter aus. Also bitte, die 3% bekommt man aus dem 7950X auch rausgequetsch mit 60W mehr Verlustleistung.
In Spielen haben sie schon sehr deutlich gewonnen. Ansonsten wären sie in der Spieleleistung ja auch nicht auf Augenhöhe mit Zen 4 3D. Die Effizienz ist, verglichen mit den Non 3D Varianten, in Spielen auch vergleichbar. Das ist in Anbetracht des Fertigungsnachteil schon nicht schlecht. Der Effizienznachteil ggü. der 3D Variante ist dafür natürlich mehr als deutlich.
 
Was am ende wirklich da steht ist zwar ohnehin ein völlig anderes Thema aber wenn "bis zu 20% mehr" für eine neue Architektur in einem neuen Prozess bei gleicher TDP heutzutage ein "deutliches Plus" sind dann gute Nacht.

Naja, 20% bei der CPU wäre gut. Intel hatte viele Generationen gar keinen Leistungszuwachs. AMD hatte jetzt von der 5000er auf die 7000er Serie unter 20% Leistungszuwachs. Richtige Sprünge bei CPUs sind einfach nicht mehr zu erwarten.

Wird Zeit das die Spiele mit mehr Kernen noch besser skalieren. Dann wäre auch 100%+ drin.
 
Naja, 20% bei der CPU wäre gut. Intel hatte viele Generationen gar keinen Leistungszuwachs. AMD hatte jetzt von der 5000er auf die 7000er Serie unter 20% Leistungszuwachs. Richtige Sprünge bei CPUs sind einfach nicht mehr zu erwarten.

Wird Zeit das die Spiele mit mehr Kernen noch besser skalieren. Dann wäre auch 100%+ drin.
5800x3d vs 7800x3d ca. 20-24% Zuwachs. 5700x vs 7700x sogar über 30% Zuwachs. AMD neuen CPUs sind definitiv ein Kracher. Selbst 5000 zu 3000 war ein großer Sprung. AMD macht mit jeder Generation schon große Sprünge. Bei Intel jedoch eigentlich auch wenn man die Refresh betrachtet. Nehmen wir 11700k vs. 12700k weit über 20%. Finde die beiden Intel+AMD bauen aktuell mega CPUs. Finde auch cool das beide mit x3d und e/p Cores verschiedene Ansätze probieren. Längerfristig könnte sich viel beides durchsetzen e/p Cores mit 3d Cache. Das wären dann wahre Leistungsmonster.
 
In Spielen haben sie schon sehr deutlich gewonnen.
lt. PCGH 10%, ist jetzt auch nicht wahnsinnig viel, effizienztechnisch muss ich gestehen habe ich PCGH im Eingangstest zum 13900k nicht verstanden! Der 7950X bietet mit 3,625 fps per Watt gegenüber dem 13900k mit 3,5fps per Watt ca. 3,5% mehr Effizienz (nicht der Rede wert), im Effizienzindex Spiele fällt er aber hinter den 13900k zurück? Verstehe ich nicht.

Das sind aber seltsame 3% :ugly:
Wenn man Anwendung nicht von Spielen unterscheiden kann sollte man nicht so große Töne spucken!
Die Effizienz ist, verglichen mit den Non 3D Varianten, in Spielen auch vergleichbar. Das ist in Anbetracht des Fertigungsnachteil schon nicht schlecht. Der Effizienznachteil ggü. der 3D Variante ist dafür natürlich mehr als deutlich.

Die 3D Varianten mal außen vor, wobei auch nur so halb. Intel hat natürlich den L3 auch vergrößert bei den Raptoren und damit natürlich Gamingleistung erkauft (so wie die 3D Chips das auch machen). Dennoch würde ich Fertigungsnachteil als gar nicht mal so groß ansehen, letzlich dürfte es sich hierbei um etwas mehr als einen halben Node handeln, Intel 7 sollte zumindest auf dem Papier (wobei ich keine aktuellen Zahlen mehr gefunden habe) ca. 10-15% besser packen (wobei das natürlich schwierig auf Effizienz etc. herunterzubrechen ist) als TSMC 7nm und damit dann auch eben nur unwesentlich schlechter als TSMC 5nm (wobei ja auch nur die Cores in 5nm gefertigt werden).

In meinen Augen sieht man nun eigentlich seit 5 oder 6 Jahren, dass Intel ein technologisches Problem hat. Die Architetkur (bzw. der Grundaufbau) skaliert wahnsinnig gut mit Takt und erinnert mittlerweile in der Geschichte schon an Netburst (bis auf den Unterschied, dass man derzeit immer noch irgendwie mithalten kann), die Fertigung allerdings windet sich dagegen und will eigentlich eher weniger Takt. Man hat ja nicht umsonst etliche Inkarnationen von 14nm gebracht um den Takt zu erhöhen, weil 10nm (Intel 7) es in der Art nicht konnte. Intel 4 wird im Desktop einfach gleich weggelassen um ein ähnliches Desaster (vermutlich) wie bei 10nm zu verhindern und nun soll es 20A richten. Aber auch hier mehren sich die Gerüchte nicht erst seit gestern, dass es alles nicht so läuft wie Intel sich das vorstellt. Bei AMD ist es ja in der Tendenz das gleiche, Zen 4 läuft auch derartig weit außerhalb des Sweetspots, dass man in der Effizienz eben sehr nahe an Intel gekomen ist, 0,4Ghz weniger Takt und ich habe 90% meiner Leistung, bei 50% des Verbrauchs (5900X läuft bspw. konstant 4Ghz mit 1V und deutlich unter 100W). Aber irgendwie wollen beide Hersteller an das obere Ende des Balkendiagramms, ob man sich nun einen Toaster ins Board hängt oder nicht, ist beiden egal.
 
Nein, in Spielen sind es 21% und das würde ich durchaus als deutlich bezeichnen, die 3D Cache Modelle sind ja auch deutlich schneller:
1689668047312.png

Der 7950X bietet mit 3,625 fps per Watt gegenüber dem 13900k mit 3,5fps per Watt ca. 3,5% mehr Effizienz (nicht der Rede wert), im Effizienzindex Spiele fällt er aber hinter den 13900k zurück?
Verstehe ich nicht? Der 7950X steht doch im aktuellen Effizienzindex in Spielen leicht vor dem 13900K:
1689667999741.png
 
1689668119169.png


1689668394619.png

1689668403313.png

Nein, in Spielen sind es 21% und das würde ich durchaus als deutlich bezeichnen, die 3D Cache Modelle sind ja auch deutlich schneller:
siehe erster Screenshot, hab die Werte aus dem Releasetest 13900k genommen, kann mir ehrlicherweise nicht erklären, woher diese enorme Differenz außer, dass man eine für Intel sehr vorteilhafte Spieleauswahl getroffen hat, oder vorher eine enorm AMD freundliche Auswahl hatte.

@PCGH_Dave : Hab das so noch nie betrachtet, aber wäre die Differenz zwischen den Ergebnissen nicht mal eine Betrachtung wert? Ich meine wir reden hier von mehr als dem doppelten Abstand, 10% zu Release zu neu 22%? zwei, drei Prozentpunkte würde ich unter "Meßtoleranz" abhaken, aber 12% sind mir dafür zu viel und verfälschen dann zu sehr die Ergebnisse.
 
@BigBoymann
Ah ok, du hast die Effizienzwerte für den Gesamtindex mit den Leistungswerten vom Spieleindex durcheinander geworfen.

Und bei deinen Leistungswerten wirfst du auch wieder einiges durcheinander. Du hast vom 7950X die AMD Werte und vom 13900K die Nvidia Werte genommen. So sieht es aus wenn du von beiden Nvidia Werte nimmst:
1689668855155.png


16 zu 21% ist eine normale Schwankung je nach Titel Auswahl.
 
Naja, 20% bei der CPU wäre gut. Intel hatte viele Generationen gar keinen Leistungszuwachs
Bei einem Sprung von Intel7 auf 20A?
20% (bestcase!) wären gut bei gleicher Fertigung. Nicht bei einem derartigen Sprung. Da würde ich die 20% bei halber Leistungsaufnahme erwarten.
Kannst ja mal schauen wie die Performancesprünge von beispielsweise einem Core2 (45nm) auf einen ivybridgeoder Haswell (22nm bzw 14nm) so aussehen. Da sind auch eine neue Architektur und zwei/drei Fertigungssprünge dazwischen... Der Performanceunterschied ist da prozentual gesehen nicht selten dreistellig.
 
Zuletzt bearbeitet:
@BigBoymann
Bitte immer den aktuellsten Test für Vergleiche nehmen. Ich optimiere fortlaufend die Formeln zur Berechnung der CPU-Leistung und Effizienz.
Derzeit wäre das dieser hier:

Aber auch diese Zahlen sind nicht mehr zu 100 Prozent aktuell.

Edit vom 26.11.23:
Weil ich es gerade gesehen habe, weil jemand diesen Beitrag hier geliked hat. Der aktuelle CPU-Test ist derzeit dieser hier:
 
Zuletzt bearbeitet:
Der 1335U in meinem T14s G4 ist für meinen Geschmack bereits deutlich zu warm, trotz guter Kühlung seitens Lenovo. Ich wollte ein Modell mit Zen 3+ aber mein Chef meinte nur, nö nur Intel. Naja, zum Glück verlässt er Ende August die Firma.
 
Und bei deinen Leistungswerten wirfst du auch wieder einiges durcheinander. Du hast vom 7950X die AMD Werte und vom 13900K die Nvidia Werte genommen. So sieht es aus wenn du von beiden Nvidia Werte nimmst:
OK, verstanden! Danke, aber war scheinbar ein wenig durch den Wind ;-)

Bzgl. NV und AMD finde ich es aber schon extrem spannend und zumindest mal fraglich welche Werte man nehmen sollte? Denn grds. (in meiner Tabelle) performt AMD ja mit AMD besser, während Intel und NV zusammen besser performen, macht es dann Sinn beide Werte von AMD oder beide von NV zu nehmen, oder macht es nicht eher Sinn die jeweils besten Werte zu nehmen? Aber das ist nur eine Randnotiz, die Differenzen (auch danke @ PCGH_Dave) sind ja erstmal weitesgehend geklärt, wobei 5% immer noch durchaus viel sind, dafür, dass sich die einzelnen Benches eher nicht großartig geändert haben, die Spieleauswahl trägt dann eben doch einiges dazu bei und lässt hier Intel derzeit in der Tendenz (wenn auch nur minimal) gut aussehen (wobei ich jetzt auch nicht betrachtet hab, wie sich das gegen den 3D stellt, kann sogar sein, dass der hier auch eher profitiert von den neueren Spielen). Also kein Vorwurf, nur eine Randbemerkung,.
Der 1335U in meinem T14s G4 ist für meinen Geschmack bereits deutlich zu warm, trotz guter Kühlung seitens Lenovo. Ich wollte ein Modell mit Zen 3+ aber mein Chef meinte nur, nö nur Intel. Naja, zum Glück verlässt er Ende August die Firma.
Wobei ich dies auch gerade erst mit dem ITler diskutiert habe und scheinbar ist es im professionellen Bereich so, dass AMD wohl Probleme mit dem TPM hat, gerade wenn ein AGESA kommt und die internen Updatepolicies kurze Laufzeiten (teilweise sagte der ITler, dass es da 7 Tage für Firmwareupdates gibt) vorsehen, macht AMD wohl des öfteren mal Probleme, da Firmware neu und Software erst drei oder vier Wochen später entsprechend angepasst kommt.
 
Was viele hier auch glaub ich etwas außer acht lassen ist, dass die Steigerungen prozentual angeben sind.
Wenn ich eine Leistung von "1000 Punkten" hab und 20% bekomme hab danach 1200, aber wenn ich "500 Punkte" habe und 20% bekomme nur 600.
Die absolute Leistungssteigerung die erreicht werden muss, ist im ersten Fall doppelt so hoch, daher auch schwerer zu erreichen.

Ich denke, dass ohne riesige neue Durchbrüche, die prozentualen Steigerungen immer weiter zurück gehen werden, bis man iwann ein bestimmtes Niveau erreicht hat, an dem die Hardware wie wir sie jetzt kennen an ihre Leistungen kommt und eher Software (wie z.B. DLSS/FSR/XeSS) die Zukunft ist.
Das kann auch durch immer mehr spezialisierte Cores für bestimmte Algorithmen erreicht werden, z.B. für AI.

Eine Zukünftige weitere Steiergung in 20%+ Sprüngen kann man meiner Meinung nach nicht erwarten.
 
Zuletzt bearbeitet:
@RoyaL375
Das stimmt vom Prinzip her schon - ist aber ein Argument, das seit Jahrzehnten (!!) Immer dann gebracht wird wenn ein Sprung kleiner als erwartet ausfällt. Dass "x86 ausoptimiert ist und keine nennenswerten Leistungssteigerungen mehr zu erwarten sind" hat man in den 10 Jahren der 14nm - CPUs von Intel auch ständig wiederholt. Es war damals genauso falsch wie heute. Natürlich kann man keine +100% alle 1-2 Jahre mehr erwarten wie das in den 90ern/2000ern üblich war aber 20% pro Fullnode - Sprung (von denen wir hier fast zwei haben von "7" auf "2" nm!) ist auch heute wirklich keine überzogene Erwartung.
 
@RoyaL375
Das stimmt vom Prinzip her schon - ist aber ein Argument, das seit Jahrzehnten (!!) Immer dann gebracht wird wenn ein Sprung kleiner als erwartet ausfällt. Dass "x86 ausoptimiert ist und keine nennenswerten Leistungssteigerungen mehr zu erwarten sind" hat man in den 10 Jahren der 14nm - CPUs von Intel auch ständig wiederholt. Es war damals genauso falsch wie heute. Natürlich kann man keine +100% alle 1-2 Jahre mehr erwarten wie das in den 90ern/2000ern üblich war aber 20% pro Fullnode - Sprung (von denen wir hier fast zwei haben von "7" auf "2" nm!) ist auch heute wirklich keine überzogene Erwartung.
Klar, da geb ich dir Recht, 20% für Intel 7 auf 20A ist wenig (sofern diese Folien nicht sowieso an den Haaren herbei gezogen sind :-P), aber ich glaube selbst AMD hat doch keine 20% bei gleiche Cores beim letzten mal geschaft (korrigier mich bitte wenn ich mich täusche).
Laut Userbenchmark ist der 7900X 27-29% schneller als der 5900X, aber dafür ist die TDP von 105 auf 170 angestiegen.
Hier es ja auch nen Nodesprung von "7nm" auf "5nm" und wenn man die TDP's angleicht, weiß ich nicht ob da 20% raus kommen.
Klar, das ist immernoch besser als die 10% pro Node bei Intel, aber scheinbar scheinen beide die Erwartung von 20% nicht mehr erfüllen zu können, ohne die Brechstange.
 
aber ich glaube selbst AMD hat doch keine 20% bei gleiche Cores beim letzten mal geschaft (korrigier mich bitte wenn ich mich täusche).
Die 20% sind nur der absolute Bestcase auf den Folien hier.
AMD hatte solche Sprünge von Zen2 auf Zen3 im Mittel, von 3 auf 4 wars etwas weniger. Aber die sagen wir mal zwischen 10 und 20% pro Generation haben sie die letzten Male schon eingehalten - was ja der Grund dafür ist dass Intel sich seit Zen3 (also Ryzen5000) derart quälen muss um mitzuhalten bzw. 250+ Watt reinschiebt um am Ende noch den Balkenvergleich mit 2% Vorsprung zu gewinnen.
Bitte, BITTE hört endlich auf diese Schrottseite zu benutzen!
Liest die Tests und Vergleiche von PCGH, Computerbase, Hardwareluxx, von mir aus IgorsLab und sonstigen renommierten Plattformen - da sind die Ergebnisse nicht völlig willkürlich und/oder schwachsinnig wie beim User Benchmark.
 
Bei einem Sprung von Intel7 auf 20A?
20% (bestcase!) wären gut bei gleicher Fertigung. Nicht bei einem derartigen Sprung. Da würde ich die 20% bei halber Leistungsaufnahme erwarten.
Kannst ja mal schauen wie die Performancesprünge von beispielsweise einem Core2 (45nm) auf einen ivybridgeoder Haswell (22nm bzw 14nm) so aussehen. Da sind auch eine neue Architektur und zwei/drei Fertigungssprünge dazwischen... Der Performanceunterschied ist da prozentual gesehen nicht selten dreistellig.
ich bin grad am Nachdenken: dass die IPC nur geringfügig steigen würde, war mir soweit bekannt.
Aber, dass man schon jetzt die finalen Taktraten weiß (und nur so die finsle Performance kennt) erschließt sich mir nicht: entweder sowohl Arrow Lake, als auch der Prozess ist über 1 Jahr vor Release schon völlig fertig und wird nicht mehr optimiert. Dass die CPU 1 Jahr vorher fertig ist, verwundert nicht, Meteor Lake läuft seit über 1,5 Jahren in den Labors (als QS, ES), aber mit geringeren Taktraten.
Im Normalfall wird aber bis 6 Monate vor Release optimiert (neue Steppings etc).
Entweder hält Intel bewusst zurück (um RL Refresh und MTL zu releasen und produzierte Chips loszuwerden oder weil die Yieldrate schlecht ist), oder due Folien sind Fake (wie gesagt die finale Performance ist gemeint, nicht die stagnierende IPC)
 
Dass das hauptsächlich Gaming-CPUs sind, sollte jedem klar sein. Wer starke MT-Leistung braucht, greift zu Workstations.
Richtig, der greift zu Systemen wie bspw. HEDT, ach halt, die bietet Intel ja derzeit gar nicht
Und was war? Die Raptoren haben die non X3D CPUs zum Frühstück vernascht :ugly:

Und komm mir nicht mit Anwendungen, wenn ich von Spielen sprach.
Wo sprichst du von Spielen?

Ansonsten ist es bei dir leider immer das selbe, eine vernünftige Diskussion ist grds. nicht möglich. Es werden haltlose Vorwürfe gemacht, es wird sich gewunden und die eigenen Aussagen so lange verdreht, bis es passt. Lies dir bitte noch einmal deine gesamte Kommunikation hier durch, bis auf "aber Intel kann und wird und tut" steht von dir nichts, aber auch nichts brauchbares im Thread. Das dies auch nicht das erste Mal ist, dass außer Beleidigungen und Vorwürfen nichts kommt weißt du auch sehr gut.

Des Weiteren solltet ihr euch alle mal zurücklehnen, es geht hier gar nicht um AMD oder Intel, AMD oder Nvidia. Hier im speziellen ging es gerade um Intel und da darf man wohl sagen, dass 20% Leistungssteigerung bei 3 Nodes enttäuschend sind! Ich verrate dir aber mal was, bei AMD habe ich zu Zen4 ziemlich das gleiche gesagt, dort war es nur ein Node, aber dennoch sind die 25-30% eher am unteren Ende meiner Erwartungen gewesen, insbesondere bei der Effizienz habe ich viel mehr erwartet. Aber so etwas vergisst man gerne, wenn einem die eigenen Argumente ausgehen!
 
Zurück