Bericht: Nvidia soll AMDs Effizienzsprung durch 7-nm-Fertigung unterschätzt haben - Ampere-Nachfolger Hopper 2021?

AMD soll nicht mehr rum pfuschen und endlich liefern, meine Fresse.
Ich will endlich wieder günstigere Nvidia Karten.
 
Ich will endlich wieder günstigere Nvidia Karten.

Die wirst du wohl so schnell nicht sehen, zumindest, wenn du erwatet hast, eine RTX 3080Ti für weniger als 1000€ zu erstehen. AMD hat es sich, mit Intel und Nvidia, bei den höheren Preisen bequem gemacht. Soll heißen: wenn die AMD Karten entsprechend gut sind, dann werden sie zwar etwas günstiger sein, aber dennoch ihren Preis haben.
 
Als PC-Gamer und Bastler hat man das ja selbst mitbekommen das mit Bulldozer überhaupt nichts mehr ging da diese CPU´s Strom nur gefressen haben und heiß wurden. Bei den GPU´s sah es auch so aus und eine R9 290X hatte zwar die Leistungskrone aber deren Stromverbrauch und Hitze, Lautstärke war schon unterirdisch. Man sieht auch heute gerade nach Ryzen 3000 und Navi das es eine gute Entscheidung war einen Cut zu machen zur alten Bulldozer-Architektur und den Jim Keller mit an Board zu holen nur für diese Architektur. Die GPU´s hatten zwar darunter gelitten denn nach der 290X war es eher ein Trauerspiel mit den Radeons und von Raja Koduri wurde AMD doch nur verkohlt, meine Ansicht.

Lisa Su ist wirklich eine fähige Frau die AMD gerettet hat und weiter nach vorne bringt. Schade finde ich nur das die Zeiten von fairen Preisen bei den GPU´s vorbei sind auch wenn AMD günstiger ist als Nvidia aber auch AMD hat mit Navi die Preise angezogen und ich denke eine BIG-Navi unter 900€ wird es nicht geben. Mal schauen aber AMD soll so weitermachen denn wäre es anders würden Intel und Nvidia gerade uns Gamer noch tiefer in die Tasche greifen lassen.
 
@Prozessorarchitektur

Wie schnell wird dann Navi 21 / Salvage Part
und 16 / 12 GB GDDR6 oder das Top Modell gar HBM² Speicher
nun das ist einfach da rdna architektur bekannt ist und rdna2 lediglich die isa verändert

Die Leistung pro shader wird sich maximal um 10% steigern mehr ist schlicht nicht drin
DXr ist eine unbekannte amd Ansatz über die tmu (textureinheit einer gpu) und dazu befehlssätze über opencl für dxr zu realisieren
Wie genau oder effizient das wird ist völlig offen .primär software Entwicklung.
Mit leichten hardware Beschleunigung am besten vergleichbar mit einen videocodec der als decodr in hardware funktioniert.
Vorteil sehr flexible nachteil durchaus langsamer als nvidia spezifische Lösung mit den rt shader/tensor kombi.
Nun da amd big navi bei 5120shader quasi bestätigt sind
kann man vom powerbudget ausgehen das man bei etwa rtx2080ti oc moded design hinkommt.
Schneller ist gewagt dafür müsste die gpu deutlich im takt vorne sein ab 2ghz
Und daran zweifle ich
Zwar wird 7nm+ (euv) bis zu 10% bessere Effizienz erreichen aber das wird durch die shader menge weg gefressen.
Wenn amd die isa so auslegen könnte wie nvidia also nach 2 reihen Cluster beliebig in der breite . also 2*10*4cu würde das die wärme dichte deutlich reduzieren und somit einen höheren takt erlauben.
Nachteil dieser idee längere Wege beim cache
Das könnte dann wieder Wartezyklen in den shadern führen was die ipc reduzieren würde.
Lösung 2*5*8
2 reihen zu je 5 Blöcke mit 8 cu je 64shader
man könnte auch 4 reihen zu 5 Blöcke mit 4cu je 64shader machen.
Wie die isa aussehne wird kann man anhand der xbox series x sehen.
Und das sagt 2 reihen 4 Blöcke je 7cu wovon 4 cu deaktiviert sind also manche dann 6cu haben anstatt 7cu.
Wird aus rein wirtschaftlichen gründen gemacht technisch hat der chip 56cu (8*7)

Was folgt daraus

aktuell eine rx5700xt etwa Niveau einer rtx2070 2304 shader vs rx5700xt 2560 shader
beider auf etwa 1,875ghz
Annahme ~100%= rx5700xt/rtx2070

100/2560*5120/1,875ghz*1,6ghz*1,1 ipc=187,5% wenn die shader komplett ausgelastet sind
Nun zum powerbudget was die Maximale performance neben dem Speicher Limitierung die Leistung einbremst.
Benötigt wird min 672gb/s was etwa 50% höhere Bandbreite entspricht.
Bei einer doppelten rx5700xt alles darunter würde zu einen front end limit führen
machbar auf 2 Wege.
Mehr bit pro channel von 256 auf 384bit und auf 16gbs=768gb/s ideale Lösung .Nachteil nur 6 oder 12gb möglich, das ist sehr wahrscheinlich
Oder 512bit 14gbs=896g/s ob dann noch sinnvoll ist fraglich den das SI frisst platz auf dem chip den man für shader besser einsetzen könnte zumal die tmu größer werden.
Die rop also der rasterizer wird sich nicht ändern es bleibt bei 64-96rop
Mehr machen keinen Sinn es gingen auch 128 ist aber wenig sinnvoll da über 8k Auflösung kaum genutzt wird.
Am backend ist rdna nicht limitiert
Die limits sind bei der bandbreite und texturkompression zu suchen.

Nvidia turing liegt etwas vorne bei der ipc
100/2560*100/2304= 11% für nvidia
nach rdna 2 ist da gleichstand
Nur blöd das nvidia bis zu 20% in design vorne sein wird.
Also bleibt es dabei amd konkuriert big navi mit einer rtx3080
Also kein high end Schlagabtausch

rtx3080= 3840*1,2 ipc*2*1,8ghz=16,58,tf ~12% über der 2080ti (q3 2020)
rx6900=5120*2*1 ipc*1,6ghz=16,38 ~11% über der 2080ti (q4 2020)

defakto amd n21 vs ga103
high end wird ga102 sein mit 5328 als rtx3080ti bzw titan

Somit Preiskampf beim 800€ bereich
gut für amd
Die kleineren gpu wird sich der Kampf erst Mitte 2021 austragen
Wir kennen ja amd Zeitplaneinhaltungen
ich erwarte
Rx6700xt wird vermutlich 64cu haben n22 ist aber nicht sicher es können auch nur 56cu sein quasi den xsx chip q1 2021

rx6600xt 40cu n23 quasi ein refresh rx5700xt mit mehr vram 192bit 16gbs 12gb 300€ q2 2021
Das wäre der idealer Preiskampf
nvidia tensor wunder Textur Komprimierung vs amd mehr vram
ga106 1920 shader 1,9ghz 6gb 192bit 16gbs vs amd 2560 shader 1,8ghz 12gb vram 192bit 16gbs etwa dieselbe Leistung.
nvidia dxr amd nein

Für mich bleibt es dabei unter 300€ wird das nix das wird ein hartes brot für mich bei min 8gb vram oder amd?
 
Zuletzt bearbeitet:
Nun, bei der Performance widersprichst dich schon mal erneut
Vorher waren es noch etwa 25% über der TI bei Nvidia, jetzt nur noch 12 … ?

Abwarten was kommt,- ist wohl das Idealste.
 
Ein Clickbait Artikel ohne irgendwelche seriösen Quellen (oder überhaupt Quellen) und schon fallen wieder alle übereinander her :daumen:.

Das ist völlig normal, weil wenn 2 sich verbünden, kann das den Krieg entfesseln. Wie im kleinen gallischen Dorf bei Asterix & Obelix kloppt man sich darum, ob der Fisch frisch ist. So etwas wird einfach mal gestattet, zumal ja trotzdem Informationen fließen. Verändert sich das Kräfteverhältnis, bleibt aber trotzdem die finanzielle Gesundheit als "Läuft doch gut" Argument übrig, siehe Quartalszahlen Intel.
 
nun das lag daran das ich der 80ti zuwenig tf gegeben habe und der neuen gen weniger takt.
den die Fertigung ist das problem
Und bin diesmal von weniger takt ausgegangen
bei amd bin ich mir sicher das es so kommen wird
ich nahm an das die ti bei nur 12,8tf liegt tatsächlich liegt diese bei 14,8
1,4 vs 1,6ghz
Dazu hatte ich bei der vorherigen Rechnung 1,7ghz bei nvidia ga103 gerechnet
wie gesagt es steht und fällt beim takt.
Da können schon mal gut 20% Abstände kommen. genaues wissen wir erst welche Fertigung verwendet wird (14.5.20)
ideal wäre tsmc 7nm+ dann sind 2,0ghz sicher
samsung ist offen irgendwas um die 1,4-1,8ghz da es sich hier um einen 8nm LPP finfett handelt euv wird vermutlich nicht verwendet zumindest steht nix auf deren webseite darüber
Das kommt erst mit 6 bzw 5nm LP

LP = leading performance
LPP = low power process oft geringerer takt.

achja das sind reine tf vergleiche in fps ist das nichtssagend das kann sich deutlich verbessern oder kaum ein unterschied machen.
Die Zukunft wird sowieso DXR sein, den ein cpu limit gibt es schon bei 12tf gpu schon jetzt bei 1080p
Was die Mehrheit verwendet.
zwar wird noch ein klein wenig an cpu ipc steigern aber viel mehr als 10% sind nicht drin und die Taktraten sind aktuell am limit.
bei amd ryzen 4000 erwarte ich keine taktsteigerungen bzw +-100mhz
dafür aber min 10% bessere ipc
Und somit führend vor intel


Allgemein sind das eher Annäherungen was kommen könnte genau wird das nicht sein dafür gibt es zu viele variablen
Was mich interessiert ist wie viel Leistung bekomme ich für 300€ und wie viel vram und wird dieser die nächsten 4 Jahre reichen
Den high end bereich was mehr high end kosten sind. interessiert nur am rande für die Zukunft also in 5 oder 6 Jahren
Es ist Konsolen gen wechsel zeit da tut sich optisch und auch spielerisch am PC gaming markt einiges bis Grundlegendes (dxr) Sowie die Anforderungen müssten sich quasi verdoppeln
Und das will ich keinen sagen müssen nach eine Jahr das man die gpu tauschen muss die man für über 500€ gekauft hat.
Den darauf läuft es gerade heraus.

Konsolen specs sind
xsx
52cu=3328sh 1,8ghz 16gb vram/ram unbekannte ssd cache 8 core ryzen2 3,3ghz ~12tf vermutlich um die 550€ vergleichbar mit rtx2080ti bei 1,3ghz
ps5
36cu =2304sh bis zu 2,2ghz 16gb vram /ram 1tb SSd cache 8 core cpu 3,1ghz ~10tf vermutlich um die 450€ vergleichbar mit rtx2070s bis rtx2080s

DXR wird über tmu und shader berechnet bei MS und bei Sony kommt eine andere API auf opencl basis

Das ist darum vom belang ds sich dadurch die Portierungen orientieren müssen.
Die ganzen fake filter werden quasi entfernt bei games ab 2023
Das wird so kommen das ist sicher weil damit zeit gespart werden kann und somit kosten.
 
Naja klingt für mich wenig plausibel, dass Nvidia die Konkurrenz so stark unterschätzt. Am Ende hilft eh nur abwarten, aber ich glaube persönlich nicht daran. Es sind halt alles nur Gerüchte.


Ich kann mir das schon vorstellen. Wobei die News natürlich in der Auflösung recht fragwürdig bleibt, denn die aktuelle erste RDNA Generation ist zwar ein großer Entwicklungssprung für AMD, aber eigentlich kommt der aktuelle Vorteil wirklich nur durch die Fertigung zu Stande und das sollte Nvidia dann eher nicht überraschen können, da auch ihnen der Zugang zu einer solchen Fertigung offen stand und man sicher über die Vor und Nachteile diskutiert hat. Ich glaube aber schon, dass Nvidia in Bezug auf RDNA2 in 7nm+ (oder P, oder sonstwas) überascht ist. Ich meine, die Gerüchte haben sich ja wirklich dahingehend verdichtet, dass man hier 50% mehr Effizienz abliefern will, davon wird dann letztlich nur ein kleiner Teil vom besseren Fertigungsprozess kommen. 45% werden von der Architektur kommen und das wird NV schon deutlich überrascht haben. Wenn man dann noch den Big Chip nimmt, wird auch bei denen die Knie ordentlich wackeln, immerhin könnte (bitte hier auch "könnte" lesen) AMD die 2080Ti deutlich übertrumpfen und bei "nur 30-40%" zur 3080Ti stehen die beiden BigChips der Hersteller auf einmal sehr eng zusammen. Ich denke schon, dass NV überrascht ist und die Situation sich ähnlich darlegt wie bei Intel vor drei Jahren. Die waren auch deutlich überascht, als AMD mir so dir so das Ende der Vierkerner eingeläutet hat und alle es wussten nur Intel nicht.
 
bei amd ryzen 4000 erwarte ich keine taktsteigerungen bzw +-100mhz
dafür aber min 10% bessere ipc
Und somit führend vor intel
Damit widersprichst du aber eigentlich allen Gerüchten die deutlich höhere Taktsteigerung ansprechen. Gedanklich macht das auch Sinn, denn der 7nm Prozess wird ja in seiner zweiten Inkarnation vorkommen und zumindest in der Vergangenheit war es meist so, dass man mit jeder Stufe des Prozesses die Taktraten steigern konnte. Daher gehen die Vermutungen hier von 300-500Mhz Steigerung aus.

Auch die IPC soll wesentlich stärker steigen, 10% ist hier wohl der Worst Case, je nach Anwendung werden aber wohl deutlich mehr, bis zu 20% drin sein, die Zahl die meistens genannt wurde waren 17%. Auch das macht mit den anderen Gerüchten zusammen eigentlich Sinn, zum einen werden wohl 8 Kerne im CCX landen, was die Anbindung untereinander und zum Cache wohl deutlich verbessern kann, zum anderen soll der L3 verdoppelt werden, was auch hier durchaus einige Prozentpunkte bringen wird.

Zum eigentlichen Thema, das CPU Limit ist aktuell aber auch nur bei wenigen Spielen in Full HD zu finden, bei 4K wüsste ich aktuell (außer vieleicht Exoten die quasi keine Grafikanforderungen haben) keinen TopTitel der auch nur annähernd im CPU Limit wäre. Wenn aber das CPU Limit greift, hat sich doch in der Realität die Anwendung von DX12 oder Vulkan als sehr praktikabel herausgestellt um schwache CPUs zu unterstützen. Daher denke ich auch, dass der Trend ganz klar in diese Richtung wandern wird und die Grafikkarte immer mehr und mehr die CPU unterstützen wird. Ansonsten bleibt vielen Entwicklern aber noch die Möglichkeit die Prozesse zu parallelisieren, denn Kerne haben wir mittlerweile mehr als genug, mit Zen 2 sind 16 Kerne im Desktop eingezogen, mit Zen 5 könnten es derer 32 werden. Leistung ist da, nur liegt sie brach, weil die Entwickler nunmal auch jahrelang Intels Marschroute gefolgt sind (welche Wahl hatten sie denn auch?)
 
Aktuell liegt Intel massiv zurück gegenüber AMDs Rome, mit Ice Lake SP wird das Kräfteverhältnis allerdings wieder deutlich ausgeglichener und Zen3 kann nicht den Abstand beibehalten.
Deswegen auch mein Einwurf, dass es allgemein nicht düster für Intel wird, wenn Zen3 erscheint.
Die Serverposition sollte sich für Intel verbessern, der Desktopmarkt wird vermutlich schlechter ausfallen und mobile wird wohl grob gleich bleiben.

Und mal wirklich allgemein, selbst wenn AMD in gewisser Weise konkurrenzlos ist, sieht es für Intel gar nicht düster aus, denn AMD kann sie nur beschränkt ersetzen.
AMDs Fertigungsvolumen ist deutlich kleiner und Intel kann und wird nach wie vor massenweise 14nm CPUs in alle Märkte spülen, die auch abgenommen werden.
Auch zeitlich hat AMD ein Problem, denn für viele Plattformen und Produktsegmente sind sie ein relativ neuer Zugang und es steht erst einmal aufwendige Validierung und Zusammenarbeit an.
Ihnen fehlt es natürlich auch an "Financial Horsepower", Intel kann bezüglich Co-Development und Co-Marketing viel mehr beisteuern.

AMD muss viele Markthürden überwinden, was bedeutet das man nicht nur die besten CPUs liefern muss, sondern auch viele andere Dinge.
Und wenn AMD jemals an den Punkt ankommen sollte, wo sie fast alle Hürden überwunden haben, dann sprechen wir mindestens vom Jahr 2021/22 und ab da sollte auch Intel den Karren aus dem Dreck gezogen haben.
AMD genießt gerade eine paradiesische Situation, auf Ewig wird das natürlich nicht so bleiben.
In gewisser Art und Weise holen beide Unternehmen auf und als Konsument hofft man natürlich das Beide gesund und stark nebeneinander existieren.
Persönlich wünsche ich mir am meisten das AMD soviel gewinnt wie möglich, sie sind relativ weit unten und wenn sie nicht genug "Fett" ansammeln, kann die Situation wieder schnell düster werden.

Meine Aussagen hatten gar nicht mal so sehr den ganzheitlichen Bezug. Aber es war klar, dass du es so siehst. ^^ Ich hätte es dazu schreiben sollen. Mir ging es primär um die Singlecore Performance. Ansonsten hast du natürlich vollkommen Recht. Insgesamt sieht Intel natürlich nicht alt aus, nicht bei dem Marktanteil und der ausgeprägten finanziellen Stärke.

Dennoch sollte man vorsichtig sein mit den IPC-Steigerungen der X-Cove Archs. Ich sehe das nicht, dass Intel hier ohne weiteres mithalten kann, denn 18% werden es in praxisrelevanten Szenarien vermutlich nicht sein. Geekbench 5 ist übrigens längst nicht mehr so RAM-sensitiv wie der Vorgänger. Das verhält sich fast so wie Cinebench.

"Man munkelt", dass AMD mit Zen 3 zusätzlich an der Effizienzschraube drehen wird. Das wird nicht ganz drastisch ausfallen, wie von RDNA 1->2, soll sich aber signifikant bemerkbar machen. Spätestens dann muss Intel mit 10nm kommen, wobei die Yield-Raten bei einem big Chip mit 38 Kernen vermutlich unterirdisch sein werden. Das wird man ja eh nicht offiziell mitkriegen, vielleicht irgendwann mal beiläufig.
 
Zuletzt bearbeitet von einem Moderator:
Zen3 kommt schon q4 20 und wird 7nm+ euv verwenden
Das sind gegenüber 7nm etwa 10% weniger verbrauch oder mehr takt
Letztere hängt aber von der temp ab und wenn sich der L3 Cache verdoppelt 16 auf 32mbn ist das eine starke Wärmequelle.
Da wird der Takt mal schnell von 400mhz zu 100mhz gestutzt übrig bleibt die ipc da gehe ich von 10-20% aus eher 10%.
Den die 20% könnten ja auch singelcore performace (instruchtion per clock)gemeint sein und nicht den Ursprung des Kürzel instruction per cicle
Letztere gehe ich immer aus.

Wie schätze ich ampere ein das ist schwer zu sagen da die Architektur erst am 14.5 vorgestellt wird hoffentlich mit antworten zu tensor core texturkompression und DXR Verbesserungen sowie Ob ampere hpc only ist und ein mcm design.
Das würde einiges umwerfen
Daher sind die Prognosen eher auf monolytische chips ausgelegt die so kommen könnten. und auch realistisch sind.
Es gab mehrer Gerüchte die letzten waren eher leaks und haben Gerüchte bestätigt die schon öfter auf twitter aufgetaucht sind. Unterschiedliche quellen
lediglich name und Bauform ist nicht bekannt.
Sinn würde nur HPC tsmc und consumer samsung geben.
Es könnt sein das die gamer variante hopper ist und ampere mcm design auf tsmc 7nm+ bsp 2*64sm mit eine interposer und einen arm controlerchip als tesla Karte
 
Mich graust es ein wenig vor dem Treiber. Wenn AMD wirklich die Leistungskrone kriegen sollte, werde ich mir eine AMD Karte zulegen.
Keine Ahnung ob dich das ein wenig beruhigt aber ich komme wunderbar klar mit dem AMD Treiber (Adrenalin 2020). Oder beziehst du dich auf das komische Softwarehusten im Bezug auf die RX 5xxx Karten? Das kann ich leider nicht beurteilen weil ich keine habe. Kapiere ich bis heute nicht. Bei den einen läuft das wunderbar und bei anderen kommen black screens u.ä. rum. Gerne schiebt man das auf Treiberreste der vorherigen GPU oder unfähige Benutzer aber so einfach ist das glaube ich nicht.

Meine nächste GPU wird sicher wieder eine AMD weil ich zufrieden bin und mir die Software besser gefällt. Unabhängig davon ob die Balken bei Ampere etwas länger sind oder nicht. Bin sogar davon überzeugt, dass Nvidia mit der nächsten Generation erneut vor AMD liegen wird. Kann mir nicht vorstellen, dass RDNA2 plötzlich alles dreht.
 
… in computerbase ist das nichtmal möglich wirst sofort gesperrt pcgh sollte die regeln updaten wenn es nievauvoller zugehen soll.

EDIT: wheeezing was ne 2080ti nur 50% schneller hast du gesoffen vielleicht in dem aaa average müll ...

Aber das würde dann ja zur Folge haben, dass Du auch hier auf PCGH gesperrt bist. ;-)

MfG Föhn.
 
Paroli ?!? Mit 1.21 Gigawatt und 3,52 €/FPS … ;-)

MfG Föhn.

Mit mehreren Systemen als elegante Lösung für alles, was man machen möchte, sind gerade die Ryzen 5 3400G ganz passable Lösungen. Intels 8-10 Kerner haben aber auch einen Hauch von Grafik Dampf bei guter Effizienz, falls Ausfallsicherheit und QickSync Dinge sind, auf die man Wert legt. Aktuell hole ich mir noch keine AMD CPU, nach dem Motto "Augen zu und durch." Der Widerstand dagegen ist immer noch hoch und sehr einfach aufzubauen. ;)

Und Nvidia wird es bei ihren guten Treibern nicht anders ergehen, hoffe ich mal. Eine 1650 war zudem für mich eine sehr gute Wahl.
 
Kein Wunder das Deutschland bei PISA so schei** abschneidet bei so einem Leseverständnis. :rollen:
Warum wirst du persönlich? Das passt eigentlich nicht zu deinen anderen Posts. Offenbar gab es ein Missverständnis.

Erstens ging es um Innovation seitens Intel, nicht ums mithalten. Zweitens um Probleme dies es schon VOR Ryzen gab.
Keine Ahnung auf welche große Innovation du hoffst, so lange wie die x86 Architektur schon weiterentwickelt wird. Was für technische Probleme gab es denn vor Ryzen?


Cinebench Single und Multi, wo ist da das Problem?
Es sind synthetische Benchmarks, die eine gewisse Vergleichbarkeit erlauben, aber insgesamt wenig praxisnah sind.

Zusätzlich eh 2 andere Benchmarks. Aber das war auch nur das erste Google-Ergebnis AMD vs Intel IPC. Du bist mit der falschen Behauptung dahergekommen das Intel auf Augenhöhe ist. Hier, noch ein anderer Test mit 7 verschiedenen Benchmarks wo Intel überall den kürzeren zieht:
YouTube
Ich versuche mal den PCGH Artikel zu finden, auf den ich mich beziehe.

Und toll, dass du Spiele noch einmal rausstreichst nach dem ich sie explizit erwähnt habe. Vor allem, was spiegelt die Leistung wohl besser wieder? Ein Benchmark, der die Leistung in einem messbaren Wert ausdrückt? Oder ein Programm, das extrem von Optimierungen, Treibern und anderer Hardware abhängig ist?

Ich verrate dir zudem ein Geheimnis, Spiele machen nur einen Bruchteil dessen aus, wofür CPUs in der Regel genutzt werden.
Warum bist du so bissig? Kein Grund mir irgendetwas zu unterstellen. Ich hab übrigens selber Zen 2.
 
[...] In der Praxis über mehrere Anwendungen gesehen sollte Ice Lake über 10% gegenüber Skylake zulegen. [...]

Der Zugewinn dürfte hier schon signifikant höher ausfallen, wobei du dir natürlich einen gewissen Puffer gelassen hast mittels dem generischen "Skylake". ;-)

Vergleicht man Ice Lake U i7-1065G7 (4 C, 1,3/3,9 GHz) gegen Kaby Lake R i7-8550U (4 C, 1,8/4,0 GHz) bei fixierten 15 W ergeben sich folgende Zugewinne für Ice Lake und die Sunny Cove-Mikroarchitektur (man beachte hierbei die Beschränkung auf 15 W und AVX2 als maximalem Befehlssatz):

SPEC2006 int/fp rate +29 % / +34 % (gemittelt)
SPEC2017 int/fp rate +28 % / +39 % (gemittelt)
Cinebench R20 ST +22 %

(Will man explizit AVX-512 betrachten, so sind hier extreme Zugewinne möglich, die weit über Intels reguläre Angaben hinausgehen, so bspw. im synthetischen 3DPM bei weiterhin 15 W mit etwa um die +400 % i. V. z. Kaby Lake R.)

Im MultiThreding schrumpfen die Zugewinne jedoch etwas zusammen, da der 10nm+ Prozess noch nicht ausreichend effizient ist. Hier wird man abwarten müssen was Willow Cove mit 10nm++ (Tiger Lake U) beisteuern kann ... und ebenso, was schlussendlich in einem möglichen Rocket Lake S ankommen könnte bei einer Rückportierung auf 14nm+++.

SPEC2017 and SPEC2006 Results (15W) - The Ice Lake Benchmark Preview: Inside Intel's 10nm
 
@gerX7a Das sollte man schon erstmal unabhängig vom Verbrauch messen, um die reine IPC Steigerung zu erfassen. Außerdem, inwiefern wirkt die RAM Geschwindigkeit auf das Ergebnis ein?
 
Keine Ahnung ob dich das ein wenig beruhigt aber ich komme wunderbar klar mit dem AMD Treiber (Adrenalin 2020). Oder beziehst du dich auf das komische Softwarehusten im Bezug auf die RX 5xxx Karten? Das kann ich leider nicht beurteilen weil ich keine habe. Kapiere ich bis heute nicht. Bei den einen läuft das wunderbar und bei anderen kommen black screens u.ä. rum. Gerne schiebt man das auf Treiberreste der vorherigen GPU oder unfähige Benutzer aber so einfach ist das glaube ich nicht.

Meine nächste GPU wird sicher wieder eine AMD weil ich zufrieden bin und mir die Software besser gefällt. Unabhängig davon ob die Balken bei Ampere etwas länger sind oder nicht. Bin sogar davon überzeugt, dass Nvidia mit der nächsten Generation erneut vor AMD liegen wird. Kann mir nicht vorstellen, dass RDNA2 plötzlich alles dreht.
Ich meine ja, das ist ziemlich oft so etwas wie eine sich selbst erfüllende Prophezeiung weil die Schreihälse halt laut genug herumbölken..
Manche haben einfach ein DP Kabel für 6,99 vom Grabbeltisch, welches dann hin und wieder mal aussteigt. Andere haben ihren Speicher übertaktet, welcher dann mal Fehler produziert und der Treiber dann keinen Reset mehr schafft.

Da das Thema aber so hoch gekocht wurde, ist es für die meisten Leut einfach "die scheiß AMD Karte".
Ich habe jetzt ein paar Leuten bei der Fehlersuche geholfen und in etwa der hälfte lag es am oben genanten. Kabel war in der überzahl.
Treiber hat auch noch gebockt. Windows Fehler waren auch noch am Start und was dann noch übrig bleibt, ist meiner Meinung nach nicht diesen Aufriss wert, welcher oft veranstaltet wird.
Wenn Fehler da sind, Freesync aus, Speicher runter takten, Riegel einzeln testen/benutzen, älteren Treiber installieren, anderes (hochwertigeres) Kabel testen. Damit ist oft schon geholfen.
 
Zurück