Financial Analyst Day 2020: Ab 22 Uhr im Live Ticker!

Und bei Intel schiebt es 2-3 Jahre wegen Corona raus, weil sie zusätzlich den Prozess noch langsamer in den Griff kriegen durch die Ausfälle, und AMD rennt ihnen noch schneller davon. So kann's gehen. ¯\_(ツ)_/¯
 
Koennt ihr mal aufhoeren, den Volta Nachfolger als Gaming GPU zu nennen?
Ampere wird keinerlei Einfluss auf den Gaming Markt haben.

Allein die Namensgebung sollte das klar machen.
Ampere reiht sich perfekt zu Volta ein.

Der Name passt aber absolut nicht zu Turing.

Das Nvidia dieses Jahr eine neue Generation raus haut ist so gut wie bestätigt. Erst Recht wenn AMD auf das aktuelle Turing Niveau aufschließt. Egal wie welcher Chip heißt, Nvidia bringt eine neue Generation und hängt damit mal wieder AMD ab.

Weil AMD nach über 2 Jahren es schaffen wird auf Turing aufzuschließen in Sachen Leistung. Daran kann man eigentlich nichts schön reden.
Übrigens hätte auch ich lieber eine AMD Karte wegen meinem Freesync Monitor. Aber was Sie bis jetzt abliefern kommt nicht mal an ner 1080 ti vorbei. Und die ist schon 4 Jahre alt. Auch ist die Effizienz nicht besser, obwohl die Strukturbreite kleiner ist. Da hat AMD noch so Einiges aufzuholen.
 
Zuletzt bearbeitet:
Ich hätte gerne zum Release von Cyberpunk 2077 ne neue GPU, meine RX 480 wird da etwas knapp. Aktuell gibts noch kein wirklich lohnenswertes Upgrade, die nächsten GPUs von AMD und Nvidia werden aber zu spät kommen. Mit Glück ist da die neue 3070/3080 raus, aber zu absoluten Mondpreisen...
 
RDNA3/CDNA2 in N6 oder N5?

Weiß man nicht und wie du schon nachfolgend schriebst, bei den GPUs wollte man sich anscheinend explizit nicht festlegen. Mögliche Ursachen bzgl. der fehlenden Festlegung bei RDNA3 sind Fertigungskosten oder auch -kapazitäten. 5 nm haben für CDNA2 zweifelsfrei den größeren Hebel.
(Abseits dessen käme der N6 nur infrage, wenn RDNA2 sich auf den N7P beschränkt. Sollte man hier schon auf den N7+ gewechselt haben, würde der N6 erneute Anpassungen erforderlich machen und nur wenig Zugewinn bringen.)

Warum amd nicht früher bringt liegt primär an der Fertigung
rdna2 wird erst ab Sommer hergestellt.
7nm+ ist in massenproduktion auch erst mitte 20 verfügbar [...]

TSMCs CLN7FF+ bzw. N7+ ist seit dem 2HJ18 in der Risk-Production. Die ersten Tapeouts von Kundendesigns gab es bereits im Oktober 2018. Ende Mai wurde der Prozess in die Volumenproduktion überführt, was TSMCs ein paar Monate später mit einer News kundtat, die die Auslieferung erster, großer Chargen an Kunden bekannt gab. Der Prozess ist schon lange produktiv, d.h mit der Fertigung hat das nichts zu tun.
Maßgeblich dürften die Konsolen sein, die für das Jahresende angekündigt sind und deren Massenfertigung erst in 2Q20 anlaufen wird. RDNA2 wurde explizit für die Konsolen entwickelt, die Entwicklung ist also bereits in 2018 abgeschlossen worden. Wäre Raytracing mittlerweile ein alter Hut, weil es von nVidia und AMD gleichermaßen gepusht worden wäre, würde den Konsolen ein wesentliches "Wow"-Argument abhanden kommen. Hier darf man wohl annehmen, dass die für Sony/Microsoft entwickelte IP schlicht nicht zu früh von AMD für eigene Zwecke verwendet werden darf.
Und dass AMD eher den Launch von nVidia's RTX 30xx abwarten will ist abwegig. Bei den langen Produktentwicklungszyklen lässt sich eh nichts mehr verändern, d. h. man muss mit dem kommen, was man entwickelt hat, so oder so. Man kann sich ggf. lediglich einen kleinen zeitlichen Abstand suchen, um die vollen Medienaufmerksamkeit zu erhalten, mehr aber auch nicht. Für AMD wäre es zweifelsfrei besser jetzt zeitnah mit RDNA2 zu kommen, solange nVidia nichts Neues vorzulegen hat *), denn deren Update wird wohl erst im Aug/Sep folgen, jedoch können bzw. dürfen sie voraussichtlich nicht.

*) Wenn nVidia tatsächlich eine bemerkenswerte Leistungssteigerung vorlegen kann, und das Potential haben sie, denn bereits der Sprung im Fertigungsprozess ermöglicht einen beträchtlichen Zugewinn, dann werden sich viele Brand-neutrale Gamer direkt für eine nVidia-Karte entscheiden und diese Konsumenten sind dann für AMD für die nächsten ein, zwei Jahre verloren, was gerade im deutlich kleineren HighEnd-Segment mehr schmerzen wird.
AMD kann natürlich hoffen, und deren Marketing-Abteilung wird auch versuchen, mittels kleiner Brotkrumen/Teaser-Informationspolitik im "Tagesrythmus" die Konsumenten so lange hin- bzw. unentschieden zu halten, bis RDNA2 im Markt verfügbar ist, aber aus deren Sicht wäre zweifelsfrei eher jetzt ein geeigneter Launchzeitpunkt.

Du meinst mit Ampere - der HPC GPU, die nicht für Gaming gemacht ist? [...]

Ja, danach sieht es eher aus; Ampere bzw. das was jetzt bald vorgestellt werden wird, wird voraussichtlich ein HCP-Design und damit ein Volta-Nachfolger sein.
Insgesamt wäre das auch plausibel. Die Volta-Architektur wurde auf der GTC 2017 (Mai) vorgestellt und die erste Karte in Form der Titan V gab es im Dez.'17. Auf der GTC 2018 (März) folgte dann Volta in Form der GV100 in der DGX-1 u. a. zusammen vorgestellt mit dem RTX-Softwarestack. Turing dagegen teaserte man erst Mitte 2018 und wurde erst im Aug.'18 als Quadro veröffentlicht und Mitte Sep.'18 folgten dann erst die Consumer-Turing's.

[...]Das was da an Big Navi Gerüchten rumgeisterten war wohl nur Arcturus, HPC Vega Nachfolger ohne Displayfähigkeiten.[...]

Vielleicht nur vertan? - Navi basiert auf RDNA, Vega auf GCN und CDNA ist nun dessen Weiterentwicklung, die "later this year" in einer ersten, neuen GPGPU veröffentlicht werden wird, voraussichtlich etwas wie die Instinct MI100, die wahrs. dem Codenamen Arcturus entspricht.
Entsprechend wird etwas "BigNavi" genanntes auch weiterhin RDNA sein. Zumal es auch unwahrscheinlich ist, dass AMD im Consumer-GPU-Sektor nun die nächsten 8 Monate untätig vorbeiziehen lassen wird. Hier werden noch größere Navi-Designs (auf Basis von RDNA1) folgen, bis dann Ende 2020 RDNA2 eingeführt werden wird.


Interessante Randnotiz zum Fertigungsprozess:
AMD hat klarstellen lassen, dass man für die kommenden Produkte einen (im Vergleich zum N7) "verbesserten" 7 nm-Prozess verwenden wird, dass das aber nicht automatisch die Verwendung des N7+ (mit EUV) bedeutet. Dementsprechend verzichten die aktuellen Slides auch, um Verwirrungen zu vermeiden, auf ein nachgestelltes Plus-Zeichen. Entsprechen kommen aktuell sowohl der N7P (DUV only) als auch der N7+ für zukünftige GPUs und CPUs infrage.
AMD Clarifies Comments on 7nm / 7nm+ for Future Products: EUV Not Specified
 
Zuletzt bearbeitet:
Das Nvidia dieses Jahr eine neue Generation raus haut ist so gut wie bestätigt. Erst Recht wenn AMD auf das aktuelle Turing Niveau aufschließt. Egal wie welcher Chip heißt, Nvidia bringt eine neue Generation und hängt damit mal wieder AMD ab.

Ja aber es wird wahrscheinlich nicht dieser eine große Ampere sein von dem immer mehr Daten durchsickern, der ist Nachfolger von dem GV 100 und der war für HPC und hat nur als Titan V einen Ableger im Gaming/Prosumerbereich gefunden. Mehr wird das vermutlich mit Ampere auch nicht.

Die eigentlichen Consumergrafikkarten kommen irgendwann. Noch ist dazu so gut wie gar nichts geleaked. Das war bei Turing übrigens ganz ähnlich.

Das Nvidia bei gleichwertiger Fertigung vorne sein wird vermute ich auch, wie viel wissen wir aber nicht. AMD wird schon noch einiges aufholen können, überholen eher nicht, können ja auch nicht zaubern. Das hat im CPU-Bereich auch nur geklappt weil Intel ordentlich strauchelt, hat AMD ja selber eingeräumt.
 
Das Nvidia dieses Jahr eine neue Generation raus haut ist so gut wie bestätigt. Erst Recht wenn AMD auf das aktuelle Turing Niveau aufschließt. Egal wie welcher Chip heißt, Nvidia bringt eine neue Generation und hängt damit mal wieder AMD ab.

AMD ist schon auf dem aktuellen Turing Niveau - gleiche Anzahl an Kernen fuer eine gleiche Performance.
Sie haben nur keine High End GPU veroeffentlicht.
Als Hauptgrund gilt in der Geruechtekueche, dass RDNA1 einen Hardware Bug hat, der zu hohem Verbrauch fuehrt.
Und Nvidia wird auch keine 8000 Shader GPU fuer Konsumenten raushauen... zumindest nicht gleich am Anfang.
Dafuer waeren die Ausbeuten viel zu gering - gilt natuerlich auch fuer AMD.

Die Leistungssteigerung im Vergleich zu Volta ist jetzt nicht Bahnbrechend...
Selbst mit hoeherem Takt sieht es mehr nach Steigerung durch die Kernzahl aus, anstelle einer grossen Ueberarbeitung der Architektur.
 
Release erst Ende des Jahres... Schade!
Weiß jemand wann die Ryzen 4000 CPUs kommen?

Ich hätte gerne zum Release von Cyberpunk 2077 ne neue GPU, meine RX 480 wird da etwas knapp. Aktuell gibts noch kein wirklich lohnenswertes Upgrade,...
Ich habe meine RX480 bereits letztes Jahr gegen eine RX 5700 (non-XT) getauscht. Mehr als doppelt so schnell, gleicher Verbrauch (und inzwischen ähnliche Preise wie bei den Custom RX 480). Und für ein paar € mehr gibt es schon die 5700 XT, die nochmal etwas drauflegt. Als Alternative ist die 2060S verfügbar.

Warum also ewig warten?
 
Wahrscheinlich Release Ryzen 3000 im Juli 2019 plus 13 bis 15 Monate. Also so Herbst dieses Jahres schätze ich.

Wahrscheinlich wird Zen3/Ryzen 4000 eher später im Jahr erscheinen. Zen3/Milan kann man nach aktuellem Stand für Aug/Sep. erwarten und die Consumer-Desings werden wahrscheinlich erst später folgen, da man diesmal Epyc priorisieren wird. Beispielsweise die neuen 600er-Chipsätze, die diesmal von ASMedia kommen, werden erst "Ende 2020" verfügbar werden.
Möglicherweise wird das ein großes Launchevent Zen3/Ryzen 4000 zusammen mit RDNA2 ... man wird sehen.
 
Das Nvidia dieses Jahr eine neue Generation raus haut ist so gut wie bestätigt. Erst Recht wenn AMD auf das aktuelle Turing Niveau aufschließt. Egal wie welcher Chip heißt, Nvidia bringt eine neue Generation und hängt damit mal wieder AMD ab.


Weil AMD nach über 2 Jahren es schaffen wird auf Turing aufzuschließen in Sachen Leistung. Daran kann man eigentlich nichts schön reden.
Übrigens hätte auch ich lieber eine AMD Karte wegen meinem Freesync Monitor. Aber was Sie bis jetzt abliefern kommt nicht mal an ner 1080 ti vorbei. Und die ist schon 4 Jahre alt. Auch ist die Effizienz nicht besser, obwohl die Strukturbreite kleiner ist. Da hat AMD noch so Einiges aufzuholen.

Woher nimmst du dann, dass es schon im Sommer so weit sein soll?
Der einzige GPU Kandidat für den Sommer ist aktuell Ampere - eine HPC GPU.

Natürlich wird Nvidia irgendwann was rausbringen, aber gleich vome Sommer zu schwärmen halte ich ein wenig für verfrüht.

AMD ist schon auf dem aktuellen Turing Niveau mit RDNA1...
Gleiche Kernzahl bei gleicher Spieleleistung...
Und das teilweise bei geringerem Takt.

Mit der aktuell angesagten 50% Steigerung in Perf./Watt und gesteigerte Taktraten wird AMD bei ähnlicher Steigerung seitens Nvidia wieder auf gleichem Niveau landen.

Edit: Ein wenig doppelt gemoppelt, die Antwort...
Naja.. Erkältung drückt aufs Hirn...
 
rdna ist auf pascal Niveau beim selben takt Turing ist noch gut 10% weg
Alle amd rx5xxx gpu laufen am limit bzw werden Zwangsgedrosselt.
RDNA müsste um wirklich Effizienz zu erreichen um die 1,4-1,6ghz laufen und nur einen 6pin pcie stecker haben (-30% vcore aktuell bei max 1,1v müsste dann etwa 0,8v ergibt etwa -99w=die rx5700xt bei etwa 1,5ghz und max 116w Nur misst man sich dann mit der gtx1660ti anstatt der rtx2070)
tun sie aber nicht sie laufen mit 225w also 6+8 pin und am takt limit von 1,85ghz
Und ziehen da gerade noch mit nvidia 2304 shader gpu gleich
RTX2070
2560/2304=-11% und das bei gleichen takt (rtx2070 stock ist etwa 1,6ghz)
Blöd das so gut wie alle nvidia karten um die 1,9ghz laufen. Sofern das PT es zulässt.
Die ipc ist definitiv nicht gleichauf aber deutlich näher als mit gcn(-25 bis-30%)
 
Woher nimmst du dann, dass es schon im Sommer so weit sein soll?
Der einzige GPU Kandidat für den Sommer ist aktuell Ampere - eine HPC GPU.

Natürlich wird Nvidia irgendwann was rausbringen, aber gleich vome Sommer zu schwärmen halte ich ein wenig für verfrüht.

AMD ist schon auf dem aktuellen Turing Niveau mit RDNA1...
Gleiche Kernzahl bei gleicher Spieleleistung...
Und das teilweise bei geringerem Takt.

Mit der aktuell angesagten 50% Steigerung in Perf./Watt und gesteigerte Taktraten wird AMD bei ähnlicher Steigerung seitens Nvidia wieder auf gleichem Niveau landen.

Edit: Ein wenig doppelt gemoppelt, die Antwort...
Naja.. Erkältung drückt aufs Hirn...

Habe nie geschrieben das es im Sommer so weit sein soll. AMD kommt auch Ende des Jahres mit ihren neuen Karten, genau wie Nvidia.
Die 50% Steigerung sieht man bei vielen Präsentation. Ob bei Nvidia, Intel, AMD und am Ende sind es 15-30% in der Realität.
Und AMD ist technisch nicht auf Turing Niveau, sonst würden sie von diesen Karten momentan nicht so abgehängt werden, sondern hätten schon längst eine Karte raus gehauen die zumindest die 2080 Super überholt und das mit gleicher TDP.
Daher bleibe ich bei meiner Aussage das AMD definitiv 2 Jahre hinterher hinkt. Da Sie die Kernanzahl anscheinend auch nicht einfach skaliert bekommen ist auch klar. Sonst hätten Sie es schon längst gemacht.
AMD wird wohl noch ca. 4 Jahre brauchen um mit zu spielen in der Oberliga.
Falls ich falsch liegen sollte kommt defeintiv ne AMD wieder in mein System ;)
 
Zuletzt bearbeitet:
Habe nie geschrieben das es im Sommer so weit sein soll. AMD kommt auch Ende des Jahres mit ihren neuen Karten, genau wie Nvidia.
Die 50% Steigerung sieht man bei vielen Präsentation. Ob bei Nvidia, Intel, AMD und am Ende sind es 15-30% in der Realität.
Und AMD ist technisch nicht auf Turing Niveau, sonst würden sie von diesen Karten momentan nicht so abgehängt werden, sondern hätten schon längst eine Karte raus gehauen die zumindest die 2080 Super überholt und das mit gleicher TDP.
Daher bleibe ich bei meiner Aussage das AMD definitiv 2 Jahre hinterher hinkt. Da Sie die Kernanzahl anscheinend auch nicht einfach skaliert bekommen ist auch klar. Sonst hätten Sie es schon längst gemacht.
AMD wird wohl noch ca. 4 Jahre brauchen um mit zu spielen in der Oberliga.
Falls ich falsch liegen sollte kommt defeintiv ne AMD wieder in mein System ;)

Du verwechselst "Auf Niveau mit einer anderen Architektur" mit "Gleiche Chipgröße".
Konkurrenten sind auf einem Niveau, wenn sie mit gleicher Kerhzahl gleiche Leistung erreichen.
Bei gleichem Takt kommt ziemlich genau die gleiche Leistung raus.

Dass sie keine größeren GPUs haben, wurde schon zur Genüge gesagt.
Auch dass es sehr wahrscheinlich an einem Designfehler / Hardware Bug liegt, der den Stromverbrauch hoch treibt und größere Chips sinnfrei macht.
Das ändert nichts dran, dass die RDNA Architektur an sich auf dem Niveau der Turing Architektur liegt.

RDNA2 soll ja angeblich genau da auch ansetzen und den Strombedarf deutlich reduzieren.

Ich bin gespannt, was da kommt.
Aber gleich in die eine, oder andere Richtung einen Sieger zu erklären ist dann doch ein wenig früh...
Vor Zen hat auch niemand geglaubt, dass AMD zu Intel aufschließen kann.
 
1.) Quelle?

2.) Solange so etwas immer nur faktenfrei behauptet wird, ist die naheliegende Vermutung, dass RT nichts weiter ist, als eine nachträglich und mehr schlecht als recht mit praktischem Mehrwert unterfütterte, letztlich wenig effiziente oder brauchbare Zweitverwertung von HPC-Ballast für eine entwicklungstechnisch inzwischen völlig nachrangige Gamingecke, leider völlig valide und sogar überwiegend wahrscheinlich.

Gut nachvollziehbar, dass das Vielen nicht schmeckt. Aber schau mer mal, ob das doch noch was wird mit RT. "Nahe Zukunft" wird es imho sicher nicht.
1.) Die shot Vergleiche zwischen einem TU106 mit einem TU116:
RTX adds ~1.95mm2 per TPC (tensors 1.25, RT 0.7) : nvidia

Wobei ich mir das nicht selber im Detail angeschaut habe, ob das wirklich so hinkommt mit den Zahlen.
Aber allgemein gibt es keinen Grund zur Annahme, dass die Raytracing-Cores bei der aktuellen Implementierung massiv Fläche benötigen sollten.

2.) Das ergibt doch wenig Sinn.
Wenn RT nichts weiter ist, als eine nachträglich und kaum brauchbare Zweitverwertung von "HPC-Ballast", wieso hat Volta als HPC-Karte gar keine RT-Cores?
Wieso gibt es nur das Tesla T4 Produkt auf Basis von Turing mit 75W, wenn das Feature primär für HPC-Märkte gedacht wäre?
Wieso nutzen baldige Next-Gen-Konsolen für normale Konsumenten angepasste Hardware für bessere Raytracing-Performance, wenn das Ganze kaum brauchbar wäre?
Das einzige Segment was wohl unter einem HPC-Feld fallen würde, wären massive Render-Farmen.

Natürlich wird Raytracing in naher Zukunft zum Standard-Tool.
Die Xbox One Series X hat 12 TFLOPs und verwendet RDNA"2", die PS5 wird auch kein schwaches Teil und AMD, Intel und Nvidia werden bald alle DXR-Support anbieten.
Das heißt natürlich nicht das jedes Spiel Raytracing verwenden wird oder es so einsetzt, dass die Performance völlig in den Keller geht.
Es wird verhältnismäßig nach Einsatzzwecken geschaut und gut ist.
 
1.) Die shot Vergleiche zwischen einem TU106 mit einem TU116[...]
2.) Das ergibt doch wenig Sinn. Wenn RT nichts weiter ist, als [...]

Ergänzend zu 1): Die Rechnung sollte man nur als reine Überschlagsrechnung verstehen, denn die ist etwas trickreich. Das Problem ist hierbei, dass dem TU116 sowohl die Tensor Cores v2 als auch die RT Cores fehlen, gleichzeitg aber dedizierte FP16-Funktionseinheiten hinzugefügt wurden.

Ergänzend zu 2): In erster Linie war das von Illithide eine Meinungsäußerung und wenn er/sie nun einmal mit RT nicht anfangen kann (oder will) ... ok. Das mit dem "kaum vorhandenen, praktischen Mehrwert" sehen viele, wie auch die Industrie inkl. AMD, Intel, Microsoft und Sony, jedoch offensichtlich anders.
Und die abschließende Aussage "Aber schau mer mal, ob das doch noch was wird mit RT." skizziert einmal mehr die persönlichen Präferenzen, ist ansonsten aber hinfällig, da der Zug schon längst angefahren ist und zudem an Tempo aufnimmt. Da wird jetzt keiner die Notbremse ziehen, warum auch, die Industrie hat jedenfalls kein Interesse daran.

Abseits dessen ist Raytracing im Gaming-Sektor auf jeden Fall der nächste große Schritt, der selbst jetzt schon "etwas bringt", jedoch natürlich auf Kosten der Performance, was aber auch immer schon so bei der Einführung neuer Technologie war und bei RT auch grundlegend gar nicht anders sein kann, da diese Technik besonders rechenaufwändig ist (und deshalb derzeit auch nur ergänzend und nicht ausschließlich verwendet werden kann). Abseits des reinen Gamings dürfte sich aber auch bspw. die gesamte Conten-Creation-Industrie über diese technische Entwicklung freuen. (Bspw. erste Tests in Blender mit RTX vs. CUDA zeigen beträchtliche Zugewinne.)

Zwei weiterführende Gedanken: Die Volta-Architektur wurde Anfang 2017 vorgestellt, ihre Entwicklung liegt also schon deutlich weiter zurück. Turing ist architektonisch eine Kombination aus Volta und Pascal (mit weiterentwicketen Tensor Cores und hinzugefügten RT Cores; AnandTech hat hierzu einen schönen Architekturvergleich). Entsprechend dem Entwicklungsverlauf ist es auch nicht verwunderlich, dass Volta keine RT Cores hat.
Weiterhin, die Telsa T4 ist primär für das Inferencing gedacht, also als günstige, stromsparende Ergänzung aufgrund ihrer Tensor Cores v2 in das Tesla-Portfolio aufgenommen worden und wird vorzugsweise in regulären Server ihren Dienst verrichten und weniger im HPC-Umfeld anzutreffen sein.
 
Auch nur als kleiner Einschub:
Turing stellt architektonisch keine Kombination aus Volta und Pascal dar.
Turing verwendet vollständig die Volta-Basis und hat nur einige Anpassungen vorgenommen.
Einer der wenigen Unterschiede ist, dass der L1$/Shared Memory insgesamt "nur" noch 96KB groß ist, anstatt 128KB und weniger mögliche Splits erlaubt.
Die L1$/Shared-Memory-Bandbreite soll bei Turing auch nur noch 64Bytes statt 128Bytes betragen und es gibt pro TPC nur die Hälfte an Load/Store-Units.

Neben einigen Verbesserungen und Weiterentwicklungen bei Turing gegenüber Volta, war es das auch schon.
 
"Kombination" war auch nicht unbedingt die beste Begriffswahl ... Weiterentwicklung/Zusammenführung der beiden Vorgänger hätte es wohl mehr getroffen, schließlich ist das alles nVidia's eigene IP und hier konnten sie aus dem Vollen schöpfen. Turing ist zweifelsfrei näher an Volta als an Pascal, aber eben auch kein Volta mit RT Cores. Volta verfügt über die doppelte Anzahl Load/Store Units, hat einen vollen Satz FP64-Einheiten (GV100 mit 2688 FP64 Cores, während der TU102 aus Kompatibilitätsgründen gerade mal 144 FP64 Cores besitzt) und Volta kann bspw. den L1/SMEM vollständig als 96K SMEM partitionen, wenn es dem Workload zum Vorteil gereicht. Darüber hinaus besitzt Turing neu entwickelte Tensor Cores v2, die in Turing auch die allgemeinen FP16-Berechnungen übernehmen und hinzu kommt die "RT Core"-Funktionalität (bei denen es sich wahrscheinlich jedoch mehr um eine Art Scheduler als einen "echten", eigenständigen Core im eigentlichen Sinne handelt). Hinzu kommt bei den kleineren Turings der Wegfall der Tensor und RT Cores und dafür das Hinzufügen, leichtgewichtiger FP16 Cores.
Man darf gespannt sein wie nVidia das weiter optimieren kann und wie die der Anteil zwischen BruteForce (mehr Transistoren) und architektonischen Verbesserungen ausfallen wird.
 
Zurück