Nvidia A100 (Ampere): Die technischen Daten des Next-Gen-Rechenmonsters

Nvidia hat sich damit auch nicht wirklich einen Gefallen getan Schmierfilm DLSS und RT in eine 60er Karte einzubauen und dafür den Preis um 100€ anzuheben. Das hätte nur funktioniert, wenn die Karte geliefert hätte. Stattdessen kam eine ganze Flut von 1660, 1660Ti, 1660Super, 2060, 2060Super und hat das Preis/Leistungsgefüge so total verzerrt, dass selbst AMD mit konstanter 590 Leistung zum gleichen Preis gut dasteht, sofern man nur ein 5500XT Schild ranpappt. Zwischen der rx580 und der 5500XT liegen sogar drei Jahre, ohne dass zwischen den Karten ein nennenswerter Unterschied bei Preis oder Leistung liegen würden. Wer im 200€ Segment nach drei Jahren seine Karte austauscht tritt also auf der Stelle.

Glücklich wer im Abverkauf eine 1070 oder Vega56 für ~240€ mitgenommen hat, denn alle anderen Karten im Segment 200€ -350€ sind Vollver@rshe für die sich beide Hersteller in den Boden schämen sollten und einfach nur kein Review die Eier hat das so zu sagen. Hätte DLSS gleich geklappt, wäre Nvidia zumindest mit der 2060 dieser Totalstagnation entkommen. Aber indem es weder Raytracing noch DLSS Spiele gab die jeder haben musste, war es halt damit vorbei.

Wer drei Jahre pennt, der muss sich nicht wundern, wenn die Konsolen aufholen. Microsoft oder Sony braucht man nicht seinen drei Jahre alten Mist andrehen, die werfen einen hochkant raus. Da müssen wir uns nicht hinstellen und sagen "omg, so viel Leistung für so wenig Geld". Das ist ganz einfach "omg, warum lässt man AMD und Nvidia auch damit durchkommen, wenn sie auf der Stelle treten"?

Durch DLSS 2.0 lässt sich theoretisch das Leben der Grafikkarte massiv verlängern: denn die Target-Auflösung wäre ja nur noch 1080P. Dafür läuft auch RT mal schnell Gerade günstige GPUs haben damit also einen hohen Mehrwert.

Im Prinzip ist DLSS (2.0 oder später bzw was äquivalentes von AMD) einer der "Wow!" Technologien der vergangenen 10 Jahre. Der Start ist nicht perfekt gewesen - so ist das halt mit LERNENDEN Systemen- aber Nvidia hat nachgebessert und ich jann nur hoffen, dass AMD nicht weitere Jahre braucht um das ganze in einer offenen Variante umsetzt

DLSS 2.0 und besser bzw. alternativen beantworten folgende ja wichtige Grundfragen:
- du willst dir einen 4K oder gar 8K Bildschirm kaufen, aber nicht jedes Jahr eine neue 1000€ GPU Leisten, die diese dann mit flüssigen Frameraten oder gar 144hz befeuert -> DLSS*
- du willst Leistungssteigerungen, obwohl diese wegen der immer langsamer fortschreitenden Prozesstechnologieentwicklung nicht mehr so wie früher möglich sind -> DLSS*
- du willst unter umständen bessere Bildqualität - DLSS*
- du willst Raytracing einsetzen, aber deine GPU schafft für hohe Auflösungen oder Frames nicht genug Rays? - DLSS
...

*DLSS ist hier ein Markenname von Nvidia, gemeint ist aber eine äquivalente KI Upscaling Technologie.

Und über RT braucht man eh nicht streiten. Es mag momentan noch bei weitem nicht perfekt implementiert sein, aber man kommt, wenn man realistische Beleuchtung(seffekte) will nicht um RT herum.
 
Zuletzt bearbeitet:
[...] wenn man von der FP32-Leistung ausgeht sind die Aussichten für die 3080TI nicht gerade rosig. [...]

FP32 ist grundsätzlich eine schlechte Basis für eine Abschätzung, die kann man als groben Anhaltspunkt heranziehen, mehr aber auch nicht.
Absits dessen ist hier auch nichts zu verbessern: Pascal, Turing und Ampere besitzen alle den gleichen Durchsatz von ~ 0,128 TFlops pro SM und GHz, Eine FP32-Einheit schafft 1 Flop pro Taktzyklus, der Rest ist simple Mathematik. Mehr parallele Funktionseinheiten und mehr Takt ergibt eine linear steigende Leistung.

Ebenso vertust du dich bzgl. FP64. Auch hier ist der Durchsatz unverändert geblieben, der höhere Wert von nun 9,7 TFlops geht unmittelbar auf Anzahl SMs * Takt zurück, denn sowohl Volta als auch Ampere (als GA100) haben 32 FP64-Einheiten pro SM. (Pascal und Turing dagegen besitzen lediglich 2 Funktionseinheiten pro SM zu Kompatibilitätszwecken; bei den kleineren Ampere's darf man Ähnliches erwarten).
Die in Verbindung mit FP64 zitierten 19,7 TFlops werden nicht über die CUDA Cores, sondern mittels der Tensor Cores v3 erreicht, die nVidia nun auch um eine FP64-Funktionalität für bestimmte HPC-Workloads erweitert hat. Entsprechend wird hier jedoch auch lediglich eine hartkodierte MMA-Operation ausgeführt.

Und um deine Enttäuschung nicht ins Bodenlose fallen zu lassen ... auch bei AMD hat sich der Wert nicht verändert. ;-) Sowohl Vega 10 (GCN 5) als auch Navi 10 (RDNA) leisten in FP32 ebenfalls ~ 0,128 TFlops pro CU und GHz ... welch' unerwartete Überraschung. :-D
 
Mehr als 30% Leistungszuwachs werden wir erst sehen wenn AMD gefährlich wird ansonsten sehen wir nur kastrierte Chips im Consumerbereich.
 
DLSS 2.0 funktioniert großartig, was redest du? Teils bessere Qualität als nativ. Und RT ist auch super. Du vergleichst Technologien mit Produkten. Äpfel und Birnen

Sehe ich auch so. DLSS 1.0 war wirklich Müll, das mussten sich meine Augen oft genug antun. Und wer hätte nach diesem Start damit gerechnet, dass DLSS überhaupt mal auf das Niveau von nativem Material herankommt? Ich hatte das Thema schon als "Fail" abgestempelt.
DLSS 2.0 hat mich total überrascht, jetzt sind wir wirklich auf dem Niveau von der nativen Auflösung, teilweise sogar besser. Was will man denn mehr? Und wie kann man jetzt noch sagen, "ich halte nix von DLSS"?
Das einzige was man vielleicht noch sagen könnte: "Es sollten mehr Spiele davon Gebrauch machen". Aber sowas geht wohl halt nicht so schnell wie man sich das wünschen würde.

Ich halte auch nichts von den Aussagen: "Die 2000er RTX Karten sind zu schwach für Raytracing". RT kostet nun mal absurd viel Leistung und dafür, dass wir noch ganz am Anfang stehen sind die Ergebnisse doch gar nicht so schlecht. Immerhin kriegt man alles mit etwas fummeln zum laufen und darf schon mal bestaunen, was in Zukunft da auf uns zukommt.
nVidia hat den ersten Stein geschmissen und da sollte man nicht vergessen. Und AMD Besitzer profitieren da auch von, selbst Konsoleros.

Ich kann mir das oft nur so erklären, dass die Leute das einfach noch nicht Live bei sich Zuhause gesehen haben. Zumindest was ich bis jetzt gesehen habe, ist teilweise einfach nur fantastisch und zeigt nochmal ganz klar, was alleine die Beleuchtung in einem Spiel ausmachen kann.
Vielleicht liegt es auch daran, dass ich die Generation Gamer bin die mit 2 bewegten Balken und einem Punkt (Ball) angefangen haben. :)
 
Mehr als 30% Leistungszuwachs werden wir erst sehen wenn AMD gefährlich wird ansonsten sehen wir nur kastrierte Chips im Consumerbereich.

Ja genau, gebt uns einen Dicken fetten GA100 der nicht kastriert ist! Von dem dann der gigantische Großteil des chips nie genutzt wird. :D
Wir haben auch alle das Geld um sowas zu bezahlen....
 
Also wenn der Raff ohne Raytracing leben kann, wäre die Speichermenge für ihn ja zumindest mal wieder ne zeitlang ausreichend. ^^
Wann kommt damit "Can it run Crysis" in 16K? Update 2.0 ^^
 
Ja genau, gebt uns einen Dicken fetten GA100 der nicht kastriert ist! Von dem dann der gigantische Großteil des chips nie genutzt wird. :D
Wir haben auch alle das Geld um sowas zu bezahlen....

Das Geld von der Bausparkasse werd eich sonst eh nie sinnvoll nutzen können, da Häuser zu teuer geworden sind. Also Daumen hoch und her damit! :-))
 
Durch DLSS 2.0 lässt sich theoretisch das Leben der Grafikkarte massiv verlängern: denn die Target-Auflösung wäre ja nur noch 1080P. Dafür läuft auch RT mal schnell Gerade günstige GPUs haben damit also einen hohen Mehrwert.

Leider braucht auch DLSS 2.0 eine Implementierung durch die Spielehersteller.
Erst das gerüchteweise existierende DLSS 3.0 wird zumindest alle Spiele mit TAA Implementierung unterstützen.
Das sind allerdings auch nicht alle.
Daher ist die Lebensverlängerung eher begrenzt.
 
Mehr als 30% Leistungszuwachs werden wir erst sehen wenn AMD gefährlich wird ansonsten sehen wir nur kastrierte Chips im Consumerbereich.

Volta nutzte damals mit dem 12FFN 815 mm2 und war ebenfalls sehr nah am Rande des technisch Machbaren. Turing verwednete den 12FFN für den TU102 (Quadro, Titan und 2080 Ti) um einen 754 mm2 großen Chips zu fertigen, dessen Yield deutlich besser ausgefallen sein dürfte, einerseits wegen der fortgeschrittenen Zeit und Prozessreife, andererseits wegen des etwas kleineren Chips.
Folgt man dem wirtschaftlichen Ansatz, so könnte nVidia hier sehr konservativ den größten Chip für Consumer und Professional Visualization auflegen mit bspw.
550 mm2 : 35,7 Mrd. Tr., ~ 1,9-fach
650 mm2 : 42,3 Mrd. Tr., ~ 2,3-fach
Wie auch immer, der große GA102 wird wohl etwa doppelt so viele Transistoren aufweisen wie der TU102 (sofern nVidia im Vergleich zum GA100 nichts an der Logikdichte ändert).
Lediglich beim Boost-Takt würde ich nicht mehr erwarten bzw. gar nicht einmal eine nennenswerte Steigerung i. V. z. Turing.
FP64-Einheiten dürften weitestgehend wegrationalisiert werden, das Tensor Core v3-Verhältnis wird unverändert bei 4 pro SM bleiben und dann bleibt noch die Frage bzgl. der RT Cores, einerseits bzgl. deren architektonischer Implementation und andererseits bzgl. deren Anzahl. Aufgrund der gegebene "Versprechen" würde ich hier nun von zwei RT Cores pro SM ausgehen.
 
Ich will den aber nicht, der hat keine RT Cores drauf ) :-P

Leider fehlt ein Fallback/Kniff, um Turing dazu zu zwingen, die RT-Cores stillzulegen und das BvH-Traversal Pascal-ish auf den ALUs zu machen. Gäbe es das, könnte man klar sagen, was die RT-Kerne bringen. Ich schätze aber, dass Ampere das, wie Volta, in den meisten Fällen "nebenbei" erledigen kann, denn Rechenwerke hat er ja genug.

MfG
Raff
 
Das wäre doch toll, eine (High-End-)Karte ohne RTX-Gedöns, dafür mit ordentlicher "normaler" Mehrleistung! Ich würde sie sofort kaufen. Wird ja auch langsam mal Zeit...

RTX ist Stand heute einfach noch zu unnötig und zu wenig ausgereift, als dass es sich als Spieler lohnen würde, dafür extra Geld hinzublättern. Vielleicht in fünf Jahren, wenn alles vernünftig läuft und keinen "Early Adopter"-Aufschlag mehr kostet.

Man wird ja noch träumen dürfen!
 
Das wäre doch toll, eine (High-End-)Karte ohne RTX-Gedöns, dafür mit ordentlicher "normaler" Mehrleistung! Ich würde sie sofort kaufen. Wird ja auch langsam mal Zeit...

RTX ist Stand heute einfach noch zu unnötig und zu wenig ausgereift, als dass es sich als Spieler lohnen würde, dafür extra Geld hinzublättern. Vielleicht in fünf Jahren, wenn alles vernünftig läuft und keinen "Early Adopter"-Aufschlag mehr kostet.

Man wird ja noch träumen dürfen!
Ziemlicher Mumpitz, Nvidia hat alle Features seitens der Radeons in 2 Wochen in den Treiber gepatcht, mit Ausnahme der Bluescreens. Die RT Cores hatten nicht so viel Einfluss auf die Chipgröße oder den Preis, ist ein ziemliches Hirngespinst das deswegen die Karten so teuer sein sollen.
Sie sind eher so teuer weil sie konkurrenzlos sind und Jensen einen Realitätsverlust erlitten hat, wie das im Silicon Valley allerdings hin und wieder vorkommt :-S,RTX an sich ist tatsächlich ziemlich insane.
 
Man sieht ja an Ampere das man sich anscheinend die Kritik an den Leistungsverbrauch von RayTracing sich zu Herzen genommen hat und die Tensorcores um einiges verbessert hat.

Denke ist mit die wichtigste Information aus der Präsentation für uns Gamer. Die RTX2000 Reihe war die Alpha Reihe und jetzt kommt die logische Verbesserung dieser mit der RTX3000 Reihe. Denke bei RTX3000 wird RTX nicht mehr so viel FPS verschlingen und dadurch wird RayTracing alltagstauglich werden.
 
Du hättest dir also auch ne DX9-Karte gekauft, als DX10 bereits verfügbar war?

Ziemlich kurzsichtiges Verhalten.

Das ist doch überhaupt nicht vergleichbar.
Nicht falsch verstehen Entwicklung ist wichtig.
Aber der Mehrgewinn ist jetzt einfach noch zu klein.
Deswegen finde ich es gut, wenn es diese Option für
Gamer gibt, die noch kein Raytracing nutzen möchten.
 
Man sieht ja an Ampere das man sich anscheinend die Kritik an den Leistungsverbrauch von RayTracing sich zu Herzen genommen hat und die Tensorcores um einiges verbessert hat.

Denke ist mit die wichtigste Information aus der Präsentation für uns Gamer. Die RTX2000 Reihe war die Alpha Reihe und jetzt kommt die logische Verbesserung dieser mit der RTX3000 Reihe. Denke bei RTX3000 wird RTX nicht mehr so viel FPS verschlingen und dadurch wird RayTracing alltagstauglich werden.

Die Tensorkerne beschleunigen Raytracing nicht. Sie können höchstens Tricks beisteuern, um die RT-geplagte GPU zu entlasten - wie DLSS 2.0.

MfG
Raff
 
Die RTX2000 Reihe war die Alpha Reihe und jetzt kommt die logische Verbesserung dieser mit der RTX3000 Reihe. Denke bei RTX3000 wird RTX nicht mehr so viel FPS verschlingen und dadurch wird RayTracing alltagstauglich werden.

Bei 3000 schon? Meiner Meinung nach wird das mit dem "alltagstauglich" erst bei 5000 so richtig etwas.
 
PS5 ist zur Zeit besser als jeder Gaming PC weil die das Problem endlich besiegt haben!

Wohl kaum, oder wie viele User können davon berichten, wie toll ihre PS5 ist !?

Solche Sachen hören sich für mich nach Konsolenfan-Quark an.
Über Sachen berichten, die zur Zeit eine Konsole besser macht, die noch nicht einmal erschienen ist.

Warten wir mal den Release und offizielle Tests ab und dann kann man mal schauen, was wie wo besser, oder schlechter ist.


edit:

Sie können höchstens Tricks beisteuern, um die RT-geplagte GPU zu entlasten - wie DLSS 2.0.

Die letzten Tricks sahen aber ganz gut aus, die ich gesehen habe.

Mal gespannt, ob offizielle Tests dies bestätigen, oder eher relativieren.


PS: Bei den Tricks geht's ja wie ich das verstanden habe, um Auflösungsänderungen, wo die niedriger aufgelösten Bilder mit Änderungen(wie auch immer, z.B. KI) dann ziemlich, bis sehr gut aussehen, als wenn sie nativ höher aufgelöste Bilder wären, dann aber auch ohne heftiges "Blurry", wie bei niedriger aufgelösten Bildern, aber mit höheren fps, als das native Bild !?

Einfacher gesagt, z.B. ein 1080p Bild, anstatt einem 4k Bild, welches aber scharf aussieht, wie ein 4k Bild, allerdings eher mit höheren FPS, Richtung dem nativen 1080p Bild(wenn auch nicht ganz).

Ich lass mich mal überraschen, wie dieses DLSS 2.0 ankommt und ob das dann auch von den meisten guten Spielen unterstützt wird, oder nicht.


edit(wie so oft ;) ) :

Wäre auch mal interessant, in wie weit das DLSS zusätzliche Zeit benötigt, oder ob das wirklich parallel berechnet werden kann, zu dem normalen Kram, bis ein bild "fertig" ist.
Stichwort wäre da glaube ich auch "Inputlag" !?
Keine Ahnung. :ka:

Is ja noch Zeit, bis die Gaming-Karten kommen.
Dann wird es sicherlich ausgiebige Erklärungen/Tests dazu geben, wie jetzt das DLSS 2.0 geworden ist.
 
Zuletzt bearbeitet:
Naja harren wir mal der Dinge, wenn NV HBM bietet wäre das endlich mal wieder ne Option für mich. Wir eh mal wiederr Zeit für ne grüne bei mir, hoffentlich enttäuscht die neue Gen nicht so wie Turing.
 
Zurück