Nvidia A100 (Ampere): Die technischen Daten des Next-Gen-Rechenmonsters

Weiß nicht so genau was ich von dem Chip halten soll. HBM2 ist ne feine Sache, aber unter nem Headspreader bei der TDP?
Draus ablesen was die Gamingableger können fällt mir auch recht schwer aktuell. Wirklich schlauer sind wir nicht geworden.

Von den Zahlen her sieht das für mich jedenfalls so aus als habe man bei der normalen (für Spiele relevanten) Rechenleistung und Effizienz keine großen Sprünge gemacht. Die Frage die dann bleibt ist wie es mit dem finalen Takt und dem genauen Prozess aussehen wird.
 
Wenn bei der RTX 3080 / TI nur 20-30 % mehr Leistung bei rum kommt + aufgebohrte Tensor kerne ist die frage in wie weit sich das lohnt 800-1.300 € auszugeben . Zumal ich denke das Cyberpunk schon jetzt mit fast 60 fps rennen wird . in 2560x1440 hmm ich glaube man ist verwöhnt mit seinen RTX Games :P Du hsat zwah die HW aber die Games fehlen und die frage ist auch in wie weit sich die RTX 3080 dann rechnet wenn die Games fehlen ...
 
Ich denke, im August wird Nvidia und Mr. Lederjacke mit Infos zur Gaming-Ware herausrücken, also werde ich mich weiterhin in Geduld üben - üben müssen. Das vorgestellte Teil sagt weniger über Gaming aus als sein Vorgänger-Teil. Noch hab ich aber RDNA2 nicht aufgegeben. Noch ist das alles ziemlich spannend...
 
Die Aufmachung ist nicht neu (s. Radeon Building a new Frontier), aber ich mag so Shit :daumen:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Da hat Nvidia wirklich ein Monster gebaut und vorher hatten die Titans und Tesla´s um 12.000 - 21.000 Transistoren verbauen die jetzt 54.000 (Mio.). Den größten Sprung sieht man bei der FP64-Leistung aber wenn man von der FP32-Leistung ausgeht sind die Aussichten für die 3080TI nicht gerade rosig. Die Pascalbasierte Titan Xp (12,2 TFLOPS) ist die einzige Titan die knapp 2 Teraflops mehr hat als der Tesla P100 mit 10,6 Teraflops. Jedoch kann man bei den TI-GPU´s um die 2-3 Teraflops FP32-Leistung wieder abziehen. Sieht also alles nicht rosig aus für die Spieler-GPU´s.

Da finde ich RDNA2 spannender und wenn Nvidia mich wieder als Kunden nach der 1080 möchte müssen sie für mich mit Ampere über den Preis kommen und die unverschämten UVP´s sehr nach unten drücken!
 
Da kann es wirklich am Ende des Jahres passieren das AMD mit Big-Navi mit der kommenden 3080TI gleichziehen wird. Der eine VR-Benchmark bescheinigte einer möglichen Big-Navi GPU eine um 20% bessere Leistung gegenüber einer 2080TI und hier laut den Daten der vorherigen GEN sind es nur 20% was die vorherigen Gerüchte nur bestätigt das die Ampere TI-GPU´s kaum Mehrleistung bieten werden und Nvidia stärker am Raytracing und DLSS arbeiten.

Sehr schön, Nvidia hat sich selbst ein Bein gestellt und AMD wird dieses Jahr gleichziehen sowie sie Intel überholt haben (Gamer-CPU´s) und beide AMD unterschätzt haben. :-)
 
Da kann es wirklich am Ende des Jahres passieren das AMD mit Big-Navi mit der kommenden 3080TI gleichziehen wird. Der eine VR-Benchmark bescheinigte einer möglichen Big-Navi GPU eine um 20% bessere Leistung gegenüber einer 2080TI und hier laut den Daten der vorherigen GEN sind es nur 20% was die vorherigen Gerüchte nur bestätigt das die Ampere TI-GPU´s kaum Mehrleistung bieten werden und Nvidia stärker am Raytracing und DLSS arbeiten.

Sehr schön, Nvidia hat sich selbst ein Bein gestellt und AMD wird dieses Jahr gleichziehen sowie sie Intel überholt haben (Gamer-CPU´s) und beide AMD unterschätzt haben. :-)

Noch gibt es keine Big Navi und RTX 3080ti. Aber sollte es so kommen, bin ich eigentlich nicht enttäuscht, dann war die 2080Ti ein guter Einkauf und kann bleiben...
 
Wenn DLSS funktioniert, wird AMD kaum eine Chance haben das mit frontaler Rechenleistung aufzuholen. Dann kann man DLSS zwar abschalten und einen neutralen Test machen bei dem AMD leicht vorne ist, aber was spielt das für eine Rolle wenn DLSS in den Augen der Kunden funktioniert und Nvidia damit wieder weit vorne ist?

Die Sache ist, dass DLSS 1.0 halt nicht funktioniert hat. Die neue Version 3.0 die angeblich automatisch mit jedem Spiel funktioniert darf also kritisch betrachtet werden. Version 2.0 stimmt einen ja verhalten zuversichtlich,

Denn sollte DLSS funktionieren dann wird sich schon die Frage stellen, ob Berechnungen in Nativ 4k Sinn machen. Ich sage selbst immer, dass man bei 28 Zoll jenseits von 1440p eigentlich keinen Unterschied sieht sofern die Action auf dem Schirm beginnt. Das gibt uns dann eine Nvidia 3000er Generation die effektiv 1440p in 60fps berechnet und dann auf 1800p oder 4k hochrechnet. In dem Bereich würde ich schätzen dass für die meisten Spieler dann die goldene Zone aus viel Bildschärge und vielen Frames zu finden ist.

Nvidia schafft somit einen Vorteil gegenüber AMD, indem die Tensor Cores gemessen an ihrer Fläche mehr zur fps Leistung beitragen, als hätte man weitere CudaCores daraus gemacht.

Der traditionelle Benchmark wird vielleicht wirklich AMD vorne sehen. Ich kann mir aber vorstellen, dass der PR Druck von Nvidia sehr hoch sein wird Vergleiche zu AMD immer nur mit DLSS=on zu ziehen und die Spieler mit Videos zu bewerfen in denen man keinen Unterschied sieht. Was etwas bedenklich ist, da die Videokomprimierung den Unterschied auch mit wegfrisst. In Artikeln werden wir uns an Bilder mit einem Slider gewöhnen müssen und die Verlage an die Tatsache, dass wegen der vorzugsweise verlustfrei komprimierten Bilder die Größe der Artikel explodiert.
 
Wenn DLSS funktioniert, wird AMD kaum eine Chance haben das mit frontaler Rechenleistung aufzuholen. Dann kann man DLSS zwar abschalten und einen neutralen Test machen bei dem AMD leicht vorne ist, aber was spielt das für eine Rolle wenn DLSS in den Augen der Kunden funktioniert und Nvidia damit wieder weit vorne ist?

Die Sache ist, dass DLSS 1.0 halt nicht funktioniert hat. Die neue Version 3.0 die angeblich automatisch mit jedem Spiel funktioniert darf also kritisch betrachtet werden. Version 2.0 stimmt einen ja verhalten zuversichtlich,

Denn sollte DLSS funktionieren dann wird sich schon die Frage stellen, ob Berechnungen in Nativ 4k Sinn machen. Ich sage selbst immer, dass man bei 28 Zoll jenseits von 1440p eigentlich keinen Unterschied sieht sofern die Action auf dem Schirm beginnt. Das gibt uns dann eine Nvidia 3000er Generation die effektiv 1440p in 60fps berechnet und dann auf 1800p oder 4k hochrechnet. In dem Bereich würde ich schätzen dass für die meisten Spieler dann die goldene Zone aus viel Bildschärge und vielen Frames zu finden ist.

Nvidia schafft somit einen Vorteil gegenüber AMD, indem die Tensor Cores gemessen an ihrer Fläche mehr zur fps Leistung beitragen, als hätte man weitere CudaCores daraus gemacht.

Der traditionelle Benchmark wird vielleicht wirklich AMD vorne sehen. Ich kann mir aber vorstellen, dass der PR Druck von Nvidia sehr hoch sein wird Vergleiche zu AMD immer nur mit DLSS=on zu ziehen und die Spieler mit Videos zu bewerfen in denen man keinen Unterschied sieht. Was etwas bedenklich ist, da die Videokomprimierung den Unterschied auch mit wegfrisst. In Artikeln werden wir uns an Bilder mit einem Slider gewöhnen müssen und die Verlage an die Tatsache, dass wegen der vorzugsweise verlustfrei komprimierten Bilder die Größe der Artikel explodiert.

Ich muss ehrlich sagen, dass ich aktuell weder von DLSS noch von Raytracing viel halte. vlielleicht ändert sich das ja durch die kommenden Generationen, aber aktuell wirkt es so als ob Nividia einfach die Features aus dem Profibereich in den Consumerbereich bringen will, damit man die Forschungsgelder besser wieder einholen kann. Eine RTX 2060(super) ist zB ein schlechter scherz. Man bezahlt extra, dass man Raytracing nutzen kann, dabei schafft die Karte dann 1080p @60Hz nur wenn man sämtliche Details runterstellt. Bei Titeln die in zwei Jahren erscheinen, kann man dann Raytracing wohl gar nicht mehr nutzen. DLSS funktioniert meiner Meinung nach auch noch nicht so richtig. So bezahlt man als Kunde jede Menge Chipfäche, die man fast nie nutzt. Fair wäre es von Nvidia gewesen, wenn es zu allen RTX-Karten eine GTX-Version ohne Tensor/Raytracingkerne gegen hätte. Nur hätten sich dann wohl die meisten die zusätlichen Kerne gespart.
 
Ich denke, im August wird Nvidia und Mr. Lederjacke mit Infos zur Gaming-Ware herausrücken, also werde ich mich weiterhin in Geduld üben - üben müssen. Das vorgestellte Teil sagt weniger über Gaming aus als sein Vorgänger-Teil. Noch hab ich aber RDNA2 nicht aufgegeben. Noch ist das alles ziemlich spannend...
RDNA 2 wird aber wahrscheinlich ein sehr harter Gegner, also die PS 5 Variante dürfte die 2080 schlagen, wenn der Sprung von RDNA 1 auf 2 so weitergeht wie von CGN 5 auf RDNA 1!
 
Rechenleistung.....die wird eh immer besser! Die Vergangenheit hat gezeigt, das selbst Rechenmonster in den Boden gestampft wurden weil der verbaute Speicher zu wenig war oder der Speicherdurchsatz zu gering. Da sollte man erstmal dran arbeiten. PS5 ist zur Zeit besser als jeder Gaming PC weil die das Problem endlich besiegt haben!
 
War jetzte eher so lala die Vorstellung. Naja, wir müssen uns wohl noch einige Zeit gedulden auf das fertige Produkt für Gamer. Man kann aber dieses mal getrost warten was AMD davor/danach macht. Jedenfalls muss die alte 1080 endlich weg hier... . Trotzdem würde ich noch nicht von Gewinnern oder Verlierern reden, wie die Fanlager es zu gerne tun. Das werden wohl erst die Benchmarks zeigen wer die Nase vorn hat. Vor allem auch in Bezug auf RT. Wenn die neuen Tensorcores das DLSS 3.0 noch besser machen, wirds halt auch ein noch besseres Feature. Na mal abwarten. Erstmal hoffe ich das Ryzen 4000 irgendwann um die Ecke kommt.
 
Rechenleistung.....die wird eh immer besser! Die Vergangenheit hat gezeigt, das selbst Rechenmonster in den Boden gestampft wurden weil der verbaute Speicher zu wenig war oder der Speicherdurchsatz zu gering. Da sollte man erstmal dran arbeiten. PS5 ist zur Zeit besser als jeder Gaming PC weil die das Problem endlich besiegt haben!
Alles was versprochen wird ist gutes Marketing.

Nicht mal eine Rtx2080ti schafft 4k mit 120fps.

Wie soll da eine Ps5 oder xbox das schaffen?

Genau garnicht.

Dazu kommt noch das schneller Speicher als m.2 Nvme nur was in ladezeiten bringt und das auch nur wenig.

Seit heutigem stand werden die Konsolen nicht mal dauerhaft 4k mit 60fps erreichen werden in AAA Titeln.

Also nichts mit dem zu Anfang versprochenem PC Killer usw.

Die Konsolen werden wohl gut werden aber nicht so gut wie Anfangs versprochen.

Die Hersteller rudern immer Stück für Stück nach unten.

Gesendet von meinem D6603 mit Tapatalk
 
Ich muss ehrlich sagen, dass ich aktuell weder von DLSS noch von Raytracing viel halte. vlielleicht ändert sich das ja durch die kommenden Generationen, aber aktuell wirkt es so als ob Nividia einfach die Features aus dem Profibereich in den Consumerbereich bringen will, damit man die Forschungsgelder besser wieder einholen kann. Eine RTX 2060(super) ist zB ein schlechter scherz. Man bezahlt extra, dass man Raytracing nutzen kann, dabei schafft die Karte dann 1080p @60Hz nur wenn man sämtliche Details runterstellt. Bei Titeln die in zwei Jahren erscheinen, kann man dann Raytracing wohl gar nicht mehr nutzen. DLSS funktioniert meiner Meinung nach auch noch nicht so richtig. So bezahlt man als Kunde jede Menge Chipfäche, die man fast nie nutzt. Fair wäre es von Nvidia gewesen, wenn es zu allen RTX-Karten eine GTX-Version ohne Tensor/Raytracingkerne gegen hätte. Nur hätten sich dann wohl die meisten die zusätlichen Kerne gespart.

DLSS 2.0 funktioniert großartig, was redest du? Teils bessere Qualität als nativ. Und RT ist auch super. Du vergleichst Technologien mit Produkten. Äpfel und Birnen
 
Ich hoffe Nvidia steckt in die Entwicklung der Gaming-Chips auch noch genug Aufmerksamkeit und nimmt nicht nur den Abfall vom Profi-Segment um daraus dann die Chips für Gaming zu basteln.
 
Ich muss ehrlich sagen, dass ich aktuell weder von DLSS noch von Raytracing viel halte. vlielleicht ändert sich das ja durch die kommenden Generationen, aber aktuell wirkt es so als ob Nividia einfach die Features aus dem Profibereich in den Consumerbereich bringen will, damit man die Forschungsgelder besser wieder einholen kann. Eine RTX 2060(super) ist zB ein schlechter scherz. Man bezahlt extra, dass man Raytracing nutzen kann, dabei schafft die Karte dann 1080p @60Hz nur wenn man sämtliche Details runterstellt. Bei Titeln die in zwei Jahren erscheinen, kann man dann Raytracing wohl gar nicht mehr nutzen. DLSS funktioniert meiner Meinung nach auch noch nicht so richtig. So bezahlt man als Kunde jede Menge Chipfäche, die man fast nie nutzt. Fair wäre es von Nvidia gewesen, wenn es zu allen RTX-Karten eine GTX-Version ohne Tensor/Raytracingkerne gegen hätte. Nur hätten sich dann wohl die meisten die zusätlichen Kerne gespart.

Nvidia hat sich damit auch nicht wirklich einen Gefallen getan Schmierfilm DLSS und RT in eine 60er Karte einzubauen und dafür den Preis um 100€ anzuheben. Das hätte nur funktioniert, wenn die Karte geliefert hätte. Stattdessen kam eine ganze Flut von 1660, 1660Ti, 1660Super, 2060, 2060Super und hat das Preis/Leistungsgefüge so total verzerrt, dass selbst AMD mit konstanter 590 Leistung zum gleichen Preis gut dasteht, sofern man nur ein 5500XT Schild ranpappt. Zwischen der rx580 und der 5500XT liegen sogar drei Jahre, ohne dass zwischen den Karten ein nennenswerter Unterschied bei Preis oder Leistung liegen würden. Wer im 200€ Segment nach drei Jahren seine Karte austauscht tritt also auf der Stelle.

Glücklich wer im Abverkauf eine 1070 oder Vega56 für ~240€ mitgenommen hat, denn alle anderen Karten im Segment 200€ -350€ sind Vollver@rshe für die sich beide Hersteller in den Boden schämen sollten und einfach nur kein Review die Eier hat das so zu sagen. Hätte DLSS gleich geklappt, wäre Nvidia zumindest mit der 2060 dieser Totalstagnation entkommen. Aber indem es weder Raytracing noch DLSS Spiele gab die jeder haben musste, war es halt damit vorbei.

Wer drei Jahre pennt, der muss sich nicht wundern, wenn die Konsolen aufholen. Microsoft oder Sony braucht man nicht seinen drei Jahre alten Mist andrehen, die werfen einen hochkant raus. Da müssen wir uns nicht hinstellen und sagen "omg, so viel Leistung für so wenig Geld". Das ist ganz einfach "omg, warum lässt man AMD und Nvidia auch damit durchkommen, wenn sie auf der Stelle treten"?
 
Puh.. 20 deaktivierte SMs deuten auf eine aktuell unterirdische Ausbeute hin.
Wir kennen von alten Chips ja schon, dass selbst im HPC Bereich ein paar SMs deaktiviert sind.
Allerdings ist das jetzt eine andere Hausnummer.

Ich bin gespannt, wann eine neue Ampere HPC "Karte" erscheint, bei der dann weniger SMs deaktiviert sind.

Wenn man die aktiven Rechenkerene und TMUs ansieht, ist die Steigerung von Volta auf Ampere nicht so groß.
Die Zahl der Tensorkerne sinkt sogar um 208.
Selbst der Takt fällt bei Ampere um 120Mhz niedriger aus.
Dafür steigt die TDP um 100W.
Das deutet nicht unbedingt auf eine große Effizienzsteigerung hin.

Man sollte sich nicht so sehr von den 54 Mrd transistoren blenden lassen. Durch die 20 deaktivierten SMs liegen beinah 16% der Transistoren brach - und das wenn man etwas optimistisch schätzt und nur die reinen SMs zählt. Da kommen dann noch ein paar Transistoren für Cache und anderen uncore dazu, die nicht gebraucht werden.

Die Packdichte ist deutlich gestiegen.. dafür sind aber auch (mal grob über den Daumen gepeilt und vielleicht ein wenig Marge drin) ca. 20% es Chips unbrauchbar.


Edit:
DLSS 2.0 funktioniert großartig, was redest du? Teils bessere Qualität als nativ. Und RT ist auch super. Du vergleichst Technologien mit Produkten. Äpfel und Birnen

Die Techniken funktionieren ganz gut.
Leider gibt es nur eine vernachlässigbare Anzahl an Spielen, die beides, oder auch nur eines davon bieten.
Daher ist es aktuell eher Marketing, als alles andere.
Bis beides dann flächendeckend funktioniert, sind die Turing Karten leider vollkommen veraltet.
Eventuell auch die Ampere und RDNA2 Karten.
Bleibt abzuwarten

Müsste die PS5 nicht erstmal zu kaufen sein, bevor sie besser sein kann? :lol:

Das stimmt.
Allerdings kann man jetzt schon sehr genau sagen, dass kein PC zum gleichen Preis auch nur annähernd an die Leistung der neuen Konsolengeneration heran kommen wird.
Wenn die GPU der PS5 an eine 2070 Super (bzw. 2080) heran kommt, wird die Grafikkarte allein schon den Preis der kompletten Konsole ausmachen.
CPU, Mainboard, SSD, RAM, Netzteil, Gehäuse... zusammen werden die Komponenten sicher nochmal den Preis der Konsole erreichen.

Also Next Gen Konsolen Leistung zum doppelten Preis.
Das hatten wir auch schon lange nicht mehr... wenn überhaupt.
 
Zuletzt bearbeitet:
Zurück