Nvidia A100 (Ampere): Die technischen Daten des Next-Gen-Rechenmonsters

hoffentlich enttäuscht die neue Gen nicht so wie Turing.

Naja ... sie hatten ja jetzt genug Zeit mit Turing alles zu testen, so "Beta-mäßig".
Schätze mal, dass es deswegen dann auch sowas wie DLSS 2.0 geben wird.

Hoffe bei RT(Power) haben sie auch derbe zugelegt.
Raytracing soll ja ab 2021 dann auch richtig durchstarten, inkl. AMD+Konsolen.
 
Wäre auch mal interessant, in wie weit das DLSS zusätzliche Zeit benötigt, oder ob das wirklich parallel berechnet werden kann, zu dem normalen Kram, bis ein bild "fertig" ist.
Stichwort wäre da glaube ich auch "Inputlag" !?
Keine Ahnung. :ka:

Is ja noch Zeit, bis die Gaming-Karten kommen.
Dann wird es sicherlich ausgiebige Erklärungen/Tests dazu geben, wie jetzt das DLSS 2.0 geworden ist.
Man braucht das fertig berechnete Frame als Eingang.
Also im Endeffekt gibt es zwei Umsetzungsmöglichkeiten:
1) Berechnung direkt nach dem fertigstellen des Frames -> Gesamtrechenzeit steigt, weniger FPS aber kein extra Input-Lag darüber hinaus.
2)Berechnung Parallel zum Folgeframe, Gesamtrechenzeit bleibt unangetastet, aber Ausgabe ist etwas später als die FPS suggerieren.

Sinnvoll wäre 2 da der Gesamtlag damit nicht größer wird als bei 1 aber gleichzeitig die FPS steigen. Ob DLSS 2.0 aber tatsächlich so spezifisch nur die Tensorkerne braucht dass das funktioniert wäre interessant zu wissen. Wäre das der Fall dürfte DLSS eigentlich garkeine FPS kosten.
 
Also Option 1 fände ich ganz schlimm. Nein nein. :nene: ;)

Option 2 ... hm ... :hmm: "Ausgabe später als die fps suggerieren" ? Hört sich für mich auch jetzt nicht so dolle an. :ka:

"Gar keine fps kosten" ... das hört sich gut an. :nicken: :daumen:

Bin mal gespannt.
 
Bisher klingt das für mich so als ob sich die Gerüchte bewahrheiten würden. Die reine Shaderleistung wird vergleichsweise nur gering ansteigen, dafür wird die RT-Leistung beim Gamingableger (mit entsprechendem Platz auf dem Chip) massiv zulegen. Fände ich dann eher enttäuschend. Nunja, abwarten und Tee trinken.
 
Weil auch zu Zeiten von DX9 auf DX10 ein großer DX9-Chip in DX9-Spielen schneller gewesen wäre.

Sah dann 1-2 Jahre später anders aus bei neueren Spielen. Das Gleiche gilt hier auch.
Nicht wirklich. Die X1900XT(X) hat in allem was einen DX9 Renderpfad hatte, also jedes Spiel bis alle Karten mit einer solchen Rohleistung am Ende waren, immer ordentlich abgeliefert.
Die 8800GTX war halt ein Monster aber das lag nicht an DX10
 
Zuletzt bearbeitet:
Bisher klingt das für mich so als ob sich die Gerüchte bewahrheiten würden. Die reine Shaderleistung wird vergleichsweise nur gering ansteigen, dafür wird die RT-Leistung beim Gamingableger (mit entsprechendem Platz auf dem Chip) massiv zulegen. Fände ich dann eher enttäuschend. Nunja, abwarten und Tee trinken.

Wie kommst Du zu diesem Schluss?
Schau Dir mal die Anzahl der verbauten Shader an, und stell Dir vor diese würden in Gamingableger entsprechend getaktet (2,2 bis angeblich 2,5 Ghz) werden.
Das wäre ein Riesenplus im Vergleich zu Turing.
 
Naja harren wir mal der Dinge, wenn NV HBM bietet wäre das endlich mal wieder ne Option für mich.

hbm wird auf absehbare zeit dem profimarkt vorbehalten sein, für consumer ist das einfach zu teuer, wie amd schmerzlich ferststellen musste, die schwenken nicht umsonst wieder um ;).

Stimmt, da hat man die RT-Einheiten kurzerhand entfernt. :D:D:D

weil man die im hpc bereich nicht braucht, genau deswegen fehlen die ;).
 
Zuletzt bearbeitet von einem Moderator:
Raytracing und Tensorcores sind unterschiedliche Einheiten, haben nichts miteinander zu tun.

Der A100 hat nicht mal RT-Cores, weil es ein reiner HPC-Chip ohne Grafikfeatures ist.


Weil auch zu Zeiten von DX9 auf DX10 ein großer DX9-Chip in DX9-Spielen schneller gewesen wäre.

Sah dann 1-2 Jahre später anders aus bei neueren Spielen. Das Gleiche gilt hier auch.


Die Frage ist, warum man sich heute noch eine DX12-Karte kaufen sollte und keine DX12U-kompatible - wie eben Turing & Nachfolger.

Ich hätte halt gerne eine Grafikkarte die JETZT liefert, nicht in der Zukunft. Da lebe ich dann doch zu sehr in der Gegenwart.

(Dazu kommt noch, dass alle Spiele, die ich besitze und für die ich Mehrleistung benötige, KEIN RTX gebrauchen.)
 
Ampere ist ja schön und gut, aber er ist der Nachfolger von Volta nicht von Turing und soll gegen Xe und Arcturus antretten. Daher denke ich immer noch, dass die RTX 3000 Karten ehr auf Hopper hören werden, passt auch deutlich besser zu Turning, und mit RT Cores und wahrscheinlich als (monolithischer?) TSMC N7P Chip (Zumindest die Topmodelle...), wenns Q3/Q4/20 noch werden sollte, aber naja. (N5 wäre auch mit MCM imho noch zu früh)

Btw. Schnucklige VRM. Die goldenen Packages sind die Spulen oder wie?
 
Zuletzt bearbeitet:
Ampere ist ja schön und gut, aber er ist der Nachfolger von Volta nicht von Turing und soll gegen Xe und Arcturus antretten. Daher denke ich immer noch, dass die RTX 3000 Karten ehr auf Hopper hören werden, passt auch deutlich besser zu Turning, und mit RT Cores und wahrscheinlich als (monolithischer?) TSMC N7P Chip (Zumindest die Topmodelle...), wenns Q3/Q4/20 noch werden sollte, aber naja. (N5 wäre auch mit MCM imho noch zu früh)

Btw. Schnucklige VRM. Die goldenen Packages sind die Spulen oder wie?

Es wurde doch schon längst bestätigt, dass die Namensaufteilung passé ist und die Gamingkarten ebenso auf Ampere hören werden.
 
Leider braucht auch DLSS 2.0 eine Implementierung durch die Spielehersteller.
Erst das gerüchteweise existierende DLSS 3.0 wird zumindest alle Spiele mit TAA Implementierung unterstützen.
Das sind allerdings auch nicht alle.
Daher ist die Lebensverlängerung eher begrenzt.

Weshalb ich in ungefähr nun 100x schon von einer offenen Alternative schrieb... es geht um die Idee/Technologie

Das wäre doch toll, eine (High-End-)Karte ohne RTX-Gedöns, dafür mit ordentlicher "normaler" Mehrleistung! Ich würde sie sofort kaufen. Wird ja auch langsam mal Zeit...

RTX ist Stand heute einfach noch zu unnötig und zu wenig ausgereift, als dass es sich als Spieler lohnen würde, dafür extra Geld hinzublättern. Vielleicht in fünf Jahren, wenn alles vernünftig läuft und keinen "Early Adopter"-Aufschlag mehr kostet.

Man wird ja noch träumen dürfen!

Ohne Early Adopter keine neue Technologie.
Henne Ei und so
Leider fehlt ein Fallback/Kniff, um Turing dazu zu zwingen, die RT-Cores stillzulegen und das BvH-Traversal Pascal-ish auf den ALUs zu machen. Gäbe es das, könnte man klar sagen, was die RT-Kerne bringen. Ich schätze aber, dass Ampere das, wie Volta, in den meisten Fällen "nebenbei" erledigen kann, denn Rechenwerke hat er ja genug.

MfG
Raff

Leider lässt mich mein Gedächtnis immer lfter im Stich, denn ich hab schon mal halbwegs brauchbare Benchmarks gesehen von wegen mit und ohne RT Cores und würde sie dir gerne verlinken... vielleicht hilft ein weiteres Bier und sonst morgen ein Kaffee;)
 
Zuletzt bearbeitet:
Ampere ist ja schön und gut, aber er ist der Nachfolger von Volta nicht von Turing und soll gegen Xe und Arcturus antretten. Daher denke ich immer noch, dass die RTX 3000 Karten ehr auf Hopper hören werden [...]

Solche Theorien werden nich valider, wenn man sie nur oft genug wiederholt. ;-)
Hopper sind 5 nm, voraussichtlich als MCM und in 2021+.
Abseits dessen ist derartiges zudem hinfällig, da J.Huang vor der Keynote bestätigt hat, dass sämtliche GPUs dieses Jahr der Ampere-Architektur zuzurechnen sind. Einzig die Zusammenstellung der Funktionseinheiten wird signifikant variieren und dass der GA100 ein Datacenter-Design bzw. Volta-Nachfolger werden würde, war mit der Historie GP100, GV100 schon absehbar.
 
hoffentlich enttäuscht die neue Gen nicht so wie Turing.
Turing:
Hat 2018 die absolut konkurrenzlosen Pascal Chips nochmal übertroffen und war trotz altem Prozess effizienter als die später erscheinende 7nm Konkurrenz. Hat nebenbei 2 Technologien eingeführt, die im kommenden Jahrzehnt die entscheidenden für Grafikverbesserungen sein werden.
Was war an Turing enttäuschend? Der Performancesprung? Der war doch vorher klar, schließlich im gleichen Prozess wie der Hausinterne Vorgänger.
Schwach fand ich halt Preisgestaltung und RAM Bestückung, aber so ist das halt, wenn man keine Konkurrenz hat
 
Zuletzt bearbeitet:
Die Performance war doch enttäuschend zur Vorgänger Gen, eine 2080 war kaum schneller als das vorherige Spitzenmodell und bot noch dazu weniger Speicher zu einem höheren Preis.Die Mehrleistung gegenüber der vorherigen Gen musste man sich wenn man es denn wollte teuer erkaufen. Besitzer einer 1080/Ti fanden doch überhaupt keinen Anlass aufzurüsten.
Wen jucken denn Effizienzverbesserungen im % Bereich dann noch wenn es kaum/keinen Mehrwert gibt? Das einzig wirklich erfolgreiche Modell war die 2070 die aber auch nür für Besitzer älterer Karten interessant war, die 2060 war eine totaler Reinfall mit Ihren 6Gb. Nvidia selbst hat sich doch vor den Aktionären enttäuscht gezeigt darüber wie die neue Gen aufgenommen wurde.

Ich sehe jetzt keinen Erfolg darin überhaupt etwas zu den Vorgängern verbessert zu haben.
 
Die Performance war doch enttäuschend zur Vorgänger Gen

Wenn man realistische Erwartungen gehabt hat, dann war dies keineswegs der Fall. Wir haben von 28nm Maxwell auf 16nm einen großen Sprung gemacht, da TSMC entgegen ursprünglicher Planung keinen 20nm Prozess für high powered Chips wie GPUs auf die Kette bekommen hat. Es war unsinnig, wenn man einen ähnlichen Sprung von 16nm Pascal auf 12nm (= 16nm+) Turing erwartet hat. Wer da enttäuscht war, muss sich fragen, ob er wirklich enttäuscht war/ist oder dies einfach nur vorspielt, um anti-nVidia stänkern zu können.

Besitzer einer 1080/Ti fanden doch überhaupt keinen Anlass aufzurüsten.

Für mich waren die +35% im Schnitt (im Einzelfall ja auch deutlich drüber) absolut Grund genug. Dazu die Möglichkeit, schon mal in die neuesten Features wie RT und DLSS reinzuschnuppern. Übrigens gab es auch schon gute RT + DLSS "1.0" Implementierungen wie z.B. in Shadow of the Tomb Raider. Das möchte ich keinesfalls missen. Und seit Aufrüstung auf einen 43" 4K@144Hz Glotzomat vor einigen Wochen kann es nicht mehr schnell genug gehen mit der 3080Ti. Her damit! :)
 
Turing:
Hat 2018 die absolut konkurrenzlosen Pascal Chips nochmal übertroffen und war trotz altem Prozess effizienter als die später erscheinende 7nm Konkurrenz. Hat nebenbei 2 Technologien eingeführt, die im kommenden Jahrzehnt die entscheidenden für Grafikverbesserungen sein werden.
Was war an Turing enttäuschend? Der Performancesprung? Der war doch vorher klar, schließlich im gleichen Prozess wie der Hausinterne Vorgänger.
Schwach fand ich halt Preisgestaltung und RAM Bestückung, aber so ist das halt, wenn man keine Konkurrenz hat

naja, selektive Wahrnehmung, ich spiele Battlefield, nur da brauch ich möglichst viele Frames, für Singleplayer ist es eher sekündär... und in BF ist meine RX 5700xt für 410€ so schnell wie ne nvidia 2800 für ??? Gepaart mit meinem Ryzen 7 3700x quasi unschlagbar. tja, alles immer Ansichtssache.
PS: war im Bezug auf... keine Konkurrenz :D
 
Für mich waren die +35% im Schnitt (im Einzelfall ja auch deutlich drüber)
Gut hat ja auch nur nen Schlappen 1000er+ gekostet. Eine wahre Erfolgsgeschichte :schief:
Pascal war ein Erfolg, Maxwell ebenfalls. Turing wohl eher nicht. Viele haben die Gen ausgelassen aus genannten Gründen. Seit Jahren stagnieren wir schon in der Leistung. Ich kann auch ehrlich gesagt nicht verstehen warum die Navis so erfolgreich sind in den Verkaufszahlen, die bieten auch kaum Mehrwert für Aufrüster einer Vega/Pascal.
ob er wirklich enttäuscht war/ist oder dies einfach nur vorspielt, um anti-nVidia stänkern zu können.
Wozu soll ich was vorspielen, ich hatte ja keine Erwartungshaltung dazu also konnte ich nicht enttäuscht werden. Vielen wäre selbst heute einer 1080ti in neu lieber als ne 2080.
 
Zurück