Nvidia Ampere: GA100-GPU angeblich mit 8.192 Shadern und bis zu 48 GiByte HBM2e

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia Ampere: GA100-GPU angeblich mit 8.192 Shadern und bis zu 48 GiByte HBM2e

Neue Spezifikationen zu einer der kommenden Ampere-GPUs von Nvidia machen die Runde. In einem Forum sind Eckdaten zur GA100-GPU aufgetaucht. Die soll mit 8.192 Shader-Einheiten aufwarten.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Nvidia Ampere: GA100-GPU angeblich mit 8.192 Shadern und bis zu 48 GiByte HBM2e
 
Zwei davon und man kann witcher 3 in 60 fps in nativer 8k Auflösung mit mods spielen :) 400h Spielspaß für 5200€ sli/nvilink gespann ....hmm I am still sold :D
 
48 Megabytes an Cache, Volta alias Titan V hatte nur 6MB, klingt sympathisch.

7936SP @ 2,2 GHz wären schon 34,9 TF/s FP32 , sollte es den Vollausbau geben, dann könnte man die 36 TF in manchen Szenarien knacken.
Absurde Taktraten für diese Menge an Transistoren, aber ist ja nicht so als wüßten einige die in der Branche arbeiten nicht bereits schon bescheid wie hoch die Hopper Gaming GPUs takten werden. ;)
 
48 Megabytes an Cache, Volta alias Titan V hatte nur 6MB, klingt sympathisch.

7936SP @ 2,2 GHz wären schon 34,9 TF/s FP32 , sollte es den Vollausbau geben, dann könnte man die 36 TF in manchen Szenarien knacken.
Absurde Taktraten für diese Menge an Transistoren, aber ist ja nicht so als wüßten einige die in der Branche arbeiten nicht bereits schon bescheid wie hoch die Hopper Gaming GPUs takten werden. ;)

Na aber hallo, dass ist mal ne Monsterkarte.

Denke auch Hopper wird da später im Jahr auch in neue Taktsphären abheben.
Klingt sehr gut für ne Serverkarte :daumen:
 
Schon mal nix mit der angekündigten Senkung der Ampere Leistungsaufnahme ,bei High End eh nicht relevant.Massive Grafikspeicher Aufstockung macht sinn wohin mit all den 4 K auflösenden Texturen in kommenden Open World Games ? Eine Welt für sich, vielleicht auch besser nur gestreamt , die pure netto Spielstd lohnt sich für immer weniger übersättigte Konsumenten und ihre" Konsolenkinder".
 
Das Ding ist der Volta GV100 Nachfolger und dieser Chip wird bestenfalls in Form einer Titan Ampere zu entsprechenden Preisen für Prosumer als auch gamingtaugliche Grafikkarte verfügbar sein. Das ist eigentlich ein HPC Chip.

Aber was hier wieder für Erwartungen herumgeistern, zu anderen Amperechips gibt es sonst keinerlei Leaks, also dauert es noch länger bis es neue Consumer Grafikkarten gibt und es gibt auch keine Hinweise dass die auf Ampere basieren werden. Viel logischer wenn die schon die Nachfolgearchitektur Hopper bekommen, passt auch von den Namengebungen besser. Wird dann aber noch mindestens bis Jahresende dauern.

Also demnächst kommt der dicke HPC Ampere und vielleicht eine Titan. Möglich wäre auch noch eine 2080Ti Super, die hat Nvidia sicher in der Schublade aber mangels Konkurrenz keinen Grund die zu bringen. Sonst kommt in den nächsten Monaten nichts, da hätte schon was durchsickern müssen
 
Ich kann mir nicht Vorstellen das HBM2 in naher Zukunft auf Mainstreamkarten zu finden sein wird, geringe Verfügbarkeit und Preis schließen das eigendlich schon aus.
 
Ich kann mir nicht Vorstellen das HBM2 in naher Zukunft auf Mainstreamkarten zu finden sein wird, geringe Verfügbarkeit und Preis schließen das eigendlich schon aus.

Das haben die Leute vor dem VEGA-Release bei HBM1 auch schon gesagt.

Der Preis von HBM mag eine Rolle spielen bei 350€-GPUs bzw im Mainstream aber bei High End Karten die sowieso vierstellig kosten heutzutage spielen 100€ mehr oder weniger ob HBM oder GDDR dann auch keine Rolle mehr.

Dennoch - die Leaks hier von Chips mit 8000 Shadern sehe ich auch im Serverbereich und (noch) nicht im Gamingkartensegment.
 
Ich kann mir nicht Vorstellen das HBM2 in naher Zukunft auf Mainstreamkarten zu finden sein wird, geringe Verfügbarkeit und Preis schließen das eigendlich schon aus.

Es deutet ja nichts darauf hin dass die normalen Gaming Grafikkarten HBM2 bekommen. Hier geht es nur um einen großen Chip mit 8000 Shadern wie Alki schreibt, das ist keine 3080Ti oder sowas sondern bestenfalls ein Titan als Ableger für Prosumer aus dem HPC Segment.

Ich gehe davon aus die Turing Nachfolger werden einfach GDDR6 bekommen.

Schade aber ich fürchte HBM wird in Zukunft weder bei AMD noch Nvidia mehr eine Rolle bei Gamingkarten spielen.
 
Also 24 GB VRAM für eine Gamerkarte kann ich gerade noch so glauben. Aber 48? Das klingt eher nach einer Karte für den professionellen Bereich.
 
Das haben die Leute vor dem VEGA-Release bei HBM1 auch schon gesagt.

Der Preis von HBM mag eine Rolle spielen bei 350€-GPUs bzw im Mainstream aber bei High End Karten die sowieso vierstellig kosten heutzutage spielen 100€ mehr oder weniger ob HBM oder GDDR dann auch keine Rolle mehr.

Dennoch - die Leaks hier von Chips mit 8000 Shadern sehe ich auch im Serverbereich und (noch) nicht im Gamingkartensegment.

per treiber wird das eh "unterbunden" bzw. games profitieren gar nicht davon großartig. gcn war ja ein paradebeispiel das tflops/fp32/16 etc. im gaming wenig ansatz haben. ich hab geschwärmt bei der leistung aber im endeffekt blieb alles beim gaming im ungewissen. da moppelt man sich doch alle 2 jahre ne midrange karte und hat mehr von.:ugly:
 
Also 24 GB VRAM für eine Gamerkarte kann ich gerade noch so glauben. Aber 48? Das klingt eher nach einer Karte für den professionellen Bereich.

Warum sollte es sich hier überhaupt um eine Gamerkarte handeln?

Steht doch nirgendwo etwas davon, dass die hier beschriebenen Eckdaten die einer neuen NVidia Gamer-Grafikkarte sind.

Abgesehen davon halte selbst ich 48GB dedizierten Videospeicher auf dem Grafikkarten-PCB für unwahrscheinlich im (aktuellen) Gamingbereich. Dafür ist eine 2080Ti mit "wow" ganzen 11GB aktuell schon viel zu teuer. Naja.. wenn ich so darüber nachdenke, was eine Karte, deren GPU-Power die 48GB sinnvoll verwerten kann kosten würde ...
Aber ich lasse mich natürlich auch gerne Lügen strafen :hail:
 
Zurück