Nvidia Ampere: GA100 für Workstations in Datenbank - Statt RTX-3000-Serie in Keynote?

bisher dachte ich 2070S reicht um die zeit zu überbrücken... GTA5, WAR THUNDER, check. doch dann kam SNOWRUNNER. :(
 
Das keiner die neuesten gerüchte kennt?


nvidia leaks

zuerst tensor cores werden verdoppelt
dann rt performance soll bis zu 4 mal schneller sein wie ist offen
dlss3 kommt und soll mit allen games ohne anpassung die taa verwenden laufen.
gforce now wird mit geforce expierience zusamnenglegt
Keine Anmeldung mehr nötig
Und jetzt kommts
Die tensor cores sollen für eine Verlustlose Texturkompression verwendet werden

hardware specs
ga100 mit hbm2 tsmc 7nm euv 8192shader tesla quadro 6144bit
ga101 auch hbm2 hab nicht beachtet vermutlich quadro 3072 bit 7536 shader

Confirmd geforce
ga 102 samsung 8nm 5328 shader vermutlich 12gb vram 384bit rtx3080ti bzw titan
ga103 3840 shader vermutlich rtx3080 10gb vram 320bit
ga104 3072 shader vermutlich rtx3070 8gb 256bit
ga106 1920 shader rtx3060 6gb vram 192bit ~rtx2070s Leistung
ga107 1280 shader vermutlich rtx3050 128bit 4gb ~rtx2060 Leistung
alle gpu haben gddr6 16gbs ab ga102

Alle gpu unterstützen dxr
So und nun zum Knaller
Die ipc soll angeblich um 10-20% steigern
L2 cache wird verdoppelt
Es soll eine art nvidia ssd cache geben wie einst vega bei amd

zu den Preisen gibs keine infos aber man muss davon ausgehen das die preise unter 400€ beim ga106 ist also wieder weniger als 8gb vram
rtx3060 6gb 192bit 1920shader theoretische Leistung etwa rtx2070s
ich tippe auf einen Preislage bei etwa 350€
Die rtx3070 wird sicherlich bei etwa 450€ festgelegt
die rtx3080 auf 1000€ das hängt aber sehr stark davon ab wie viel amd für big navi verlangt. wenn gut dann 800€ wenn schlecht die 1000€
Die rtx3080ti kommt später
Die rtx3080 wird vermutlich etwa titan rtx um die 10% dahinter sein
Im video ist man optimistische und setzt den ga104 als rtx3060 an das bezweifle ich

edit hab die Vorstellung vergessen hpc mai gamers september

video
YouTube
 
Zuletzt bearbeitet:
Na da kann ich ja am Jahresende evtl. mal die 1080ti in Rente schicken. Gespart hab ich ja seit Kauf genug.
Ein Kartenwechsel stand eh für dieses Jahr auf den Plan. :cool:
Vielleicht noch mein Boardsockel mit der Max CPU bestücken und schick ist erstmal.
 
War ja klar. War ja die letzten Jahre nicht anders. RTX ist nur der Abfall der von den professionellen Karten übrig bleibt. :ugly:

greetz
hrIntelNvidia
 
die Daten hören sich schon mal gut an, 4 fache RT-Leistung ist genau das, was ich mir gewünscht habe

Diese Gerüchte sind absoluter Schwachsinn, leider. Bei Turing sind nicht die RT-Cores der Bottleneck der RT-Performance, sondern die Shader Cores. Die RT Cores kümmern sich um die BVH intersection und traversal, aber das Endresultat muss trotzdem von den shader cores bearbeitet werden und das verursacht den hohen FPS-Drop. Du kannst also noch so viele verbesserte RT-Cores reinhauen, aber ohne eine signifikante Steigerung der CUDA-Cores wirst du nicht viel erreichen, deswegen ist es sehr unrealistisch anzunehmen, dass sich die RT Performance um den Faktor 4 steigern wird.

Trotzdem wird sich die RT-Performance steigern, eventuell sogar um das Doppelte. Das ist natürlich rein hardware-technisch und schließt die ganzen neuen Software-Tricks, die Turing logischerweise auch bekommen wird, nicht mit ein.

Diese Liste liest sich wie eine Wunschliste.
 
die Daten hören sich schon mal gut an, 4 fache RT-Leistung ist genau das, was ich mir gewünscht habe

Die RT Core Nummer ist zum Großteil Marketing, die Hauptarbeit machen die Shader.
Deswegen bricht es auch so übel ein, der größte Fortschritt dürfte also von den Shader kommen und nicht von RT Cores.

Es wird bestimmt nicht mehr so dramatisch einbrechen aber immer noch deutlich. Also große Hoffnungen sollte man sich da jetzt nicht machen,
das es ein riesen Unterschied sein wird.
Besser ja aber nicht so das man es einfach einschaltet und denkt läuft fast genauso. Eigentlich sollte man das von Angeblicher Beschleunigung erwarten
und nicht das sogar Upscaling brauchtst um überhaupt brauchbare Framerates zu bekommen.
 
Die RT Core Nummer ist zum Großteil Marketing, die Hauptarbeit machen die Shader.
Deswegen bricht es auch so übel ein, der größte Fortschritt dürfte also von den Shader kommen und nicht von RT Cores.
Marketing hin oder her, wird man aus diesem Grund alleine aber wohl kaum völlig überflüssige Hardware auf seinen Karten verbauen.

Wenn man die Anzahl der RT Cores erhöht, sollten die Shader wohl zumindest grob so dimensioniert sein, dass die damit auch zurecht kommen und eben keinen von vornehrein offenschtlichen Flaschenhals bilden. Würden - überspitzt formuliert - wegen eines solchen Flaschenhalses 100 RT Cores am Ende zur selben Performance wie 200 führen, würde man wohl von vorneherein nur 100 verbauen ...
 
Zuletzt bearbeitet:
Ich glaub, die 3080Ti kommt erst 2021-damit man den Preis mit der Jahreszahl synchronisieren kann!
Neckische Grüße Yojinbo
 
Das keiner die neuesten gerüchte kennt?
Gerüchte zu kennen bringt aber nichts, weil Gerüchte nun mal keine Fakten sind.

Genauso wie wesentliche Teile hiervon ...
Confirmd geforce
ga 102 samsung 8nm 5328 shader vermutlich 12gb vram 384bit rtx3080ti bzw titan
ga103 3840 shader vermutlich rtx3080 10gb vram 320bit
ga104 3072 shader vermutlich rtx3070 8gb 256bit
ga106 1920 shader rtx3060 6gb vram 192bit ~rtx2070s Leistung
ga107 1280 shader vermutlich rtx3050 128bit 4gb ~rtx2060 Leistung
alle gpu haben gddr6 16gbs ab ga102
... eben alles andere als "confirmed" sind, sondern pures, wildes Spekulieren.

Ich kann mir zum Beispiel kaum vorstellen, dass man 2017 mit einer 1080Ti und 11 GB Speicher daherkommt, dann 2019 mit einer 2070S mit identischer Rohleistung, aber nur noch 8 GB Speicher, und schließlich 2021 mit einer leistungsmäßig wiederum identischen 3060 und nur noch 6 GB Speicher. Macht wenig Sinn und irgendwann hat Speichergeiz selbst bei Nvidia seine Grenzen, zumal RT den Speicherbedarf während dieser vier Jahren noch zusätzlich erhöht hat ...

Die rtx3070 wird sicherlich bei etwa 450€ festgelegt
die rtx3080 auf 1000€ das hängt aber sehr stark davon ab wie viel amd für big navi verlangt. wenn gut dann 800€ wenn schlecht die 1000€
Never. So lange ich denken kann, war die 70er der Sprung von der Mittel- in die Oberklasse und daher leistungs- und preismäßig immer in relativer Nähe zur 80er angesiedelt. Eine 80er, deren Preis plötzlich mehr als 120%(!) über dem der 70er liegt, halte ich daher für komplett hanebüchen. Außerdem wäre man dann in der Preisklasse zwischen 450 und 1000 Euro mit genau gar keinem Produkt mehr vertreten, was so ganz sicher ebenfalls nicht passieren wird.

Prophezeie ich jetzt mal spekulierenderweise ...
 
Zuletzt bearbeitet:
Nein, hat er nicht. Und vor dem Herbst wird das auch nichts. :D
Was willst du mit 'nem Chip für HPC, wenn der Sockel passt? Der GV100 im Quadroformat ist gerade ein 9,5k $ Schnäppchen.:)

Nv hat doch überhaupt keine Not und warum sollten sie dann für Consumer was neues bringen? DLSS macht es möglich Leistungsschübe innerhalb einer Gen zu generieren (mal abgesehen davon das Sampling die Bildquali ruiniert), besser kann's Nv nicht gehen.

7nm(+) macht vor allem in HPC Sinn, wenn man an Kostenersparnis und Effizienz denkt.

So lange ich denken kann, war die 70er der Sprung von der Mittel- in die Oberklasse und daher leistungs- und preismäßig immer in relativer Nähe zur 80er angesiedelt.
Das war schon in dieser Gen nicht mehr so, denn die 2070 war was den Chip angeht ein Regal tiefer, an eine 2080 kam eine 2070 kaum ran. Ich glaube sogar wir sehen keinen GA102 als Consumer (wenn's den jemals gibt), sondern nur noch den GA103 als Enthusiast Consumer.

Das dürfte für die Gamer preiswerter werden oder mehr Marge für Nv abwerfen. Das Ding kommt wohl mit 320bit daher, also dann vermutl. mit 10GiB VRAM.
 
Zuletzt bearbeitet von einem Moderator:
Das war schon in dieser Gen nicht mehr so, denn die 2070 war was den Chip angeht ein Regal tiefer, an eine 2080 kam eine 2070 kaum ran.
Es geht nicht um den Chip, sondern um die Leistung. Ich weiß ja nicht, was bei Dir "kaum ran kommen" heißt, aber sowohl zwischen 2070 und 2080 als auch zwischen 2070S und 2080S liegen im Mittel gerade mal irgendwas zwischen 10 und 15 Prozent, bei gleichem Speicherausbau. Das dürfte für die Spielbarkeit eines Titels wohl nur in den seltensten einen relevanten Unterschied machen. Würde man noch näher ran kommen, wäre man ja direkt im einstelligen Prozentbereich und könnte (und würde) sich eine der beiden Karten gleich komplett schenken. In jedem Fall war der Leistungsunterschied zwischen einer 70 und einer 80 niemals so groß, dass er eine Verdoppelung des Preises gerechtfertigt hätte, und genau das war ja der Punkt, um den es mir ging.

Ich glaube sogar wir sehen keinen GA102 als Consumer (wenn's den jemals gibt), sondern nur noch den GA103 als Enthusiast Consumer.

Das dürfte für die Gamer preiswerter werden oder mehr Marge für Nv abwerfen. Das Ding kommt wohl mit 320bit daher, also dann vermutl. mit 10GiB VRAM.
Klingt plausibel - und wenn der Preis stimmen sollte, muss das ja nichts Schlechtes sein ...
 
Zurück