NVIDIA Ampere Laberthread

TheEndOfTheWorld

PC-Selbstbauer(in)
Ich denke es wird Zeit für den Thread :-)

NVIDIA AMPERE

Erwartete Modell:
  • RTX 3090 (24. September) - GA102​
    • 82 SMs​
    • 112 ROPs​
    • 10496 Shader - 328 Tensor Cores/TMUs - 82 RT Cores​
    • 1410 MHz (1695 MHz Boost)​
    • 36 TFlops​
    • 69 RT-TFlops​
    • 285 Tensor-TFlops​
    • 24GB GDDR6X​
    • 1499US$​
  • RTX 3080 (17. September) - GA102​
    • 68 SMs
    • 96 ROPs
    • 8704 Shader - 272 Tensor Cores/TMUs - 68 RT Cores
    • 1440 MHz (1710 MHz Boost)
    • 30 TFlops
    • 58 RT-TFlops
    • 238 Tensor-TFlops
    • 10GB GDDR6X
    • 699US$
  • RTX 3070 (Oktober) - GA104​
    • 46 SMs
    • 64 ROPs
    • 5888 Shader - 184 Tensor Cores/TMUs - 46 RT Cores
    • 1500 MHz (1730 MHz Boost)
    • 20 TFlops
    • 40 RT-TFlops
    • 163 Tensor-TFlops
    • 8GB GDDR6
    • 499US$

Letzter Stand:

Slides:
 
Zuletzt bearbeitet:
Zusammengefasst haben wir 1x zu teuer und 2x zu wenig Speicher. Geiles Lineup!%-)

Jawoll! Und wenn dann demnächst die 20 und 16 Gig Varianten folgen, finde ich Nvidia weiterhin und generell blöd!
Und überhaupt - der nichtsnutzige Multi Milliardär alias Mr. Lederjacke sollte dringend vom einen oder anderen Forenexperten beraten werden!
 
Jawoll! Und wenn dann demnächst die 20 und 16 Gig Varianten folgen, finde ich Nvidia weiterhin und generell blöd!
Und überhaupt - der nichtsnutzige Multi Milliardär alias Mr. Lederjacke sollte dringend vom einen oder anderen Forenexperten beraten werden!
Ich persönlich würde die 3080 in Erwägung ziehen, wenn die mehr Speicher hätte.
Im übrigen kritisieren nicht nur Forenexperten sondern auch Fachredakteure den Mangel an Speicher. Es sollte außerdem klar sein, was das Ziel von Nvidia ist und das sich das nicht unbedingt mit dem Besten für den Kunden deckt.
 
Im übrigen kritisieren nicht nur Forenexperten sondern auch Fachredakteure den Mangel an Speicher.
Die Fachredakteure können/dürfen bemängeln was sie wollen. Die wenigsten davon werden demnächst eine
RTX 3090 im Rechner haben.
Ich spiel 1440p und Nvidia liefert mir für 699€ eine Karte die in 99% der Fälle schneller als eine T-REX ist :devil:.
Mit RT/DSSL sind es wohl 100%.
Was ist Nvidia doch böse :ugly:
 
Ich freue mich auf die RTX 3080 und deren üppige Leistung.
Dass sie scheinbar doppelt so schnell wie ihr Vorgänger ist, darüber hört man in diesem Forum nahezu kein Wort, stattdessen belächeln die angeblichen Forenexperten die Karte aufgrund des zu geringen VRAMS.

Ich will niemanden angreifen und das ganze sachlich halten, aber zu behaupten, die GPU hätte zu wenig VRAM, ist einfach Unfug. Ich kann gewisse Argumente und Behauptungen hier einfach nicht ganz ernst nehmen. Ich würde mich zwar nicht als Hardwareexperte bezeichnen, aber ich zocke seit 1998 auf dem PC und bin durch aus ein Enthusiast in Sachen Grafik.

Bevor man einfach behauptet, die GPU hätte zu wenig VRAM, ohne sie effektiv getestet zu haben, sollte man erst mal differenzieren, was man von einer GPU erwartet und wie lange man sie benutzen will, ferner welche Games ich spiele und wie meine Ansprüche sind. Meine jetzige RTX 2080 hat mir in den knapp 2 Jahren in fast jedem meiner Spiele immer rund 120 FPS auf 1440p geliefert, wobei der Regler in 99% der Fälle immer auf Ultra war. Ich spiele überwiegend Multiplayer-Games wie MW, BF, aber auch unzählige Indie- oder Survivalspiele, die grafisch gelinde gesagt meistens Müll sind.

Die einzige Ausnahme, wo ich etwas an den Grafikeinstellungen tweaken musste, war Red dead Redemption 2, bzw. dessen online Modus. Dort habe ich mit einem mix aus Hoch und Ultra gespielt, während die Auflösung bei sogar noch über 1440lag, ich hatte sie auf 2800x schlag mich tot hochskaliert. Ich hatte ein durchweg ruckelfreies Spielerlebnis und die FPS gingen nie unter 70...

Wie ich bereits in etlichen Beitragen gesagt habe, nutze ich eine GPU immer 2 Jahre bis zur nächsten Generation und jetzt wollen mir die Experten hier im Forum allen ernstes sagen, die RTX 3080 hätte jetzt schon Speicherprobleme? Argumente wie, es gäbe ja Ultra HD-Texture DLCS, Zero dawn als Referenz oder ähnliche Beispiele sind keine fundierte Argumentationslage, sondern einfach einzelne Beispiele, die gar nicht repräsentativ genutzt werden können.

Das Speicherproblem ist ein rein gekünsteltes, rein auf dem Papier herrschendes Problem und hat m.E. in der Praxis, zumindest in den nächsten zwei Jahren, keinerlei Bewandtnis. Angenommen es träfe der propagierte Extremfall ein, dass der RTX 3080 aufgrund zu hochauflösenden Texturen der VRAM ausgeht, könnte man diese immer noch reduzieren und auf einen ansehnlichen Stand bringen, was vermutlich 95% der Spieler da draußen gar nicht auffallen wird. Ich wiederhole mich gerne noch einmal, bis auf Zero Dawn, was ich nicht gespielt habe, konnte ich in den vergangenen 2 Jahren jedes Spiel auf Ultra spielen, und das in 1440p. Ich hab safe in keinem Moment die Texturen manuell runterschrauben müssen. Und ich glaube, nach 20 Jahren PC Gaming und Verwöhntheit in Sachen Grafik, würde mir ein merkliches Downstreaming der Texturen auffallen.

Was auch konsequent ignoriert wird ist die Tatsache, dass aufgrund der kommenden Nextgen-Konsolen, die von der Leistung immer noch weit unter einer RTX 3000 liegen, keine Gefahr in Sachen Engpässen für unsere GPUS zu befürchten sind, sei es durch irgendwelche Effekte oder Texturen. Folglich wären wir wieder bei den Grafik-DLCs oder irgendwelche Super-Ultra-Regler, die im Zuge eines PC-Ports hinzugefügt wurden, was wiederum vermutlich Spiele im einstelligen Prozentbereich betrifft.

Ich bleibe dabei: Für den anspruchsvollen Spieler wird die RTX 3080 die nächsten 2 Jahre mehr als genug Leistung bieten und das bei maximalen Einstellungen. Die 3090 ist für Spieler, zumindest für jene, die alle 2 Jahre ihre GPU wechseln, aus aktueller Sicht tendenziell überdimensioniert, zumindest in der Spanne 1440p bis 4k. Dass die 3090 als 8k Karte und für Zwecke sogar noch fernab von Gaming, Rendering etc. propagiert wird, wird auch konsequent ignoriert.

Aber jeder darf glauben was er will, bildet euch eure eigene Meinung, ich bin jedenfalls raus aus dieser Diskussion mit diesen abschließenden Worten und freue mich auf die GPU!
 
Ob sie doppelt so schnell ist, wenn kein DLSS zur Verfügung steht, bleibt abzuwarten. Und für mich zB, der ich für 4k und 3-4 Jahre Nutzungsdauer über sie nachdenke, hat sie definitiv zu wenig Vram. Und wie schnell man 11GB Vram voll hat, wurde in der letzten Woche auch schon oft genug dargelegt.
 
Zuletzt bearbeitet:
Was meinst du damit?
Na, wenn das für die ganzen Fachredakteure so ein Problem ist, dann müßten demnächst ja alle
Karten mit mehr als 10GB V-Ram (mit entsprechender Leistung) im Rechner haben.
10GB V-Ram sind ja angeblich schon für 1440p ein NoGo.

Ob sie doppelt so schnell ist, wenn kein DLSS zur Verfügung steht, bleibt abzuwarten. Und für mich, der ich für 4k und 3-4 Jahre Nutzungsdauer über sie nachdenke, hat sie definitiv zu wenig Vram. Und wie schnell man 11GB Vram voll hat, wurde in der letzten Woche auch schon oft genug dargelegt.
Du definierst deinen Anspruch auch klar. 4K / 3-4 Jahre Nutzungsdauer. Nichts gegen deine Vorbehalte einzuwenden.
Aber der Karte generell eine Nutzungsdauer von 2 Jahre abzusprechen ist für mich Unsinn.
Vor allen, wenn man so wie, ich noch in 1440p unterwegs ist.
 
Zuletzt bearbeitet:
Ob sie doppelt so schnell ist, wenn kein DLSS zur Verfügung steht, bleibt abzuwarten. Und für mich, der ich für 4k und 3-4 Jahre Nutzungsdauer über sie nachdenke, hat sie definitiv zu wenig Vram. Und wie schnell man 11GB Vram voll hat, wurde in der letzten Woche auch schon oft genug dargelegt.

Auf künstliche Art und Weise, in irgendwlechen Spielen die nicht die Regel sind.
Ihr versteht einfach nicht, dass sowas nicht repräsentativ ist. NATÜRLICH kann ich jede GPU irgendwie mit irgendwelchen Reglern theoretisch in die Knie zwingen.

Nach diesem Argument müssten ja gefühlt alle Spieler aktuell schon ein Speicherproblem haben.

Aber ehrlich, mir wird das zu doof hier.
 
1599561277517.png
 
Haha. ^^ Nur mit den Unterschied, dass ich schon Szenarien hatte, in denen mir der Vram voll lief. Er geht von "hätte, könnte, sollte" aus und spielt laut eigener Aussage 1440p und Spiele, die eher CPU lastig oder genügsam sind. 4k ist ein größerer Sprung, als man meinen sollte, ich wollte das damals auch kaum glauben. Für WQHD allerdings finde ich die 3080 geradezu perfekt.
 
Zuletzt bearbeitet:
Haha. ^^ Nur mit den Unterschied, dass ich schon Szenarien hatte, in denen mir der Vram voll lief. Er geht von "hätte, könnte, sollte" aus und spielt laut eigener Aussage 1440p und Spiele, die eher CPU lastig oder genügsam sind. 4k ist ein größerer Sprung, als man meinen sollte, ich wollte das damals auch kaum glauben. Für WQHD allerdings finde ich die 3080 geradezu perfekt.
Nur weil der VRAM voll läuft heißt es nicht, dass er auch der limitierende Faktor ist. Oftmals werden in dem Grafikspeicher Elemente vorgehalten oder auch einfach nicht gelöscht. Erst wenn der VRAM dann an die Grenze geht wird wieder Platz gemacht für die neuen Sachen.

Beispiel:
Eine Textur wird benötigt also wird erstmal Grafikspeicher allokiert und dementsprechend an einer Adresse eine Menge an Speicher freigemacht. Ab jetzt gilt der Grafikspeicher als "belegt" oder "benutzt". Die Textur wird dann dort rein geladen. Oftmals nachdem sie nicht mehr gebraucht wird bleibt die Adresse allerdings weiter belegt jedoch ist sie markiert als "Kann überschrieben werden". Der Grafikspeicher wird immer noch als "benutzt" angezeigt in MSI Afterburner oder sonstigen Tools ist aber falls er benötigt wird, ist er eigentlich ohne Probleme verfügbar.

Achtung:
Das ist sehr vereinfacht erklärt und nur ein möglicher Fall von vielen weshalb die VRAM Nutzungsanzeige oftmals komplett unbrauchbar ist.
 
Wurde nicht schon in anderenThreads aufgezeigt, dass der Unterschied von WQHD zu 4k in Sachen VRAM-Auslastung nur gering ist? Ich wiederhole mich gerne noch einmal, ich habe erst am Wochenende noch ModernWarfare (MP) in 4k zu testzwecken gespielt, alle Regler auf Max und es wurden nur knapp 7 GB Ram belegt. Ich hatte auf 4k im schnitt 55-70 FPS. Natürlich viel zu wenig, aber mir gings nur um die VRAM-Auslastung, die sich zu WQHD nur geringfügig erhöht hat...

Und wenn hier jemand behauptet, er will ausschließlich in 4k spielen und seine GPU über 3-4 Jahre nutzen, ist das wieder eine komplett andere Ausgangslage, als generell in den Raum zu werfen, die Rtx 3080 hätte grundsätzlich zu wenig VRAM.
 
Jetzt sind Multiplayershooter nicht unbedingt das Paradebeispiel für sowas. Aber ich denke, wir verstehen uns dennoch in etwa. ?
 
Zurück