Geforce RTX 3080/3090: Fehlt den Grafikkarten Leistung?

Das Problem ist und bleibt halt, dass nV hier die Leistung anders berechnet. Effektiv wird die Zahl der Shader "verdoppelt", wenn INT-Berechnungen anstehen, sonst leider nicht und in 95% aller Spiele werden nicht nur INT-, sondern auch Standardberechnungen durchgeführt. Daher ist die Angabe schon fast als Lüge anzusehen. Ampere hat eben nur halb so viele Shader, wie sie offiziell angeben...
Vollkommen korrekt.
Wie Wcctech in Ihrem Artikel entsprechend auch angibt liegt die Leistung einer 3080 so eher im Bereich von 20,5 anstatt bei knapp 30 TFlops und die der 3090 nicht bei 36, sondern eher bei 23,5 TFlops.
Vray ist halt der absolute BestCase, entspricht nur leider nicht den typischen Anforderungen des Alltags-Gaming.
Auf FineWine oder einen Wundertreiber muss man somit denk ich nicht warten, einzig wenn ein Game eben überdurchschnittlich stark auf INT-Berechnungen setzt können die Ampere-Karten Ihr Leistungspotenzial besser auf die Straße bringen.

Da man BigNavi aktuell im Bereich von 22,5 TFlops einordnet ging man zunächst davon aus AMD würde maximal mit der 3070 (~20 TFlops) konkurrieren. Aber es zählt was auf dem Platz ankommt und das könnte so manchen in vier Wochen dann nochmal zum Äuglein reiben bringen, wenn BigNavi plötzlich auch 10xxx Punkte im TSE reißt, mit "nur" 22,5 TFlops^^
Macht für mich schon Sinn, dass diese Diskussion langsam ins Rollen kommt.

edit: Dass BigNavi 10xxx Punkte im TSE erreichen kann entspringt dabei nicht vollkommen meiner Phantasie oder Wunschdenken - bleibt aber natürlich reine Spekulation
gerücht_orig.jpg
gerücht_trans.jpg
(Quelle)
 
Zuletzt bearbeitet:
Och, das geht schon. Wir brauchen nur eine neue Spiele-Generation, die statt Texturen alles über die ALUs macht. Struktur und Farben? Wird alles zur Laufzeit generiert, die Rechenleistung ist ja da.

MfG
Raff

Hi Raff!

Was genau sind den "ALU"?
Bitte genauer erklären, danke.

Bzw. Warum sollen die ALUs den Texturen im Vorteil sein?
 
Eine ganz andere Frage stellt sich mir nun immer wieder:

Wann kommen denn nun endlich mal Karten nach??

Ich meine wir sind jetzt dann bald 2 Wochen nach dem Start der RTX 3080 und seit dem Ausverkauf am Launch-Day scheint ja
weltweit nicht eine weitere Karte in den Handel geliefert worden zu sein.
Eigentlich sollte man doch vermuten, dass NVIDIA jetzt wie verrückt produzieren müsste,
aber dann müssten ja zwangsläufig auch hier und da mal wieder Karten bei den Händlern auftauchen.

Aber wahrscheinlich ist man jetzt ganz stolz diesen "besten Start" hingelegt zu haben (Aussage von NVIDIA) und hat ja die
Aktionäre und den Börsenkurs erstmal in der Tasche. Warum dann noch Real-Geschäft abwickeln mit diesen lästigen ...., wie heissen die noch??
Ach ja Kunden! Diese nervigen Biester, die mir echtes Geld bringen!

Aber wer will das schon in der Industrie 4.0?
Lieber noch eine teure Marketing-Social-Kampagne starten,
dass kommt bei den Aktionären und Unternehmensbewertern immer gut an!
 
Unabhängig davon, ob man jetzt den Artikel als "gut" oder "schlecht" bewertet, finde ich den grundsätzlichen Gedanken interessant. Irgendeinen Grund muss es ja haben, dass die "Rohleistung" der Hardware durch die vorhandene Software nicht ausgeschöpft wird. Ich kann mir gut vorstellen, dass wir in Zukunft noch einiges an zusätzlicher Leistung von Ampere erwarten dürfen, durch Treiber- und Spieleengineoptimierungen.
Das denke ich nicht.

Spiele werden eher stärker auf INT und FP Operationen gleichzeitig setzen, da RDNA2 in den Konsolen die Richtung vorgibt. RDNA2 kann das auch sehr gut. Und da blockiert bei Ampere halt die Leistung. Die Spieleentwickler werden sicherlich nicht ihre Engine für Ampere umschreiben.
 
(1) Sowas in der Richtung musste ja zutreffen, denn wir sehen ja keine lineare Verbesserung in allen Spielen. Manchmal sind es 80%, manchmal nur 50%.
(2) Wir kennen ein ähnliches Drama von der CPU. Selbst ein WoW läuft 10 Jahre später noch auf einem Kern, obwohl bei der Firma ja alle Ressourcen da sein sollten, das Performance Problem mit Geld zu bewerfen.
(3) Wer erinnert sich noch rund um die asynchrone Ausführung von Code Diskussion bei AMD ca. 2015. Richtrig, willkommen zur Fortsetzung.

100% holt man eh nie aus der Karte raus. Keine DLSS Unterstützung? Pech gehabt, Tensor Cores liegen brach. Keine Raytracing Uterstützung? Pech gehabt, RT Cores liegen brach. Spiel unterstützt RT UND DLSS? Pech gehabt, RT ist ein Flaschenhals, jetzt bleibt normale Cuda Leistung liegen weil RT weniger Frames veredeln kann als die Cuda Kerne ausspucken könnten.

Das war alles lustig und simpel als Grafikkarten nicht viel können mussten. Langsam nähert sich die Bandbreite und Anzahl ihrer Fähigkeiten immer weiter an eine CPU an. Damit gelten die gleichen Limitationen wie bei einer CPU wenn es darum geht irgendwelche magischen 100% Auslastung zu jagen, die nicht einfach nur das thermische Limit verteilt auf wechselnde 70% des Chips sind.
 
Och, das geht schon. Wir brauchen nur eine neue Spiele-Generation, die statt Texturen alles über die ALUs macht. Struktur und Farben? Wird alles zur Laufzeit generiert, die Rechenleistung ist ja da.

MfG
Raff
wenn ich mich recht entsinne dann läuft Dreams komplett über Compute

vllt kommts ja irgendwann für PC ... wäre interessant wie das läuft
 
Zuletzt bearbeitet:
Das denke ich nicht.

Spiele werden eher stärker auf INT und FP Operationen gleichzeitig setzen, da RDNA2 in den Konsolen die Richtung vorgibt. RDNA2 kann das auch sehr gut. Und da blockiert bei Ampere halt die Leistung. Die Spieleentwickler werden sicherlich nicht ihre Engine für Ampere umschreiben.
Nur mal meine Simplen Gedanken dazu,

Es wird schon seit Jahren gepredigt, das sich jetzt für AMD alles ändert, da die Hardware jetzt auch in Konsolen eingesetzt wird. Effektiv hat sich aber nichts für AMD zum Guten(nicht am Wort aufhängen, es geht nur um eine imaginäre Verbesserung, durch die Konsolen)gewendet. Das einzige was sich wirklich dadurch für AMD verbessert hat, waren die Geschäftszahlen.

Ich kann mir schon vorstellen, das es einige Optimierungen zu gunsten von Ampere geben wird (auch nicht so umfänglich, wie wieder Andere sich wünschen). Ist halt so bei Marktführern.

Diese werden sich aber niemals durch den ganzen PC Spiele Markt durchsetzen. Es gab immer schon, bei neuen Architekturen best case und worst case Szenarien.

Das sich mit RDNA 2 und den neuen Konsolen, plötzlich das ändern soll, was seit Jahren herbei gebetet wird, kann ich mir nicht vorstellen.

Grundsätzlich nutze ich gerne Hardware von allen möglichen Herstellern, die mir die für meine Ansprüche beste Leistung, für mein eingesetztes Geld bietet.
 
Vollkommen korrekt.
Wie Wcctech in Ihrem Artikel entsprechend auch angibt liegt die Leistung einer 3080 so eher im Bereich von 20,5 anstatt bei knapp 30 TFlops und die der 3090 nicht bei 36, sondern eher bei 23,5 TFlops.
Vray ist halt der absolute BestCase, entspricht nur leider nicht den typischen Anforderungen des Alltags-Gaming.
Auf FineWine oder einen Wundertreiber muss man somit denk ich nicht warten, einzig wenn ein Game eben überdurchschnittlich stark auf INT-Berechnungen setzt können die Ampere-Karten Ihr Leistungspotenzial besser auf die Straße bringen.

Da man BigNavi aktuell im Bereich von 22,5 TFlops einordnet ging man zunächst davon aus AMD würde maximal mit der 3070 (~20 TFlops) konkurrieren. Aber es zählt was auf dem Platz ankommt und das könnte so manchen in vier Wochen dann nochmal zum Äuglein reiben bringen, wenn BigNavi plötzlich auch 10xxx Punkte im TSE reißt, mit "nur" 22,5 TFlops^^
Macht für mich schon Sinn, dass diese Diskussion langsam ins Rollen kommt.

edit: Dass BigNavi 10xxx Punkte im TSE erreichen kann entspringt dabei nicht vollkommen meiner Phantasie oder Wunschdenken - bleibt aber natürlich reine Spekulation
Anhang anzeigen 1335328 Anhang anzeigen 1335329 (Quelle)

Ich habe mir schon bei der Ankündigung gedacht das die Zahlen in der Form real für uns nicht haltbar sein werden können.

Wirkt halt sehr gut im Marketing mit so großen Zahlen zu protzen und zu behaupten wie viel schneller alles wird...

NVidias Bulldozer oder Fiji xD
 
Das ist bei AMD schon seit Generationen so, dass ein großer Teil der Rohleistung bei Spielen nicht auf die Strasse gebracht wird.
Man hat ordentlich Leistung, aber hat zum Teil nichts davon, weil die Spiele Engines die Hardware nicht ganz auslasten/nutzen können.
Frage mich, ob das auch bei den Konsolen der Fall ist?
 
Viel Gerede über technische Details.

Kann mir zwar schon vorstellen, dass bei Ampere hier und dort in Spezialfällen noch mal ein boost gezündet wird(halt nicht quer über alle möglichen Spiele), aber ansonsten mag ich's einfach und hab einfach geschaut, ob das aktuell ersichtliche Leistungsplus von einer 1080Ti zu einer 3080 mir reicht, also die fps in Benchmarks.
Da braucht man nicht für studiert haben um zu sehen, die Karte hat bei Spiel x, y fps in WQHD und jene hat halt z fps.

Das Leistungsplus(in meinem Fall von der 1080Ti aus) geht für mich in Ordnung, für den Preis.
Dazu kommt halt, dass ich dann erstmalig überhaupt sowas wie RT/DLSS testen kann.

Reicht.
Feddich. :daumen:

Ob da INT 4711 Kümmel-Cores irgendwas berechnen is mir Latte Macchiato, so lange es nicht ruckelt und genug fps aufm Monitor ankommen. :cool:


Ich fände es gut, wenn ihr redaktionell mal auf das Thema "VRAM Allocation vs. Usage" eingehen könntet.

Das fänd' ich mal einen interessanteren Bericht/Artikel, als hinter einen Gedanken einer anderen Seite ein Fragezeichen zu setzen und dies als News zu bringen. :)

Sry.
Seh ich einfach so.
 
Zuletzt bearbeitet:
Wenn es wirklich so sein sollte, dass nV per Treiber oder BIOS-Update noch eine ganze Menge an Leistung so zu sagen "Freischalten" kann, dann würde das auch erklären, warum AMD sich bisher absolut bedeckt hält
Sorry, das klingt super dämlich. Warum die Leistung zurückhalten, den Shitstorm kassieren und dann später plötzlich damit rauskommen? Wenn da noch Leistung drinsäße, dann würden sie sie sofort auf den Tisch knallen. Die Karten laufen aber jetzt schon an der Kotzgrenze. Da kommt nix mehr.

Das einzige was Nvidia jetzt noch durch künstliches Zurückhalten "freischalten" kann, ist mehr Speicher durch neue Karten mit eben doppelter Speicherausstattung.
 
Deswegen auch das Wort "fast".
Das diskutieren hier ist echt purer krebs. Man achtet explizit auf seine Wortwahl und trotzdem werden einem Worte in den Mund gelegt, die man nie geäußert hat, und anschließend in der Luft zerrissen.
Du unterschlägst 20%. Nimm das mal ins Verhältnis, Turing hat gerade einmal 30% mehr geleistet als das 2 Jahre alte Pascal und Ampere ist auch nicht besser.
 

Ich sehe hier 63,8 vs 97,6, macht lächerlich +54% im absoluten Bestcase, bei Angaben von + 100% von Seiten NVIDIA's.
3080 und 2080 Ti haben beide 68 RT Cores, wieso würdest du eine 2080 mit einer 3080 vergleichen? 104er vs 102er, 48 vs 68 RT Cores.
Egal wie du zu der Sache 104 vs 102 stehst, hier geht es darum wie die Leistung der RT Cores gestiegen ist, in normalen Gaming Szenarien nahe 0, in Techdemos um ca. 50%, statt der behaupteten 100%.
 
Zurück