Geforce RTX 3080/3090: Fehlt den Grafikkarten Leistung?

"Ein Test mit VRAY zeigt, dass die FP32-Leistung tatsächlich doppelt so hoch ist wie bei einer Geforce RTX 2080 Ti. Damit kann die erste Möglichkeit gestrichen werden. In Tests mit 11 Spielen zeigt sich jedoch, dass die Geforce RTX 3090 im Durchschnitt nur 33 Prozent schneller ist."

War doch bei den AMD GraKa´s auch so, wenn ich mich recht entsinne ?!?
Bei der "neuen" Generation war alles "aufgebohrt" und vergrößert worden,
aber hatten Probleme das mehr an Leistung "auf die Straße" zubekommen.
Denke die Programmierer der Games werden da in Zukunft noch was raus holen können ...

MfG Föhn.
 
Da muss man mal schauen, wann die Spiele das wirklich ausnutzen.

Ansonsten ist die Frage, wann der nächste Shrink kommt, der die Leistung der RX3080 bei halben Verbrauch bringt.
 
War doch bei NVidia schon einmal so, dass es dann hieß:
"Ja hoppla, wir haben vergessen Leistung freizugeben. Mit dem neuen Treiben haben wir das gefixt."
Natürlich nur, wenn AMD in Schlagweite kommt. Ansonst bleibt der Kunde auf dem sitzen was er hat.
 
Du unterschlägst 20%. Nimm das mal ins Verhältnis, Turing hat gerade einmal 30% mehr geleistet als das 2 Jahre alte Pascal und Ampere ist auch nicht besser.
Das variiert von Spiel zu Spiel. Nvidia selbst sagt Faktor 2.1 und im verlinkten Beispiel sinds 1.8. Also ist die Aussage "fast das doppelte" völlig legitim.

Ich sehe hier 63,8 vs 97,6, macht lächerlich +54% im absoluten Bestcase, bei Angaben von + 100% von Seiten NVIDIA's.
3080 und 2080 Ti haben beide 68 RT Cores, wieso würdest du eine 2080 mit einer 3080 vergleichen? 104er vs 102er, 48 vs 68 RT Cores.
Egal wie du zu der Sache 104 vs 102 stehst, hier geht es darum wie die Leistung der RT Cores gestiegen ist, in normalen Gaming Szenarien nahe 0, in Techdemos um ca. 50%, statt der behaupteten 100%.
Du vergleichst die 3080 mit der TI. Vergleiche die 80 mit der 80 und nicht der TI. Die 3090 hat nochmal mehr RT Leistung und ist noch schneller.
In Control ist die 3080 mit RT wesentlich schneller als die 2080 TI und das bezeichnest du als 0?
Damit ist das Gespräch für mich beendet. Auf so einen Müll lasse ich mich nicht ein.
 
Vielleicht ist ja doch was an einem überhasteten Release dran, um genug Verkäufe vor Big Navi Release abzuwickeln. Dann wäre es auch nicht auszuschließen, dass die Treiber bei weitem noch nicht optimal sind. Nur so als Möglichkeit.
 
Das ist bei AMD schon seit Generationen so, dass ein großer Teil der Rohleistung bei Spielen nicht auf die Strasse gebracht wird.
Man hat ordentlich Leistung, aber hat zum Teil nichts davon, weil die Spiele Engines die Hardware nicht ganz auslasten/nutzen können.
Frage mich, ob das auch bei den Konsolen der Fall ist?
Du hast die letzten Jahre bei AMD vielfach eben auch als Gaming-Karten "verkleidete " Compute-Karten bekommen.
Die nun erfolgte und durch Ryzen-Gelder mögliche Aufsplittung in CDNA und RDNA war bitter nötig.
Eine so enge Zusammenarbeit wie mit MS und Sony für die neue RDNA2-Gaming-Architektur gab es in dieser Form ebenfalls zuvor nicht.
AMD bastelt in meinen Augen gerade am heiligen Gaming-Ökosystem, von Konsole, über PC bis hin zu Smartphones. Entsprechend will man auch die Synergien bei der Markteinführung nutzen, wo zumindest Konsolen und PC quasi im gleichen Monat aufschlagen. Mobile folgt mit Samsung dann in H1 /2021.
Gedanke dahinter ist natürlich es den Entwicklern so einfach wie möglich zu machen Ihre Spielentwicklungen auf eine grundlegende Architektur (RDNA) auszulegen, die dann einfachst auf alle Plattformen (Konsole, PC, Mobile/Smartphone) übertragbar ist.
Auf AMD´s GPUopen Website gibt es hierzu gerade auch einen schön passenden Dreiteiler zum Thema "Porting Detroit: Become Human from PlayStation 4 to PC" in Anlehnung an die RDNA-Basis. Krasser Zufall, nicht?^^

Nvidia´s, nicht immer nutzbaren, 8000-10000 Shader in der RTX3080/3090 erscheinen mir hier wie eine Entwicklung die Ihren Ursprung eigentlich eher im Compute-Bereich hat. Das bekommste bei AMD zukünftig auch, aber dann eben in den entsprechenden CDNA Compute-Karten, Arcturus, Mi100 (~8000 Shader) und/oder Mi200, nicht mehr im Gaming-Bereich, wo diese dann vielfach brach liegen, nicht vollständig ausgelastet werden können und man womöglich viel eher von einem höheren Takt profitieren kann.
Bin gespannt wie sich das entwickelt, aber Nvidia erschließt sich da aktuell neue Geschäftsfelder die meiner Meinung nach immer mehr vom Gaming abrücken - so wie es bei AMD vllt nach der 290X gezwungener Maßen kam, weil Sie nicht mehr anders konnten. In Zukunft aber wird AMD im Gaming-Bereich für uns immer relevanter werden.
Sie stellen mit RDNA die Basis in der Videospiel-Entwicklung, während Nvidia in 2020 eher mit Aussagen wie "Nvidia Is Not a ‘Videogame Company.’ auftritt.
 
Zuletzt bearbeitet:
Welcher Refresh? Die Karten mit der Speicherverdopplung bekommen wohl nur mehr Speicher. Wenn NV da nicht mehr Shader und Kerne draufklatscht, wird da keine Mehrleistung vorhanden sein.
Is doch easy. Überarbeiteter Platinenlayout mit anderer Kondensatorenbestückung, welche einen höheren Takt erlauben. Dazu dann halt noch der Speicher. Dann besser selektierte Chips welche höheren Takt vertragen. Dann ein neues BIOS welches mehr Grundtakt anlegt ggf. besser boosten lässt - fertig ist die TI bzw. Super.
Dazu kann ich mir nicht vorstellen dass sie die Treiber gleich am Anfang perfekt optimiert haben, da lässt sich bestimmt noch etwas rausholen im Laufe der Zeit.
 
Vermutlich werden die Karten noch etwas an Mehrleistung dazugewinnen, wenn in Zukunft komplexere Spiele rauskommen. Dann stimmt es eventuell irgendwann mit den 50-70% Leistungsplus.

Generell werden wir uns wohl in Zukunft wohl darauf gefasst machen müssen, dass die Leistung pro Generation immer weniger steigt. 100%, wie bei der GTX 280, Geforce 8800GTXund davor, werden wohl geschichte sein, 30%, wie bei Turing, eher die Regel. Wenn es gut geht, dann kommt auch mal eine 50% Leistungssteigerung, wie jetzt bei Ampere. Wobei die Möglichkeiten dafür auch begrenzt sind. Wenn Nvidia den Stromverbrauch nochmal so hoch dreht, dann sind wir bei 470W, ein weiteres mal und wir landen bei 630W und nocheinmal, dann sind wir bei 840W - nur für die Graka.

Denke die Programmierer der Games werden da in Zukunft noch was raus holen können ...

Die Zeiten richtig guter Programmierer sind schon sehr, sehr lange vorbei. Wenn man großzügig ist, dann kann man Crysis als letztes Spiel nehmen. Aber auch da war an so unglaubliche Meisterwerke, wie Quake 1 und das alte Doom oder Wolfenstein, die alles aus der Hardware geholt haben, nicht mehr zu denken.

Heute wird einfach darauf los entwickelt, ohne, dass man irgendwie optimiert. Die CPUs sind darauf ausgelegt und auch die GPUs, mit ihren Treibern.
 
Es wird schon seit Jahren gepredigt, das sich jetzt für AMD alles ändert, da die Hardware jetzt auch in Konsolen eingesetzt wird. Effektiv hat sich aber nichts für AMD zum Guten(nicht am Wort aufhängen, es geht nur um eine imaginäre Verbesserung, durch die Konsolen)gewendet. Das einzige was sich wirklich dadurch für AMD verbessert hat, waren die Geschäftszahlen.
Ohne den vielen relativ schwachen Jaguar-Kernen der Konsolen, würden die spiele heute immer noch nur 1-2 Kerne nutzen!
 
Na da bin ich ja mal gespannt die nächste Spielegeneration wird locker auf AMD GPU´s laufen da sie in den Konsiolen ebenfalls drin

sind die 50 - 70% Mehrleistung bei den 3000ern von NV wird auch nur bei Spielen sein die von NV Gesponsort werden wie immer :-)

Könnte für NV nen Problem werden aber wie heißt es doch so schön "Abwarten und Teetrinken".
 
Wie jetzt, ich dachte das wäre eher so AMDs Metier, mit dem reifen der Leistung über die Zeit. ;)

In der Regel reifen alle Karten mit der Zeit besser, als ihre Vorgängergeneration, die driften immer weiter auseinander. Der relative Abstand, zwischen einer GTX 980Ti und RTX 2060, jeweils 6GB, wird sich wohl in Zukunft noch weiter vergrößern. Besonders ist dies der Fall, wenn die Karten über mehr VRAM verfügen. AMD hatte da schon ein paar echt gutem Karten im Programm, wie die HD 7900er (+50% VRAM) oder die R9 290/390(X) mit 8GB, die sind sehr gut gealtert und daraus haben die AMD Anhänger dann ihren "Fine Wine" gemacht. Aber auch Nvidia hat Karten im Angebot gehabt, die heute mit der Konkurrenz den Boden aufwischen. Die berühmteste ist sich die GTX 980Ti, da sie die Fury X heute kein Land mehr, obwohl sie damals sehr ähnlich waren. Aber auch die GTX 670/680 4GB, GTX 6600(Ti) 3GB, sowieso alle Titanen, konnten über die Zeit teilweise extrem zulegen.

Die RTX 3080 20GB dürfte auch um Welten besser altern, als die 10GB Versionen und die 16GB Karten von AMD dürften gegenüber der 10GB RTX 380 Version massiv an Boden gewinnen, während sie gegen die 20GB Version wohl vermutlich relativ einbüßen werden. Wobei bei so geringen Unterschieden dann noch andere Dinge wichtig sind.
 
Wenn Nvidia den Stromverbrauch nochmal so hoch dreht, dann sind wir bei 470W, ein weiteres mal und wir landen bei 630W und nocheinmal, dann sind wir bei 840W - nur für die Graka.
Also 500 Watt und 1499 UVP hatten wir schon mal ... ;-)


MfG Föhn.
 

Anhänge

  • 500 Watt.jpg
    500 Watt.jpg
    304,3 KB · Aufrufe: 36
Das variiert von Spiel zu Spiel. Nvidia selbst sagt Faktor 2.1 und im verlinkten Beispiel sinds 1.8. Also ist die Aussage "fast das doppelte" völlig legitim.


Du vergleichst die 3080 mit der TI. Vergleiche die 80 mit der 80 und nicht der TI. Die 3090 hat nochmal mehr RT Leistung und ist noch schneller.
In Control ist die 3080 mit RT wesentlich schneller als die 2080 TI und das bezeichnest du als 0?
Damit ist das Gespräch für mich beendet. Auf so einen Müll lasse ich mich nicht ein.

Nö, die RT Core Leistung ist auch in der Techdemo nicht um 80% gestiegen.
48 RT Cores vs 68 RT Cores zu vergleichen ist Schwachsinn.
Die 3080 liegt in Control ohne RT https://www.computerbase.de/2020-09...t/3/#diagramm-control-raytracing-in-3840-2160 37% vorne, mit RT 44%, beeindruckend :rollen:.
Die 3090 hat auch mehr RT Cores und mehr Rasterleistung.
In normalen Games ist die Leistung der RT Cores quasi gleich geblieben.
NVIDIAs Namensgebung ist nichts als Schall und Rauch, die Nutzung ihres schnellsten Consumer Chips als 80er in beschnittener Version ist ein Fakt, es ist genau das was die Ti seit einigen Generationen war und nichts anderes.
Dein letzter Satz zeigt nur, dass du nicht zugeben kannst Unrecht zu haben.
 
Was den Karten am meisten fehlt, ist eine Lieferbarkeit. Direkt beim (angeblichen) Launch ne TUF bei Cyberport bestellt, nach 4 Tagen ne Mail mit Lieferdatum 09.10. bekommen, heute wieder ne Mail bekommen mit Lieferdatum unbestimmt. Glaub ich werd das Ding stornieren und erstmal warten was AMD zu bieten hat.
Was wohl von Anfang an das Klügste gewesen wäre :rolleyes:.
 
Nö, die RT Core Leistung ist auch in der Techdemo nicht um 80% gestiegen.
48 RT Cores vs 68 RT Cores zu vergleichen ist Schwachsinn.
Wow. Also kann ich die 1080 TI auch nicht mit der 2080 TI Vergleichen, weil weniger Shader.
Was für eine Logik :stupid:

In normalen Games ist die Leistung der RT Cores quasi gleich geblieben.
Was sind denn normale Games für dich? In jedem Spiel legt die 3080 zur 80/TI zu, was RT Leistung angeht, also schreibst du mal wieder Unsinn.
 
Zurück