Geforce RTX 3080/3090: Fehlt den Grafikkarten Leistung?

Es fehlt nicht an Leistung, die Karten wurden bis an die Kotzgrenze hochgezüchtet. Nvidias Angaben stimmen einfach nicht bzw. sind Werbelügen: Nicht die ganzen Shading Prozessoren wurden verdoppelt, sondern nur die darin enthaltene FP32-Einheit, und zwar exklusiv auf Kosten der parallelen INT32-Berechnung. Das ist großartig fürs Machinelearning, die Grafik erfordert aber das entsprechende Verhältnis an TPUs und TMUs.
Zu m Vergleich:
RTX 2080Ti hat 272 TMUs, 88 ROPs, 68 SM-Einheiten
RTX 3080 hat 272 TMUs, 96 ROPs und ebenfalls 68 SM-Einheiten

Die TMU-Anzahl ist genau gleich, geringfügig mehr ROPs, Ampere hat aber auch verbesserten L1 Cache gegenüber Turing. Das heißt, der Vorteil würde nur in richtig shaderlastigen Spieleengines und in genau denen, die fast ausschließlich auf die FP32 und nicht auf die INT32-Einheiten setzen rüberkommen.
Das Umschreiben von Engines ist sehr kostenintensiv für die Entwickler, den Vorteil würden nur die RTX 3000-Besitzer spüren, die wahrscheinlich nicht mal 1% der User ausmachen würden. Die Konsolen, die Radeonkäufer etc. würden davon gar nicht profitieren, d.h. es lohnt sich nicht.

Was wir hier haben, ist eine auf Machine-Learning optimierte Architektur, die als Gamerkarte vermarktet wird, damit die Gamer die Entwicklungskosten für den professionellen Nvidia-Zweig mitbezahlen :D
 
Hat halt nur wenig mit der Praxis derzeit zu tun,zudem spielen gerade bei MC noch andere Faktoren mit rein wie das sehr hohe Powerbudget der Karten und der Speicher.
 
Wow. Also kann ich die 1080 TI auch nicht mit der 2080 TI Vergleichen, weil weniger Shader.
Was für eine Logik :stupid:

Es geht nicht um die Shader sondern um den genutzten Chip und das weißt du auch. Ist dir das nicht langsam peinlich?

Was sind denn normale Games für dich? In jedem Spiel legt die 3080 zur 80/TI zu, was RT Leistung angeht, also schreibst du mal wieder Unsinn.

Ja um ein paar Prozent, äußerst beeindruckend, genau das ist quasi gleich geblieben und nichts anderes.
Wieso du NVIDIA immer bis aufs Blut verteidigst werden ich nie verstehen.
 
Hat halt nur wenig mit der Praxis derzeit zu tun,zudem spielen gerade bei MC noch andere Faktoren mit rein wie das sehr hohe Powerbudget der Karten und der Speicher.
Die Machinelearningvariante verfügt über weitaus mehr als 10GB VRAM. Da werden optimierte Treiber einen Riesenunterschied machen.
 
Also die RTX 3080 stößt oft ins CPU Limit, selbst mit der stärksten CPU. Wer weiß, vielleicht ist einfach der generelle Unterbau nicht in der Lage die Power richtig zu nutzen.
Für mich ist die 3080 FE (nicht die Customs) eine günstige 700€ Karte die mehr Leistung hat als ne teurere 2080 Ti.
Ich habe eine 1080 Ti, damals war diese mit Abstand die beste, aber heute kommt sie immer ans Limit nach meinem Monitor upgrade.
Im direkten Vergleich mit einer 1080Ti ist die 3080 FE genauso teuer, hat ca 70% mehr Leistung und ca 40% bessere Effizienz (Und hat Raytracing-Support). Also ist es kein schlechter Deal.
Da ich eh noch keine gute CPU habe bis Zen3, werde ich die Karte undervolten und die Effizienz steigt weiter.
Tut was fürs Klima UNDERVOLTET!!! XD
 
Es geht nicht um die Shader sondern um den genutzten Chip und das weißt du auch. Ist dir das nicht langsam peinlich?
Entweder diskutierst du ordentlich mit mir oder du lässt es. Auf son Bullshit habe ich keine Lust!
Erst sagst du, dass ich die 80er nicht Vergleichen kann, weil die 2080 weniger RT-Cores hat als die 3080 und nun kommst du mir so :ugly: :stupid:

48 RT Cores vs 68 RT Cores zu vergleichen ist Schwachsinn.
Laut der Logik darf ich die 1080 TI auch nicht mit der 2080TI Vergleichen, weil die eine mehr Shader hat als die andere.
Merkste selbst, oder?
Unabhängig davon steigt selbst zur TI die RT Leistung um bis zu 60%. Wenn man jetzt die 3090 nimmt, welche für mich der Gegenpart zur TI ist, dann ist sie nochmal ne Ecke schneller.

Ja um ein paar Prozent, äußerst beeindruckend, genau das ist quasi gleich geblieben und nichts anderes.
Wieso du NVIDIA immer bis aufs Blut verteidigst werden ich nie verstehen.
Ich verteidige Nvidia nicht. Du schreibst einfach Bullshit.
Faktisch ist die RT Leistung von der 80er Karte um mehr als das doppelte gestiegen (im best case Szenario). In reinen RT Spielen schwankt es zwischen 80 und 95%, was meinem "fast das doppelte" entspricht.
 
Die Zeiten richtig guter Programmierer sind schon sehr, sehr lange vorbei. Wenn man großzügig ist, dann kann man Crysis als letztes Spiel nehmen. Aber auch da war an so unglaubliche Meisterwerke, wie Quake 1 und das alte Doom oder Wolfenstein, die alles aus der Hardware geholt haben, nicht mehr zu denken.

Heute wird einfach darauf los entwickelt, ohne, dass man irgendwie optimiert. Die CPUs sind darauf ausgelegt und auch die GPUs, mit ihren Treibern.

Das kann gut sein, aber seitdem wurden auch die Frameworks, Packages und Libraries immer komplexer und größer. Ich glaube, dass die Komplexität der Codes einfach zunimmt, weshalb ich folgendes vermute:

Die Zeit, diese vorgefertigten Pakete für einen Entwickler in einem Unternehmen innerhalb eines Projektzeitplans zielgenau zu verstehen, steht gar nicht zur Verfügung, ist aber auch nicht mehr verhältnismässig. Wenn man da den Bottleneck verstehen will, muss man nunmal ein Abwägen in Betracht ziehen.

Wir hatten früher noch nicht so weit entwickelte Tools wie heute. Das ist aber nunmal üblich in der Softwarewelt. Irgendwann steht man an dem Punkt, wo man bekannte Tools (z. B. OpenCV) einfach übernimmt, den Input definiert und sich auf seinen eigenen spezifischen Code konzentriert, statt jeden Bottleneck innerhalb der verwendeten Tools bzw. Funktionen zu verstehen.
 
Ich habe mir schon bei der Ankündigung gedacht das die Zahlen in der Form real für uns nicht haltbar sein werden können.

Wirkt halt sehr gut im Marketing mit so großen Zahlen zu protzen und zu behaupten wie viel schneller alles wird...

NVidias Bulldozer oder Fiji xD
Noch fehlt dazu aber ein Gegenüber, der Ampere alt aussehen lässt ;)

Allegemein stellt sich aber auch noch die Frage, selbst wenn NV noch die Auslastung verbessern könnte, was soll das bringen. Da die TDP ja schon ausgereizt ist.
 
Nicht die ganzen Shading Prozessoren wurden verdoppelt, sondern nur die darin enthaltene FP32-Einheit, und zwar exklusiv auf Kosten der parallelen INT32-Berechnung. Das ist großartig fürs Machinelearning, die Grafik erfordert aber das entsprechende Verhältnis an TPUs und TMUs.

So ist es. Und in den ganzen Diskussionen kommt m.E. das Thema "DLSS" zu kurz. Ich glaube eines ist unbestritten: es ist wirklich klasse, welche Ergebnisse Nvidia durch diese KI-gestützte Technik erreicht hat. Am Anfang konnte ich die Technik noch nicht wirklich erst nehmen (schwammige Darstellung), heute muss ich die "Nachteile" im Bild im Quality Mode mit der Lupe suchen. DLSS hat signifikant positive Auswirkungen auf Leistung im Sinne von Gaming-Leistung (FPS) als auch Speicher(aus-)nutzung. Also was bringt das reine Zählen von Cores und ROPs, VRAM GBs und ALUs?
 
Zuletzt bearbeitet:
Das kann gut sein, aber seitdem wurden auch die Frameworks, Packages und Libraries immer komplexer und größer. Ich glaube, dass die Komplexität der Codes einfach zunimmt, weshalb ich folgendes vermute:

Die Zeit, diese vorgefertigten Pakete für einen Entwickler in einem Unternehmen innerhalb eines Projektzeitplans zielgenau zu verstehen, steht gar nicht zur Verfügung, ist aber auch nicht mehr verhältnismässig. Wenn man da den Bottleneck verstehen will, muss man nunmal ein Abwägen in Betracht ziehen.

Wir hatten früher noch nicht so weit entwickelte Tools wie heute. Das ist aber nunmal üblich in der Softwarewelt. Irgendwann steht man an dem Punkt, wo man bekannte Tools (z. B. OpenCV) einfach übernimmt, den Input definiert und sich auf seinen eigenen spezifischen Code konzentriert, statt jeden Bottleneck innerhalb der verwendeten Tools bzw. Funktionen zu verstehen.

Es ist eben ein generelles Problem bei der Softwareentwicklung. Man hat drei Ressourcen: Zeit, Geld und Personal, alle sind knapp und alle hängen voneinander ab. Gute Programmieren benötigt Zeit und fähiges Personal, die wiederum Geld kosten.

Deshalb gibt man meist ein Projekt ab, wenn es einigermaßen läuft, man kann es immernoch Patchen.

Früher gab es einfach die Leistung nicht. Wenn man auf dem 386er 3D Graphik sehen wolle, dann mußte man unglaublich effizient sein. Dass Quake auf den Pentium CPUs (nur auf den CPUs, nicht auf der Graka) läuft, ist auch heute noch ein Wunder. Solche Wunder sind heute nichtmehr nötig und werden auch nichtmehr geschätzt.
 
Was genau sind den "ALU"?
Bitte genauer erklären, danke.

Bzw. Warum sollen die ALUs den Texturen im Vorteil sein?
ALU=Arithmetic Logical Unit. Das ist das was in den Shadereinheiten steckt und die Berechnungen übernimmt.
Der Satz von Raff war Ironie. Man kann Speicher eben nicht durch Rechenleistung ersetzen.
Also die RTX 3080 stößt oft ins CPU Limit, selbst mit der stärksten CPU.
Nur wenn Igor wieder zahme Settings auffährt. UHD und sogar WQHD mit richtig aufgedrehten Spielen(so wie bei Raffs Tests) ist schon heute nicht/kaum durch die CPU limitiert.
 
Ohne den vielen relativ schwachen Jaguar-Kernen der Konsolen, würden die spiele heute immer noch nur 1-2 Kerne nutzen!
Ein Irrglaube, meiner Meinung nach. Es gab davor ja schon lange Titel, die mehr Kerne genau so gut genutzt haben. Der Zahn der Zeit hat es in der Masse verbreitet. Den Anteil der Konsolen schätze ich gar nicht zu hoch. Aber selbst wenn es so wäre. Es ging dabei ja um die GPU Leistung.
 
Entweder diskutierst du ordentlich mit mir oder du lässt es. Auf son Bullshit habe ich keine Lust!
Erst sagst du, dass ich die 80er nicht Vergleichen kann, weil die 2080 weniger RT-Cores hat als die 3080 und nun kommst du mir so :ugly: :stupid:


Laut der Logik darf ich die 1080 TI auch nicht mit der 2080TI Vergleichen, weil die eine mehr Shader hat als die andere.
Merkste selbst, oder?
Unabhängig davon steigt selbst zur TI die RT Leistung um bis zu 60%. Wenn man jetzt die 3090 nimmt, welche für mich der Gegenpart zur TI ist, dann ist sie nochmal ne Ecke schneller.


Ich verteidige Nvidia nicht. Du schreibst einfach Bullshit.
Also dein Ton ist hier noch am wenigsten angebracht wenn ich das mal festhalten darf.
 
ALU=Arithmetic Logical Unit. Das ist das was in den Shadereinheiten steckt und die Berechnungen übernimmt.
Der Satz von Raff war Ironie. Man kann Speicher eben nicht durch Rechenleistung ersetzen.

Nur wenn Igor wieder zahme Settings auffährt. UHD und sogar WQHD mit richtig aufgedrehten Spielen(so wie bei Raffs Tests) ist schon heute nicht/kaum durch die CPU limitiert.

Achso, verstehe.

Ich dachte das sei eine zukünftige Form der Spieleentwicklung, weshalb die Grafikkarten weniger Speicher haben (was sich damit erklären liese).
 
Es wäre doch das Beste wenn wir uns alle wieder lieb haben oder :pcghrockt:
Leistung haben die Dinger,da muss man nu nicht streiten. Das man von einer TI ausgehend aber auch keine Wunder erwarten brauch düfte auch klar sein denke ich.
 
Es ist eben ein generelles Problem bei der Softwareentwicklung. Man hat drei Ressourcen: Zeit, Geld und Personal, alle sind knapp und alle hängen voneinander ab. Gute Programmieren benötigt Zeit und fähiges Personal, die wiederum Geld kosten.

Deshalb gibt man meist ein Projekt ab, wenn es einigermaßen läuft, man kann es immernoch Patchen.

Früher gab es einfach die Leistung nicht. Wenn man auf dem 386er 3D Graphik sehen wolle, dann mußte man unglaublich effizient sein. Dass Quake auf den Pentium CPUs (nur auf den CPUs, nicht auf der Graka) läuft, ist auch heute noch ein Wunder. Solche Wunder sind heute nichtmehr nötig und werden auch nichtmehr geschätzt.

Da gebe ich dir recht, dass man quasi heutzutage durch die heutigen Leistungsreserven "bequem" wird. Vermutlich liegt die Wahrheit irgendwo in der Mitte, aber letztendlich ist es immer ein abwägen.

In der Softwareentwicklung für die Industrie kommt es eher vor, dass man auf Performance achtet - insbesondere bei Simulationen. Das kann ich zumindest aus eigener Erfahrung mit Virtual Test Drive Simulatoren untermauern.
 
Zuletzt bearbeitet:
Gemessen am Stromverbrauch ist eine 3080/3090 kein großer Wurf. In Zeiten von Öko & Co, eine Grafikkarte auf den Markt zu bringen mit über 300Watt hat irgendwo Geschmäckle. Es ist auch keine Kunst mit einem V12 BiTurbo über 300 Km/h zu fahren. Gute 100 Watt weniger, und ich wäre beeindruckt.
 
AMD wurde für seine Rechenmonster die bei Spielen nicht die Leistung auf die Straße bringen konnten belächelt. Jetzt springt NVidia auf den Zug auf :ugly: ? Wie gut AMDs Karten gealtert sin wissen wir, das wird nichts mit dem altern der NV Karten. Die Gernerationssprünge sind zu hoch als das das irgendeine Relevanz hätte.
Vor Allem wenn man den GPU noch mehr auslasten wöllte wird die Spannungsversorgung ja noch mehr strapaziert, sind die Spannungsspitzen und Drops noch höher. Ne da glaub ich nicht drann.
 
Zurück