RTX 3090 Performance - Gerüchte sprechen von nur 10 % Mehrleistung gegenüber RTX 3080

Und inwiefern hat die Tatsache, dass du eine 2080ti besitzt etwas damit zu tun, die Rechenleistung der 3090 erraten zu können? Magie, Pendel, Kristallkugeln?
Entweder bist du einer der Tester, die unter NDA schon 3090er testen konnten, oder du weißt von der tatsächlichen Rechenleistung der 3090 in Spielen und Anwendungen genau so viel wie wir alle, nämlich nichts.
2080Ti hat damit zu tun das ich noch mehr Leistung haben möchte und mir 11GB zu wenig sind für 4K und mich der 3080 Vram Krüpel nicht nicht weiter bringt!
Und ich besitze meine 2080Ti nicht mehr da ich sie vor ein Paar Wochen noch für knapp 1000 verkauft habe !

Und schaust du dir die Benchmarks der 3080 an und wie sich das PT verhält brauchst du keine Glasskugel um zu wissen wo die Karte grob landet und was man unter Situation X noch raus holen kann .
Für mich gibt es nur einen Weg !

Du kannst dir halt nicht anmaßen meine Bedürfnisse einzuschätzen zu können !
 
Zuletzt bearbeitet:
Das Thema FS2020 hatten wir bereits in den letzen Tagen besprochen.
Das Game ballert sich die heruntergeladenen Texturen in den VRAM und nutzt sie nicht.
Sie werden lediglich dort abgelegt und sind nicht am Rendervorgang beteiligt.

Man muss hier ganz klar von Allokation und tatsächlicher Nutzung unterscheiden.
Wohl wahr. Der Unterschied zwischen Speicherbelegung und Speicherbedarf wurde nun wirklich an unzähligen Stellen wieder und wieder durchgekaut. Wer es immer noch nicht begiffen hat, will das vermutlich nicht.
Allerdings bleibt es nach wie vor zu erwarten, dass die neuen Konsolen zu wesentlich höher aufgelösten Texturen führen dürften und ob dann die 10 GB (in hohen Auflösungen) reichen, weiß der Himmel. Zumindest habe ich bis jetzt noch nichts zu diesem Thema gefunden, das diese Befürchtung entkräften könnte. Würde ich mir eine 3080 kaufen, möchte ich die jedenfalls nicht schon wieder 2021 verkaufen müssen. Da bleibt wohl nur, auf Big Navi zu warten und danach eine informierte Entscheidung zu treffen. Was nicht weiter schwer fällt, weil man aktuell ja sowieso keine 3080 kaufen kann. ;)
 
Die Konsolen, zb die PS5, haben 16GB geteilt für RAM und VRAM. Der VRAM wird da die 8GB nicht übersteigen können, denn sonst wird es beim RAM extrem eng und dann beginnt die ganze Kiste zu laggen. Und wenn die Konsolen mit grob 8GB @4K klarkommen müssen, dann schafft das ne RTX3080 mit 10GB locker. Sieht man ja auch oben, wenn man in meine Quelle hereinschaut.
 
Und schaust du dir die Benchmarks der 3080 an und wie sich das PT verhält brauchst du keine Glasskugel um zu wissen wo die Karte grob landet und was man unter Situation X noch raus holen kann .
Das ist leider Unsinn. Du HOFFST auf irgendwas, WISSEN tust du exakt Null. Nicht mal grob. Wie ich weiter oben schon schrieb, könnte schon allein die mickrigen 30 Watt, die die 3090 gegenüber der 3080 mehr aufnehmen darf, ein Bremsklotz sein. Die kann man dann mit Wakü noch etwas ausweiten, schön, dann legt sie noch ein paar Prozent mehr drauf. Ob das den mit Wakü mehr als doppelt so hohen Preis rechtfertigt, muss jeder mit sich selber ausmachen.

Die obige Überlegung ist wohlgemerkt reine Spekulation, wissen kann ich das nicht und vielleicht stellt sich ja später heraus, dass ich mich geirrt habe. Aber im Gegensatz zu deinen Behauptungen sind meine Spekulationen wenigstens technisch begründet.

Wenn du so viel Geld für eine Graka auf den Kopf hauen möchtest, wünsche ich dir viel Spaß damit. Aber dieses Geschwafel von "Ich kann einschätzen wie schnell meine nächste Graka sein wird, obwohl es keine belastbaren Tests gibt" ist schlichtweg Quark. Es geht mir massiv auf den Zeiger, wenn Leute ihre Wunschvorstellungen als Tatsachen hinstellen wollen. "Ich mache mir die Welt, widde widde wie sie mir gefällt."

Und wenn die Konsolen mit grob 8GB @4K klarkommen müssen, dann schafft das ne RTX3080 mit 10GB locker.
Wir werden sehen, wir werden sehen. Das sind gut begründete Spekulationen, aber dennoch Spekulationen. Darauf gründe ich eine Investition in Höhe von mindestens 700 Euro nicht.
 
Zuletzt bearbeitet von einem Moderator:
Das ist leider Unsinn. Du HOFFST auf irgendwas, WISSEN tust du exakt Null. Nicht mal grob. Wie ich weiter oben schon schrieb, könnte schon allein die mickrigen 50 Watt, die die 3090 gegenüber der 3080 mehr aufnehmen darf, ein Bremsklotz sein. Die kann man dann mit Wakü noch etwas ausweiten, schön, dann legt sie noch ein paar Prozent mehr drauf. Ob das den mit Wakü mehr als doppelt so hohen Preis rechtfertigt, muss jeder mit sich selber ausmachen.

Die obige Überlegung ist wohlgemerkt reine Spekulation, wissen kann ich das nicht und vielleicht stellt sich ja später heraus, dass ich mich geirrt habe. Aber im Gegensatz zu deinen Behauptungen sind meine Spekulationen wenigstens technisch begründet.

Wenn du so viel Geld für eine Graka auf den Kopf hauen möchtest, wünsche ich dir viel Spaß damit. Aber dieses Geschwafel von "Ich kann einschätzen wie schnell meine nächste Graka sein wird, obwohl es keine belastbaren Tests gibt" ist schlichtweg Quark. Es geht mir massiv auf den Zeiger, wenn Leute ihre Wunschvorstellungen als Tatsachen hinstellen wollen. "Ich mache mir die Welt, widde widde wie sie mir gefällt."


Wir werden sehen, wir werden sehen. Das sind gut begründete Spekulationen, aber dennoch Spekulationen. Darauf gründe ich eine Investition in Höhe von mindestens 700 Euro nicht.
:nicken:Welche Tatsachen?
Hab keine Angabe zur Leistung gemacht!
Ich will die Karte haben und freu mich drauf und du kommst mir ob das schlau ist ?

Lass das doch meine Sorge sein !
Wenn du anderen das nicht gönnen kannst sag es doch gleich frei raus.

Die 3090 wird die schnellste Karte Punkt!
Ich hoffe da nix !
Ob das 10 oder 20% sind juckt mich nicht Hauptsache ich mach kein Downgrade beim Ram!
Den Rest Power hole ich mir über das gute Powertarget der Strixx und später eventuell sogar ein Mod Bios !
Hier warten 4*480er Radis auf die 3090.

Am Ende bekomme ich das was ich will!
 
Zuletzt bearbeitet:
Die Konsolen, zb die PS5, haben 16GB geteilt für RAM und VRAM. Der VRAM wird da die 8GB nicht übersteigen können, denn sonst wird es beim RAM extrem eng und dann beginnt die ganze Kiste zu laggen. Und wenn die Konsolen mit grob 8GB @4K klarkommen müssen, dann schafft das ne RTX3080 mit 10GB locker. Sieht man ja auch oben, wenn man in meine Quelle hereinschaut.
Auf den geteilten Speicher können aber eben auch CPU und GPU zugreifen, während beim PC die Grafikassets zumindest bis jetzt immer den Umweg über den RAM nehmen müssen - und dementsprechend dann auch dort vorgehalten werden, wenn man streamen will erst recht. Die Konsolen müssen das natürlich nicht.

Ohnehin würde ich behaupten, dass der Großteil des Speichers für Grafikassets draufgeht. Texturen, Geometrie und vorgerenderte Beleuchtung, das sind die Speicherfresser. Das bisschen Physik und der generelle Programmablauf hingegen dürften dagegen lächerlich wenig Speicher brauchen, da werden ja keine präzisen FEM Simulationen ausgeführt.

Ich halte es daher für utopisch, darauf zu hoffen, dass zukünftige Spiele auf den höheren Einstellungen mit nur 8 GB VRAM zurechtkommen werden. Ich denke es wird eher in Richtung 16 GB gehen, eben die Speichermenge der Konsolen. Genauso wie aktuelle Spiele durchaus von 8 GB profitieren, was eben auch der Hauptspeichermenge der PS4/Xbone entspricht.
 
ich werde nicht müde es zu erklären
Wie viel vram ein spiel nutz oder nur vorladet hängt maßgeblich von der game engine ab

Alle spiele die auf dx9 dx10 und dx11 basieren laden genau 3 frames in den vram
Dann gibte s games die teile des frames vorladen was nochmal ein frame bis 2 frame an daten in den vram laden
dann gibt es welche die das game komplett quasi im vram ram spiegeln und quasi ein datenstream zwischen diesen erzeugen üblicherweise bei konoslenports.
Diese games profitieren vom pcie bus also auch pcie4
Die Zukunft wird sogar sein das zwischen ssm ram und vram direkt gestreamt wird,. Direct storage
das hat den vorteil das weniger vram belegt wird und die drawcalls reduziert werden.
Das bedeutet aber auch das viele Szenen statisch sein werden und das gamedesign danach gerichtet wird.
Stellt euch vor ein open world game lädt die Tapete die Starr ist einfach vom ssm ohne berechnet zu werden und der rest wird quasi darüber gelegt
Aktuell wird alles was für die 3 frames benötigt wird in den vram geladen daraus wird das bild erstellt.
In Mathe ist das so zu sehen
Zuerst games werden auf Auflösung hin designet
Momentan ist man bei 1080p 512bit per dpi im schnitt

1920*1080*8/96*512*/8*3=4,050gb

Das mehr an vram Nutzung geht dann zu Effekten die kosten auch vram meist etwa 10-30%
also max sind dann 5,265gb
Also kommt man folglich immer mit 6gb vram bei 1080p aus , falsch den games sind nicht unbedingt stur auf 512bit per dpi limitiert das hängt maßgeblich von den texture Qualität ab.
Das kann von 32bit für bumb maps bis 2mb mit hohen details gehen.
Dazu ist man nicht unbedingt auf 96dpi limitiert das kann kleiner sein
Das hängt von der geometrie im game ab. (polygoncount)
Vieles wird per tessellation mipmap oder auch Verdeckungsmaps ab um ein tiefenschärfe zu simulieren.

Gutes bsp ist re3/re2 beide games laden 512bit auf 1080p mit einer Vorladefunktion auf bedeutet ab dem moment wenn man textures auf hoch stellt ändert sich nix an der Qualität mehr
Das game braucht maximal etwa 4gb vram darüber ist simples vorladen was Ladezeiten reduziert, mehr passiert da nicht

Nahezu alles wird sich mit ue5 ändern da die Grundlage texture Erstellung ändert

Derzeit reichen 8 oder 10gb vram locker aus lediglich games die ihren Inhalt vom ram auf vram kopieren werden eine rtx3080 ans vram limit bringen.
Der texture Qualität stufen entsprechen wie viel vram vorgeladen werden nicht die texture Qualität an sich.
Diese ist fix auf konsolenbedürfnisse angepasste Auflösung von wo alles up und downsamplet wird.
Darum wird ja direct storage eine deutliche Verbesserung bringen wenn nvidia ein modell mit mehr sm und vram würde, wird diese sogar minimal langsamer im vram sein
da 256bit und 16gb


Interessanter wird da rtx3070 mit 12gb vram mit 192bit kommen
was sehr wahrscheinlich als refresh 2021 kommen wird
Aber vor q3 21 wird da nix kommen.
rtx io wird es zeigen.

Das ein refresh bzw amd Antwort wird rtx3070 mit 12gb vram 20gbit= 192*20/8=480gb/s
vs 14*256/8=448gb/s
Die rtx3080 mit 16gb gddr6x 20gbit = 256*20/8=640gb/s
Was wahrscheinlicher ist es wird 12gb gddr6x 20*384/8=960gb/s aber eben 12 statt 10gb
Das wird aber vor micrin gddr6x mit 2gb moduls nicht kommen und die werden vor q3 2021 nicht am markt sein.
Also nix mit 20gb modell der rtx3080

Das 16gb modell mit gddr6 macht kein Sinn da man die bandbreite und Si des chips kastrieren müsste
Was deutlicher Leistung kosten würde als weniger vram zu haben. zumal direct storage das manko aufheben wird.
 
Zuletzt bearbeitet:
Die Konsolen, zb die PS5, haben 16GB geteilt für RAM und VRAM. Der VRAM wird da die 8GB nicht übersteigen können, denn sonst wird es beim RAM extrem eng und dann beginnt die ganze Kiste zu laggen. Und wenn die Konsolen mit grob 8GB @4K klarkommen müssen, dann schafft das ne RTX3080 mit 10GB locker. Sieht man ja auch oben, wenn man in meine Quelle hereinschaut.


Die Ps5 hat 16Gb . Die XSX hat 10Gb Grafik und 6 GB Arbeitsspeicher
 
Ich wette nen 1000er dass es auf keinen Fall nur 10% sind. Ich schätze den Abstand selbst zu meiner OC 3080 bei 30% ein.

Hast du Geld zu verschenken? Wie soll eine Karte die gerade mal 20% mehr Einheiten hat als eine 3080, dann auch noch stokck ist zu einer oc Variante 30% Mehrleistung haben.

Und das die Karten nicht gut skaliert sehen wir ja auch an den 30% realgewinn zwischen 2080ti und der 3080 wobei die 3080 ja 100% mehr Shader hat.
 
Zuletzt bearbeitet:
@Yes I Am

Nur für den Fall, dass dein Post keine Satire ist: Ich habe selten so viel Stuss gelesen. Die Rechnungen, die du anstellst sind absoluter Blödsinn, und scheinen einzig für den Zweck konstruiert, um auf ein gewünschtes Ergebnis zu kommen. Die Angabe "512 Bit / dpi" ist zum Beispiel absolut sinnfrei, da die beiden Größen nichts miteinander zu tun haben.
 
Also ist die Bilderstellung im raster geheime soße
jemals ein level editor genutzt?
Das bsp ist simplifiziert und alles wird am raster orientiert damit man nicht zu hohe Anforderungen provoziert
Ein designer ist es herzlich egal wie deren skitzen umgesetzt werden.
Das meiste übernimmt die engine von alleine ue ist da führend
Entwickler sind oft nur designer keine Programmierer das machen OFT nur ein oder drei Leute selbst in aaa
Nur bezeichnet man in gamestudios alle als programmierer wenn diese lediglich die 3d modells zeichnen oder das level designen
Da programmiert keiner was.
Aber irgendwo muss doch der Speichebedarf herkommen und wenn man ein blender 3d modell erstellt sind teile wo die tapete sind mit bit per polygon belegt.
Das vereinfacht als bit pro dpi zu übersetzen macht mehr sinn als den unbekannten polygoncount mit tapete zu errechnen und für die level grenzen zu addieren die man auch nicht kennt.
Bodentexturen sind meist mipmap oder bumb maps die mit tesselation oder anderen effektmaps mit simplen 32bit Farbe bestückt sind.
Im Grunde kann man fotos da rein stecken (fotogramatie)
Für berechnen von gamedesign wäre das zu komplex den man muss games planen in der Entwicklung und da ist secret soße einfach dumm zu nutzen gemäß dem motto wird schon klappen.
Daher sind fertige engines bei game developer sehr beliebt.

Wie erwähnt wird UE5 einiges an optik verbessern da nicht mehr umständlich gerechnet werden muss.
Das beste an dieser Technik ist das man nix mehr skalieren muss, 3d modell erstellen textur zeichnen fertig.
Der Rest macht die engine

Aber man arbeitet aktuell nach dem motto erst designen und dann sorgen um die performance machen. Und so wird bei den meisten game Entwicklung aktuell gearbeitet weswegen man 10-20 mann fürs optimieren braucht für die konsolen ports am pc port wird lediglich ein debugging gemacht der Rest erledigt quasi der beta launch was nahezu alle games heutzutage sind.
 
Dass die 3090 nicht übermäßig viel scheller als die 3080 ist (sofern unabhängige Tests den mageren Geschwindigkeitsunterschied wirklich belegen sollten), hatte ich schon aus einem ganz anderen Grund geargwöhnt, nämlich der Leistungsaufnahme. Die 3080 hat 10 GB VRAM und 320 Watt TDP, die 3090 hat 24 GB VRAM und 350 W TDP.

Ich denke, dass Du da genau auf der richtigen Fährte bist. Die RTX 3090 wird wegen des Powerlimits die maximal mögliche Leistung nicht auf die Straße bringen. Der VRAM ist für eine Spieler-Karte maßlos überdimensioniert und schadet hinsichtlich des Powerlimits mehr als er nutzt.
Meiner Meinung nach ist die RTX 3090 nur für Profis interessant, die die RTX 3090 in ML oder AI-Anwendungen ausfahren können (quasi als Quadro Light). Für reine Zocker ist das grober Unfug für das bisschen Mehrleistung mehr als das Doppelte an Kohle der RTX 3080 hinzulegen.

Für RTX 2080Ti Besitzer (trifft auch auf mich zu) ist die bisherige Produktpolitik bei Ampere etwas unbefriedigend. Die RTX 3080 kommt nicht wirklich in Frage, aber die RTX 3090 auch nicht. Wann die 20GB Variante der 3080 kommt, steht noch in den Sternen, aber aktuell ist das für 2080Ti Besitzer eigentlich die einzig wirklich sinnvolle Option.

Ich bin mal gespannt, wie lange nVidia damit warten wird und ob die 20GB Variante "schon" als Konter zum Start von AMD's Big Navi kommen wird. Schön wäre es.
Eine weitere interessante Variante wäre eine potentielle RTX 3080Ti, die die RTX 3090 schlägt oder quasi gleichauf liegt. Wer das für unmöglich hält, der sei daran erinnert, dass in der Vergangenheit das Duell "Ti" gegen Titan oft zugunsten der "Ti" ausgegangen ist. Vielleicht lässt nVidia die RTX 3090 sogar recht schnell auslaufen, da der Zweck der Karte (Performancekrone halten) erreicht wurde.
 
Ich werde hier auch die Tage nicht müde auf der VRAM-Thematik rumzureiten. Eine zig Jahre alte R570X hat bereits 8GB VRAM. Es gibt auch eine 4GB-Version und selbst hier bei solch relativ geringer Compute-Leistung zeigen sich während des "Lebenszyklus" dieser Karte große Unterschiede in der Leistungsfähigkeit. Genau das gleiche war bei der Geforce 1060GTX 3GB vs 6GB. Die 3GB-Version reichte zum Zeitpunkt des Erscheinens auch noch..... was passierte dann????

Wie hier manche cherry picking betreiben und Spiel x, y und z aus der Betrachtung rausnehmen wollen, wo gezeigt und beobachtet wurde, dass selbst 11GB VRAM unter max Settings bereits Ruckler zeigten bei einem Current-Generation Titel von Konsolen, die weitaus weniger Hardwareressourcen haben. Ist es nicht so, dass die PC-Adapationen oftmals höhere Grafiksettings haben als die Versionen auf den Konsolen und somit MEHR Ressourcen beanspruchen?

Die 10GB Bei der 3080 wurden gewählt, weil der GDDR6X Speicher teuer ist, IM MOMENT die Menge ausreichend erscheint aber gleichzeitig 1500€ für ein höheres Model aufgerufen werden wollen. Zudem erhöht es den Gewinn von NVIDIA und bringt einen UNNÖTIGEN zukünftigen Flaschenhals. Man trickt den Konsumenten geschickt, denn diese Generation ist alles andere als günstiger als die vorherige. 999€ war die offizielle UVP für 2080 TI? Nun sind es bereits 1499€ .... nochmals 50% drauf. Und in meinen Augen ist die 3080 das was die 2070 war. Die richtige 3080 mit adäquater Speichermenge wird nochmals draufschlagen und das Lockangebot von 699€ für ein Flaggschiff als Witz erscheinen lassen. Die 10GB sollen den Enthusiasten dazu bringen, dass 2080TI - Nutzer zur 3090 getrieben werden und nochmals 50% Aufpreis gegenüber der maßlos überteuerten Turing-Serie nochmals draufzulegen.

Die 8GB/10GB werden zu wenig werden, 24GB aber ein gewisses Overkill sein. Dazwischen bietet man absichtlich erstmal nichts. Friss oder Stirb. Habt ihr euch mal den Gedanken gemacht, dass vom Chip und der Platine der 3080 her es kein Problem gewesen wäre die Karte von Start an mit 12GB anzubieten? Das wurde ausgelassen, weil die Karte zum einen dadurch schneller(Speicherinterface-Breite) geworden wäre und zum anderen 12 GB bereits ein Uplift zu den 2080TI-Karten gewesen wäre. Aber nein.... der entsprechende Platz auf der Platine wird einfach leer gelassen. Lieber 1500€+ für eine 3090 zahlen baby!!!

Versucht mal DOOM Eternal mit einer 4GB Grafikkarte zu zocken und nimmt dann eine 8GB-Version des gleichen Chips. Texturregler kann nach rechts gedreht werden ohne jeglichen Verlust an FPS sofern der RAM-Takt identisch bleibt mit erheblichen visuellen Zugewinn!
 
Zuletzt bearbeitet:
@Moriendor
Ich verstehe was du sagst, aber für mich macht es einfach logisch keinen Sinn, dass Nvidia eine RTX3080Ti nachschiebt, die günstiger und schneller ist als eine RTX3090. Denn schneller kann sie ja nur sein, indem man ihr den Vollausbau spendiert und dann sollte so eine Karte die RTX3090 wiederum hinter sich lassen. Auch der Stromverbrauch wäre natürlich höher.

Also für mich macht das keinen Sinn.
Dann hätte Nvidia die RTX3090 irgendwie anders nennen sollen.
Eine 80er sehe ich nicht vor der 90er, auch das Ti-Suffix wird daran nichts ändern können.

Desweiteren bin ich auch mal auf den Preis gespannt.
Die RTX3090 wird jetzt sicherlich ne sehr sehr lange Zeit bei 1499€ kleben bleiben.

Wenn was schnelleres als eine RTX3090 nachgeschoben wird, dann die Titan mit 48GB und Vollausbau für 2999€.
 
Wenn AMD diesmal nicht etwas wirklich Flottes bringen würde, dann würde NVIDIA sich nicht genötigt fühlen den teureren großen 102-Chip bereits für die 3080 nehmen zu müssen. Der kleinere günstigere 104-er hätte wohl ansonsten gereicht.

Dadurch und wegen des Fertigungsprozesses, dem damit verbundenen Stromverbrauch, kann es für die 3090 nicht mehr besonders weit drüber gehen.

Ich tendiere zu keiner Fraktion, AMD würde es nicht anders machen, wenn sie in der gleichen Position wären.
 
also auch wenn man dafür weder den preis-leistungs - noch den grünen-daumen-award bekommen würde:
ne 3090 mit nem wakü block der beide seiten kühlt (also vor allem den vram) und nem 450w bios angeschlossen an meinem mora würde mich schon reizen. ....:-)
ich glaub da könnte man enorme leistung rauskitzeln aus dem ding.
ich glaub das ding is nich dafür gemacht @stock und luftgekühlt zu laufen. da lässt man zuviel leistung liegen.
aber naj awarten wirs ab, nix genaues weiss man nich.....
 
Zurück