RTX 3090 Performance - Gerüchte sprechen von nur 10 % Mehrleistung gegenüber RTX 3080

Solch eher geringen Schritte bei nVidia und dann noch humanere Preise, ein unnötig überhöhtes PT bei der 3080 (siehe CB Test mit TDP von 270 Watt), wahrscheinlich sehr geringes Leistungsplus zu 90er Karte, zu wenig RAM, welcher extrem hungrig ist und heiß. Die notgedrungen 8nm Fertigung durch AMD bei Samsung.

So glücklich kann nVidia nicht sein mit dieser Generation, defintiv eine Chance für AMD, 7nm und eine neue Architektur. Es wird diesen Winter interessant wie schon seit Jahren nicht mehr.
 
Solch eher geringen Schritte bei nVidia und dann noch humanere Preise, ein unnötig überhöhtes PT bei der 3080 (siehe CB Test mit TDP von 270 Watt), wahrscheinlich sehr geringes Leistungsplus zu 90er Karte, zu wenig RAM, welcher extrem hungrig ist und heiß. Die notgedrungen 8nm Fertigung durch AMD bei Samsung.

So glücklich kann nVidia nicht sein mit dieser Generation, defintiv eine Chance für AMD, 7nm und eine neue Architektur. Es wird diesen Winter interessant wie schon seit Jahren nicht mehr.
Also wenn ich mir die Temperatur der Asus oder MSI Modelle anschaue dann sieht das gar nicht schlecht aus. Der 8nm Prozess von Samsung scheint nicht so schlecht zu sein wie sein Ruf und auch der RAM hat eine Betriebstemperatur bis 110 Grad Celsius. Also dementsprechend gerade bei den Partnerkarten alles im Rahmen.

Powertarget ist natürlich hoch trotz das Ampere nicht so gut auf den letzten 50 Watt skaliert. Interessant, dass Nvidia doch so hoch gegangen ist. AMD wird bestimmt gute Konkurrenz zur 3080 bieten. Leistungstechnisch haben sie dieses mal viele Möglichkeiten. 7nm EUV von TSMC und mehr Grafikspeicher. Günstig wird das aber allemal nicht.

700€ MSRP mit 16GB Grafikspeicher und Leistung um die RTX 3080 würde mich freuen aber vielleicht bin ich da auch schon etwas zu optimistisch.
 
die wird wohl eher um 2000€ kosten.
Ob sich das dann für ein paar Prozent mehr Leistung lohnt?

Glaubst du echt, dass die Karte 500€ drauf legen wird?
Ich denke eher, dass es sich um die 300+ bewegen wird. Dabei gehts mir auch nicht um die Leistung, sondern eher um allgemein kühlere Temperaturen. Tests werden ja zeigen ob es sich lohnt.
Das letzte Woche gekaufte Crusader Kings 3 macht mich recht geduldig was neue Hardware angeht. Das läuft auch auf der 1070 :D
 
Was ich hier auch noch einmal ansprechen möchte ist der allgemein Fortschritt in Speicherkompression. Den sollte man nicht verachten. Wenn die meisten Leute eine Grafikkarte mit 10GB oder weniger VRAM besitzen, werden die Entwickler auch neue Software anwenden die effizienter ist. Gerade mit den neuen Konsolen müssen wir erstmal schauen wohin sich die Entwicklung der Next-Gen Titel bewegt, aber Speicherkompression wurde ja schon mehr als einmal angesprochen um den vergleichsweise kleinen Sprung von 2x RAM auf den Konsolen entgegenzuwirken.
Speicherkompression ? Du meinst eher Texturkompression da diese entgegen Speicher jeder Art keine feste Materie darstellt. Aber auch da bist du etwas auf dem Holzweg. Die Kompression nehmen wir einfach mal eine 4K Textur. Diese wird beim Transport verkleinert = weniger Transferrate wird gebraucht und Platz auf der HDD/SSD. Im VRam wird diese um angezeigt werden zu können wieder unkompriemiert genutzt. Zumindest nicht in voller Kompression. Da haben wir dann schon wieder mit zu wenig VRam ein Problem. Entweder geringere Auflösung anzeigen lassen oder mehr VRam sonst wirds ruckelig.
 
Speicherkompression ? Du meinst eher Texturkompression da diese entgegen Speicher jeder Art keine feste Materie darstellt. Aber auch da bist du etwas auf dem Holzweg. Die Kompression nehmen wir einfach mal eine 4K Textur. Diese wird beim Transport verkleinert = weniger Transferrate wird gebraucht und Platz auf der HDD/SSD. Im VRam wird diese um angezeigt werden zu können wieder unkompriemiert genutzt. Zumindest nicht in voller Kompression. Da haben wir dann schon wieder mit zu wenig VRam ein Problem. Entweder geringere Auflösung anzeigen lassen oder mehr VRam sonst wirds ruckelig.
Also wenn ich nicht komplett daneben liege dann dürfte man Daten sowohl im RAM als auch VRAM durchaus komprimieren können. Windows zeigt dir sogar an wie viel von deinem RAM komprimiert ist.
 
Ich empfehle euch einfach dieses ganze Launch-Desaster durch zu stehen ohne Kauf und Panik.
Dann die AMD mit 16GB oder mehr resp. die NV RTX3080 20GB VRAM zu kaufen
Problem was ich hier habe ist nur, dass anderen ihr Kauf schlecht geredet wird obwohl das alles nur Spekulation ist. Selbst wenn eine RTX 3080 mit 20GB kommt wird die ganz bestimmt nicht zum gleichen Preis angeboten werden und AMDs alternative muss sich erst noch zeigen. Ob das mit 16GB & 7nm+ so günstig wird? Ich glaube nicht, dass AMD Nvidia stark unterbieten wird.
THIS.

Die 20GB Karte von Nvidia wird safe irgendwas um die 899-1099€ kosten, wenn die 10GB-Karte bei 699€ liegt und die Händler da jetzt ersmal 100€ problemlos nach oben korrigiert haben. Wer also mehr Speicher will, der hat rund 1000€ auszugeben. Dabei finde ich die 700€ der RTX3080 schon recht sportlich.

Wenn man bedenkt, dass man für die 300€, mit Glück 200€, lediglich 10GB zusätzlichen VRAM, und keine Mehrleistung bekommt, dann ist der Deal einfach deutlich ungünstiger. Ich gönne jedem die 20GB-Karte und respektiere auch, dass da dann mehr Puffer für VRAM-Fresser mit zB unkomprimierten 8K-Texturen Platz wäre, aber ich wäre auch froh um die 300€, die ich dann später direkt in die Next-Gen umleiten kann.

Und sind wir doch mal ehrlich. Die meisten von uns rüsten üblicherweise nach 2-3 Jahren auf, viele nach genau 2 Jahren und manche auch einfach zu jedem frischen Launch . Jetzt gab's wegen AMDs Abwesenheit im Oberklasse-Bereich in den letzten Jahren und wegen der recht mauen Turing-Generation mal eine Kauflücke, wo Leute teils 4 Jahre auf ihren Karten gesitzen blieben sind, aber normalerweise sind die Abstände deutlich schmaler.

Gerade befindet sich RayTracing in der Entwicklung, 4K-Gaming wird zunehmens populär, auch wegen der Konsolen. Die Effizienz muss langsam wieder höher. DLSS ist eine zunehmend wichtigere Sache, dort wird AMD in 2 Jahren mit Sicherheit auch angreifen wollen. Erzählt mir bitte nicht ihr, hier im PCGH-Extreme-Forum, würdet jetzt ernsthaft eine GPU suchen, die bis 2024/2025 halten muss.

Spätestens zu BiggerNavi/Hopper dürften die meisten von euch eh wieder einen juckenden Zeigefinger bekommen, wenn 'The Next Big Thing' angekündigt wird. Erzählt mir nix. Viele von euch tun gerade so als wolltet ihr mit der nächsten Karte alt werden, dabei dürfte der Großteil von euch statistisch gar keinen 4K/5K-Monitor besitzen. :ugly:
 
Zuletzt bearbeitet:
Ich frage mich manchmal, aus welch Elternhaus solch Leute wie du kommen. Wie kommst du dazu aufgrund meiner persönlichen Meinung zu schreiben wo mein Hirn geblieben wäre. Wenn deine Rechnung so korrekt wäre, wüsste man ja schon jetzt welch Leistung dabei rumkommt. Deine "Rechnung", welch keine ist basiert auf deiner persönlichen falschen Annahme.

Sehe mal zukünftig zu, andere Meinungen, Vermutungen oder Ansichten zu akzeptieren und verhalte dich etwas gesellschaftskonformer.

Hihi du bist schon ein witziger Zeitgenosse. Wirfst mir eine Beleidigung vor nur um dann gleich meine ganze Familie zu beleidigen! :D Ironie at its best!

Ich wollte dich übrigens nicht Beleidigen. Ich wollte eher auf den Umstand hinweisen das du in meinen Augen einfach mal was gepostet hast ohne vorher die Fakten zu checken, sehe aber ein das man es als Beleidigung auffassen kann und entschuldige mich dafür, das war zu stark vereinfacht und auch so nicht gmeient. Bitte aktzeptiere meine Entschuldigung.

Und nein hier geht es eben nicht um eine Meinung, hier geht es um harte Physikalische Fakten. Zwei GPUs die den gleichen inneren Aufbau haben die eine aber um 20% weniger beschnitten ist kann keine 30% schneller sein. Das ist Physikalisch nicht möglich. Des weiteren gab es ja auch schon leaks zu Benchmarks die zeigen das es real eher sogar nur 10% als das Optimum von 20% ist.


Hier der Link zur lezten Titan RTX. Trotz 6% mehr Shader und üpiggen Vram war sie 4% langsamer als die 2080ti OC
 
Zuletzt bearbeitet:
Hier der Link zur lezten Titan RTX. Trotz 6% mehr Shader und üpiggen Vram war sie 4% langsamer als die 2080ti
Ich habe auf deinen Link geklickt.

Screenshot_20200921-171144_Firefox.jpg Screenshot_20200921-171154_Firefox.jpg

Eventuell wollen wir bei den Fakten bleiben?

 
Ich habe auf deinen Link geklickt.

Anhang anzeigen 1334036 Anhang anzeigen 1334037

Eventuell wollen wir bei den Fakten bleiben?

Ja tun wir. Sein vergleich bezog sich ja von 3080OC auf die normale 3090. sorry hab das OC bei der 2080ti vergessen. Werde es korrigieren.

Hier nochmal das Orginal Kommentar.
Ich wette nen 1000er dass es auf keinen Fall nur 10% sind. Ich schätze den Abstand selbst zu meiner OC 3080 bei 30% ein.
 
.Hatte mich eigentlich schon mit dem Upgrade friedlich abgefunden. ^^ Hoffe doch noch, die 3090 wird überraschen können und im 20-25% Mehrleistung Bereich landen können. Alles andere ist mir den doppelten Preis einer 3080 definitiv nicht wert.

Kann man nicht oft genug posten:


Kann man auch übrigens leicht ausrechnen. Das Verhältnis der TFlops von einer 3080 und 2080 TI zur Mehrleistung der 3080, ~ 25%. Macht dann +10% von der 3080 auf 3090 bei dem selben Takt. Mehr wie 2 GHz sind aber so oder so nicht möglich. Also 35 - 38% von der 2080 TI zur 3090 nach aktuellen Stand und lohnt sich nicht wirklich bei einer Aufpreis von mind. 1000 Euro.
 
Erstes 8K Gameplay mit der 3090

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zurück