Geforce RTX 3080/3090: Fehlt den Grafikkarten Leistung?

Was haben die Jungs von WTFTech eigentlich geraucht?
Wie soll da überhaupt eine Leistungsverdoppelung möglich sein, wenn das technologisch und mathematisch überhaupt nicht möglich ist?
Bericht zerreißen und ab damit in die Tonne.
Im Endeffekt hat man einen leicht optimierten Turing-Chip genommen, ihn um schnelleren Speicher erweitert, und einen Teilbereich der GPU um Pseudoshader erweitert, die mal nicht und mal doch für die Berechnung in Spielen herangezogen werden können.
Können die Shader nicht wirklich verwendet werden, verpufft die ganze Zusatzleistung Richtung Null, und man kann nur auf die paar Prozent durch Speicher und Optimierung hoffen.
Kann man die Shader doch zu 100% mitverwurschteln, so darf man sich auch nur um einen gewissen Mehrwert freuen, denn dann limitieren ja immer alle anderen Komponenten, die man ja schließlich nicht ausgebaut oder gar verdoppelt hat.
Wer hier im Forum anfängt irgendwelche Leistungsgewinne aus total unterschiedlichen GPU-Bausteinen zusammenzufantasieren, sollte sich mal wirklich fragen, warum er wohl in Mathe bei den Textaufgaben durchgefallen ist.
Wir wissen doch alle durch einfaches Ablesen, dass die Titan quasi durch die 3090 ersetzt wurde, die 3080 ist diesmal der reale Vergleichschip zur 2080 Ti.
Die Bezeichnung ist dabei völlig uninteressant! Das ist reines Marketing, frei nach Schnauze.
Der Chipaufbau und die darin enthaltenden Alus, Rops und das alles gibt uns Anhaltspunkte für eine relative Vergleichbarkeit.
Schaut doch mal zu AMD rüber.
Aktuell ist die 5700XT die Speerspitze.
Sollten jetzt 6900XT 16GB, 6800XT 12GB und 6700XT 6GB kommen, wird man dann auch blind die 6700XT mit nur 6GB als direkten Nachfolger der 5700XT ansehen?
Die 5700 hatte aber so viel RAM, die hatte so viel mehr Leistung... mimimi.
Mitnichten!
Preise sind auch nicht wirklich für Vergleiche geeignet (das muss wegen dem Preis damit vergleichen werden), damit wird eigentlich nur festgelegt, wie teuer einem der Spaß kommt, oder ob es ein Schnapper ist.
Um jetzt wieder auf die Einschätzung der 3080 und 3090 zu kommen:
beide KArten bringen viel weniger reale Mehrleistung, als NVidia und die ganze Zeit vorzugaukeln versucht, weil da nur Äpfel mit Birnen und sonstige DInge vergleichen udn erzählt werden.
Man muss die Wattkeule auspacken, um mit der 3080 bei gleichem Chipinhalt die alte 2080 Ti um bis zu 30% hinter sich zu lassen. 250 zu 320 Watt. Rechnet selber. Nix besser. Die paar Prozent schafft selbst Intel seit einem Jahrzehnt. ;-P
Also meiner Meinung nach ist der nominelle Leistungsgewinn in etwas gleichauf wie der der 2000er zur 1000er Serie, also irgendwo im 30er %-Bereich.
Natürlich muss man das alles mit Vorbehalt sehen, denn vielleicht gibt es in Zukunft noch einige Spiele mehr, die dann speziell angepasst dann besser mit den zuschaltbaren Shaderblöcken umzugehen verstehen, und auch allgemine kleine Optimierungen am Treiber werden sicherlich noch ein paar Prozente über die Jahre bringen, so dass in 2-3 Jahren sicherlich noch mal im Schnitt 10% Performanceunterschied im PCGH-Benchmarkparcour herauszukitzeln sind.
Aber das hat bei Weitem absolut nichts mit den sonstwie heraufbeschworenen bis zu 100% mehr Leistung in irgendwas zu tun.
Naja. Mit undervolting erreichst Du ja genau das....

Nee.
Die Karten sind und bleiben trotzdem reine Umweltsünder.
Mit weit über 300 mit bis zu 420 Watt bei den Customs bringt es auch nichts mehr, wenn man durch extremes undervolten dann bis zu 50 Watt wieder rauskitzelt und dann freiwillig auf 5% Leistung verzichtet.
Im Umkehrschluss müsste man eigentlich sagen, der richtige Weg wäre dann, sich gleich nur maximal eine 3070 zu kaufen, oder auf einen Big Navi Vergleich zu warten, die man dann ja auch wieder leicht "entsaften" könnte, gelle?
Wer sich einen fetten SUV mit 250PS holt, um dann vor seinen Kumpels mit 350km E-Motor-Reichweite anzugeben, der hat den Sinn bzw. Unsinn nicht verstanden. Da ist nämlich auch ein Polo trotz Stinkemotor umweltfreundlicher in der Herstellung und der Nutzung.
 
Zuletzt bearbeitet:
Alle reden hier immer davon das zukünftige Spiele auf Ampere angepasst werden und die Karten deshalb stark an Leistung zulegen. Ich glaube da nicht so wirklich dran, da immerhin beide Konsolen auf RDNA2 aufbauen. Ich gehe mal davon aus dasdie Jungs von Nvidia dieses mal ( zum ersten mal ) alleine zeigen müssen was sie können. In der Vergangenheit wurden sie des öfteren ( seitens der Spielehersteller ), sehr gepusht. Das kann ich mir, aus besagtem Grund, dieses mal beileibe nicht vorstellen, zumindest nicht in diesem Maße.
 
Haben eigentlich alle vergessen dass in den alten Konsolen GCN GPUs sind? Wo war da die überlegene AMD Optimierung?
RDNA2 scheint gut zu werden, ja, aber das Konsolen Argument ist für mich aus der Erfahrung der Vergangenheit keines.
 
Aha und dann mit 500W oder was?
Sky is the limit! :lol:
Im Echt, Nvidia hat großartige Arbeit geleistet. Samsung 8nm ist auf maximal 1,8GHz Takt optimiert, Nvidia schießt drüber beim ersten Versuch. Sie mitgieren den fehlenden Takt mit mehr L1-Cache und mehr FP32-ALUs. McRoll möchte ausgerechnet mehr Takt :lol:
 
Nur wenn Igor wieder zahme Settings auffährt. UHD und sogar WQHD mit richtig aufgedrehten Spielen(so wie bei Raffs Tests) ist schon heute nicht/kaum durch die CPU limitiert.
Denk daran Benchmarks werden unter bestimmten Bedingungen gemacht, meist mit sauberen OS und idealerweise ohne Hintergrundprogramme. Zu Hause müllt der PC zu und man hat z.b. auch mal einen zweiten Monitor mit Forefox/Chrome und ander Programme wie Discord etc.
Dies alles saugt an der CPU aber eigentlich nicht an der GPU.
 
Naja, ist halt generell peinlich für unseren "westlichen" Fortschrittduktus.

Alles wird schneller, kleiner, und verbraucht weniger, so geht Star Trek. Mittlerweile können wir teilweise nicht einmal bei Zurück in Zukunft mithalten.

Die Frage ist halt, ob wir technisch gesehen an ein Limit stoßen, verglichen mit dem wo wir vor ca. 30 Jahren gestartet sind, auch die Visionen etc., welche sich daraus ergeben. Oder ob da einfach durch zuviel Parasitentum und Verschachtelung von Produktionsmitteln auf wenige ein Stillstand herbeigeführt haben. Wir werden es sehen.
 
Denk daran Benchmarks werden unter bestimmten Bedingungen gemacht, meist mit sauberen OS und idealerweise ohne Hintergrundprogramme. Zu Hause müllt der PC zu und man hat z.b. auch mal einen zweiten Monitor mit Forefox/Chrome und ander Programme wie Discord etc.
Dies alles saugt an der CPU aber eigentlich nicht an der GPU.
Da schöne an der immernoch nicht idealen Mehrkernoptimierung ist aber dass das ab 6Kernen als reines SMT nebenher läuft ohne das Spiel zu tangieren.
Allenfalls Videos schauen braucht ein bisschen Zusatzleistung. Aber die auch noch von der GPU.
 
Zurück