Nvidia Geforce RTX 3080 im XXL-Test: Ampère, le trés légère Preisbrechèr

Immer tut man auf PCGH so als sei der Ram das Problem überhaupt, weil man nur Nackten Speicher vergleicht.
Hat damals ja schon so gut geklappt hier mit der GTX970 gegen 290 wo auf einmal die 290 Ram Limitierung hatte
ich erinnere mal an euren Watchdogs vergleich.

Weil man nicht auf die Idee kommt das Ram bei Unterschiedlichen Architekturen nicht mehr 1:1 Vergleichbar ist.
Hat eine 3080 tatsächlich weniger Speicher wie eine 2080ti würde ich nicht mit ja beantworten. Weil Software ein riesen Faktor
ist und Komprimierung. Der Aspekt wurde hier nie angesprochen und auch nicht der das eine 1080ti eigentlich gar keine 11Gb
gebraucht hätte. Wenn ich mit der 1080 mit 8Gb keine Probleme habe dann sind 30% mehr Leistung kein Grund für ca. 40% mehr Speicher.

Man sollte das mal realistisch betrachten wann wurde der Speicher gebraucht? Hatte man als er Gebraucht wurde überhaupt noch 60 Fps?
Die Antwort ist da nein, also die GPU Leistung war zu wenig für die Speichermenge außer man will halt mit 30 Fps am PC Zocken.
Nur weil ich 16 Gb auf eine Karte haue ist es noch lange keine gute Idee siehe Vega FE. Hat der Karte nie etwas gebracht außer das der Kunde so einen Unfug bezahlen musste oder bei Radeon 7 genau das gleiche wieder.

DLSS wird dieses mal Standard werden, weil es nicht mehr beschränkt ist auf High-End. Das ist auch ein wichtiger Punkt, der in der Zukunft wahrscheinlich der wichtigste Punkt überhaupt wird. Den warum nicht DLSS von 4K auf 8K Hochskalieren, es kann ja in beide Richtungen gehen Leistung und Schärfe.


Wenn jetzt noch einer sagt aber die Konsolen, ja die haben 16 Gb Gesamt Speicher für CPU und GPU. Was heißt das ist verdammt wenig für heute,
den 3Gb sind davon noch fest für das System. Heißt 13 Gb Ram für alles und daran sieht man schon das der Vram nicht groß steigen kann. Weil Hersteller keine Super Dupa PC Versionen machen. Da bekommst halt maximal 2 Setting Stufen oben drauf, das war es aber auch schon.
Dann kannst noch Froh sein wenn man da überhaupt Unterschiede erkennt, den oft sind die so gering das es eine Frechheit ist.

Ich Zocke meistens in 1440p und die meisten hier ebenfalls. Die Anspruchsvollen Spiele kommen dann so auf 6,5 Gb die meisten nicht mal auf das.
Das mit 8Gb es muss sich also verdammt viel tun das 10 Gb zu wenig sind, eher reicht die GPU Leistung nicht für 60 Fps. Was ja einige Spiele in 4K schon zeigen das sogar die 3080 nicht reicht dafür.
Fazit mit 10 Gb wird man mindestens noch die nächsten 3 Jahre locker durchhalten, wenn DLSS Standard wird ist Speicher sowieso egal.
Da wartet man sowieso schon wieder auf die übernächste Generation, hier tun einige so als wären 10Gb wenig. Was es nicht ist, weil ganz einfach
die Grafik selbst keine großen Sprünge mehr macht!!! Der größte Sprung ist aktuell ein paar Reflexionen, die einem fast nicht auffallen. Die Grafik entwickelt sich seid Jahren sehr langsam weiter, die Zeiten wo man Speicher verdoppeln musste sind doch längst vorbei!!!!!

Wenn du noch ein paar Ausrufezeichen mehr gesetzt hättest, wäre ich überzeugt gewesen.
Nein I'm Ernst, freut mich, dass du keine Speicherprobleme kennst. Ich krieg 8GB seit Jahren voll, 11GB würde auch gehen, kein Problem. Auch in FHD. Ich muss sagen, bei meinen Settings merke ich kaum einen Einfluss der Auflösung auf die Speicherbelegung. Klar, zwischen FHD und 4K liegen mal 2, mal 3GB, aber richtig voll mach ich den Speicher mit Mods.

Von brauchen kann keine Rede sein, soweit gehe ich mit. Aber ich könnte wohl sogar die 24GB der 3090 füllen. Zuviel Speicher kann es für Mods nicht geben, und ich passe in 90% aller Spiele mein Erlebnis an.

Kurz: Was für dich wahr und richtig ist, gilt nicht für alle.
 
Schöner Test , danke dafür :daumen:
Leider sind die neuen Karten nicht meine Preiskategorie aber wenn dem so wäre würde sie mir zuviel "saufen" :devil:
Früher wurden 50W Mehrverbrauch als Kaufargument gegen AMD ins Feld geführt und auf einmal sind über 300W keine Thema weil ja die Leistung stimmt?
Wie sich die Zeiten ändern....
Ich hoffe eine 3060 wenn sie denn kommt ist da sparsamer :cool:
 
Schaut euch mal die Aufnahmen von IgorsLab an, das verstimmt mich doch etwas. Leistungspeak jenseits der 400Watt und auch bedenklich lang, dazu ist sein Video zur Netzteilwahl auch nicht zu verachten.
Weiter geht es mit den Thermalaufnahmen, ich weiß jetzt nicht, ob es der GDDR6X Speicher gerne warm hat, aber es gibt dort einen sehr netten Hotspot zwischen 85 und 90°C... und das ohne OC....
Kennt jemand die Spezifikationen von dem Speicher, liegt er auch bei 95°C oder deutlich höher, sodass dies unbedenklich ist?
 
Danke für den ausführlichen Test!:daumen:

Wenn die Karte 330W beim Gaming verbraucht. Wieviel dann unter maximaler Vollast in Furmark?
Oder war sie beim gamen schon zu 100% ausgelastet?
Ich frage wegen der Spannungsspitzen usw. Ob Interessenten da lieber noch einen Puffer bei der NT Wahl einplanen sollten. :)
 
@Duvar: So langsam machst du mir das Teil madig. Jetzt lass mich doch endlich mal ne NV kaufen :ugly:

Und er hat aber recht, keiner braucht in der heutigen Zeit eine Grafikkarte die Peak bis zu 450 Watt vom PSU fordert.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

So lockt mich Nvidia mit Sicherheit nicht von meiner GTX 1080 weg, Leistung hin oder her. Danke Igor (Format:C)
 
Schöner Test , danke dafür :daumen:
Leider sind die neuen Karten nicht meine Preiskategorie aber wenn dem so wäre würde sie mir zuviel "saufen" :devil:
Früher wurden 50W Mehrverbrauch als Kaufargument gegen AMD ins Feld geführt und auf einmal sind über 300W keine Thema weil ja die Leistung stimmt?
Wie sich die Zeiten ändern....
Ich hoffe eine 3060 wenn sie denn kommt ist da sparsamer :cool:

Ja naja, das ist halt alles Ansichtssache - aber ich verstehe dich (sowohl den Preispunkt, als auch die Leistungsaufnahme). Ich persönlich bin durch das "Hobby" OC derartige Zahlen gewöhnt, als Karte "ab Werk" sozusagen ist das aber natürlich starker Tobak.
Auf der anderen Seite bezweifle ich (lediglich anhand der Leaks), dass AMD um / vor der 3080 liegen kann / wird, ohne in ähnliche TDP-Gefilde zu gelangen.
 
Wenn die Karte 330W beim Gaming verbraucht. Wieviel dann unter maximaler Vollast in Furmark?
Oder war sie beim gamen schon zu 100% ausgelastet?
Ich frage wegen der Spannungsspitzen usw. Ob Interessenten da lieber noch einen Puffer bei der NT Wahl einplanen sollten. :)

Die 330 Watt sind ja das Power Limit. Mehr zieht die karte nicht, egal ob in Games oder in Benchmark.
 
Schöner Booster wenn man von meiner Gamerock 1080 upgraden will, allerdings kommt mir definitiv kein Föhn mehr in mein Gehäuse. Der Stromverbrauch und die entsprechende Lautstärke sind Punkte die man nicht einfach wegdiskutieren kann, zweiter Punkt ist die schwache Speicheraustattung, ich erwarte im 600€+ Bereich eigentlich keine Kompromisse mehr.

Da mein neuer 32" WQHD 165Hz aber Freesync und G-Sync Compatible ist warte ich definitiv auf Big Navi.
 
Bezüglich Netzteil, hier würde ich Igor definitiv vertrauen:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Sry... Jemand anderes war schneller....
 
@ Gurdi du meintest ja die Lüfter der BN wären in den Kühler eingelassen wenn ich mir Jay's video ansehe sieht es nicht so aus oder man hat es einfach nicht gerändert und es als eine Fläche aussehen lassen
Und er hat aber recht, keiner braucht in der heutigen Zeit eine Grafikkarte die Peak bis zu 450 Watt vom PSU fordert.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

So lockt mich Nvidia mit Sicherheit nicht von meiner GTX 1080 weg, Leistung hin oder her. Danke Igor (Format:C)


Das macht mir nichts aus. Ich frag mich eher ob der Karte das was ausmacht, vor allem der reudige GDDR6 da halt ich überhaupt nichts von.
 
So gut gut:
Wenn das die Leistung der stärksten Amperé wäre würde ich schon mal nichts kaufen. Reicht mir nicht, und ich hätte auch nicht aufgerüstet. Dieser Sprung der Leistungsteigerung zur 1080Ti war meine absolute Mindesterwartung bzw reicht es nicht mal ganz!

Das bedeutet AMD bringt was auf minimal diesem Niveau oder fällt raus leider leider.
Dann bliebe wie von mir vermutet nur die 3090 :( besser fänd ich aber so um 16-20GiB. Aktuell 11GiB ist zu wenig
Ich hoffe wirklich noch auf was zwischen 3080 und 3090 von AMD oder Nvidia

Der Stromverbrauch ist mir da eigentlich ziemlich egal. Erstmal kost Strom fast nix wir brauchen so 1300 im Jahr und ich Spiele Maximal 2-3 Stunden in der Woche manchmal gar nicht für 1-2 Wochen. Ich hab auch erst 4 mal in meinem Gaming leben ein Spiel nochmal gemacht. Nur bei Neuen Spielen da sind schon mal 10-20 Stunden in der Woche.
Also von mir aus kann die OC auf 450W brauchen.
 
Solange du keinen 32 Kerner hast, reicht auch weniger. In Games zieht ein Prozessor ja keine 200 Watt.
Da geht es eher um die Reserven dahinter. Ein 10900k benötigt knappe 100Watt in Games, mit zusätzlichen Lüftern, dem Ram und Platten kommen wir schnell an 650Watt, je nach Netzteil und Qualität/Alter ist das erst einmal nicht schlimm, es kann nur dazu führen, dass das Netzteil evtl. ausschaltet. Aber wie gesagt, das muss jeder für sich selber entscheiden, ob man nicht doch evtl. auf Nummer sicher gehen möchte und lieber auf die nvidia Vorgaben setzten möchte.

Ich kann nur jedem das Video von IgorsLab empfehlen, es erklärt das Ganze sehr gut.

Ampere ist in dieser Hinsicht noch recht zivil (damit es wohl auch mit den 550W Netzteilen kein Problem gibt).

Siehe oben. Ein 550Watt Netzteil wird auf Dauer irgendwann Probleme geben können - je nach CPU und evtl. OC.
 
Zuletzt bearbeitet:
Wie erwartetes Fazit... für meine Ansprüche zu wenig Speicher. Also auf die 20 Gb warten oder auf die hoffentlich erscheinende TI.
Ich sehe das auch so wie im Fazit:
"Während dieses Leistungsplus kaum den Wechsel von einer RTX 2080 Ti rechtfertigt, ist die Lage bei älteren oder langsameren Modellen eindeutig: Es lohnt sich. "

Und da die Speicherbandbreite zu limitieren scheint, wird wohl eine 3080 mit 20GB als Upgrade auch nicht interessanter für die 2080Ti-Besitzer als die hier getestete 3080 mit 10GB. Also bleibt nur die teure und gefräßige 3090 übrig. Es sei denn die Roten liefern noch ein Navi-Wunder ab. Aber dafür sind die mir zu still.
 
Und er hat aber recht, keiner braucht in der heutigen Zeit eine Grafikkarte die Peak bis zu 450 Watt vom PSU fordert.

Dann hätte auch keine Vega (Peaks bis 600W) gebraucht. Alle Karten, seit Maxwell, haben die Unart entwickelt ihre Kondensatoren einzusparen und stattdessen das Netzteil zu belasten - kostet den Hersteller ja nichts. Das Ergebnis sind eben diese Spitzen.

Ampere ist in dieser Hinsicht noch recht zivil (damit es wohl auch mit den 550W Netzteilen kein Problem gibt).
 
750W Qualitätsnetzteil braucht man^^
Hab nur ein 500W E10, sieht schlecht aus Leute, vllt reicht es für die RTX 3050 demnächst.
Was Nvidia für Saugbomber gebaut hat, ferner bedanken wir uns auch bei Samsungs 8nm Shice^^
+ Special Thanks to Microns durstigem Speicher.
 
Super Test, danke dafür. :top:

Die Leistung ist ordentlich, wenngleich - nach dem "Vor-Hype" nicht ganz da wo ich sie erwartet hätte.

Eine 1080Ti ist der direkte Nachfolger einer 980Ti, und im Performance-Index 84% schneller als diese. Der direkte Nachfolger der 1080Ti ist die 2080Ti, die aber nur noch 36% schneller ist. Und selbst die 3080 ist gegenüber der 1080Ti "nur" 75% schneller.

Den höheren Verbrauch der 3080 noch nicht berücksichtigt. Und wo schon eine 1070 vor mehr als 4 Jahren bei grob gleicher Leistung immerhin auch noch 2GB mehr VRAM als eine 980Ti mit ihren 6GB hatte, bringt die 3080 bei spürbar mehr Leistung (vs 2080Ti) sogar noch 1GB weniger RAM mit. Und bei der angeblich (vs 2080Ti) gleich schnellen 3070 werden es wohl 3GB weniger werden.

Die Leistung der 3080 ist mMn also durchaus gut, aber eben nicht mega/überragend, gerade in Relation zum Preis/Verbrauch, und das Speicher-Thema ist mMn sogar noch eher negativ zu werten. Nicht zuletzt auch deswegen, weil die UVP der 3080 quasi dort liegt, wo seinerzeit auch mal die UVP einer [980] Ti lag.

Aber ja, wir kommen (bzgl. Leistung wie auch Preisen) langsam wieder vom Niveau der RTX20 runter, Richtung "Normalität". Wenngleich es für manche User schon ungewohnt ist (und man die ~550€ der 3070 bzw ~750€ der 3080 teilweise wie richtige Schnäppchenpreise feiert - dafür kann man Nvidia nur gratulieren)
 
Zurück