• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Nvidia Geforce RTX 3080 im XXL-Test: Ampère, le trés légère Preisbrechèr

Horst_Koehler

Freizeitschrauber(in)
Sie würden es nicht so einrichten, wenn es nicht in ein paar Wochen rote Karten gäbe, die ähnlich schnell sind. ;-)
Turing, Pascal und Maxwell waren weit vom Performancemaximum entfernt und entsprechend dichter am Effizienzoptimum (auch wenn das nochmal nen guten tacken tiefer liegt). Da hatte AMD aber auch nichts in der Hand. Bei Ampere dreht NV auf was geht - denn offenbar ist NV der Meinung, dass eine RTX3080 mit einer 270W-Einstellung gegen ne 6900XT ziemlich blöd aussieht.
Ich bleibe da lieber skeptisch was BigNavi angeht. nVidia stand seit der 600er Reihe vor 8,5 Jahren für Effizienz. Ich persönlich hätte da auf 4% leistung gepfiffen. Die leistungskrone wird nVidia mit der 3090 wahrscheinlich eh nicht abgeben müssen. Ich finde es schade, die 3080 hätte ein noch runderes Produkt werden können.
 

Torsley

BIOS-Overclocker(in)
naja ich bin gespannt was die customs so machen werden. meine 2080 geht mir von der lautstärke beim spielen auf den kecks und ich will auf jedenfall wieder einen nachfolger der in jedem szenario leise bis unhörbar ist. mal sehen ob es da irgendwas geben wird bei dem stromverbrauch. und ich will mir nicht zusätzlich ein größeres netzteil anschaffen. das muss mit meinem 550watt irgendwie zu schaffen sein.
 

addicTix

PCGH-Community-Veteran(in)
Ja der VRAM wurde ja nicht geopfert, da die 3080 im Vergleich zur 2080ti ja den GDDR6X Speicher hat, der deutlich perfomanter ist als der GDDR6 (non X)
Und das gleicht weniger VRAM aus?
Genau die Kunden mit dieser Denkweise will NV ansprechen
Glückwunsch!

Als ob der Stromverbrauch bei High-End Grafikkarten irgendjemanden jemals gejuckt hat. Ist aus meiner Sicht nur eine Nebelkerzendebatte, um irgendwas kritisieren zu können.
Klar, völlig egal ist der Stromverbrauch :)
Ist er wohl, wenn man 2std am Tag spielt.
Wenns mehr sind, und das aufs Jahr gerechnet, merkt man das durchaus.
Ich bin nun niemand, der ein super effizientes System haben will, aber irgendwo gibt es auch Grenzen - vor allem wenn man viel spielt.
 

Hannesjooo

Software-Overclocker(in)
Schöner Pixelschubser und klasse Test.
330 Watt riechen allerdings etwas nach einer vor Angstschweiß klitschnassen Brechstange.
Ich freue mich auf weitere Tests.
 

camellion

Komplett-PC-Käufer(in)
Also ich fasse mal zusammen. Die 3080 ist wirklich stark. Ob es sich für einen 2080 Ti Besitzer lohnt auf die 3080 zu wechseln hängt wohl maßgeblich davon ab, ob er eine mit Basis Clock betreibt. Denn bei der 2080 TI war bei genügend Power und Kühlung noch 20 - 30 Prozent herauszukizzeln. Da scheint die 3080 nur etwa 10 Prozent Potential zu haben. Wer noch keine 2080 Ti hat wird mit der 3080 sicher zufrieden sein sowohl mit Preis als auch Leistung. Den 2080Ti Besitzern bleibt die Frage ob 10 Mehrleistung den Aufwand des Kartenwechsels Wert ist. Die 3090 bietet da schon ein erheblicheres Plus. Mit Schätzungsweise 50 Prozent Mehleistubg. Meint aber fraglich ob ca 1000 € AufPreis für den Umstieg von einer 2080Ti noch lukrativ ist. Sollte die 3090 kein OC Wunder sein und weit über 50 Prozent mehr Leistung gegenüber eine OC 2080Ti bieten schätze ich werden viele dieses Jahr leer ausgehen und bei der 2080 Ti bleiben oder günstig ein SLI mit 2 Karten aufbauen um den Hunger nach FPS zu stillen. Schade das NVIDIA SLI nicht auch auf der 3080 anbietet, das wäre ein interessantes Setup geworden. Vielleicht lenken sie aber mit der Ti mit 16 GB und mehr VRAM aber noch ein und bieten den Enthusiasten vom Letzten Lunch doch noch eine einigermaßen Preisgünstige Lösung. Die 3090 bietet mir einfach zu wenig für das Geld.
 

DerPfandadler

Schraubenverwechsler(in)
Weiß schon jemand um wie viel Uhr die rtx 3080 auf der Nvidia Seite online gehen wird? Im Artikel hieß es "Nachmittag".
Ich wäre jetzt von 15Uhr ausgegangen...
 

Scorpio78

Software-Overclocker(in)
Ich bin beeindruckt, vom Test, irgendwie nicht so von der Karte... aber meine 1080TI weint schon und will in Rente.
Die 3080 ist also vom Tisch,.. . Die 3090 fi**t vermutlich mein armes 750 Watt Bequiet Dark Power Pro 11,...
Also neues NT 230,-/ 3090 1600,-/ WaKü 120,-... Bubeldibupp 1950,- Schleifen... hmmm....
Jensen,. to my Pascal friends, its save to upgrade,... Maybe, aber auch nen teures Vergnügen.
Wieder den halben PC zerlegen,... ne Danke,... Also Pascal, erstmal keine Rente, schön bis zum Refreshs durchhalten :lol:
Auch wenn mein PC häßlich ist, der bleibt so!:lol:
20200916_141053[1].jpg
 

GT200b

Freizeitschrauber(in)
Warum erlaubt man den Boardpartner nicht einfach mehr VRAM draufzupacken, früher war das Gang und Gäbe, siehe GTX 580 3gb, GTX 680 4gb, GTX 770 4gb. Seit dem Keppler-Refresh durfte kein Boardpartner mehr den VRAM verdoppeln. Wäre doch sehr nice für 100€ Aufpreis eine Custom RTX 3080 mit 20gb VRAM. Die GTX 780ti mit nur 3gb war schon ein derber Schlag für eine damals potente GPU im Vollausbau.
 

Nuallan

PCGH-Community-Veteran(in)
Als ob der Stromverbrauch bei High-End Grafikkarten irgendjemanden jemals gejuckt hat. Ist aus meiner Sicht nur eine Nebelkerzendebatte, um irgendwas kritisieren zu können.

Also bei AMD war das immerhin zig Jahre ein Grund sie niederzumachen und deren Brechstangen waren auch mit ein Grund warum sie so viele Marktanteile verloren haben. Auch Nvidia hat da schon ne Menge Kritik eingesteckt, mit dem alten "Fön" oder "Thermi".

Das Thema geht also wohl nicht allen so am Hintern vorbei wie dir und ein paar anderen Enthusiasten.
 

Bugs-Bunny1

Komplett-PC-Käufer(in)
Im PCGH Test der 2080TI vor 2 Jahren wurde eine GPU Temp von ca. 76 Grad gemessen. Real zuhause hatten viele Temperaturen von über 80Grad. Die 79 Grad der 3080 finde ich deshalb schon grenzwertig, auch dass die nochmal lauter geworden ist und weniger VRAM hat. Aber danke für den tollen Test.
 

Khabarak

BIOS-Overclocker(in)
Ich finde euren Tipp an Nvidia aus dem Fazit ein wenig strange... für 2GiB mehr Speicher schlagt ihr gleich €100 Preiserhöhung vor...
Sorry, aber das ist um €80 zu hoch gegriffen.
2GB kosten die keine $20 und selbst wenn sie dann mehr Kosten durch höherwertige Chips haben, wären mir das keine €100 wert.

Alles in allem eine schöne Leistungssteigerung, aber auch hier sieht man, dass Nvidia ebenfalls nur mit Wasser kocht. Die 29% höhere Leistung im Vergleich zur 2080 TI kommt mit beinah gleich starker Erhöhung des Verbrauchs daher.
Beide nutzen einen 102er Chip. Daher finde ich den Vergleich interessanter, als der mit dem 104er aus der 2080.

Aus der 1,9x Steigerung der Performance pro Watt im Vergleich zur 2080 wurde erwartungsgemäß auch nichts.
 

derneuemann

BIOS-Overclocker(in)
Schicke Karte, aber für mich ist sie raus. Kaum effizienter als Turing und dann noch weniger Speicher als meine 1080 Ti sind mir keine 700€ Wert. Zumal ich eigentlich immer erst bei mindestens 100% Leistungsplus upgrade, was die 3080 ja auch (knapp) verfehlt.

Trotzdem ein schickes Stück Technik, wenn ich jetzt einen Rechner zusammenstellen müsste würde die Karte wohl reinwandern. Besonders der Referenzkühler scheint ja durchaus was zu können, bei 330W Leistungsaufnahme wären die alten DHE Kühler von GTX 480 & Co. wohl einfach abgehoben :D

Mal gucken was AMD so bringt. Aber ich fürchte Pascal bleibt bei mir noch einen Zyklus im System.

Ich bin auch etwas von der Effizienz enttäuscht und werde mit großer Spannung den Big Navi Release abwarten, aber ich denke, in dieser Gen werden rund 300W immer durch gehen, für Leistung auf dem Niveau.

Aber Pascal wird bei mir in dieser Runde auf jeden Fall ersetzt. Immerhin ist die 3080 fast dreimal so schnell...
Vielleicht mit Undervolting und reduziertem Powerlimit. Aber möglicherweise überascht Big Navi ja mit etwas beserer Effizienz.

Die Karte erinnert mich an den Pentium 4. Keine Ahnung wieso.

Völlig andere Situation. ;) Wo ist die schnellere Konkurrenz?

Zu hoher Energieverbrauch. Das kommt halt davon wenn man zwecks Geldgeilheit auf den preiswerteren, aber deutlich schlechteren 8nm Fertigungsschritt von Samsung baut.

Ich warte mal was die (hoffentlich) 5nm NVIDIA Grafikkarte 2022 so alles kann. Bis dahin sollte die RTX2080 noch locker ausreichen.

Jupp 325W bei "nur" 10GB finde ich auch schade, das wäre für die gleiche Karte mti 20 GB ein guter Wert gewesen.

Schöner Test, tolle Leistung aber die 300 Watt plus im Alltag finde ich für die Leistung dann doch zu hoch. Zudem ist der Kühler überraschend laut.
Untern Strich bleibt für mich bei einem Wechsel wenn nur die 3090.

Vielleicht kann ich ja noch eine günstige 2080ti ergattern^^

Das der Kühler jetzt laut sein soll, kann ich nicht nachvollziehen. Ist noch nicht lange her, da lagen Referenzkarten noch bei 4 Sone.

Schade das die 3080 nicht den Kühler der 3090 bekommen hat.
 

Basileukum

Software-Overclocker(in)
Das ist doch schon mal was, die große Überraschung blieb nun aber doch etwas aus.

"Mit einem durchschnittlichen Performance-Plus von 29 Prozent bei "normalen" Spielen und 36 Prozent bei Raytracing-Titeln - jeweils mit deutlichen Ausreißern nach oben - legt die RTX 3080 die Messlatte für alle kommenden Grafikkarten hoch."

Die Mehrleistung von 30%-40% pro Generation blieb uns also erhalten. Dagegen spricht nun die zu hohe Lautheit, was die Cutsompartner sicher beheben werden, die zuhohe Lastaufnahme, aber dahin wird es sich nun wohl immer weiter bewegen und eben was für mich das massivste Gegenargument wäre, zuwenig VRam für den Preis.

Anbei nix für ungut liebe PCGH, aber warum sollte 2gig mehr VRam 100€ mehr am Preis der Karte kosten? :D Was kostet das 20 Euro, weniger?
 

cryon1c

Volt-Modder(in)
Geile Karte, aber bissl wenig VRAM.
Wird die 3090 bei mir, obwohl die das doppelte kostet.
Kann als 1080Ti-Besitzer sagen - die 2000er auszulassen hat sich mächtig gelohnt. Die 1080Ti war damals richtig gut vom Preis her und hatte genug Dampf und VRAM. Und jetzt kriegt man einen würdigen Nachfolger - wahlweise wesentlich mehr Dampf für kleines Geld (3080) oder eben irre viel Leistung und viel VRAM oben druff mit der 3090.

Natürlich werde ich die Benchmarks abwarten und wenn die 3090 kaum was bietet bei dem hohen Preis, wirds halt ne 3080 und den Rest schiebt man in WaKü oder ne dickere CPU.
 

Edelhamster

Software-Overclocker(in)
Also erstmal cool, ich könnte jetzt nach eineinhalb Jahren ohne einen Cent Verlust meine verkaufte Radeon VII in eine in UHD um 80-120% schnellere RTX3080 umwandeln.
Als Speicherkrüppel ist es für mich glaub ich nur leider echt die falsche Karte -.-
Team Read mach hinne^^

@Raff: Danke für den Test!
 

AfFelix

Freizeitschrauber(in)
Im Schnitt 129% Leistung ggü der 2080ti da lag ich mit meinen 126% ggü der Titan ja goldrichtig :ugly:

Anhang anzeigen 1097649Anhang anzeigen 1097650

Mal sehen wie es am Ende kommt. Entscheidende Fragen werden sein wie IPC bei RDNA->RDNA2 ausfällt und wie gut die Shaderzahl skaliert.
Gleiches bei Ampere, den Rest können wir ja ganz gut einschätzen.

Wichtig wird jetzt wirklich AMD's Auftritt :crazy:
ne 3090 mit 12GB für 1100€ hätte ich gekauft :/
Die brauchbaren Customs der 3080 liegen ja wohl alle bei ~850€
Zum ersten Mal seit 2016 gibt es in der 700€+ Klasse mehr Leistung fürs gleiche Geld, das ist schon mal ein Fortschritt aber an Preisen mecker ich trotzdem :P
Und die Minimale Effizienzsteigerung gefällt mir auch nicht :motz:

An sich ne Super Karte sollte aber 550€ kosten und 50 Watt weniger verbrauchen. Von mir aus dann auch 5-7% weniger Leisten.

Was aber außer Frage steht: Vielen vielen Dank für diesen großartigen Test :daumen:
 

d3rd3vil

Freizeitschrauber(in)
Meine 2070s Gigabyte nervt mich schon ab grob 55% Lüftergeschwindigkeit. Wie vergleichbar ist so ein Customteil mit der FE? Großes Fragezeichen. Lauter solls echt nicht werden...
 

Scorpio78

Software-Overclocker(in)
Bin mal auf den Unterschied von der 3080 zur 3090 gespannt,... Wenn sich das so verhält wie damals bei Pascal 1080 zur Ti Variante,... dann kommt eventuell doch ein Umbau.
 

Takuyaki

Komplett-PC-Käufer(in)
Vielen Dank für den umfangreichen Test! Habe mir jetzt mehrere Reviews durchgelesen und die Performance-Ergebnisse waren circa entsprechend meiner Erwartungen. Ich geh an die Karte halt nicht mit der Erwartung heran, dass die 2080 Ti riesig überflügelt werden muss, sondern bin auf der Suche nach einer Karte, die meine 5700 XT ablösen und mir in 1440p angemessene FPS (für 144/165Hz) liefern kann, ohne dass ich alles auf Low runter stellen muss. Da hat mich die 3080 nun überzeugt, entsprechend werde ich morgen versuchen, eine FE direkt bei Nvidia abzugreifen. Danke PCGH! :)
 

Basileukum

Software-Overclocker(in)
Auf DLSS haben aber nun mal nicht alle Bock.

Ne, wer kauft sich denn für 700 Euro und mehr eine teure Grafikkarte, um sich dann bei den Grafikeinstellungen bescheißen zu lassen? :D :D :D
Die Leute wollen ja die volle Lusche und keine abgespeckte Grafik, deshalb nennt man diese ja auch "Enthusiasten". Jahrelang hat man die Konsolen belächelt, welche mit ähnlicher Schummelgrafik behalfen.

Positiv muß man sagen, solange es gut ausschaut, ist es doch in Ordnung. Allerdings kann das auch jeder selber herbeiführen. Gehst halt von Ultra auf Hoch in den Einstellungen usw. usw. usw. und ich glaub das ist, was eben nicht immer gewollt aber DLSS ist.

PS: Das hätte mich jetzt auch interessiert. Haben die bei dem Test das DLSS zum RT angeschalten oder nicht, das hab ich wohl irgendwie überlesen.
 

Pu244

Lötkolbengott/-göttin
Warum erlaubt man den Boardpartner nicht einfach mehr VRAM draufzupacken, früher war das Gang und Gäbe, siehe GTX 580 3gb, GTX 680 4gb, GTX 770 4gb. Seit dem Keppler-Refresh durfte kein Boardpartner mehr den VRAM verdoppeln. Wäre doch sehr nice für 100€ Aufpreis eine Custom RTX 3080 mit 20gb VRAM. Die GTX 780ti mit nur 3gb war schon ein derber Schlag für eine damals potente GPU im Vollausbau.

Weil man dadurch den stärkeren Karten Konkurrenz macht. Die GTX 980 8GB hätte der GTX 980Ti, mit ihren 6GB, ordentlich eingeheizt. Heute würde sich die RTX 3090 eben nichtmehr so klar absetzen, wenn es eine RTX 3080 mit 20GB gäbe und die RTX 3070 16GB hätte..
 

ZanDatsuFTW

Freizeitschrauber(in)
Geile Karte, aber bissl wenig VRAM.
Wird die 3090 bei mir, obwohl die das doppelte kostet.
Kann als 1080Ti-Besitzer sagen - die 2000er auszulassen hat sich mächtig gelohnt. Die 1080Ti war damals richtig gut vom Preis her und hatte genug Dampf und VRAM. Und jetzt kriegt man einen würdigen Nachfolger - wahlweise wesentlich mehr Dampf für kleines Geld (3080) oder eben irre viel Leistung und viel VRAM oben druff mit der 3090.

Natürlich werde ich die Benchmarks abwarten und wenn die 3090 kaum was bietet bei dem hohen Preis, wirds halt ne 3080 und den Rest schiebt man in WaKü oder ne dickere CPU.
Die 1080 Ti ist immer noch eine gute Karte und auch ausreichend, wenn man nicht in 4k zocken möchte und auf RT verzichten kann.
 

shaboo

Freizeitschrauber(in)
Auf RTX schon? Da geht die Performance stark runter, das kann nicht in jedem Spiel gut und sauber funzen, mit ner 2080er Karte schon mal gar nicht. Flexibel muss man sein.
RTX wird man sicher immer gerne nutzen, so lange die dazu nötige Power vorhanden ist, da das Spiel dann (idealerweise) besser und/oder schöner aussieht.

DLSS hingegen kommt erst dann ins Spiel, wenn genau diese Power ausgeht und man vor der Wahl steht, DLSS zu aktivieren oder eben andere Regler nach links zu schieben. Und von den Spieleherstellern standardmäßig implementiert werden muss es auch erst mal. Von daher ist DLSS eine ganz schlechte Ausrede für die mageren 10 GB ...
 

cryon1c

Volt-Modder(in)
Denkst du denn echt, dass die 3090 soo viel schneller sein wird als die 3080? Ich sehe das nicht so.
Mir geht es weniger um FPS an sich. Würde ich nur zocken - hätte ich die 3080 im Auge.
VRAM ist massiv wenn man arbeitet - rendering, selbst wenns nur Videos sind, die Möglichkeit das ganze Projekt in den VRAM zu schieben ist einfach oberhammergeil (wenn man die Dateien entsprechend vorbereitet das diese 24GB nicht überschreiten, könnte z.B. das gesamte Projekt bei Adobe Premiere/After Effects blubb in den VRAM schieben) -haben will!
Oben drauf kriegt bei der 3090 n bissl mehr Cuda-cores, was entsprechend noch mal was bringen soll - aber wie immer, abwarten wie hart es die Softwareentwickler verkacken (gerade Adobe ist dafür berühmt es RICHTIG zu verkacken was die Hardware-Auslastung angeht).

Die Frage für mich ist also weniger wegen der Leistung, auf die 10-20% mehr könnte man verzichten, genau so wie man das früher bei den Titan Karten getan hat. Aber VRAM ist geil. Muss überlegen ob es mir wert ist.
Was halt früher kacke war bei Nvidia - sie haben Flagschiffe SPÄT rausgebracht, teils n halbes Jahr oder noch später. Ti und Titan kamen nicht um 1 Woche versetzt nach der xx80 Modellen. Entsprechend waren da die aufrüstwilligen Enthusiasten ohne Wahl - die haben halt zu der 2080 gegriffen usw. Und Karte tauschen will nicht jeder, gerade wenn die unter Wasser sitzt, bäh.

Deswegen freue ich mich das hier Nvidia endlich dazu übergegangen ist, das ganz große Ding sofort auszupacken.
 
Oben Unten