Nvidia Geforce RTX 3080 im XXL-Test: Ampère, le trés légère Preisbrechèr

Was sich jedoch sagen lässt, wozu sind die 330W nötig?

Wie in der Halbleiterbranche üblich ist irgendwann die Physik dein größter Feind. Möchtest du aus den gegebenen Grenzen mehr raus holen, musst du mir rein pressen.

Ein normaler Otto-Motor sollte hier als einfacher Vergleich genügen. Genau so ist es ja auch bei Intel CPUs zur aktuellen Zeit: Man kann hauptsächlich Performance nur noch durch mehr "Sprit" aka Strom erzeugen, weswegen die Leistungsaufnahmen bei Intel CPUs immer weiter steigen.

Bei nvidia ist es nun nicht so in diesem Umfang zu beobachten, jedoch etwas spielt es schon mit rein. Das ist in diesem Fall leider klasissche Physik, welche kein Ingenieur mal eben so umgehen kann.
 
Klasse PCGH(wer meckert, muss auch mal loben). Aber ist ja auch eure Kerndisziplin :)

Muss nachher erstmal ausführlich lesen, auch wenn ich wohl nicht immer alles verstehe. Wichtig sind mir auch Temps u Lautstärke. Habe bisher nur die Benchmarks geguckt, da gefällt mir die 3080 schonmal gut.

Und die Karte kostet ja keine 700, da man die Alte ja noch verkauft.
 
Wie in der Halbleiterbranche üblich ist irgendwann die Physik dein größter Feind. Möchtest du aus den gegebenen Grenzen mehr raus holen, musst du mir rein pressen.

Ein normaler Otto-Motor sollte hier als einfacher Vergleich genügen. Genau so ist es ja auch bei Intel CPUs zur aktuellen Zeit: Man kann hauptsächlich Performance nur noch durch mehr "Sprit" aka Strom erzeugen, weswegen die Leistungsaufnahmen bei Intel CPUs immer weiter steigen.

Bei nvidia ist es nun nicht so in diesem Umfang zu beobachten, jedoch etwas spielt es schon mit rein. Das ist in diesem Fall leider klasissche Physik, welche kein Ingenieur mal eben so umgehen kann.
Ich bin Physiker und kenne das Problem.

Meine Frage war aber darauf bezogen, dass man mit 270Watt ein ähnliche Leistung hätte erzielen können, sprich 4-5% weniger FPS. Dafür aber wesentlich effizienter. Daher finde ich 330W absolut unnötig und hier stellt sich die Frage wozu nVidia 330W für Nötig hält.
 
Die Leistungsaufnahme mit 325-330 Watt ist wirklich sehr krass, hat das nicht direkt Auswirkungen auf die Zimmertemperatur?:ugly:
 
Vielen herzlichen Dank für diesen überaus ausführlichen Test!! :daumen: :daumen: :daumen:

Also im Schnitt 30%, wenn auch gar mal um die 40% Mehrleistung im Vergleich zur RTX 2080 Ti.
Schade das die normale RTX 2080 nicht im Test vertreten war, um Nvidias Aussage bzgl. der doppelten Leistung detailliert zu überprüfen. Hab persönlich dafür die RTX 2070 Super Ergebnisse im Bezug genommen.
Da sind es dann ca. 70% bis hin zu auch mal mehr als 100%. :)

Als ehemaliger GTX 1080 Ti User, dank nahezu doppelter Performance eine gute Neu Empfehlung, wenn da nicht der geringere Speicher wäre, der einem zumindest unterbewusst Kopfschmerzen bereitet. ^^

Hoffe AMD macht hin, und gibt Nvidia noch einmal einen Grund auf mehr Speicher zu setzen.
Dann würde ich persönlich wohl zur RTX 3080 greifen, es sei denn AMD überrascht mich. :)

Freu mich schon auf die Print! Hoffe auf zusätzliche Analysen bzgl. der CPU Wärmeentwicklung aufgrund des neuen Kühldesigns der Founders Edition. ;)
 
180% gegenüber meiner GTX 1070 - sehr schön.:D

Habe ich auch noch drin, sehe aufgrund 1080p aber weiterhin keinen Grund, viele hundert € auszugeben, nur um was neues zu haben. Wozu? Von meinen 5 Lieblingsspieleserien kommt alle paar Jahre der Nachfolger und solange kann man sich immer schön mit der alten Karte von Spiel zu Spiel hangeln.

Nichtsdestotrotz ist die 3080 eine gute Karte, aber man muß hier auch nicht in Jubelstürmen ausbrechen. Das ist guter technischer Fortschritt, kein Wunderwerk. Im Gegenteil, nicht alles an der Karte wirkt stimmig. Überrascht hat eher die Preisgestaltung. Und würde ich was brauchen, würde es bei mir aber die 3070 werden. Alles andere ist bei normal großem Monitor einfach overkill. Und wenn ich oben schon wieder lese "Anno 1800 in 4k keine 60fps", dann fällt mir schon wieder das Essen aus dem Gesicht. Ich würde AA auf 16x hochdrehen, wenn es ginge, dann schafft die Karte nichtmal 20fps. Ne, diese ganze Suppe ist mir zu spacy, zu abgefu<kt. Ich finde mich zur 4070 wieder ein.
 
Den Stromverbrauch finde ich untragbar. Da müsste ich mir ja gleich noch ein neues Netzteil zu kaufen und wieder auf einen Mesh-Tower wechseln, damit die Hitze wegkommt. Der Stromanbieter wird sich natürlich freuen, wobei: Zocken darf man mit der Heizplatte ab Mai ja nicht mehr, weil man sonst tropische Temperaturen in der Bude hat.

Leistung hat das Teil natürlich ordentlich, aber wenn trotz deutlich modernerer Fertigung dafür die Energieaufnahme so aus dem Ruder lauft, spricht das weder für Samsungs Prozess noch die Architektur.
 
Ganz ehrlich? Ganz schön mau. :ka:

Sehe ich auch so, zumal man ja sieht, dass ne übertakte 2080Ti im Schnitt nur noch rund 10-15% dahinter liegt. Die 1,9x Performance/Watt waren definitiv nicht auf pure Rasterisierung bezogen.

Also für neue Fertigung und Architektur haut mich das jetzt nicht vom Hocker. Aber ich hatte ja schon bei den ganzen Leaks vermutet, dass Nvidia über die TGP die Leistung holen muss um sich irgendwie zu rechtfertigen.

Preislich ist es im Vergleich zu Turing natürlich attraktiver geworden, aber von günstig kann wohl kaum gesprochen werden. Klar hat ne 2080Ti mal ne Stange Geld gekostet, allerdings hat man die Leistung dann auch schon seit 2 Jahren...

Mal schauen was AMD um sich wirft. Wenn die knapp an der 3080 landen, dafür aber günstiger und eventuell effizienter sind, dann wäre das ja eher ne Überlegung wert. Zumal die 3090 wohl nur rund 18% zur 3080 drauf legt, aber gut das doppelte kostet.
 
Gibts auch mal nen Beispielvergleich zu ner 2070/2080 Custom im Lautstärkebereich? Das sieht mir ja doch nicht gut aus :( Wenn das Teil zu laut ist, gehts nicht.
 
Daher finde ich 330W für absolut unnötig und hier stellt sich die Frage wozu nVidia 330W für Nötig hält.
Sie würden es nicht so einrichten, wenn es nicht in ein paar Wochen rote Karten gäbe, die ähnlich schnell sind. ;-)
Turing, Pascal und Maxwell waren weit vom Performancemaximum entfernt und entsprechend dichter am Effizienzoptimum (auch wenn das nochmal nen guten tacken tiefer liegt). Da hatte AMD aber auch nichts in der Hand. Bei Ampere dreht NV auf was geht - denn offenbar ist NV der Meinung, dass eine RTX3080 mit einer 270W-Einstellung gegen ne 6900XT ziemlich blöd aussieht.
 
Im Schnitt 30% schneller als die 2080Ti, je nach Game mal 10% mehr, mal 10% weniger, incl. "Ausrutscher" nach oben.
Wer seine 2080Ti noch für 500€+ verkauft (hat), sicher kein Fehler, aber im Prinzip braucht man schon eine 3090 für einen "richtigen" Leistungsschub...und da hat einen Nvidia wieder an der Geldbörse... ;)
Für 1080(Ti) Nutzer ist der Schub natürlich interessant... ;)
 
Ich bin Physiker und kenne das Problem.

Meine Frage war aber darauf bezogen, dass man mit 270Watt ein ähnliche Leistung hätte erzielen können, sprich 4-5% weniger FPS. Dafür aber wesentlich effizienter. Daher finde ich 330W für absolut unnötig und hier stellt sich die Frage wozu nVidia 330W für Nötig hält.
Weil sie Angst haben ansonsten die Leistungskrone an AMD abgeben zu müssen?

Ich finde das Ergebnis spricht auch für sich. Der Vergleich zur 2080 hinkt auch ein wenig, denn die 2080 hat den GT104 Chip benutzt, nicht den GT102 wie die 2080 Ti.

Bei der Leistungsaufnahme und dem schon eingesetzten Big-Chip glaube ich im Moment nicht mehr wirklich an eine Ti Karte, mit Ti Leistungssprung. Schon die 3090 dürfte kaum schneller sein, da sie ja mit dem gleichen Chip und nur 20W mehr Leistungsaufnahme daherkommen soll.
 
Zurück