Nvidia Geforce RTX 3080 im XXL-Test: Ampère, le trés légère Preisbrechèr

Ich finde schon das die RTX 3080 auch in RT überzeugen kann.
Ihr vergleicht eine 1200 € RTX 2080TI mit einer 699 € Karte, welche besser abschneidet.
Ich würde sagen gerade in 1440p hat sich da einiges getan in RT - zum ersten mal dreistellige FPS. Laut den Videos oben. 4K bringt doch nix, Leute holt euch 1440p und seid mega happy. :stick:

Ihr seid meist kritischer, als ein Krit in WoW.
 
195 Watt im Browser auf dem Desktop...heilige ***. :-$

Und ich kaufe extra 2.5 Zoll Platten und SSDs mit niedrigem Stromverbrauch, um dort möglichst weit unter die 50 Watt zu kommen.
 
Ja von jetzt an wird auf die Verbrauchsmessungen von PC Komponenten die weniger verbrauchen als NVIDIA's Monstrositäten verzichtet.

Ob eine CPU nun 65 oder 200W zieht, ist von nun an drauf geschissen, das macht den Kohl auch nicht mehr Fett und Verbrauchsmessungen von SSD's sind eh der letzte Witz, gerade wenn man bedenkt das z.B. zwei in der Leistung an und für sich identische SSD's diejenige die 0.2W weniger dafür Verbraucht mit der Bestnote versehen wird und die andere leer ausgeht.
Auch bei Glühbirnen gebt uns bitte die alten Wolframdraht Glühbirnen zurück.

Auch bei Autos hab ich gerade meinen VW Lupo (3L/100Km) durch einen Pontiac Firebird Trans AM GTA (25L/100Km)
ersetzt, da mir die Höchstgeschwindigkeit 225 km/h statt den schnarchlangsamen 205km/h des Lupo wichtiger ist.
 
Mmm, ich liebe Autovergleiche.
Warum vergleichst du nicht nen 3L Lupo mit nem Golf GTI?
Bei 200km/h, da wird der Golf weniger verbrauchen als der Lupo.
 
Offenbar hat NVIDIA seinen Sweetspot im Preis gefunden. Die Grafikkarte ist wohl einfach noch zu billig ?.
Ich werde nicht vor Ende 2021 upgraden, wenn das 1. Jahr mit der neuen Konsolen Generation verstrichen ist und man weiß wie "faul" die Entwickler (gell, Ubisoft) sind und welche konkreten Auswirkungen dies auf die Spielentwicklung auf den PC hat. Erfahrungsgemäß hat man immer einen Spike in den Anforderungen am PC zu Beginn der letzten Konsolen Gens. Und bis nicht klar ist ob das ganze Thema "die SSDs am PC sind langsamer als die Konsolen SSD" nur Marketinggeschwurbel ist, wäre es schlau abzuwarten. Ehrlich gesagt bin ich auch etwas enttäuscht, wenn man die Benchmarks zur 2080 Ti vergleicht steht die 3080 im optimalen Fall nur 20% besser da.
 
Ehrlich gesagt bin ich auch etwas enttäuscht, wenn man die Benchmarks zur 2080 Ti vergleicht steht die 3080 im optimalen Fall nur 20% besser da.
Keine Ahnung, was diese ständigen Vergleiche mit der 2080Ti sollen. Wie sowohl Modellbezeichnung als auch Preis verraten, ist die 3080 Nachfolgerin der 2080(S).

Klar kann man sich über Stromverbrauch/Hitze und Speicherausbau der 3080 beschweren, aber beim Leistungszuwachs gegenüber Turing gibt es bei dieser Karte und zu dem Preis nun wirklich nicht allzu viel zu meckern.
 
Keine Ahnung, was diese ständigen Vergleiche mit der 2080Ti sollen. Wie sowohl Modellbezeichnung als auch Preis verraten, ist die 3080 Nachfolgerin der 2080(S).

Nochmal:
Nvidia verbaut den "Dicken Chip" mit dem GA102 in 3080 und 3090.
Bei Turing war der TU 102 nur in 2080ti & der Titan verbaut.
Bei Pascal der GP102 in der TI und den Titanen
Bei den x080 Modellen war bislang der 104 Chip verbaut, ergo würden wir hier unterschiedliche Leistungsklassen vergleichen.

Das Preisargument greift ebenfalls nicht
2080 hatte dieselbe MSRP wie due 1080ti und die gleiche Leistung (~5%). Die Leistungssteigerung von ~25-30% pro Gen Sprung gabs bei Turing erst mit der 2080ti, diese hat halt 999$ MSRP.
Zeigt viel eher, dass die 2080ti für die Mehrleistung durch GenSprung zu teuer war, bzw. Turing das bekannte Preisgefüge gesprengt hat.

Oder anders gesagt, wer soll denn dann der Nachfolger zur 1080ti gewesen sein?
Die 2080 mit gleicher Leistung und gleichem Preis? Oder die 2080ti mit stärkerer Leistung und höherem Preis?
Wir haben Pre Turing den 102 für ~699$ bekommen, wir bekommen Post Turing den 102 für ~699$ (zumindest MSRP).

Und klar kann man argumentieren, der Leistungssprung von 2080 zu 3080 ist enorm.
Ist halt blöd, dass der Leistungssprung von 1080ti zu 2080 non S minimalst ausgefallen ist. Und das eine 3080 Kreise um eine 1080ti fahren sollte ist nicht bemerkenswert, sondern Minimalanforderung.

Das soll alles nicht Ampere schmälern, aber es soll mal in Relation setzen, wo Turing eigentlich stand.
Nein, die 3080 muss sich mit der 2080ti messen, alles andere ist eine Fehlbetrachtung.
 
Nein, die 3080 muss sich mit der 2080ti messen, alles andere ist eine Fehlbetrachtung.
Vielleicht in deinem Technik-Mikrokosmos, aber ganz sicher nicht im "normalen" Rest der Welt, der einfach nur Modellpalette, Preis und Leistung im Blick hat und dem - zu Recht - scheißegal ist, ob in seiner 699-Euro-Karte nun irgendein G-Eins-Null-x - oder ein G-Eins-Null-y-Chip sein Werkt verrichtet oder wie da jetzt genau die technische Historie dahinter ausschaut.

Die 1080 hatte einen MSRP von $599 und hatte als Nachfolger die 2080 mit MSRP $699 und nun die 3080, ebenfalls mit MSPR $699. Das ist doch glaskar und was da konkret für Chips drin stecken, das interessiert schlicht keine Sau, außer ein paar Nerds in Expertenforen. 1070 bis 3070 sind diesbezüglich ebenso klar und eindeutig.

Und alles über der xx80 ist halt nicht klar kategorisierbar. In diesem - seit Turing vierstelligen - Enthusiastenbereich gibt es dann halt schlicht keine klaren Vorgänger/Nachfolger-Beziehungen mehr. Klar ist die 3090 ganz offenbar nicht in dem Sinne Nachfolgerin der 2080Ti ist, wie es diese noch gegenüber der 1080Ti war, aber deswegen heißt sie halt auch 3090 und nicht 3080Ti. Eine 3080Ti kann ja auch - in einer mit der 2080Ti vergleichbaren Preisregion - durchaus noch kommen und wird dann auch ganz sicher als Nachfolgerin eben jener wahrgenommen werden, egal welches G man da verbaut.

Und selbst wenn man die 3080 unbedingt mit der 2080Ti vergleichen möchte und sich über "nur 20% Mehrleistung" beschweren möchte, gehört nun mal im gleichen Atemzug erwähnt, dass die 3080 dafür auch etliche hundert Euro billiger ist. Wer da von Enttäuschung spricht, wird halt in der Regel nur Kopfschütteln ernten ...
 
Sorry, aber deine Betrachtung geht halt an den nüchternen Fakten vorbei.

Du sagst alles über xx80 sei nicht klassifizierbar?
Wie sonderbar...

780ti hatte zusammen mit den Titanen den damals dicksten Chip, MSRP 699$
980 Ti hatte zusammen mit der Titan den damals dicksten Chip, MSRP 649$
1080ti hatte zusammen mit der Titan den damals dicksten Chip, MSRP, 699$
2080 hatte den nächstkleineren Chip, MSRP 699$
2080ti hatte zusammen mit der Titan den damals dicksten Chip, MSRP, 999$
3080 hat den dicksten Chip, MSRP 699$

Erkennst du da vllt ein Muster welches mit Turing gebrochen wurde?

Bis Turing war xx80ti sehr sehr eindeutig zu klassifizieren. Jetzt soll das nur wegen der 2080ti nicht mehr möglich sein?
Schau Dir doch mal die Mehrleistung von 780ti zu 980ti zu 1080ti an. Was fällt Dir auf? Richtig, es gab Mehrleistung zum gleichen Preis wie das Topmodell der Vorgängergen. Bei Turing zahlt man für diesen Sprung 300$ mehr MSRP.
Die 3080 bietet genau diesen Sprung zur 2080ti den andere Tis zu den jeweiligen Vorgängern geliefert haben.
Sie passt also exakt in die oben genannte Reihenfolge. Die 2080 jedoch nicht.

Vielleicht in deinem Technik-Mikrokosmos, aber ganz sicher nicht im "normalen" Rest der Welt, der einfach nur Modellpalette, Preis und Leistung im Blick hat und dem - zu Recht - scheißegal ist, ob in seiner 699-Euro-Karte nun irgendein G-Eins-Null-x - oder ein G-Eins-Null-y-Chip sein Werkt verrichtet oder wie da jetzt genau die technische Historie dahinter ausschaut.

Harte Ansage in einem Extrem Hardwareforum, aber gut, leider vernachlässigst du so komplett den Fakt, dass die 2080 genausoviel gekostet hat wie die 1080ti und lediglich minimal schneller war. Wenn du die 1080 mit der 2080 vergleichen willst, gerne. Dann ist aber logischerweise die 999$ MSRP 2080ti der Nachfolger zur 699$ MSRP 1080ti und schon vergleichen wir wieder dicksten Chip mit dickstem Chip... den nunmal auch die 3080 trägt.

Ich kann doch nix für Nvidias Preis- oder Produktgestaltung, nur sollte man die Fakten doch auch erkennen wenn sie auf dem Tisch liegen.

Und selbst wenn man die 3080 unbedingt mit der 2080Ti vergleichen möchte und sich über "nur 20% Mehrleistung" beschweren möchte, gehört nun mal im gleichen Atemzug erwähnt, dass die 3080 dafür auch etliche hundert Euro billiger ist. Wer da von Enttäuschung spricht, wird halt in der Regel nur Kopfschütteln ernten ...

Ne eigentlich hat man dann Recht, denn in den vorherigen Gens gabs mehr als 20% Mehrleistung zum selben oder nur minimal erhöhten Preis. Die 2080ti hatte sich ja die Mehrleistung über die 1080ti mit entsprechend höheren Kosten vergüten lassen.

Kopfschütteln sollten all jene ernten, welche nicht verstehen, dass die 2080ti einfach nur zu teuer war und ein Ausreißer nach oben (der sich hoffentlich nicht wiederholt).
 
Zuletzt bearbeitet:
Warum das? Schon mal was von 'Rücktritt vom Kaufvertrag' gehört? Von Arschkarte sehe ich da nix. Man kann das Ding an Tag 1 vorbestellen und dann noch ne Woche nach RTX3090 Launch zurückgeben. Sehe kein Problem. So eine Vorbestellung sehe ich eher als unverbindliche Reservierung.
Jo, ich hab mir nun auch eine 3080 mal bestellt, rechne aber nicht damit, dass die wirklich sehr bald verschickt würde, d.h. ich hab bequem Zeit, weiter Tests anzuschauen, etc. und mich nochmal anders zu entscheiden (den PC baue ich eh erst, wenn die Zen-3 Reveal vorbei ist). Sollte das nicht nötig sein, brauche ich gar nix tun. Ist doch praktisch ;-)
 
Jedem soll doch die Freude an der neuen Karte gegönnt sein aber es bringt nichts in den NVIDIA Defence Force Modus zu schalten. Und nein, nicht alle welche eine 2080 TI haben sind kleine Crybabies, welche jetzt nur Ihre Investition verteidigen wollen. Aber trotzdem jeder der sich etwas auskennt und jetzt nicht unbedingt aufrüsten muss, sollte noch etwas warten bis sich die aktuelle Konsolen Generation eingefahren hat. Mein persönlicher Dealbreaker ist nicht der Performancezuwachs, sondern das Speicherlimit. Jeder der maximal bis FHD oder vllt noch Wqhd zockt, reicht dass sicher noch gut aus. Aber ihr werdet noch große Augen bekommen, wenn ihr später Cyberpunk mit RTX On mit 4k (vlt. schon bei WQHD) zocken wollt.
 
Cyberpunk kommt eh mit DLSS2.0. Das reduziert den VRAM-Bedarf auf WQHD-Niveau. Glaubste ernsthaft Nvidia würde zulassen, dass Cyberpunk auf einer RTX3080 nicht perfekt läuft? Ich denke nicht.
 
Ich denke auch, bis das 10GB Ram-Limit wirklich Probleme macht, dürfte mind. noch rund ein Jahr ins Land gehen. Kann kommen, unter Umständen, vielleicht auch nicht. Aber in der aktuellen "heißen" Phase rechne ich da noch mit nix.
 
Habe mir jetzt die 3080 gekauft und ich muss sagen das ich gestern recht zufrieden war auch was die Speicherauslastung anging. Für meine Zwecke Okay und noch Luft nach oben. Die 2080 die ich vorher hatte mit 8 Gb wurde auch nicht immer ausgelastet. Selbst da war Luft nach oben. Zeigen muss sich das jetzt in Zukunft wenn 4K Monitore ins Spiel kommen. Da ist mir aber auch noch zu viel Geld für fällig. Momentan in meinem UWQHD und meinen Games komme ich mit den 10 Gb dicke aus.
 
Ich denke auch, bis das 10GB Ram-Limit wirklich Probleme macht, dürfte mind. noch rund ein Jahr ins Land gehen. Kann kommen, unter Umständen, vielleicht auch nicht. Aber in der aktuellen "heißen" Phase rechne ich da noch mit nix.
Man kann sich das aber auch schön reden. Ein Jahr ist schnell vorbei und dann kommen schon wieder neue Grafikkarten mit Mindest-RAM von 24Gb. ;)
 
Zurück