Geforce RTX 2080 Ti: Zweifelhafter Benchmark-Leak zeigt u.a. Leistung in Battlefield 5

Hypothese: Wenn ich aktuell eine 980ti betreibe und Geld verdiene ich ganz gut. Ich glaube dann wäre mir die Karte 1300€ wert. Weil ich ja Highend bekomme, kann man nicht anders sehen. Denn wenn ich auf gute Preis zu Leistung Rate stünde, hätte ich mir nie eine xx80ti als Vorkarte angeschafft, sondern zB eine 970 oder 1070. Klingt das nicht streng logisch?

Wenn ich für die GTX980Ti 800 € bezahlt hätte,
für eine GTX1080Ti 850 € (Preisanstieg 6,25%) bezahlt hätte die eine 74% Steigerung gegenüber der GTX980Ti in der Leistung hat und 5 GByte mehr VRAM (PCGH Leistungsindex),
dann sind 1300 € (Preisanstieg 52,9%) bei einer Leistungssteigerung von im besten Fall 55% und 0 GByte definitiv viel zu teuer bezahlt. Denn das eigentliche Feature der Karter (Raytracing) kommt bis zur nächsten Generation in Spielen noch gar nicht groß zum tragen.
Selbst wenn sie in Raytracing der absolute Bringer wäre und sehr performant laufen würde, müssten doch erstmal genug Games auf den Markt kommen die dieses auch nutzen.

Keine Frage Raytracing wird definitiv der nächste Schritt in der Spielegrafikentwicklung. Wenn es performant läuft ist es für Spieleentwickler eine finanzielle Entlastung, weil man nicht mehr so viele Stunden in Fake-Beleuchtung stecken muss, sondern dieses den Karten überlassen kann.
Aber zur Zeit müssen die Spiele dafür auch erstmal entwickelt werden. Die Handvoll Titel die es aktuell bekommen sollen haben es mit der heißen Nadel in Teilaspekten implementiert (März bis heute ist nicht genug Zeit für eine optimale Einbindung).

Diese Karte ist es vielleicht in den Augen derjenigen Wert, die von Anfang an dabei sein wollen. Quasie wie bei den Alpha und Beta-Modellen der Oculus Rift, wo einige auch schon zugeschlagen haben um einfach dabei zu sein.

Der Kauf einer RTX2080Ti ist heute so, wie der Kauf eines 4K-Fernsehers vor 4 Jahren. Es gab keinerlei Inhalte, dafür hat man aber hohe 4 stellige Beträge ausgeben müssen für etwas was man noch nicht nutzen konnte und jetzt wo 4K ins Rollen kommt und Inhalte gestreamt werden können, kosten ausgereiftere Geräte nur noch einen Bruchteil davon.

Meiner Meinung nach ist selbst mit dem Anreiz Raytracing die GTX2080Ti viel zu teuer. Wenn Raytracing wirklich relevant wird, gibt es leistungsfähigere Karten auf dem Markt.

Und wenn wir nur eine Klasse darunter schauen, dann mache ich mit einer GTX1080Ti den besseren Deal wenn ich von einer GTX1080 umsteige: Für einen günstigeren Preis bekomme ich dann 3 GByte mehr Arbeitsspeicher und vielleicht 10% weniger Leistung als wenn ich eine RTX2080 kaufe.
 
Und trotz des hohen Preises, trotz des zu erwartenden Preisverfalls nach release (wenn auch nur ein bisschen) und trotz mehr oder minder völlig unbekannte Leistungsdaten wird die Karte vorbestellt, man könnte ja sonst keine mehr bekommen.

Das kenne ich sonst nur von Applejüngern...
 
Mal gugge. Ich denke ich würde mir die 2080Ti kaufen. Allerdings erst im Abverkauf für 400-500 EUR. Bis dahin genügt mit meine 1080 noch locker für die aktuellen Spiele in WQHD.
 
Warum sollten die Benchmarks getürkt sein?
Nvidia hat auf dem Geforce Gaming Experience Event Battlefield 5 zum Spielen angeboten und es lief auf den neuen RTX Karten...
 
Mal gugge. Ich denke ich würde mir die 2080Ti kaufen. Allerdings erst im Abverkauf für 400-500 EUR. Bis dahin genügt mit meine 1080 noch locker für die aktuellen Spiele in WQHD.

Aktuell ist die günstigste 1080Ti bei 599€ Einstiegspreis war bei dem Modell 799€
Die 2080Ti liegt bei mindestens 1229€ Da kannst du -denke ich- lange warten, bis es die für 500€ gibt.
 
Ich verstehe euch immer weniger;

Ich gebe zu, dass der Preis sehr hoch ist. Wenn ich jetzt als Beispiel um jetzt nicht FE zu nehmen eine EVGA Gaming nehme, hier kostete die 1080ti Anfangs um die 800Euro, die 2080ti nun 1300Euro, das ist ein Aufschlag von 500Euro, ja das ist richtig heftig, das streite ich nicht ab und finde auch die RTX könnte/sollte deutlich günstiger sein.

Es gibt aber 2 Sachen die mich an vielen Usern hier stört; wenn ich mir das Geld erarbeite und mir etwas gönnen möchte, tue ich dies und schaue nicht so genau auf den Preis. Deshalb bin ich noch lange kein Idiot. Ich kann mit meinem Geld machen und tun wie es mir lieb ist. Ich frage mich ob hier teils Beleidigungen nur aus Neid geschrieben werden. Viele sind doch nur enttäuscht, dass sie sich das Teil nicht leisten können und dann geht der Hate eben auf Leute wie mich, welche eine 2080ti vorbestellt haben, einfach nur traurig!!!

Wenn ich dann aber sehe, dass manche weit über 500Euro für OC-Ram ausgeben (mir egal, wers mag), was nur Leistungsunterschiede im unteren einstelligen Bereich bringt, ja das wird gefeiert. Manche geben hier hunderte von Euro für RGB Krams aus (auch hier, wems gefällt soll ruhig machen), da wird selten über den Preis gestritten.

Es ist halt so, manche geben scheinbar sinlos Geld aus, für die einen Verständlich für den anderen Unerklärlich. Wenn ich glücklich mit mir und meinem Leben bin und ich eben bereit bin die 1300Euro zu zahlen, soll das jedem anderen egal sein und soll seine Beleidigungen unterlassen.

Die aktuelle Situation ist halt so, dass die Pascal Karten noch die Lager füllen und eine sehr gute Leistung bieten und die Turing Karten Preislich oberhalb mit eingestuft werden und es ist halt so (und wird immer so sein), dass im Premium Bereich die Preise nicht linear steigen sonder etwa 10% mehr Leistung 30% Aufpreis. Dies gilt übrigens nicht nur für PC Hardware, schaut euch auch mal andere Hobby's an, z.b. Rennrad fahren, dann wisst ihr vielleicht was ich meine,
 

Der einzige Grund wieso die Karte für mich wirklich interessant ist, ist die Tatsache das diese fast alle Spiele mit 60fps/4k/max Details ausgeben kann. Des weiteren wird für mich als 4k zocker die Funktion DLAA/DLSS sehr spannend, da das dann auch unter 4k einen Performance und Qualitätsvorteil bringt. Die GPU ist nun mal deutlich größer und teurer in der Herstellung wie die kleine 1080ti. Was bei den Preisen auch immer mit rein fließt sind die enormen Entwicklungskosten die mit der Zeit leider nicht weniger sondern mehr werden.

Natürlich kommt noch erschwerend hinzu das Nvidia alleinige Spitzenreiter ist - so wie es lange Zeit Intel war. Das dürfte wohl mit 20% Preisaufschlag zu buche fallen.

Mal überspitzt gesagt, wir können froh sein das Nvidia überhaupt noch so Innovativ ist, die hätten auch einfach 30% mehr Leistung ohne RT/DLAA/DLSS - ohne Tensor/RT Hardware drauflegen können und die neuen Karten für 999€ in den Markt werfen können - die wäre dann auch gekauft worden, aber da zahle ich lieber etwas mehr und hab auch wirklich innovative Technik drin die natürlich noch Spielraum nach oben für die Zukunft bietet.

Ich finde das Marketing von Nvidia etwas unglücklich - RT alleine rechtfertigt die hohen Preise nicht - es geht leider unter das die Karte durchaus mehr zu bieten hat.

Um mal auf die Leistungssteigerungen/Preise der letzten 10 Jahre zurück zu kommen, irgendwann ist auch der Punkt erreicht - wie bei CPU´s - wo es keine so großen Sprünge mehr geben wird - vielleicht haben wir diesen soeben erreicht?
 
Andere Leute zu beleidigen weil sie viel Geld für ihr Hobby ausgeben ist quatsch, aber kritisieren darf man die Preise schon. Zudem gibt es auch andere teure(re) Hobbies (Fotografie, Auto, HiFi usw.).

Zu dem Benchmark, ob fake oder nicht wird das wohl in etwa hinkommen. Früher habe ich fast jede Graka Generation mitgenommen, was immer mit einer leichten Enttäuschung verbunden war. Zuletzt habe ich allerdings eine Generation übersprungen und bin von 780 TI auf 1080 gewechselt und war begeistert. Letzte Woche von Sandy Bridge auf Ryzen. Das sind Sprünge die Spaß machen. Wahrscheinlich wäre der Sprung von 1080 auf 2080TI auch klasse, aber ich warte definitiv noch was ab. Die Geduld ist aufzubringen ist zwar nicht immer leicht, aber ich freue mich dann umso mehr :nicken:
 
@arcDaniel
Grundsätzlich stimme ich dir zu.

Ich persönlich sehe das so:
Man bekommt -nach ~2,5 Jahren- nicht mehr Leistung für das gleiche Geld, sondern zahlt mehr Geld für mehr Leistung. Wenn man das weiterstrickt müssten die nächsten GeForce Karten ja noch mehr kosten, weil sie mehr Leistung bieten. Normalerweise sollte aber neue Technologie mit gleicher Leistung weniger Kosten. Man könnte das ja noch auf RTX abwälzen. Das geht aber nur so lange, bis die Mid-Range Karten released werden.
Nehmen wir mal die KFA² 1050Ti. Preis zu Release 150€ Ich nehme jetzt einfach mal an, dass eine Mutmaßliche KFA² 2050 die selbe Leistung erbringt.
Die KFA² 1050 hat zu Release 120€ gekostet. Ergo sollte eine KFA² 2050, mit Leistung einer 1050Ti maximal 120€ kosten.
Nur das wird vermutlich nicht passieren.
Konkrete Urteile über Turing kann man aber sowieso erst fällen, wenn die Reihe komplett auf dem Markt verfügbar ist.
Wenn sich der Aufpreis auf die RTX-Modelle beschränkt, ist es -mMn- gerechtfertigt.
 
.....vielleicht haben wir diesen soeben erreicht?
Die Geforce Turings haben ja nicht viel mehr Shader als ihre Vorgänger.
Hier wurde also der Platz auf den größeren Dies genutzt für die neue Features.
D.h. eine deutlich Leistungssteigerung gegenüber Pascal wäre schon möglich gewesen, war Nvidia aber nicht so wichtig, weil man Raytracing pushen will.

Bei den Spekulationen zu Turing im Vorfeld hieß es immer, dass sie ohne Tensor Cores kommen werden.
So kann man sich irren. Nvidia wird das weiter ausbauen, auch bei kommenden Generationen.
 
Zuletzt bearbeitet:
Ich verstehe euch immer weniger;

Ich gebe zu, dass der Preis sehr hoch ist. Wenn ich jetzt als Beispiel um jetzt nicht FE zu nehmen eine EVGA Gaming nehme, hier kostete die 1080ti Anfangs um die 800Euro, die 2080ti nun 1300Euro, das ist ein Aufschlag von 500Euro, ja das ist richtig heftig, das streite ich nicht ab und finde auch die RTX könnte/sollte deutlich günstiger sein.

Es gibt aber 2 Sachen die mich an vielen Usern hier stört; wenn ich mir das Geld erarbeite und mir etwas gönnen möchte, tue ich dies und schaue nicht so genau auf den Preis. Deshalb bin ich noch lange kein Idiot. Ich kann mit meinem Geld machen und tun wie es mir lieb ist. Ich frage mich ob hier teils Beleidigungen nur aus Neid geschrieben werden. Viele sind doch nur enttäuscht, dass sie sich das Teil nicht leisten können und dann geht der Hate eben auf Leute wie mich, welche eine 2080ti vorbestellt haben, einfach nur traurig!!!

Ich bin mir ziemlich sicher das hier die meisten sich eine RTX2080ti locker leisten können, ich könnte auch in meinen beiden Rechnern einen SLI Verbund verpassen.
Nur ist bei der neuen Generation halt das Problem das Preis/Leistung halt gleich geblieben sind. Das war bisher noch nie der Fall. RTX hin oder her, die meisten werden es durch den Mangel an Spielen die Raytracing unterstützen nicht nutzen können.
MMn wäre es besser gewesen eine Überteuerte (wie es sie ja jetzt ist) RTX2080ti für Leute die bei dieser Technologie gleich mit dabei sein wollen herauszubringen, aber zusätzlich auch eine GTX2080ti für Leute die nur eine Leistungssteigerung ohne den RTX kram haben wollen um den letzten TI Releasepreis also ~830€.

Ich persönlich sehe das so:
Man bekommt -nach ~2,5 Jahren- nicht mehr Leistung für das gleiche Geld, sondern zahlt mehr Geld für mehr Leistung.

Kann dem nur zustimmen.
 
Und trotz des hohen Preises, trotz des zu erwartenden Preisverfalls nach release (wenn auch nur ein bisschen) und trotz mehr oder minder völlig unbekannte Leistungsdaten wird die Karte vorbestellt, man könnte ja sonst keine mehr bekommen.

Das kenne ich sonst nur von Applejüngern...

NVIDIA hatte bis Turing kein schlechtes Preis/Leistungsverhältnis. Ganz im Gegenteil, die haben mit ihren leistungsstarken, stromsparenden und auch günstigen Modellen den Markt gut bedient, allen voran die 1060 oder 1050ti. Mit Turing soll jetzt anscheinend das Image noch mal ordentlich poliert werden und man will sich von der Konkurrenz mit revolutionären Features und Preisen absetzen. Genauso war es auch damals mit Apple. Apple war mal gut. Die sind in Qualität/Haltbarkeit der Geräte damals unangefochten Spitzenreiter gewesen! Ich habe selbst noch ein altes "weißes" Macbook von 2008. Da ist nix dran und läuft immer noch alles bestens. Man hat zwar schon damals eine Apple-Steuer bezahlt, die war aber erstens nicht so hoch und zweitens hat das Gerät dann auch in Qualität überzeugt und mit entsprechendem Service etc. hat Apple damals gepunktet. Heute kauft man ein Apple Produkt und nach einer Woche funktioniert der Screen nicht mehr oder die Tastatur klemmt und der Service ist überfordert, Lieferzeiten sind lang, Austausch kostet fast soviel wie ein neues Gerät, Fesplatte/Speicher sind nicht austauschbar, ein Anschluss... revolutionär und preis-tastisch halt. Und über die Zubehör-Preise braucht man auch nicht zu diskutieren. Die Nachfrage/Benötigung an Zubehör ist viel größer dank Kabel, Adaptern etc.

Das ist das Problem mit den Unternehmen heutzutage. Die sonnen sich im Erfolg und viele Kunden merken das nicht. Die kaufen fröhlich weiter, obwohl die Unternehmen längst umgeschaltet haben und nur noch ihre Gewinne maximieren.
 
Es soll jetzt nicht das Handhaben von Nvidia rechtfertigen, aber vielleicht erklären;

Pascal ist eine extrem gute Generation geworden, welche durch die schwachen Konsolen auch noch eine gute Zeit glänzen wird. Nvidia hat aber viel zu viele, wegen dem Mining-Boom produziert. Jetzt ist diese Blase geplatz und die Lager sind voll.
Dann kommt noch, dass Turing ein riesen Die hat, welcher sicher nicht soooo einfach zu produzieren ist und sicher in der Herstellung teurer ist. GDDR6 ist ebenfalls teurer. Die Spannungsversorung, der Voltagecontroller soll auch deutlich verbessert worden sein, was auch Geld kostet.

Warum sollte also Nvidia, so lange das Pascal Lager noch voll ist, die Preis gering halten?

Die Zeiten wie früher, wo man z.b. von 55nm auf 40nm ging, die Herstellung billiger wurde, der Verbrauch drastisch abnahm und man so mehr Leistung zum gleichen Preis (wahrscheinlich sogar mit einer grösseren Marge) anbieten konnte, sind vorbei. Wenn in der Fertigung nicht ein Wunder geschied, ein neues Material, ein billigeres Verfahren... wird sich an der Aktuellen Situation nichts ändern.

Ich will sogar behaupten, dass wenn AMD (oder in Zukunft vielleicht Intel) eine Konkurenz darstellt, die Preise von denen eher in Richtung Nvidia gehen werden als nach unten. Vielleicht Fallen sie am Anfang um wieder Fuss zu fassen, das wird aber nicht lange halten.
 

Man stelle sich nur vor, eine GPU in der Größe von der RTX 2080TI die nur mit Shadern statt Tensor/RT Einheiten vollgepackt wäre. Dann hätten wir eine Karte mit +100% purer Rohleistung, die GTX 2080 hätte dann für 789,- (kostet aktuell die ASUS RTX 2080 / MediaMarkt) locker 50% mehr Rohleistung wie die GTX 1080ti zum fast gleichen Preis. Wir Spieler wären alle Mega Happy gewesen.

Betriebswirtschaftlich wäre es für Nvidia jedoch eine Katastrophe, denn das wäre vorerst die letzte Generation die eine Kaufberechtigung hätte, da Sie so extrem schnell ist, dass man die nächsten 4-5 Jahre nix neues bräuchte.

Naja es wird im oberen Preissegment nix anderes außer mit RT/Tensor Cores kommen, die nächste Gen schafft dann RT in WQHD und mit etwas Glück sind wir dann in 4-6 Jahren bei 4k. Dann vielleicht nochmal 5 Jahre bis RT auch in voller Pracht und nicht nur mit einzelnen Funktionen in 4k genossen werden kann ;) - Die nächsten 10 Jahre sind für Nvidia gesichert.

Tja und AMD, keine Ahnung ob die da überhaupt nachziehen können - die haben definitiv einiges aufzuholen und da reicht nicht nur eine Strukturverkleinerung. Ich tippe eher darauf das AMD eher im Einstiegs- & Mittleren Preissegment in den nächsten Jahren einen Rolle spielen wird.
 
Die Geforce Turings haben ja nicht viel mehr Shader als ihre Vorgänger.
Hier wurde also der Platz auf den größeren Dies genutzt für die neue Features.
D.h. eine deutlich Leistungssteigerung gegenüber Pascal wäre schon möglich gewesen, war Nvidia aber nicht so wichtig, weil man Raytracing pushen will.

Aber genau das muss man stark bezweifeln. Irgendwann ist der Nutzen zusätzlicher Cores einfach beendet. Natürlich kann man AMD und nVidia nicht direkt vergleichen aber Erstere hatten diese Grenze für GCN bereits mit den 4096 Shadern auf Fury erreicht. Vega war nur noch notwendige Taktsteigerungen und Navi könnte Vega 64 auch nur so in 7nm noch übertreffen. Hier ist eine neue Generation einfach zwingend notwendig und, im Gegensatz zu nV, die technisch einfach schon am Limit sind, noch möglich. Sieh dir Volta(V100) an: noch einmal mehr Shader als Turing aber weniger Mehrleistung im Verhältnis zur 1080 Ti. Da hat nV irgendwo seine Grenze erreicht. Mehrleistung nur durch höheren Takt und Stromverbrauch...

So bleibt das Pushen von RT ihr vorerst einziger Weg für neue GPUs.
 
Zurück