Geforce RTX 2080 Ti: Zweifelhafter Benchmark-Leak zeigt u.a. Leistung in Battlefield 5

Ich denke nicht das AMD oder Intel sich auf Raytracing einlassen zum gegenwärtigen Zeitpunkt. es macht einfach keinen Sinn für die Unternehmen aktuell solange man keinen passablen Eigenansatz hat wird man versuchen das Thema auszusitzen.
 
Man stelle sich nur vor, eine GPU in der Größe von der RTX 2080TI die nur mit Shadern statt Tensor/RT Einheiten vollgepackt wäre. Dann hätten wir eine Karte mit +100% purer Rohleistung, die GTX 2080 hätte dann für 789,- (kostet aktuell die ASUS RTX 2080 / MediaMarkt) locker 50% mehr Rohleistung wie die GTX 1080ti zum fast gleichen Preis. Wir Spieler wären alle Mega Happy gewesen.

Betriebswirtschaftlich wäre es für Nvidia jedoch eine Katastrophe, denn das wäre vorerst die letzte Generation die eine Kaufberechtigung hätte, da Sie so extrem schnell ist, dass man die nächsten 4-5 Jahre nix neues bräuchte.

Naja es wird im oberen Preissegment nix anderes außer mit RT/Tensor Cores kommen, die nächste Gen schafft dann RT in WQHD und mit etwas Glück sind wir dann in 4-6 Jahren bei 4k. Dann vielleicht nochmal 5 Jahre bis RT auch in voller Pracht und nicht nur mit einzelnen Funktionen in 4k genossen werden kann ;) - Die nächsten 10 Jahre sind für Nvidia gesichert.

Tja und AMD, keine Ahnung ob die da überhaupt nachziehen können - die haben definitiv einiges aufzuholen und da reicht nicht nur eine Strukturverkleinerung. Ich tippe eher darauf das AMD eher im Einstiegs- & Mittleren Preissegment in den nächsten Jahren einen Rolle spielen wird.

Selbst 100% Mehrleistung hätte nichts gebracht, für 8k langt der VRAM nicht.
Aber ja, vermutlich hätte NVIDIA das bringen können, aber zu viel Leistung kann eine Graafikkarte nicht haben, um so höher man mit der Auflösung gehen kann umso besser.
 
Ich denke nicht das AMD oder Intel sich auf Raytracing einlassen zum gegenwärtigen Zeitpunkt. es macht einfach keinen Sinn für die Unternehmen aktuell solange man keinen passablen Eigenansatz hat wird man versuchen das Thema auszusitzen.

Klar lassen sich darauf ein, gerade für AMD bedeutet es eine Art Reset. Bei der Rasterisierungsleistung kommen sie nicht mehr heran, Ray-Tracing hand ganz andere Anforderungen und AMD ist bereits jetzt im Pro-Bereich sehr Ray-Tracing fokusiert, nur halt nicht in Echtzeit. Deep-Learning ist AMD auch gut dabei.

Kann sein, dass Intel oder AMD hier sogar einen deutlich besseren Ansatz wie Nvidia finden.
 
Klar lassen sich darauf ein, gerade für AMD bedeutet es eine Art Reset. Bei der Rasterisierungsleistung kommen sie nicht mehr heran, Ray-Tracing hand ganz andere Anforderungen und AMD ist bereits jetzt im Pro-Bereich sehr Ray-Tracing fokusiert, nur halt nicht in Echtzeit. Deep-Learning ist AMD auch gut dabei.

Kann sein, dass Intel oder AMD hier sogar einen deutlich besseren Ansatz wie Nvidia finden.

Ehe man das aber nicht hat, wird man das erstmal absägen wollen. Außerdem bleibt das große Problem mit den Konsolen die das noch ne ganze Weile nicht haben werden, was bedeutet dass es immer zusätzliche Arbeit für die Entwickler bedeuten wird. AMD hat zudem die Möglichekeit via 7nm mit demTakt der Geforce aufzuschließen und damit das Hauptmanko zu beseitigen was man aktuell hat. Ich wage zu bezweifeln das man Vega oder Navi da jetzt so kurzfristig mit einem Raytracing schnellschuss einführen wird.

Nvidia hat es genauso gemacht bisher, alles was man nicht gut konnte hat man blockiert.
 
Ehe man das aber nicht hat, wird man das erstmal absägen wollen. Außerdem bleibt das große Problem mit den Konsolen die das noch ne ganze Weile nicht haben werden, was bedeutet dass es immer zusätzliche Arbeit für die Entwickler bedeuten wird. AMD hat zudem die Möglichekeit via 7nm mit demTakt der Geforce aufzuschließen und damit das Hauptmanko zu beseitigen was man aktuell hat. Ich wage zu bezweifeln das man Vega oder Navi da jetzt so kurzfristig mit einem Raytracing schnellschuss einführen wird.

Nvidia hat es genauso gemacht bisher, alles was man nicht gut konnte hat man blockiert.

Was Navi können wird (und so auch die PS5), muss man noch sehen, hat schon jemand behauptet, dass RT hier keine Rolle spielen wird? Was den Ray-Tracing aufwand angeht, ist es sogar einfacher für die Entwickler. Während man bei der Rasterierung mit etlichen Tricks nachhelfen muss, damit z.b. eine Reflektion halbwegs realistisch ausieht, funktioniert es einfach bei RayTracing. Es kostet halt nur richtig viel Leistung.
 
Hypothese: Wenn ich aktuell eine 980ti betreibe und Geld verdiene ich ganz gut. Ich glaube dann wäre mir die Karte 1300€ wert. Weil ich ja Highend bekomme, kann man nicht anders sehen. Denn wenn ich auf gute Preis zu Leistung Rate stünde, hätte ich mir nie eine xx80ti als Vorkarte angeschafft, sondern zB eine 970 oder 1070. Klingt das nicht streng logisch?

Falsch wenn du dir wie ich z.B. ne 980Ti für 300€ in nem Angebot gekauft hättest als es die 1080 schon gab, würdest Du jetzt eher sagen lass mal die ganzen Jungs denen Regler nach rechts schieben das aller wichtigste am zocken ist ihre 1300€ ausgeben, ich kauf mir dann lieber ne 1080TI gebraucht mit nem Fullcover Waterblock für ~500 Euro :D
 
Und trotz des hohen Preises, trotz des zu erwartenden Preisverfalls nach release (wenn auch nur ein bisschen) und trotz mehr oder minder völlig unbekannte Leistungsdaten wird die Karte vorbestellt, man könnte ja sonst keine mehr bekommen.

Das kenne ich sonst nur von Applejüngern...

Apple-Jünger vs. Nividia-Jünger...
Wer den nicht ersichtlichen Unterschied findet, darf ihn behalten! ;)

mfg
 
Aktuell ist die günstigste 1080Ti bei 599€ Einstiegspreis war bei dem Modell 799€
Die 2080Ti liegt bei mindestens 1229€ Da kannst du -denke ich- lange warten, bis es die für 500€ gibt.

Warten zwecklos, da es dann bereits den Nachfolger (7nm in 2019) zu einem höheren Preis gibt, und die RTX20X0(Ti) schnell verschwindet...einzig auf dem Gebrauchtmarkt kann dann evtl. zu dem Preis etwas erbeutet werden. ;)

Allerdings hat man dann wieder eine Karte, die langsamer ist, als die Aktuelle, vor allem wahrscheinlich auf dem Gebiet von RT...Nvidia weiß schon, wie man den Zug mit Volldampf betreibt... ;)

mfg
 
Falsch wenn du dir wie ich z.B. ne 980Ti für 300€ in nem Angebot gekauft hättest als es die 1080 schon gab, würdest Du jetzt eher sagen lass mal die ganzen Jungs denen Regler nach rechts schieben das aller wichtigste am zocken ist ihre 1300€ ausgeben, ich kauf mir dann lieber ne 1080TI gebraucht mit nem Fullcover Waterblock für ~500 Euro :D

Okay, etwas hart jetzt gleich mit „falsch“ zu beginnen, wo deine Konstellation doch sehr nieschig ist. Viele 980ti für 300€ kann es nicht gegeben haben, obwohl ich bei 330 auch überlegt habe. Ich spiele noch mit zwei 970, die ich für zusammen 200€ gebraucht ersteigert habe. Davor aus Nöten die 1070 verkauft, gute Karte! Aber wie gesagt, wenn Geld gerade nicht so knapp wäre.. Highendkarten sind immer nett zu haben, wenn es nicht gerade gtx 295 oder ähnliche Gewaltkarten sind. Ich bin aber auch voreingenommen, ich finde NVIDIA seit der 8800GT nur noch geil und kaufe mir immer die Performanceklasse, 275, 570, 970, 1070 und dann wieder 970.
Ich halte es dabei für pure Rationalisierung zu behaupten, die Topmodelle wolle ich eh nicht haben. Mehr Leistung ist immer geil und man kann sie auch immer in bessere Bildraten oder SS umsetzen. Alle Regler nach rechts? Ja, gerne, wenn es geht. Ich bin nicht neidisch auf die Elitären Käufer der xx80ti Karten. Irgendwann möchte ich auch wieder. ATI 9800XT ging halt damals noch für 360€, danach habe ich mir keine Highend mehr leisten können, dabei spielt man doch so viel und bekommt auch gut was für gebrauchte Karten zurück... Jaja, heulheul, 799€ wären mir lieber, so reicht es nur für eine 2070 oder vielleicht zwei 1070 wenn ich mal wieder bescheuert werde. Danke fürs Lesen, wer nu noch dabei is ;-)
 
Ich verstehe euch immer weniger;

Ich gebe zu, dass der Preis sehr hoch ist. Wenn ich jetzt als Beispiel um jetzt nicht FE zu nehmen eine EVGA Gaming nehme, hier kostete die 1080ti Anfangs um die 800Euro, die 2080ti nun 1300Euro, das ist ein Aufschlag von 500Euro, ja das ist richtig heftig, das streite ich nicht ab und finde auch die RTX könnte/sollte deutlich günstiger sein.

Es gibt aber 2 Sachen die mich an vielen Usern hier stört; wenn ich mir das Geld erarbeite und mir etwas gönnen möchte, tue ich dies und schaue nicht so genau auf den Preis. Deshalb bin ich noch lange kein Idiot. Ich kann mit meinem Geld machen und tun wie es mir lieb ist. Ich frage mich ob hier teils Beleidigungen nur aus Neid geschrieben werden. Viele sind doch nur enttäuscht, dass sie sich das Teil nicht leisten können und dann geht der Hate eben auf Leute wie mich, welche eine 2080ti vorbestellt haben, einfach nur traurig!!!

Wenn ich dann aber sehe, dass manche weit über 500Euro für OC-Ram ausgeben (mir egal, wers mag), was nur Leistungsunterschiede im unteren einstelligen Bereich bringt, ja das wird gefeiert. Manche geben hier hunderte von Euro für RGB Krams aus (auch hier, wems gefällt soll ruhig machen), da wird selten über den Preis gestritten.

Es ist halt so, manche geben scheinbar sinlos Geld aus, für die einen Verständlich für den anderen Unerklärlich. Wenn ich glücklich mit mir und meinem Leben bin und ich eben bereit bin die 1300Euro zu zahlen, soll das jedem anderen egal sein und soll seine Beleidigungen unterlassen.

Die aktuelle Situation ist halt so, dass die Pascal Karten noch die Lager füllen und eine sehr gute Leistung bieten und die Turing Karten Preislich oberhalb mit eingestuft werden und es ist halt so (und wird immer so sein), dass im Premium Bereich die Preise nicht linear steigen sonder etwa 10% mehr Leistung 30% Aufpreis. Dies gilt übrigens nicht nur für PC Hardware, schaut euch auch mal andere Hobby's an, z.b. Rennrad fahren, dann wisst ihr vielleicht was ich meine,

Darum geht es nicht, bzw. du hast dann evtl. etwas falsch verstanden.

Von mir aus kann jeder so viele von den Dingern kaufen wie er will, und neidisch werde ich deshalb nicht. (eher genau das Gegenteil ist der Fall ;) )
Könnte mir auch jeden Monat eine neue 2080Ti kaufen, ohne ins schwitzen zu kommen, aber ich werde mir noch nicht einmal eine Einzige zulegen.

U. a. deswegen, weil wenn so ein Verhalten "Schule" macht, natürlich auch die Preispolitik von Nvidia in Zukunft noch weiter ausartet, denn anscheinend sind die GPUs ja immer noch zu "billig"?

Wenn ihr es noch nicht gemerkt habt, es wird trotz techn. Fortschritt in der Entwicklung und Produktion nicht günstiger (oder gleich, bei mehr "Leistung"), wie in der Vergangenheit bei den meisten Produkten (z.B. TVs, CPUs), es wird immer (progressiv) teurer bei Nvidia.
Und sicher kann man davon ausgehen, vor allem wenn ein Konkurrent ausbleibt, diese Spirale auch in den nächsten Jahren steil nach oben zeigen wird... ;)

mfg
 
Zuletzt bearbeitet:
Der Logik nach müsste jeder vernünftig denkende Mensch diese 2080 Karten überspringen.
1. Mit Raytracing kommt eine sinnfreie Funktion die wohl niemand in einem Spiel zu seinem Vorteil einsetzen kann. Darüber hinaus frisst das Leckerli derart viel Leistung die uns wieder 5 Jahre zurück wirft in HD Auflösungen.

2. Würde man mit der Leistung endlich mal 4k auf 144 Hz mit Überfluss an fps befeuern können wäre das noch ein Kaufgrund, aber die beworbenen frames von Nvidia haBen viele 1080 ti und Vega Nutzer schon heute.
Und eben auch nur dann wäre der Preis gerechtfertigt

Nomal müsste das der Flop des Jahrzehnts werden und stellt für mich nur eine Verschwendung von besonderen Erden dar.

Das war mein Apell an die Vernunft


Ausserdem sollten die nochmal Prozentrechnen lernen
Denn 50 frames in Bf5 zu 75 sind keine 38 Prozent Mehrleistung, sondern um die 25, aber sieht besser aus auf dem ersten Blick...
 
Zuletzt bearbeitet:
Stimmt eben merk ich selbst ok das nehmen ich zurück, vielleicht sollte ich das nochmal üben.
Trotzdem hätte es keine neue Karte gebraucht für das bisschen
 
Ich finde 38% ordentlich aber optimistisch. Steht aber auch leider kaum in einem Verhältnis zum Preis. Für diejenigen, die bei Pascal schon weiter oben zugeschlagen haben und die nicht immer das allerneueste brauchen, sind die Karten wohl eher uninteressant, für Maxwell-Besitzer sieht die Sache anders aus. Ich finde 1.300€ für eine Grafikkarte aber auch allgemein absurd, das ist noch mal die Hälfte mehr, als ich für meine ausgegeben habe und das war schon dekadent. Bin mal gespannt, wie die sich verkauft.

Prinzipiell finde ich RT aber spannend, das bringt mal wieder neuen Wind und erspart potenziell viele Tricksereien, die oft zu Artefakten geführt haben und auch ordentlich Leistung gefressen haben.
 
Kann mir bitte mal einer erklären, wie diese ganzen Leaks zur Leistung möglich sind, wenn NV noch keinen Treiber raus gegeben hat ??
 
Was Navi können wird (und so auch die PS5), muss man noch sehen, hat schon jemand behauptet, dass RT hier keine Rolle spielen wird? Was den Ray-Tracing aufwand angeht, ist es sogar einfacher für die Entwickler. Während man bei der Rasterierung mit etlichen Tricks nachhelfen muss, damit z.b. eine Reflektion halbwegs realistisch ausieht, funktioniert es einfach bei RayTracing. Es kostet halt nur richtig viel Leistung.

Da spart niemand arbeit die nächsten Jahre, alle müssen es zusätzlich implementieren, es kann ja niemand auf den "normalen" Modus verzichten. Es kostet also massiv Leistung, erfordert zusätzlichen Aufwand und ist kaum verbreitet und es gibt keinen Content. Eine schlechte Mischung für schnelle Verbreitung.
 
Kann doch nur so sein das nV schon Treiber in Umlauf gebracht hat und sich einige nicht an das NDA halten oder den Treiber weiter geben haben .... kann auch sein das es undichte Stellen bei NV gibt, wäre nicht das erste Mal.

Das ganze System Nvidia schreit eh danach durchbrochen zu werden. Habe selten so schlechte Umständen bei einem Launch gesehen, es gibt so viel Häme und Kritik zu lesen, da könnte einem der Spass an den Karten schon vergehen. ):
 
Zuletzt bearbeitet:
Da spart niemand arbeit die nächsten Jahre, alle müssen es zusätzlich implementieren, es kann ja niemand auf den "normalen" Modus verzichten. Es kostet also massiv Leistung, erfordert zusätzlichen Aufwand und ist kaum verbreitet und es gibt keinen Content. Eine schlechte Mischung für schnelle Verbreitung.

Raytracing ist wohl mit den normalen Shadern auch möglich, wenn auch deutlich langsamer. Das könnte aber z.B. für kleinere Indie-Titel, die eine simple Grafik mit den Möglichkeiten von Raytracing kombinieren, trotzdem interessant sein und zu einer schnelleren Verbreitung der Technik führen. Dann ist halt die Frage, inwiefern AMD da nachliefern kann, bzw. darf. Eigentlich wäre es schon ärgerlich wenn da wieder so eine CUDA-/PhysX-/Gameworks-Nummer draus wird. Leider aber auch nicht unwahrscheinlich.
 
Der Logik nach müsste jeder vernünftig denkende Mensch diese 2080 Karten überspringen.
1. Mit Raytracing kommt eine sinnfreie Funktion die wohl niemand in einem Spiel zu seinem Vorteil einsetzen kann. Darüber hinaus frisst das Leckerli derart viel Leistung die uns wieder 5 Jahre zurück wirft in HD Auflösungen.

Gilt das auch für 980/780/680- bzw. Radeon Equivalent-Besitzer? Fortschritt ist immer gut. Hat ja nicht jeder eine 1080(TI) im Rechner. Auch das mit dem Raytracing finde ich super. Sicher in der 2080 nicht wirklich relevant außer dass es in ein paar Spielen ein paar zusätzliche Effekte gibt, aber ich sehe das eher als Startschuss dafür, dass die Rasterisierung in Spielen mittel- bis langfristig zum Ende kommen könnte. Ich finde die Idee super das erstmal hybrid zu lösen und Stück für Stück auf Raytracing umzuschwenken. :daumen:
 
Zurück