Man stelle sich nur vor, eine GPU in der Größe von der RTX 2080TI die nur mit Shadern statt Tensor/RT Einheiten vollgepackt wäre. Dann hätten wir eine Karte mit +100% purer Rohleistung, die GTX 2080 hätte dann für 789,- (kostet aktuell die ASUS RTX 2080 / MediaMarkt) locker 50% mehr Rohleistung wie die GTX 1080ti zum fast gleichen Preis. Wir Spieler wären alle Mega Happy gewesen.
Betriebswirtschaftlich wäre es für Nvidia jedoch eine Katastrophe, denn das wäre vorerst die letzte Generation die eine Kaufberechtigung hätte, da Sie so extrem schnell ist, dass man die nächsten 4-5 Jahre nix neues bräuchte.
Naja es wird im oberen Preissegment nix anderes außer mit RT/Tensor Cores kommen, die nächste Gen schafft dann RT in WQHD und mit etwas Glück sind wir dann in 4-6 Jahren bei 4k. Dann vielleicht nochmal 5 Jahre bis RT auch in voller Pracht und nicht nur mit einzelnen Funktionen in 4k genossen werden kann - Die nächsten 10 Jahre sind für Nvidia gesichert.
Tja und AMD, keine Ahnung ob die da überhaupt nachziehen können - die haben definitiv einiges aufzuholen und da reicht nicht nur eine Strukturverkleinerung. Ich tippe eher darauf das AMD eher im Einstiegs- & Mittleren Preissegment in den nächsten Jahren einen Rolle spielen wird.
Ich denke nicht das AMD oder Intel sich auf Raytracing einlassen zum gegenwärtigen Zeitpunkt. es macht einfach keinen Sinn für die Unternehmen aktuell solange man keinen passablen Eigenansatz hat wird man versuchen das Thema auszusitzen.
Klar lassen sich darauf ein, gerade für AMD bedeutet es eine Art Reset. Bei der Rasterisierungsleistung kommen sie nicht mehr heran, Ray-Tracing hand ganz andere Anforderungen und AMD ist bereits jetzt im Pro-Bereich sehr Ray-Tracing fokusiert, nur halt nicht in Echtzeit. Deep-Learning ist AMD auch gut dabei.
Kann sein, dass Intel oder AMD hier sogar einen deutlich besseren Ansatz wie Nvidia finden.
Ehe man das aber nicht hat, wird man das erstmal absägen wollen. Außerdem bleibt das große Problem mit den Konsolen die das noch ne ganze Weile nicht haben werden, was bedeutet dass es immer zusätzliche Arbeit für die Entwickler bedeuten wird. AMD hat zudem die Möglichekeit via 7nm mit demTakt der Geforce aufzuschließen und damit das Hauptmanko zu beseitigen was man aktuell hat. Ich wage zu bezweifeln das man Vega oder Navi da jetzt so kurzfristig mit einem Raytracing schnellschuss einführen wird.
Nvidia hat es genauso gemacht bisher, alles was man nicht gut konnte hat man blockiert.
Hypothese: Wenn ich aktuell eine 980ti betreibe und Geld verdiene ich ganz gut. Ich glaube dann wäre mir die Karte 1300€ wert. Weil ich ja Highend bekomme, kann man nicht anders sehen. Denn wenn ich auf gute Preis zu Leistung Rate stünde, hätte ich mir nie eine xx80ti als Vorkarte angeschafft, sondern zB eine 970 oder 1070. Klingt das nicht streng logisch?
Und trotz des hohen Preises, trotz des zu erwartenden Preisverfalls nach release (wenn auch nur ein bisschen) und trotz mehr oder minder völlig unbekannte Leistungsdaten wird die Karte vorbestellt, man könnte ja sonst keine mehr bekommen.
Das kenne ich sonst nur von Applejüngern...
Aktuell ist die günstigste 1080Ti bei 599€ Einstiegspreis war bei dem Modell 799€
Die 2080Ti liegt bei mindestens 1229€ Da kannst du -denke ich- lange warten, bis es die für 500€ gibt.
Falsch wenn du dir wie ich z.B. ne 980Ti für 300€ in nem Angebot gekauft hättest als es die 1080 schon gab, würdest Du jetzt eher sagen lass mal die ganzen Jungs denen Regler nach rechts schieben das aller wichtigste am zocken ist ihre 1300€ ausgeben, ich kauf mir dann lieber ne 1080TI gebraucht mit nem Fullcover Waterblock für ~500 Euro
Danke fürs Lesen, wer nu noch dabei is
Ich verstehe euch immer weniger;
Ich gebe zu, dass der Preis sehr hoch ist. Wenn ich jetzt als Beispiel um jetzt nicht FE zu nehmen eine EVGA Gaming nehme, hier kostete die 1080ti Anfangs um die 800Euro, die 2080ti nun 1300Euro, das ist ein Aufschlag von 500Euro, ja das ist richtig heftig, das streite ich nicht ab und finde auch die RTX könnte/sollte deutlich günstiger sein.
Es gibt aber 2 Sachen die mich an vielen Usern hier stört; wenn ich mir das Geld erarbeite und mir etwas gönnen möchte, tue ich dies und schaue nicht so genau auf den Preis. Deshalb bin ich noch lange kein Idiot. Ich kann mit meinem Geld machen und tun wie es mir lieb ist. Ich frage mich ob hier teils Beleidigungen nur aus Neid geschrieben werden. Viele sind doch nur enttäuscht, dass sie sich das Teil nicht leisten können und dann geht der Hate eben auf Leute wie mich, welche eine 2080ti vorbestellt haben, einfach nur traurig!!!
Wenn ich dann aber sehe, dass manche weit über 500Euro für OC-Ram ausgeben (mir egal, wers mag), was nur Leistungsunterschiede im unteren einstelligen Bereich bringt, ja das wird gefeiert. Manche geben hier hunderte von Euro für RGB Krams aus (auch hier, wems gefällt soll ruhig machen), da wird selten über den Preis gestritten.
Es ist halt so, manche geben scheinbar sinlos Geld aus, für die einen Verständlich für den anderen Unerklärlich. Wenn ich glücklich mit mir und meinem Leben bin und ich eben bereit bin die 1300Euro zu zahlen, soll das jedem anderen egal sein und soll seine Beleidigungen unterlassen.
Die aktuelle Situation ist halt so, dass die Pascal Karten noch die Lager füllen und eine sehr gute Leistung bieten und die Turing Karten Preislich oberhalb mit eingestuft werden und es ist halt so (und wird immer so sein), dass im Premium Bereich die Preise nicht linear steigen sonder etwa 10% mehr Leistung 30% Aufpreis. Dies gilt übrigens nicht nur für PC Hardware, schaut euch auch mal andere Hobby's an, z.b. Rennrad fahren, dann wisst ihr vielleicht was ich meine,
Jusserdem sollten die nochmal Prozentrechnen lernen
Denn 50 frames in Bf5 zu 75 sind keine 38 Prozent Mehrleistung so der um die 25, aber sieht besser aus auf dem ersten Blick...
Was Navi können wird (und so auch die PS5), muss man noch sehen, hat schon jemand behauptet, dass RT hier keine Rolle spielen wird? Was den Ray-Tracing aufwand angeht, ist es sogar einfacher für die Entwickler. Während man bei der Rasterierung mit etlichen Tricks nachhelfen muss, damit z.b. eine Reflektion halbwegs realistisch ausieht, funktioniert es einfach bei RayTracing. Es kostet halt nur richtig viel Leistung.
Da spart niemand arbeit die nächsten Jahre, alle müssen es zusätzlich implementieren, es kann ja niemand auf den "normalen" Modus verzichten. Es kostet also massiv Leistung, erfordert zusätzlichen Aufwand und ist kaum verbreitet und es gibt keinen Content. Eine schlechte Mischung für schnelle Verbreitung.
Der Logik nach müsste jeder vernünftig denkende Mensch diese 2080 Karten überspringen.
1. Mit Raytracing kommt eine sinnfreie Funktion die wohl niemand in einem Spiel zu seinem Vorteil einsetzen kann. Darüber hinaus frisst das Leckerli derart viel Leistung die uns wieder 5 Jahre zurück wirft in HD Auflösungen.