Mich fasziniert immer noch, wie viele hier enttäuscht sein können.
Oder anders formuliert: was habt ihr eigentlich erwartet?
IN DEM MOMENT wo klar wurde, dass die neuen Geforces im selben Prozess gefertigt werden wie die vorgänger (gut, er hat einen anderen Namen und leichte Verbesserungen), war auch ungefähr klar, wo die Performance landen würde - zumindest mal ohne Verbesserungen an der Architektur. Natürlich gab es letztere. Aber wer erwartet hat, dass diese nun durchgehend ein deutliches Leistungsplus bringen, ist ja auch etwas realitätsfremd. Nvidia optimiert die Architektur seit vielen Jahren, dass man dort plötzlich 50% pro Hardwareeinheit (seien es ROPs oder Shader) rausholt ist ja dann doch utopisch.
Ergo konnte man doch ungefähr überlegen, wo die Reise hingeht. Die meisten haben eh hier immer von +30% gesprochen, da ist man am Ende auch gelandet.
Mit riesigen Chips und vergleichsweise geringfügig höhren Verbräuchen, sowie einem richtungsweisenden Zusatzfeature.
Raytracing ist in aller Munde - und wird beschimpft. Weil es für die 4K lovers eben doch nicht performant genug war. Weil es noch kaum Software dafür gibt. Aber wann war das je anders bei wegweisenden neuen Features. Es war doch immer so, dass die GPUs zuerst da waren und die Software erst folgen musste. Ja sogar so, dass die Features eigentlich auch erst so richtig gut nutzbar wurden, als 1-2 weitere Generationen ins Land kamen. Aber es brauchte immer schon die Vorreiterkarten, sonst ist das Feature nunmal nicht aufm Markt. Henne-Ei. Die Entwickler werden nix implementieren für Hardware die es nicht gibt.
Beispiele wo sich schon gezeigt hat, dass das Performance oder Softwareproblem schon immer da war?
Anti-Aliasing zu Voodoo 5 Zeiten.
TnL bei Geforce 256
DX8 Shader und Geforce 3. Anfangs kaum eingesetzt und dann schnell mal zu viel Leistung gefressen für Geforce 3
DX8,1 Shader und Tesselation bei der Radeon 8500.
DX9, erweiterter Farbraum etc bei der R300/Radeon 9700 Pro und Co (vorallem 5800 Ultra
)
HDR ODER AA bei der folgenden Generation
DX10 bei der Geforce 8. Kam außerdem wegen Vista-Exklusivität nie in Schwung.
DX11 bei der Radeon 5850
Mantle, DX12, Vulkan... gibts auch schon seit Jahren. Kommt nur sehr zäh in Schwung.
oder AMD 64 seit 2003
Wer auch immer die Karten damals gekauft hat WEGEN dieser Features, der war ein Early Adopter. Die Karten waren zumeist teuer oder zu langsam für die Features. Es galt: Auflösung runter.
ODER: Polygone runter. Doom 3 hatte einen ähnlichen Ansatz wie heute Nvidia mit Raytracing: realistischere Beleuchtung. Damals war (entgegen der viel kritisierten Spiele wie BF5 und TR) das ganze Spiel darauf ausgelegt worden: bloß nicht zu viele Polygone, nicht mehr als 3 Lichtquellen bitte usw usf. Das Ergebnis: Das Spiel sah für damalige Zeiten super aus und brauchte kein Monster-System. Also kann man auch bei Raytracing annehmen, wenn Spiele dies von Anfang an in Betracht ziehen, dass diese besser damit laufen. Besser als ein Spiel, das wie Battlefield zuerst Jahrelang (eig. schon 2 Jahrzehnte) auf Rasterizing ausgelegt wurde, und nun innerhalb von 2-3 Wochen Raytracing spendiert bekommen hat.
Bedenkt das bei eurer Kritik an diesem "unnützen" Feature und der Puls wird runtergehen.
Heute ist das aus irgendwelchen Gründen ein Problem, weil wir gewöhnt sind unsere nicht mehr taufrische Grafik auch noch auf großen Bildschirmen hochskaliert anzusehen, statt, dass wir neue Effekte erwarten.
Zurück zur Geforce/Nvidia: man hat die schnellsten Karten nochmal schneller gemacht und mehr Features hinzugefügt. (Leider nicht in dem Ausmaß wie manche erhofft haben, aber das sind dann halt Träumer, der Prozess lässt halt nicht mehr zu und das ist seit einiger Zeit klar. 7nm Wird das dann richten) Blöderweise sind die Karten dadurch teurer geworden. Mangelnde Konkurrenz. Jeder von uns würde das genauso machen. Ist es dann unsere Schuld, oder die Schuld der nicht vorhandenen Konkurrenz, die uns (wenn sie da wäre) zu geringeren Preisen zwingen würde.
Das einzige was Nvidia natürlich anders hätte machen können ist, statt einer rundum verbesserten Architektur eine doppelt ausgeführte alte Architektur aufzulegen. Also 1.5 oder 2x so viel einheiten wie bei der 1080 Ti oder 1080. Aber dann wären wir um manche Features umgefallen, die uns in einigen Jahren Freude bereiten werden. Ihr werdet schon sehen.
Es ist nunmal leider nicht möglich damit "zu warten" bis sie von Zauberhand selbst da sind. Es braucht halt zuerst das Ei, aus dem dann die Henne entwächst.
Kurzum: leider nicht so schnell wie von manchen erhofft. Leider teuer. Leider ein Feature, das zu Beginn nicht zeigen kann was es kann. Auf der Haben-Seite: schnellste Karte nochmal schneller gemacht. Neue Features, neuer RAM (als das AMD gemacht hat mit HBM war es komischerweise egal, dass es weniger war als die Konkurrenz). die 2080 im Vergleich zur 1080 deutlich höhere Kosten, aber dafür ist die 2080Ti auch teurer als der direkte Vorgänger, aber halb so teuer wie die Titan V. Gibt also überall vor und Nachteile und nicht so schwarz/weiß wie es viele malen.
Demnach also die 1080Ti und 2080 (so ca). ähnlicher Preis, ähnliches Tempo. Weniger RAM, dafür schnellerer (AMD HBM Argument), mehr Features und modernere Architektur.
Insgesamt spricht das Blatt Papier für die 2080. In der Praxis wird man kaum einen Unterschied ausmachen außer man verwendet die neuen AA Modi oder es kommen Raytracing- Spiele mit weniger Bedarf.
1) Ja, das ist aber nichts neues und ich verstehe nicht, warum die Leute jetzt erst aufwachen. Das war nämlich schon bei der 680 so. Damals hat ein 294mm2 Chip (der 680), also ein Chip der im Vergleich zu den damals noch größeren Chip eher auf Performance hindeutet, den riesen-Chip von AMD geschlagen und deshalb hat man diesen Chip nicht in Form einer 670 oder 660 einfach 680 benannt. Oder anders Formuliert: bis dahin war der absolut größte Chip von Nvidia als Gegenstück von AMDs größten Chip gedacht. Weil AMDs größter Chip (365mm2 als 7970 und 280X, im Vergleich zu den 2080 Karten eh sehr klein) aber nicht so gut wie erwartet performt hat, hat Nvidia einfach den 2. größten Chip dagegengestellt - aber ihm den Namen des größten Chips (also x80) gegeben. Was tut man also mit dem noch größeren Chip? eine neue Serie einführen. Es begann also 2012, als Nvidia 30% weniger Chipfläche gebraucht hat als AMD (damals übrigens hauptsächlich wegen der DP Einheiten in AMD Chips) - und somit kleinere Chips in größere Preisklassen/Gewinnmargen geschoben hat.
2) das sieht man auch super bei den Prozessen. Intels 10nm ist anscheinend mit TSMCs 7nm Vergleichbar. Intels 7nm mit TSMCs 3nm (Prognose v. Fachmagazinen die sich auf SRAM Größe und Co beziehen).