Geforce 411.70 WHQL beseitigt hohe Leistungsaufnahme bei Geforce RTX 2080 und RTX 2080 Ti

Vermutlich war die Leistungsaufnahme künstlich in den ersten zwei Wochen hochgesetzt, damit man Benchmarks in Reviews manipulieren konnte.
 
... Weil es der erste Generationssprung ist (zumindest vom Namensschema her) der nach 2 Jahren (!) nur unwesentlich mehr Performance bringt in aktuellen Spielen (~+30% für ne 2080Ti), dafür aber sehr, sehr teuer ist.

Die Leute hatten nach der langen Durststrecke wohl einfach mehr erwartet. :ka:

So ähnlich wird das sein.

Also direkt "gehatet" hab ich turing ja auch nicht.
Ich muss aber sagen, dass ich auch selber schuld bin, dass ich eher enttäuscht bin. Hätte ich einzig und allein auf die technischen Fakten geschaut, wie eine emotionslose Maschine, wäre ich auch nicht enttäuscht worden. Mehr is da diesmal einfach nicht drin gewesen(2080).
Ich war einfach zu sehr gehyped und hatte dadurch zu viel erwartet. Dazu kam dann noch die sehr deutliche Preissteigerung(speziell bei der Ti), die so langsam scheinbar als normal akzeptiert wird und dass die 2080 wieder "nur" 8GB hat.

Im Grunde hab ich das erhofft, was technisch wohl erst mit der nächsten Gen(8, oder 7nm, oder whatever) möglich ist.
So gesehen bin ich selber schuld. Habe mir da was vorgemacht.

Hab auch mit dem Gemecker bereits aufgehört, denn es ist, wie's ist und ändern kann man da eh nix dran.
Die neuen Preisklassen werden Nvidia auch aus den Regalen gerissen, als wenn 1200-1300€ ein Superschnäppchen wären und dementsprechend werden wir nächste Generation natürlich klar mehr bezahlen. Logisch. Die Nachfrage ist ja immer noch hoch genug(bzw. sogar zu hoch).

Alles zusammen, hat bei mir halt zu dieser Reaktion geführt. Wie das bei anderen ist, weiß ich nicht, ob da noch andere Gründe für ein "gehate" (ich nenn's eher "Gemecker" :motz: ;) ) reinspielen.

Meine Lösung ist einfach ab sofort(wie zuletzt bei der GPU) mehr auf Gebrauchthardware zu setzen und beim jetzigen Leistungsstatus zu bleiben, für ein paar Jahre.
So gesehen mecker ich auch nicht mehr. Turing hat ja doch etwas mehr Leistung(zumindest leicht in der absoluten Spitzengruppe 2080/2080Ti) und was preistechnisch abgeht, entscheidet Nvidia nach der Nachfrage(uns Käufern) und so gesehen machen sie ja aus Firmensicht alles richtig. Was soll ich da meckern ?

Es is, wie's is. Ich komm' da langsam drüber weg. ;) :D



Mittlerweile beobachte ich eher sehr neugirig, wie die Story weiter geht. Gerade was die neuen Funktionen und Raytracing angeht(nur leider gibt's noch gar nix zu beobachten).
Was wirklich davon geliefert wird. Bin gespannt, ob die Ziele zumindest so einigermaßen eingehalten werden können.


Ich meine: Wer hätte etwas gegen massives Raytracing mit global illumination, reflexionen, tolle Schatten, super Lichteffekte(auch was Farbreflexionen angeht usw. ) und das Ganze noch bei super Leistung(top flüssig, immer über 60-100 FPS) für allerhöchste Auflösungen ?
Mal gespannt, was da wirklich bei rum kommt.

Bin da leicht skeptisch, selbst ob das mit den nächsten beiden Generationen möglich sein wird. So lange wird man sich wohl immer nur auf Teilaspekte konzentrieren(entweder/oder) und da auch noch so lange dran runterschrauben, bis es einigermaßen läuft, schätze ich mal.
Super Raytracing in allen Bereichen von 0 auf 100 kann doch gar nicht gehen.


Aber schön, dass Nvidia schnell reagiert, was die Treiber angeht und die hohe Leistungsaufnahme, obwohl ja viele noch nicht einmal ihre Karten haben und auch raytracing noch nicht begutachten können(die haben Tomb raider dann schon ohne RT durch, wenn es irgendwann kommt. ;) ).
Schaun wir mal, wie es dann in Spielen wirklich wird.

Raytracing: On.
Gemecker: Off. ;)
 
700 Steine, kam die mal soviel? Ich dacht das wär eher das Niveau von der 8800 Ultra gewesen...:ugly: Ich habe damals im Dezember 2006 für meine Gainward 8800 GTX "nur" etwa 499€ bezahlt.

Und gar nicht mal soo viel später gab es dann die 8800GT, ich meine ich hätte meine irgendwann für 130€ oder so gekauft. Single-Slot-Referenzdesign und von Haus aus eigentlich recht leise, nur halt ohne Reserven. Und im Vergleich zur Vorgängerin (7800GT mit 512MB) auch ziemlich flott. Ich glaube, das war das beste Preisleistungsverhältnis, was mir bis jetzt untergekommen ist: Die (mit Abstand) günstigste Karte, die ich je gekauft habe und dafür gute Mittelklasse. Hach ja...
 
Ich brauche keine und werde mir auch keine kaufen. Anscheinend willst oder kannst du nicht verstehn worauf ich hinauswill...;) Und noch einmal wie so oft: was dir reicht und für dich richtig ist, muss für andere noch lange nicht gelten.

Gruß

Du hast scheinbar eben meinen Post nicht richtig verstanden. Ich spreche hauptsächlich nicht davon was MIR ausreicht, sondern von dem was die Masse, respektive der Durchschnitt nutzt.
Genauso wenig gilt also auch nicht das alle das selbe Leistungs-Ziel haben wie DU. (Um deine Logik im Umkehrschluss noch einmal zu beleuchten).

Und rein statistisch gesehen liegen selbst meine Ansprüche schon über dem Durchschnitt.

Deswegen, und noch einmal, die meisten Nutzer brauchen keine teuren RTX Karten, da das damit anvisierte Leistungs-Niveau weit über dem liegt was die Mehrheit wirklich nutzt oder überhaupt interessiert.
Das natürlich auch in Relation zum Hardware-Preis.

Und ja, mir ist natürlich klar das es bereits 4k Monitore für recht kleines Geld gibt, aber auch das bedeutet nicht dass sich jeder jetzt sofort einen kaufen wird. Vielleicht auch einfach deswegen weil
sich nicht jeder für hohe Auflösungen interessiert.
 
Es wird dort vermutet das der Treiber ein künstliches CPU Limit erzeugt und sich so negativ auf die Gesamtleistung auswirkt, aber solange dort keiner nachtestet ...

Das wirst du auch keine Nachtests finden: Die haben das sicher schon längst probiert aber dann keinen hinweis auf ihre abstrusen Vermutungen gefunden - also eigentlich das selbe wie immer - so wie die Behauptungen nvidia würde ihre eigenen Karten langsamer machen, oder das PhysX nur auf nvidia läuft (das ist schon lang nichtmehr so)
 
OK dann nehme ich das mit dem Treiber zurück, belegen kann ich das nicht.

Aber es gibt genug Dinge die NV gemacht hat, die belegbar sind und ich denke es reicht sagen zu können das es eine schlimme Firma ist.

Aber ich, da hast du vollkommen recht, lass dir nix ausreden.

Nvidia ist die skrupelloseste Firma, die ich kenne.:kotz:

Sieht man alleine schon an dem GTX 970 3,5 GB Betrug am Kunden !

YouTube :lol:

Das mit dem Treiber stimmt natürlich auch. Es wird nur nie getestet, also unter den Teppich gekehrt.
Man sieht es im Vergleich zu den AMD Karten, die bei Release gleich schnell sind, aber nach 5 Jahren deutlich schneller arbeiten...

Sobald die neue Nvidia Generation auf dem Markt ist, wird die alte Generation nicht mehr optimiert. :rollen:

Nvidia Moves Maxwell GPUs to Legacy | eTeknix
 
Zuletzt bearbeitet:
Das stimmt schlicht so nicht. Bei Forza 4 z.B. wurde mit dem Treiber für das Spiel das Speichermanagement der GTX 970 optimiert damit die Karte mit Ihrem verkrüppelten Ram klar kommt.
 
Hätte man bei der GTX 970 keinen verkrüppelten Ram verbaut, und die Karte als vollwertige 4GB Karte verkauft, wäre das nicht nötig gewesen.

Wenn das bei Forza 4 so ist, hat Nvidia in diesem einem Fall, Gnade vor Recht ergehen lassen.
Das ist aber sicher nicht die Regel wie du bei dem Link von mir nachlesen kannst.:schief:
 
Zuletzt bearbeitet:
Hätte man bei der GTX 970 keinen verkrüppelten Ram verbaut, und die Karte als vollwertige 4GB Karte verkauft, wäre das nicht nötig gewesen.

Wenn das bei Forza 4 so ist, hat Nvidia in diesem einem Fall, Gnade vor Recht ergehen lassen.
Das ist aber sicher nicht die Regel wie du bei dem Link von mir nachlesen kannst.:schief:
Sobald die neue Nvidia Generation auf dem Markt ist, wird die alte Generation nicht mehr optimiert. :rollen:]

Nur weil vor 2 Jahren den Müll irgend ein Pfosten behauptet hat, ist das noch lange nicht so eingetreten.
Meine GTX 980 Ti ist heute genau so weit weg/nah dran an meiner GTX 1080 wie damals.
 
Ich habe auch nicht behauptet, dass ältere Karten aktiv ausgebremst werden, sondern dass Nvidia nach einer neuen Generation die Treiber nicht mehr für ältere Karten optimiert.

Das reicht schon um im Vergleich zu den AMD Karten nach ein paar Jahren deutlich schlechter abzusschneiden .

Und Computerbase kommt bei ihrem Test zum selben Ergebnis : :schief:

Zitat : "Nvidias Fermi- und auch Kepler-Architektur sind nicht allzu gut gealtert. Vor allem im Vergleich zu AMDs Graphics-Core-Next-Technologie, die in neuen Spielen deutlich besser abschneidet."
 
Zuletzt bearbeitet:
Das AMD Karten besser altern ist tatsächlich so, wenn ich da insbesondere an meine 290er denke die vor allem in hohen Auflösungen wirklich ein super Arbeitstier war.
 
@Fossi777

Mit dem Vorwurf des "Betrugs" wäre ich sehr vorsichtig, da kommt man rechtlich schnell in Bedrängnis.
Ansonsten, Fermi und Kepler hatten zu wenig VRAM um gut zu altern. Die GTX 980 TI z.B. altert gut und die Pascal Karten werden zeigen dass Nvidia Karten genau so gut altern wie die AMD Karten. Das Phänomen bei AMD Karten ist, die brauchen sehr lange bis die Treiber passen, konnte ich gut bei der Vega Karte feststellen, das dauert einfach (für meinen Geschmack auch zu lange).


@Gurdi

Siehe oben.
Nvidia hat in der Vergangenheit zu sehr am VRAM gespart, dass hat man zum Glück eingestellt. Und AMD braucht meist lange um die Treiber zu optimieren.
 
Fossi777;9526881 Das reicht schon um im Vergleich zu den AMD Karten nach ein paar Jahren [U schrieb:
deutlich[/U] schlechter abzusschneiden .

Ich nenne sowas selektive Informationsverarbeitung.
Zum.Launch war eine 7970 knapp auf GTX 680 Level, heute ist sie 10% vorne.
Die HD6970 war auch eine Gen die schlecht gealtert ist. Dennoch ist Kepler mit genügend RAM auch heute noch an GCN dran, hat aber 10 bis 15% an Boden verloren, nicht zuletzt wegen dem nachlassenden CPU Limit in das AMD mit ihrem höheren Treiberoverhead bei Tahiti und Hawai lief.

AMD Karten altern nicht generell besser, das ist nur eine Momentaufnahme.
Turing kann so eine NvidiaGen sein die ähnlich wie GCN altern wird.

Vega altert denke ich nicht besser als Pascal.
 
Zurück