Geplante Obsoleszenz: Nvidia-Treiber verschlechtern Performance alter GPUs nicht

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geplante Obsoleszenz: Nvidia-Treiber verschlechtern Performance alter GPUs nicht

Nvidia sieht sich häufiger Vorwürfen entgegengesetzt, dass die Leistung von Grafikkarten aus älteren Generationen abnehme. Grund dafür seien die Treiber, welche die Leistung gezielt einschränkten - Stichwort: Geplante Obsoleszenz. Ein neuer Test zeigt erneut anhand von Kepler und Maxwell, dass das so nicht stimmt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Geplante Obsoleszenz: Nvidia-Treiber verschlechtern Performance alter GPUs nicht
 
"mitunter verstärkt durch Speichermangel - bestes Beispiel: Die Geforce GTX 680/2G gegen die Radeon HD 7970/3G."
Top PCGH, ihr seid die einzigen die die echte Geplante Obsoleszenz überhaupt ansprechen. Das Linus Video ist mal ohne Ende pro Hersteller.(wie auch das Logitech wireless Lade Video per Mauspad, weil man sich zu fein ist gute Akkus zu verbauen)

In dem verlinkten Video wird 0 darauf eingegangen das NV das schon seit Ewigkeiten mit dem Vram bewerkstelligt und nicht mit dem Treiber... Das einzige richtige das gesagt wird das die Treiber nicht schuld sind, aber sonst wird wie üblich alles verschwiegen. Die Leute feiern jetzt NV weils sie denken die haben eine reine Weste, genau das was das Video ja bezwecken sollte.

Find ich gut das ihr das nicht auch noch mit macht. Irgend wann dankt euch das der Leser.
 
"mitunter verstärkt durch Speichermangel - bestes Beispiel: Die Geforce GTX 680/2G gegen die Radeon HD 7970/3G."
Top PCGH, ihr seid die einzigen die die echte Geplante Obsoleszenz überhaupt ansprechen. Das Linus Video ist mal ohne Ende pro Hersteller.(wie auch das Logitech wireless Lade Video per Mauspad, weil man sich zu fein ist gute Akkus zu verbauen)

In dem verlinkten Video wird 0 darauf eingegangen das NV das schon seit Ewigkeiten mit dem Vram bewerkstelligt und nicht mit dem Treiber... Das einzige richtige das gesagt wird das die Treiber nicht schuld sind, aber sonst wird wie üblich alles verschwiegen.

Find ich gut das ihr das nicht auch noch mit macht. Irgend wann dankt euch das der Leser.

Absolut richtig.

Linus Tech "Marketing ich erzähl dir jeden Dreck" Tips kann man als Technisch Interessierter schon ewig nicht mehr ernst nehmen
 
Aber als 0815 Käufer nicht wann die Karte damit überläuft und Details reduziert werden müssen, bzw. die meisten kaufen einfach neu wenns ruckelt. (die wissen gar nicht warum es gerade ruckelt, die prüfen nie die VRam Auslastung)

Oder sagt dir irgend ein Test wie lange die 1070 8GB durchhält mit dem Vram? Ich kenn keinen einzigen der klipp und klar sagt wie lange der VRam auf 1080p max. Details durch hält. Das ist auch nicht so einfach machbar, weil man ja den zukünftigen Vram Verbrauch zukünftiger Spiele, die noch gar nicht raus sind, gar nicht kennt. Das geht nur indem man in die Vergangenheit schaut und dann genau hin schaut wie lange die alten Karten durchgehalten haben, mit der und der Rohleistung.

Ich hab für meine Berechnung zig Jahre gebraucht. Lange Zeit war alles nur Mutmaßungen, beruhend auf eigenen Erfahrungen. Bis dann immer mehr Karten meine Aussagen 1:1 gestützt haben.

Zb. deine 1080TI, ist dir bewusst das du %ual weniger Vram bekommen hast als eine 980TI 6GB? Ich denke nicht, 12GB hätten es sein müssen um auf das gleiche Level wie die 980TI zu kommen.
 
Zuletzt bearbeitet:
Schön dass es PCGH nach dem CB Bericht vor paar Monaten auch aufgreift.

Somit klar ist dass es höchstens zu technischen Grenzen kommt. Aber nicht wie es immer heißt AMD mehr beim Treiber über die Jahre macht und Nvidia absichtlich weniger.

Da nehmen sich beide Firmen nicht viel. Denke mal Pascal wird zumindest bei der 1070/1080 und erst recht 1080 Ti ein Weile gut fahren mit der V-Ram Menge. Zumindest wenn nicht bei PS5 und Xbox Two der Speicher in ungeahnte Höhen schnellt. Selbst dann muss man es als Entwickler erst mal nutzen. Bzw zeigen häufig Games dass es nicht immer verschwenderisch zugehen muss.
 
Man muss auch dazu sagen bei der 680 gab es auch mehr als nur 2 GB zu haben.

Und ich würde auch sagen da der Speicher eher selten ein Problem darstellt:
Man braucht auch genügend Rechenleistung um den Speicher nutzen zu können. Klar kann ich bei einer GTX 970 die Details so einstellen das der Speicher mir Probleme macht, aber da rennt man dann sowieso schon deutlich unter 60 FPS, was dann die 3.5Gb nicht mehr so zum Problem macht (obwohl es dennoch eine Frechheit ist).


Und zum Thema AMD verbessert die Leistung über zeit:
Naja, das ist jetzt auch schon längere zeit nichtmehr ganz so.
Wenn man sich jetzt den Vega-vorfahren Fiji anschaut, da hat sich von der leistung ncihts getan. Seit release ist der Unterschied zur 980Ti gleich geblieben.
 
Wenn man die Auflösung nicht erhöht und bei dem Standard 1080p bleibt ist der Speicher immer der limitierende Faktor bei max. Details. (wir reden über high End Karten, nicht über low End Karten)

Beispiel, eine Titan XM mit 12GB ist nun nach 2 Jahren bei ca. 50% VRam Auslastung angekommen. Die Rohleistung(die Vega gerade erst geschafft hat) ist noch gut für weitere 2 Jahre. Bis 2018/2019 sind wir dann bei 10-12GB Vram Auslastung, das ganze flüssig. Denn man erinnert sich, max. Texturen brauchen nur Vram, keine Rohleistung. Während eine 980TI 6GB(50% vom VRam Soll) da niemals wird mithalten können. So zieht sich das durch alle neuen und alten Grafikkarten. Es geht immer drum die Rohleistung nicht mit höher Auflösung zu verballern, dann wird auch irgend wann der Vram komplett voll. (inkl. flüssiger FPS)

Ein 4k Fanatiker der ich zb. seit neusten bin, braucht zb. nicht so viel Vram bei meiner nächsten GPU(big Volta) da sie Rohleistung komplett für die Auflösung drauf geht und sowieso recht schnell(schätze ca. 2 Jahre) die Karte überfordern wird. Dann heißt es, Spiel wieder in den Schrank und auf die nächste gute GPU warten. (auf 1080p zurück drehen, kommt bei Spieleperlen nicht mehr in Frage für mich). Nur noch bei Multiplayer Spielen zb. Star Citzien werd ich natürlich mit 1080p weiter zocken und dann eventuell in VRam Probleme rennen irgend wann. (max. Texturen sind Pflicht bei mir)

"Wenn man sich jetzt den Vega-vorfahren Fiji anschaut, da hat sich von der leistung ncihts getan. Seit release ist der Unterschied zur 980Ti gleich geblieben. "
Dei 4GB saufen regelmäßig ab(immer öfter umso mehr neue Spiele kommen), guggst du PCGH Tests. Mirrors Edge war glaub ich ein gutes Beispiel wie es der Karte heute geht.
 
Zuletzt bearbeitet:
Bei Kepler war es die recht schlechte Architektur und das VRam knausern. Erst am Ende der eines Kartenlebens(4 Jahre) zeigen sich meist gravierende Architektur Schwächen. Weil dann die anfänglichen Treiber Boosts nachlassen und NV sich auf eine neue Generation konzentriert. Eine gute Architektur braucht solche Treiber Boosts nicht so stark wie zb. Kepler. Da sie von Haus aus immer schnell ist. Mit anderen Worten, zb. einer 8800GTX tut es viel weniger weh wenn NV nicht mehr ständig optimierte Treiber für die Karte bringt. Dank VRam satt und perfekter Architektur ist sie bis ganz zum Schluss schnell.

Gutes Beispiel ist auch nach dem Aufschrei das Kepler einbricht, hat man sich bei NV erbarmt und nochmal ein wenig Treiberpflege betrieben. GF 7 also direkt vor der GF 8800GTX hatte übriges das Haar genau gleiche Problem. Vorher wurde die GF7 durch Treibertricks schnell genug gehalten, wurden diese aber eingestellt gings sehr schnell nach unten. Architekturschwächen kann man nur eine gewisse Zeit unter Kontrolle halten, irgend wann brechen die durch.

Eine gute Karte mit guter Architektur verliert am Ende dann trotzdem die gesamte Rohleistung, wenn nicht ausreichend VRam da ist. Beispiele dafür gibt es zuhauf. Und genau diesen Umstand nutzt NV aus. Geld sparen weil weniger VRam verbaut wird, Gewinn erhöht sich und die Karten brechen früher ein, die Leute kaufen früher, also mehr Grafikarten, Gewinn erhöht sich schon wieder. Win/win für NV. Für einen normalo gar nicht nachvollziehbar warum die Karten einbrechen... Mission erfüllt. Gewinn gesteigert. Internet schweigt sich tot darüber, alles geht weiter wie gewohnt. Bis die 970 die Leute zum Teil wach gerüttelt hat. Aber da fehlt es schon noch stark, bis alle mit bekommen das NV VRam Tricks noch lange nicht am Ende sind. Die 970 war nur die Spitze des Eisbergs.
 
Zuletzt bearbeitet:
Denn man erinnert sich, max. Texturen brauchen nur Vram, keine Rohleistung.

Und das ist einfach falsch. Nur im falle einfacher flacher Texturen ohne jedwede Licht/Bumpmap-berechnung würde das auch nur annähernd stimmen.
Für zB parallax mapping oder tesselation steigt der Aufwand direkt mit der Auflösung - doppelte Auflösung, doppelter Rechenaufwand.
Auch wird durch größere Texturen mehr Cache und Bandbreite gebraucht.

Bis zu einem gewissen grad kann man Texturen größer/kleiner machen ohne wirklich einen Einfluss auf die FPS zu haben, aber zu sagen das sie generell keine Einfluss habe ist so einfach falsch.
 
Sehr wenig ich weis was du meinst, es ist nicht 0 aber vernachlässigbar, auf jeden Fall nicht relevant im Vergleich zur Auflösung. Eine Titan XM kann unter Garantie 2019 noch max. Texturen fahren. Um was wetten wir. (:

Und nur darum ging es mir, eine 980TI 6GB mit 50% VRam hat da 0 Chance drauf, obwohl die Rohleistung vorhanden ist. (Fury X übrigens auch nicht)

Speicherspeed etc. spielte da noch nie eine Rolle. Alle gut ausgestatteten Karten die ich hatte, konnten mit max. VRam Belegung super umgehen. Wenn ich mal Bandbreitenprobleme habe, sage ich euch bescheid.

Und weil das Fakt ist, vergoldet NV den VRam. Günstigen VRam gabs seit der ersten Titan nicht mehr. Oben drauf noch ein Verkaufsverbot von verdoppelten VRam Versionen wie es noch die 680 4GB war. Alles damit die Leute nicht mehr so leicht an langlebige Grafikkarten kommen und schneller wieder, sehr teuer aufrüsten müssen. Das hat alles System. Mit voller Absicht.
 
Zuletzt bearbeitet:
Wobei derzeit NV teilweise ja schon mehr Ram als die "Konkurrenz" verbaut.

Bei der 1060 natürlich weniger ;)

Allerdings gif dat da noch dieses neue Speicher-Feature bei AMD.
 
Aber als 0815 Käufer nicht wann die Karte damit überläuft und Details reduziert werden müssen, bzw. die meisten kaufen einfach neu wenns ruckelt. (die wissen gar nicht warum es gerade ruckelt, die prüfen nie die VRam Auslastung)
[...]

Wer keine Ahnung hat und sich nicht beraten lässt, der ist selber schuld. So einfach ist das. Hier von geplanter Obsoleszenz oder Verbrauchertäuschung auszugehen ist jedenfalls an den Haaren herbeigezogen, wie ich finde - denn geplante Obsoleszenz ist es, Gegenstände geplant und trotz korrekter Handhabe frühzeitig unbrauchbar zu machen. Wenn ich ein Auto mit Anhängerkupplung kaufe und weiß, dass zwei Jahre später einen dicken Anhänger kaufen werde, den mein Auto nicht mehr ziehen kann, dann ist das schließlich auch keine geplante Obsoleszenz des Autoherstellers - ich hätte ja ein anderes Auto kaufen können, welches damit klar kommt.
Wer sich nicht gerade eine GTX 970 gekauft hat, der hat die VRAM-Menge bekommen, die er bestellt hat. Und das hält jetzt so lange, wie der Speicher nunmal ausreicht. Wer eine Karte mit 8 GiB VRAM kauft, der kann natürlich mehr Texturen in den Speicher laden, als Spieler mit 4 GiB VRAM, das sollte natürlich klipp und klar sein.
Auf der anderen Seite ist es aber halt auch nicht Sinnvoll, eine GTX 970 mit 16 GiB vollzuballern - denn wenn die mal relevant werden, ist die Rechenleistung der Karte eh schon nicht mehr ausreichend für flüssige Bildwiederholraten. Die zusätzlichen Gibibytes kosten halt drauf, sodass man am Ende halt nicht mehr preislich mit der Konkurrenz mithalten kann. Irgendwo ist hier das gesunde Maß notwendig. An dieser Stelle ist es gut, dass AMD häufig ein bisschen mehr VRAM verwendet hat, aber wer stattdessen zur Nvidia gegriffen hat, der sollte gewusst haben, worauf er sich einlässt. Wenn nicht, dann ist das nicht die Schuld von Nvidia.
gRU?; cAPS
 
Guggst du hier: [Sammelthread] Grafikkarten mit mehr als 1GB Vram - ComputerBase Forum

Vor allem der Auto Vergleich ist sehr verständlich wie ich finde. (:

In Kurz: Die Leistung kann nicht auf die Straße gebracht werden. Genau so als wenn du deiner CPU zu wenig RAM zur Seite stellst. Im allgemeinen das schlimmste was man einer CPU und GPU antun kann. Die Rohleistung verpufft irgend wann einfach.
watn Schwund. solche pauschal-Aussagen werden einfach durch die verschiedenen Spiele gehöhnt, wo sich eines mehr VRAM nimmt, ein anderes weniger. ums mal ganz klar zu sagen, die GPU-Leistung kann nicht vom VRAM beeinflusst werden.
was du meinst ist, dass die fps bei VRAM-Mangel droppen. das hat aber rein gar nichts mit der GPU-Leistung zu tun.
 
Ich kann hier einigen ein gutes Buch empfehlen,

Anhang anzeigen 966057

und weniger Drogen.

Ich finde, dass eine gesunde Skepsis eine sehr gute Eigenschaft ist. Das gleich wieder in die Verschwörungstheorie-und-Haluzinogen-Ecke zu schieben, ist dann meiner Meinung nach doch leicht unangebracht.
Solange man die belegten Fakten als solche hinnimmt und selber nur etwas als Fakt hinstellt, wenn es wasserdicht bewiesen ist, ist die Welt doch in Ordnung.
gRU?; cAPS
 
Zurück