Geplante Obsoleszenz: Nvidia-Treiber verschlechtern Performance alter GPUs nicht

Stört schon, nur leider ist selbst heute die GTX 970 immernoch gut dabei und immernoch nicht abgestürzt so wie es angekündigt wurde.

Man sieht doch das die GTX 970 schon lange abgestürzt ist :ugly:
Hellblade.png

Hier mal 12 neuere Spiele in denen eine R9 390 und eine GTX 970 mit gebencht wurden (alles in 2560x1440 )
Bench.png
dabei ist die R9 390 im Schnitt um 0.13FPS vorne. (45.76FPS zu 45.63FPS)

Ja, die GTX 970 ist schon lange tot.
 
Wenns dich nicht stört, dass dir eine verkrüppelte 3,5 GB Karte mit 0,5 GB Bremsfallschirm als vollwertige 4GB Karte verkauft wurde ?
Wenn es mich gejuckt/gekratzt hätte, dann hätte ich mein Kärtchen austauschen lassen können, da "mein Dealer" die Option ermöglichte. Ich sah da aber überhaupt keinen Grund/Anlass, da das Kärtchen bei mir wunderbar performte und das auch noch mit 1440p.
Der "0,5GB Bremsfallschirm" ging bei mir auch nicht auf & bremste meine Soft @1440p nicht aus. Dazu verweise ich nochmals auf die Filmchen & achte auf den VRAM, plus die Settings.
Der "Kommunikationsfehler" war dennoch Verarsche & es war richtig, dass nV da auch "ihr Fett wegbekommen hat"....Diverse "Kommunikationsfehler" gibt es auch bei AMD und da ist auch nicht alles Gold was glänzt.^^

Unterm Strich bleibt festzuhalten....
Unterm Strich leistet deine 480er im Jahre 2017, also heute, Pi*Daumen auch nicht mehr....:P
....und zeig mal was von deinem Kärtchen & wenn es nur ein FireStrike-Run ist(ist gratis^^), bei dem eine 480er locker, flockig 14-15K GPU-Score erreicht. :devil:
 
Woher nur haben die anonymen YouTube Quellen eigentlich ihre unfassbare credibility her?
Wer auf Youtube veröffentlicht, hat einen hohen journalistischen Anspruch,
ist natürlich völlig unabhängig, neutral und ohne jedes finanzielle Interesse,
natürlich, oder etwa nicht?

- Sarkasmus Ende -
 
Zuletzt bearbeitet von einem Moderator:
Naja, seine Punkte sind schon durchaus richtig so. Nvidia hat 2010-2015 echt alle schmutzigen Tricks ausgepackt um einen Vorteil zu bekommen, egal ob GameWorks, der Tesselation Aufreger oder die 970. Mittlerweile haben sie nicht mehr nötig, da sie AMD überholt haben und auch den größeren Marktanteil haben, auch wenn nicht immer gerechtfertigt, z.B. beleuchtet in dem Video vom selben YouTuber: The GPU War is Over + Win a Copy of Star Wars Battlefront! - YouTube

Weiß zwar nicht, was es jetzt mit diesem Thema zu tun hat, aber Adored TV ist tatsächlich ein sehr interessanter YouTuber. So hat er bereits schon im Januar 2017 vorausgesagt, dass Vega ungefähr das Niveau der 1080 erreichen wird (Fallout: New Vega - YouTube). Allgemein gehen seine Analysen in unglaubliche Tiefe, da er zum Beispiel unterschiedliche Benchmarks untersucht und Abweichungen beleuchtet.

Aber hat natürlich auch einen Grund, warum er von Intel und Nvidia nicht mit Review Karten/Prozessoren versorgt wird, er fokussiert sich halt stark auf AMD.

Und natürlich sollte man seine Überlegungen aus unterschiedlichen Quellen ziehen. Das muss nicht unbedingt was mit absichtlichem Verfälschen zu tun haben, sondern einfach, dass unterschiedliche Autoren unterschiedlichen Fokus setzen und unterschiedliche Dinge bemerken. Grundsätzlich jeden YouTuber als unglaubwürdig zu bezeichnen (oder unglaubwürdiger) ist aber falsch. Kanäle wie LinusTechTipps können sich das gar nicht erlauben...
 
Nvidia hat 2010-2015 echt alle schmutzigen Tricks ausgepackt um einen Vorteil zu bekommen, egal ob GameWorks, der Tesselation Aufreger oder die 970. Mittlerweile haben sie nicht mehr nötig, da sie AMD überholt haben und auch den größeren Marktanteil haben

Schöne Theorie. Blöd nur, dass NVIDIA schon etliche Jahre Marktführer bei den GPUs ist. Das war man von dem von dir genannten Jahr 2010 bis heute ununterbrochen. Man brauchte AMD gar nicht zu überholen, weil man sowieso vorne lag. Von daher entbehren deine Ausführungen jeglicher Grundlage.
 
Zuletzt bearbeitet:
Ach bitte.
Das ganze mit der absichtlichen Verschlechterung kam doch erst ins rollen als Witcher 3 kam. Da hat man es Nvidia vorgeworfen ohne wirklich einen Anhaltspunkt zu haben.
Nvidia hat aber einen Treiber gebracht der die Performance von den Kepler Karten in Witcher 3 verbessert. Kepler hatte schon immer Probleme bei sehr shaderlastigen Anwendungen, das Nvidia immer schnell per Treiber kaschiert. Als Maxwell kam, wurde auf Maxwell optimiert (was logisch ist) und Kepler bekam nur mehr die nötigsten Optimierungen (ist auch logisch).

Trotzdem macht Nvidia nicht absichtlich die eigenen Karten schlechter. Und wenn die großen Spieleschmieden auf Nvidia optimieren ist es zwar für AMD schlecht aber auch nur logisch.
AMD kann dies aber ändern, man müsste nur enger mit den Firmen zusammen arbeiten, die Hersteller sind doch auch daran interessiert so viele Kunden wie möglich zu erreichen.
 
Trotzdem macht Nvidia nicht absichtlich die eigenen Karten schlechter.
Mal abgesehen davon, dass Nvidia - im Gegensatz zu AMD -, sogar noch bis ins Jahr 2015 museumsreife Grafikkarten, wie die GeForce 6000-Reihe von 2004 treiberseitig supportet hat. Und das trotz derer später kaum noch tauglicher Architektur...
 
Das Maxwell Karten atm noch gut dabei sind liegt wohl an der Nähe zur Pascal Architektur, es reicht wie bereits gesagt wurde ohnehin einfach nicht mehr extra Arbeit rein zu stecken und der Vorsprung wird langsam größer.
 
Die V-Ram Unterstellung ist ja absolut der größte Käse, den ich seit längerem gelesen habe. Natürlich könnten bereits heute auf jeder Karte 32GB Vram installiert sein, aber wer wöllte das bezahlen? Meine GTX 770 hatte 2GB, die hätte es aber auch (für ~50€? mehr) mit 4GB gegeben. Und? Hätte ich die 4GB variante auch nur einen Tag länger genutzt? Nein!
 
Die V-Ram Unterstellung ist ja absolut der größte Käse, den ich seit längerem gelesen habe. Natürlich könnten bereits heute auf jeder Karte 32GB Vram installiert sein, aber wer wöllte das bezahlen? Meine GTX 770 hatte 2GB, die hätte es aber auch (für ~50€? mehr) mit 4GB gegeben. Und? Hätte ich die 4GB variante auch nur einen Tag länger genutzt? Nein!

Nun meine GTX680 mit 4 GByte hat noch gut für Watch Dogs gereicht und für ein ziemlich zugemoddetes Skyrim. Beides hat die GTX670 2 GByte nicht mehr mit den Einstellungen gepackt. Also ja, ich habe die GTX680 länger genutzt. Bis zur GTX980 war sie meine Gamingkarte.
 
PCGH hat in Tests bereits zeigen können das die Karten mit mehr VRAM als aktuell nötig zwar zum Zeitpunkt des erscheinens kaum Leistungsvorteile bringen, sie aber deutlich haltbarer sind. Was sich bei spielen nämlich immer schlecht reduzieren lässt ist die Menge VRAM die nötig ist um alle Texturen etc zu puffern. Die allgemeine Rechenlast des Games lässt sich allerdings sehr gut runter regeln. Dieser Umstand führt dazu das Karten mit doppeltem VRAM deutlich länger gut nutzbar bleiben. So um die 2 Jahre etwa. Habe diese Erfahrung damals mit meiner 8600GT 1GB gemacht. während die standartvariante mit 512MB Ram nach 2-3 Jahren schon zu schlecht für alles war, konnte man die 1GB Variante gut 5 Jahre nutzen.
Natürlich alles nur wenn man nicht so ein Ultra Settings Typ ist. Habe eh nie verstanden warum man für 5% bessere Optik nen 50% FPS Drop in kauf nehmen sollte. Gerade heute sehen Games in hohen Einstellungen auch schon durchweg super aus.
 
Schöne Theorie. Blöd nur, dass NVIDIA schon etliche Jahre Marktführer bei den GPUs ist. Das war man von dem von dir genannten Jahr 2010 bis heute ununterbrochen. Man brauchte AMD gar nicht zu überholen, weil man sowieso vorne lag. Von daher entbehren deine Ausführungen jeglicher Grundlage.


Einfach mal lesen, was ich geschrieben habe: "da sie AMD überholt haben und AUCH den größeren Marktanteil besitzen". Sie haben also sowohl die schnelleren Karten, als auch die Gunst der Käufer, sind damit also komplett überlegen. Das war z.B. 2010 nicht so. Die HD2000er und HD3000er Serie war Nvidia in allen Bereichen überlegen und das blieb auch so bis Kepler. Dennoch war der Marktanteil geringer. Inzwischen hat Nvidia die schnelleren Karten und AMD läuft hinterher. Und gleichzeitig hat Nvidia auch noch den größeren Marktanteil.
 
Das war z.B. 2010 nicht so. Die HD2000er und HD3000er Serie war Nvidia in allen Bereichen überlegen und das blieb auch so bis Kepler.

Das ist falsch.

Die HD2000er Serie erschien 2007, HD 3000 2007/2008.

Die HD2900XT konkurrierte übrigens mit der legendären NVIDIA G80 GPU. Hier mal der Test der 2900XT:
ATi Radeon HD 2900 XT im Test: Platzhirsch oder kleiner Bruder der GeForce 8800? (Seite 32) - ComputerBase
Die 2900XT war nicht mal so schnell, wie die zum Zeitpunkt des Tests mehrere Monate alte 8800GTX. ATI/AMD sah 2007 kein Land gegen Nvidia mit der G80.

Die HD3870 konnte die G80 auch nicht schlagen:
ATi Radeon HD 3870 im Test: Ein neuer Name alleine reicht nicht (Seite 28) - ComputerBase

Erst die Variante mit doppelter (!) GPU konnte sich dann Anfang 2008 knapp absetzen - von einer Single GPU wohlgemerkt.
ATi Radeon HD 3870 X2 im Test: AMDs ersehnter Griff nach den Sternen (Seite 24) - ComputerBase

Das war aber auch nur etwas für ein halbes Jahr, dann kam die Nvidia GTX280 mit der neuen GPU GT200:
GTX 280 im Test: Neues Nvidia-Flaggschiff lasst die Konkurrenz hinter sich (Seite 28) - ComputerBase

Die Radeon HD4870 war gegen die GTX280 chancenlos:
AMD vs. Nvidia: Radeon HD 4870 stellt sich gegen GeForce GTX 260 (Seite 23) - ComputerBase

Ende 2009 brachte AMD die HD5000er Serie. Die HD5870 als erste DX11 High-End GPU war im Herbst/Winter 2009 konkurrenzlos - was vor allem daran lag, dass Nvidia mit Fermi Probleme hatte, und viel zu spät dran war.
https://www.computerbase.de/2009-09/test-ati-radeon-hd-5870/23/

Trotzdem hatte Nvidia dann 2010 mit der GTX480 die schnellste Single-GPU auf dem Markt gestellt. Der GF100 war stromhungrig und heiß, keine Frage. Aber es war die schnellste Single-GPU.
https://www.computerbase.de/2010-03/test-nvidia-geforce-gtx-480/21/

Ende 2010 kam dann der GF110 in Form der GTX580. Wieder schneller als AMDs schnellste GPU, gleichzeitig nicht mehr ganz so stromhungrig und heiß.
https://www.computerbase.de/2010-12/test-amd-radeon-hd-6970-und-hd-6950/26/

Zudem war NVIDIA auch 2010 schon, wie meine Quellen zeigen, Marktführer bei den (Gaming) GPUs im Verhältnis von ca, 60% zu 40%.

Zusammenfassend:

Nvidia baut seit einem Jahrzehnt sehr gute GPUs, die ein ums andere Mal die Leistungsspitze darstellen. Mit Fermi hatte man seinerzeit was die Effizienz angeht einen ziemlichen Ausrutscher hingelegt, aber auch die GPUs waren schnell. Und ich denke, egal ob man Nvidia mag oder nicht, kann man auch einfach mal anerkennen, dass da seit 10 Jahren (mit Fermi Einschränkung) konsequent gute Arbeit geleistet wird.

So oder so ist und bleibt deine ganze Theorie über die schmutzigen Tricks mit denen NVIDIA das erreicht haben soll, also ziemlicher Quatsch. Du solltest schon vielleicht vorher mal etwas recherchieren, bevor du solche Behauptungen aufstellst.
 
Zuletzt bearbeitet:
Zurück