Grafikkartenmarkt: Webseite prognostiziert auf 30 Prozent sinkende Leistungsteigerungen

Bevor eine ps5 auf den Markt kommt,die dazu führt dass sich Grafik wieder sprunghaft weiter entwickelt, braucht es auf dem LCD Markt eh Neuorientierung als die einer gtx1080ti

Hoffe dass wir in 2021 eine 18TF PS5 bekommen.......dann wird auch Detlev wieder richtig gefordert :)
Diesmal gerne auch mit starker CPU in der PS5 :)

Irgendwie stagniert aber generell die Technik etwas.....wenn ich sehe was da Tür massive beharrliche Sprünge von 1990 bei Ca. 2010 statt gefunden haben.....in allen technischen Bereichen......heute passiert kaum noch was.

Das nächstenliebe ding in der Halbleiter Entwicklung muss her.....Silizium bringt's nicht mehr :(

Dadurch wird das problem auch nicht mehr besser.Wenn ich mir so die aktuellen spiele so anschaue und auch wenn mich davon kein einziges interessiert,verfolge ich dennoch das ganze.Optisch sehen sich alle spiele sehr änlich.Man erkennt keinen so riesigen unterschied mehr so wie früher.Alle spiele sehen wundervoll aus.Aber welches davon sieht noch schöner als die anderen aus?

Also ich finde keinen der noch besser aussieht als die anderen.So wie es damals bei Crysis 1 der fall.Sowas hat sich seid damals nicht mehr wiederholt.
Also warum noch so viel in Grafikkarten Power stecken wenn sich der Optische gewinn in Grenzen hält.Aber ich sehe dennoch die sache Positiv.Wenn man eine gewisse linie schon ereicht hat.Das man nicht mehr so viel kaufen braucht.
 
Völliger Quark. Das Tripel aus LowLevelAPIs, 450mm-Wafer und einem massentauglichen HBM3 (alles drei Punkte, die sehr breite Designs erlauben würden) könnten sogar dafür sorgen, dass wir in Zukunft sogar zwischen den Generationen auf z.B. 250 Watt normiert größere Sprünge erleben würden. (allerdings halt dann auch bloß zu höheren Preispunkten als heute)

HBM hat bisher, im Gamingberich keine glänzende Vorstellung geliefert, mit den Low Level APIs zieht es sich auch und bis man die Fertigung mit 450mm Wafern vollständig in den Griff bekommt, wird auch noch einige Zeit vergehen. Vermutlich werden diese Techniken alle nach und nach dazu beitragen, dass es überhaupt voran geht.
 
Was solls das bremst leider den Fortschritt andererseits muss ich dann nicht alle 2 bis 3 Jahre aufrüsten! Ganz wenige Games sehen echt beeindruckend aus, nur bei Witcher 3 oder Uncharted war ich beeindruckt.
Es gibt echt kaum noch Spiele wie damals die einfach Hammer aussehen, alle sind ähnlich.
 
Totaler Schwachsinn wie ich finde. Neben dem schlechten English in den Videos wird auch null auf eben Technik eingegangen und eben Trend in der Technik, d.h eben Leistung pro Watt. Natürlich könnte AMD/NV Bretter rausbringen, die wieder 100% Mehrleistung haben, aber das ist eben nicht Sinn der Sache, wenn wieder das Verhältnis Leistung pro Watt sinkt. Natürlich sinkt prinzipiell gesehen das Verhältnis Kohle zu FPS. Die Betrachtung ist so banal, dass man diesem Typen null Aufmerksamkeit schenken sollte, meine Meinung. Und dann gibt es eben noch das Bestreben viel Geld zu machen, was jeder andere auch machen will. NV ist in einer guten Situation, liefert fast immer als erstes dir Leistung was bei Rot immer später nachzieht. Rohleistung und Technik hin oder her. Und sich das gut bezahlen zu lassen ist halt "okay". Da finde ich es tausend mal schlimmer das sich Leute für 1000€+ überlegen ein Iphone zu holen, wo es wirklich keinen spürbarn Unterschied gibt zu low Budget Vendors.
 
die 980ti ist auf dem niveau einer 1070. 1080p gaming perfekt ausreichend, ok fast. aber die 1080ti ist ein enormer sprung. die ist ja schon 30% schneller als eine 1080 die wiederrum 20% schneller als eine 1070 ist...das upgrade ist voll und ganz nachvollziehbar. keine ahnung was du dir da zusammenrechnest. das ist ein leistungssprung von über 50% und 4k ist mit der 980ti fast garnicht möglich. die 1080ti schafft es hingegen fast locker die 60fps zu halten
Also erstmal: Die 980Ti ist übertaktet in der Regel schneller als eine 1070 und mit 1500MHz auf Niveau der 1080. Ein Upgrade zur 1080Ti macht allenfalls wegen dem Vram Sinn, aber mMn eher weniger wegen ~50% mehr Leistung.
Die Aussage "4k ist mit der 980ti fast garnicht möglich" ist auch völliger Quatsch. Wer die Grafikoptionen im Spiel gefunden hat, kann mit einer 980Ti nahezu jedes Spiel in 4K spielen. 60FPS "zu halten" ist auch keine Bedingung, da stark vom Spiel abhängig.

Wo ist eigentlich HisN?
 
Ich gebe auch viel für mein Hobby aus und jeder muss selber entscheiden wo die Grenze ist.

Ja, bei mir kam der Aufrüstwahn vor allem durch einen besseren Monitor mit höherer Auflösung.
In meinem Fall seit einem Jahr ein 21:9 UWQHD g-sync 100 Hz IPS curved 34" Monitor.
Klasse Teil.

Nur kam mein 3570k und die GTX 670 doch an ihre Grenzen ;-)

Meinen alten Full HD 120 Hz gaming Monitor hab ich n Kumpel geschenkt, genau wie die GTX670.
Dann letzten Sommer eine GTX 1080 zum 3570k geholt.
Das lief schon besser. :-)

Da man aber mit so einem Monitor schon ein wenig "Gaming-Freak" ist, waren mir die Minimum fps in manchen Games bei hohen Grafikeinstellungen noch nicht hoch genug und ich träumte von modernster Basis für's Gaming und diesen Monitor.

Tja ... Coffee Lake kommt Näher, Volta wird irgendwann 2018 auch aufschlagen, die Ram Riegel werden schneller, SSDs knallt man mittlerweile einfach in's Mainboard, ohne Kabelgedöns, nette neue Gehäuse in neuen Designs gibt's auch ...

Also Gaming PC inkl. GTX 1080 zum Spezial-Freundschaftspreis an einen weiteren Kumpel verkauft und nun warte ich dank Gaming Laptop mit dem ich komfortabel mal n Jahr überbrücken kann(halt Gaming-Freak) auf den neuesten Schnick-Schnack den die Welt nicht braucht. Aber ich ! :D

So gesehen: Wer sich selbst vor dem Aufrüstwahn schützen und zügeln will:
Keinen Monitor mit höherer Auflösung kaufen !!! ;-)

Ansonsten ist man der Salami-Taktik der High-End Anbieter ausgeliefert.

Manchmal isses von Vorteil noch auf Full HD rum zu gurken. Da kann man zwischendurch mal von GTX 670 auf 1060 aufrüsten und hat weitere 5 Jahre ruhe. ;-)
Es geht auch günstig, wenn man will. :-)

Man hat ja selbst die Wahl.
 
Zuletzt bearbeitet:
Also ich habe den Artikel von DSO angeschaut bzw. überflogen. Das ist mmn. völlig aus der Luft gegriffen. Ich kann mich nicht erinnern, dass es in den letzten 15-20 Jahren Leistungssteigerungen von 100% gab.
Für mich ist nicht ersichtlich was und wie die das messen. Ich rede nämlich von Leistungssteigerungen zur Markteinführungen zu damals üblichen Settings. Sprich 1998 waren Auflösungen von 800x600 völlig normal, auch 16 Bit Farbtiefe.
Das kann ich jetzt nicht einfach auf 1280x1024 bei 32 Bit stellen, denn da schlagen viele alten Karten richtig aus. Die TNT2 oder zumindest die ersten Geforces haben in "höheren" Auflösungen und größerer Farbtiefe deutlich ggü. älteren Generationen gewonnen, nur war das nicht Praxistauglich weil die FPS dann trotzdem viel zu gering waren. Auch war die Geforce 3 bei Release im Mittel sogar langsamer als die damalige Top GF2 (und ich meine das war gar nicht die GTS). Es gab schon mal große Sprünge wie bei der GF4 Ti 4800(?) oder der GTX8800. Die rüherten aber auch oft durch Änderungen der API her. bedenkt, das ging mit DX6 los und die GTX8800 hatte schon DX10. Das kann man nicht vergleichen.

Wenn dann müsste so ein Test professionell gemacht werden, zu damals üblichen Settings und in üblichen Games. Dann kann man Vorgänger und Nachfolger vergleichen. Wenn ein API Sprung dabei ist muss man die Leistung von DX8 und Dx9 (bspw.) gegenüberstellen.

@PCGH: Da man hier im Forum immer wieder diese Gerüchte hört, damals waren exorbitante Leistungssteigerungen drin, würde mich interessieren ob das stimmt (oder mein Gedächtnis mich trübt) - könntet ihr sowas machen oder ein Artikel mit den alten Tests machen? Ich habe meine alten PCG Magazine (seit 1998) weggeworfen und kanns nicht mehr nachschauen :(
 
Eines vergisst die Spekulation:
Nicht nur eines.
Beim Beispiel CPU wird auch gerne übersehen, dass wir dort schon viel länger beim Limit des technisch machbaren ist. Auch Ryzen hat daran nichts geändert. Mehr Kerne bedeutet ja nicht unbedingt mehr Leistung, und schon gar nicht mehr Leistung pro Leistungsaufnahme.

Stichwort „low hanging fruit“. Die waren früher noch ez-pz abzuernten, heute befinden wir uns quasi in jeder Hinsicht vor einer Wand. 300 Watt bei Single-GPUs sind mit Fermi Realität geworden, Nvidia ist frontal in diese Wand gekracht und hat daraus die richtigen Schlüsse gezogen. AMD streift seit Jahren eng an dieser Wand lang, fährt sich manchmal den Außenspiegel ab (Wakü für Ref-Design), schlingert aber wieder zurück in die Spur, wenn auch mit verminderter Geschwindigkeit.

MOAR COARS ist ja auch nicht mehr das Allheilmittel, die TFLOPS wollen auf die Spielstraße gebracht werden. Da hilft die MOAR GHZ-Strategie schon eher, auch wenn es eigentlich genauso ein Brute-Force ist - nur muss man hier auch ein wenig die Leistungsaufnahme beachten, damit die nicht ausufert.

Oh, und zu guter Letzt ist eine Verdopplung der „Pipelines“ (CUs, SMs, whatever) heute kaum noch möglich, da 1. Power- und 2. Size-Limit immer näherrücken. Das war beim Übergang etwa von der GFFX zur GF6 oder R9k zu X800 noch ganz anders. Die-Sizes waren damals selbst bei den High-End-GPUs im Bereich der heutigen Mid-Range Chips (250-300 mm² für R4x0 oder NV40).


Edit:
Leistung pro Quadratmillimeter oder Watt oder eine Kombination, die den Fortschritt in der Prozesstechnik und den Abstand zum technischn machbaren (Stichwort reticle limit) mit einrechnet wäre mMn sinnvoller, wenn man damit auch noch nicht das Problem der immer komplexeren Rechenwerke und des größeren Datenaufkommens erfasst.
 
Zuletzt bearbeitet:
Naja, aus Unternehmenssicht (Stichwort Risikominimierung und Gewinnmaximierung) ist das schon sinnvoll, wenn man immer nur das Zweitbeste auf den Markt wirft. So hat man, falls die nächste Neuentwicklung mal in die Hose geht, noch einen Trumpf im Ärmel um die Zeit zu überbrücken. Man darf den Markt halt nicht zu sehr sättigen, sonst kauft keiner mehr was neues, wenn man mal keine 50% Mehrleistung bringen kann.

Dieses Spielchen funktioniert natürlich nur, wenn einem kein Konkurrent am Allerwertesten klebt. Siehe Intel.
 
4k ist mit der 980ti fast garnicht möglich.

Sorry aber, was ein Quatsch :ugly:

Erstens kannst auch noch mit viel schwächeren Karten in 4K wunderbar auch bei 60FPS zocken man muss nur mit den Reglern umgehen können, zum anderen hab ich mit meiner 980ti noch kein Spiel gehabt bei dem ich in 4K unter Settings gehen musste die irgendwo zwischen "Mittel" und "Hoch" presets liegen, meist kann ich sogar viele Regler auf "Ultra" lassen und hab stabile 60FPS....
 
Sorry aber, was ein Quatsch :ugly:

Erstens kannst auch noch mit viel schwächeren Karten in 4K wunderbar auch bei 60FPS zocken man muss nur mit den Reglern umgehen können, zum anderen hab ich mit meiner 980ti noch kein Spiel gehabt bei dem ich in 4K unter Settings gehen musste die irgendwo zwischen "Mittel" und "Hoch" presets liegen, meist kann ich sogar viele Regler auf "Ultra" lassen und hab stabile 60FPS....

vlt meint er ja 4k mit 8x MSAA kein wunder das seine framerate einbricht.
 
@PCGH: Da man hier im Forum immer wieder diese Gerüchte hört, damals waren exorbitante Leistungssteigerungen drin, würde mich interessieren ob das stimmt (oder mein Gedächtnis mich trübt) - könntet ihr sowas machen oder ein Artikel mit den alten Tests machen? Ich habe meine alten PCG Magazine (seit 1998) weggeworfen und kanns nicht mehr nachschauen :(


Schon etwas älter aber so etwas wolltest du doch sehen?

10 Jahre Geforce-Karten gebencht: Die Leistungssteigerungskurve flacht ab
 
Und was lehrt uns das?
Egal in welchem Lebensbereich: Wann immer man bei einem Monopol einkauft oder es anderwaltig fördert,
ist das so als wenn man mit anderen in einem Holzschiff auf hoher zu sitzt und ein Loch in's Schiff
bohrt, damit man SELBST einen Korken für die EIGENE Wasserflasche hat.
 
Ein börsennotiertes Unternehmen soll kapitalistisch sein?

Das hätte ich nie gedacht! Zum glück hat mich PCGH aufgeklärt, ich dachte Nvidia wäre eine Wohlfahrsorganisation für Zocker, die ihre Karten zum Selbstkostenpreis abgibt.

Das ist halt Deutschland. Hier macht sich doch prinzipiell jeder verdächtig, der Geld verdient oder das vorhat.
 
vlt meint er ja 4k mit 8x MSAA kein wunder das seine framerate einbricht.

liegt sicher nich an unnötigem 8x msaa
aber gut...gibt leute die 4k mit low fps genießen und medium settings.


viel spaß mit 35-40 fps bei witcher 3

die 1080ti schafft hierbei 50-55 fps. ausgehend von der 980ti ca 40% leistungssteigerung in sachen fps. hier soll sich das upgrade also nicht lohnen wenn man 4k wirklich genießen soll?
sry aber bitte redet keinen müll nur weil euch 30-35 fps genügen. bei den "niedrigen" frames ist ein sprung von 35-40 zu mindestens 50 eine ganz andere welt. es ist einfach erst wirklich mit einer 1080 ti spielbar.
 
Aus dem Artikel geht jetzt aber nicht hervor, ob die sinkende Leistungssteigerungen nun aufgrund der fehlenden Konkurrenz von AMD geschuldigt ist oder ob wir an der technischen Grenze langsam ankommen.
Habe schon seit 1984 was mit PCs zu tun, da dachte man immer wieder an die Leistungsgrenze gestoßen zu sein. Kann mich noch erinnern als mein Freund seine erste 1GB große Festplatte hatte und meinte diese nie voll bekommen zu können oder als ich selbst noch 800 MHz CPU Takt hatte und mich Monate danach wunderte was für ein Schritt in der Zwischenzeit die CPUs in Sache Leistung machten.

Aber du hast auch Recht, in Letzter Zeit waren da keine großen Sprünge mehr dabei, zumindest was die CPUs angeht.
Bei der Pascal jedoch gab es schon einen etwas größeren Sprung so dass hier wirklich fraglich ist wenn der nächste Große Sprung wieder kommen wird.
 
Quasi Monopol und fehlende Konkurrenz stehen auf der einen Seite. Auf der anderen Seite stehen die Kunden.

Wir alle , gerade hier im PCGHW Forum , unterstützen diese Taktik von Nvidia oder Intel, in dem wir wie wild neue Produkte zu überzogenen Preisen am Releasetag kaufen.

Wer von uns hatte eine 980/980Ti und hat sich sofort eine 1070/1080 gekauft obwohl ihm klar war das ~1 Jahr später eine 1080Ti rauskommt und die Preise bis dahin mit jedem Monat fallen ? Schlimmer noch .. wer hatte eine 980/980Ti , hat sich eine 1070/1080 gekauft und ist mittlerweile zu einer 1080Ti gewechselt ? :huh:

Ich gebe auch viel für mein Hobby aus und jeder muss selber entscheiden wo die Grenze ist. Ich will nur auf eins heraus :
Nvidia und Co. machen mit uns Kunden was sie wollen, weil wir Kunden alles mit uns machen lassen. Ich auch :wall:

Naja es sind wohl ehr die Bedürfnisse der Einzelnen die diese These untermauern.
Also meine Historie ist ehrZotac 2x 260GTX--->Zotac 970GTX--->Gigabyte 980Ti(338€ Neu, das musste sein^^)
Und eine neue Karte in Form der 1080Ti wirds erst zum erscheinen der neuen Ti Generationen geben. Oder eben ein AMD Pendant.
Denn aktuelle Karten der (Nvidia) xx80 Reihen sind seit der 780Ti auf jedenfall Leistungsfähig genug um mit etwas "Regler Arbeit" alles aktuell zu stemmen.
Mindestens aber in der Verbreiteten 1080p Auflösung:

Da sowiso jede aktuelle Karte mit einigen Spiele-Titeln In die Knie gezwungen werden kann, ist es mühsig immer die aktuellsten Karten für horende Preise zu kaufen.
Wer das macht hat nichts gewonnen aber viel verloren. Und ich denke mal es sind nicht allzuwenige die nich am Realease-Tag kaufen. Ich warte noch immer mit dem R7 1700X/1800X Kauf.:banane:
So meine Meinung ;)
 
Zuletzt bearbeitet:
liegt sicher nich an unnötigem 8x msaa
aber gut...gibt leute die 4k mit low fps genießen und medium settings.


viel spaß mit 35-40 fps bei witcher 3

die 1080ti schafft hierbei 50-55 fps. ausgehend von der 980ti ca 40% leistungssteigerung in sachen fps. hier soll sich das upgrade also nicht lohnen wenn man 4k wirklich genießen soll?
sry aber bitte redet keinen müll nur weil euch 30-35 fps genügen. bei den "niedrigen" frames ist ein sprung von 35-40 zu mindestens 50 eine ganz andere welt. es ist einfach erst wirklich mit einer 1080 ti spielbar.

WAS? Die 1080Ti schafft nur 55 fps in Witcher 3? Also meine 980ti schafft die 60 fps locker :) , na zum Glück lass ich diese Generation aus, ist ja eine Frechheit! Ich werd gleich eine Email an Nvidia schreiben... Pffft ein Skandal ist das :ugly:
 
WAS? Die 1080Ti schafft nur 55 fps in Witcher 3? Also meine 980ti schafft die 60 fps locker :) , na zum Glück lass ich diese Generation aus, ist ja eine Frechheit! Ich werd gleich eine Email an Nvidia schreiben... Pffft ein Skandal ist das :ugly:
Sorry aber, was ein Quatsch :ugly:

Erstens kannst auch noch mit viel schwächeren Karten in 4K wunderbar auch bei 60FPS zocken man muss nur mit den Reglern umgehen können, zum anderen hab ich mit meiner 980ti noch kein Spiel gehabt bei dem ich in 4K unter Settings gehen musste die irgendwo zwischen "Mittel" und "Hoch" presets liegen, meist kann ich sogar viele Regler auf "Ultra" lassen und hab stabile 60FPS....

Wow,
dann hast du wohl ne andere Leistung an deiner 980Ti. Vielleicht kann ich auch nicht mit Reglern Umgehen...:ugly:
Also um Meine 980Ti selbst mit OC 1460/3800MHz auf über 60 frames zu halten in 1080p und AAA-Titeln, darf ich auf jedenfall nicht in jedem Spiel alle Regler auf Anschlag zu stellen.Geschweige 4K
Mir fallen Spontan 4 ein.
Aber mit "Reglern umgehen" das würde ich unterschreiben
 
Zurück