Grafikkartenmarkt: Webseite prognostiziert auf 30 Prozent sinkende Leistungsteigerungen

AdoredTV halt eben - sinnloses Gequake einer Person die nichts außer Drama will und auch gerne mal die wahrheit sehr dehnbar auslegt.

Nvidia Volta wird so 2-2,4GHz schaffen, also kann man vom Takt her ~25% erwarten, dazu dann noch etwas mehr Cores und wir werden so 30-50% Mehrleistung bekommen.

Woher ich die 2-2.4GHz habe? Lesen. Einfach alles zu Tesla V100 durchlesen und dann wird man schon sehen wie ich auf diese Vermutung komme.
Wobei hier 2 GHz dann der "normale" Turbo wäre, 2.4Ghz das was man so mit OC erreichen kann.


Es muss einfach der preis stimmen, aber > 300€ für "midrange" ist mir einfach zu teuer.


Und klar - Nvidia wird nicht viel Geld investieren nur u noch ein bisschen schneller zu sein wenn sie dadurch nicht mehr Umsatz machen. Man kann nicht auf teufel komm raus einfach mehr Geld investieren und alles geht magisch schneller - manche Sachen brauchen eben etwas Zeit. Auch wenn ich es gerne anders hätte, aber so lange Nvidia die Preise nicht senken muss werden sie es auch nicht tun - sie verdienen so einfach mehr und das ist nun mal das Ziel eines jeden Unternehmens.


Wir sind n einen api limit
Und amd und nvidia wissen das

Eine GTX1080ti also gp102 benötigt in 1080p min eine CPU mit 2,2 IPC
So eine gibt es in form von ci7 7700k und 4,5ghz
Alle anderen CPu sind teils deutlich drunter

Man kann viel Blödsinn träumen, oder auch derartigen Unfug von sich geben das sogar Trump dagegen wie ein Genie aussieht.
 
Nvidia wird mit Sicherheit ein pascal refresh bringen und die gpu umbenennen
aus gtx1080 gp104 wird 1170
aus gtx1080ti gp102 wird 1180
aus gtx1060 gp106 wird 1150
gp104 niedriger getaktet wird 1160

was kommt danach volta
volta wird zuerst als gv104 die gp102 um 30-50% schneller sein
Das wird dann die neue gtx titan oder eben gtx1180ti

alles andere wäre wirtschaftlich nonsense

Das wäre so als wenn die GTX 1080 der GTX 980 Ti um 30-50% schneller wäre.
Und wir wissen dass Pascal fast ausschließlich durch den Sprung von 28nm auf 16nm schneller geworden ist bzw. höher getaktet werden kann.
Volta bleibt aber bei 16nm(+), seit Vega glaube ich weder an Wundertreiber noch auf Wunderarchitekturen.
 
Ich denke es ist auch einfach weniger möglich als früher. An der 1080 Ti sieht man gut wie die Karte vom Stromverbrauch gebremst wird.
Oder im Profibereich hat nvidia ein Monsterchip rausgebracht um eine Schippe oben drauf zu legen.

Wir könnten größere Sprünge haben, dann wären wir aber vielleicht bei teuren Riesenchips und 500 Watt Verbrauch. Immer mehr Transistoren, immer kleiner und immer komplexer > es wird einfach schwieriger und langsamer mit dem Fortschritt.

Ok für die normalanwender kann ich das argument stromverbrauch akzeptieren. Aber wenn mir ein mensch mit nem übertakteten 6950x mit einen stromverbrauch jenseits von gut und böse wegen der leistungsaufnahme rumheult da könnte ich aus der hose springen. Hatte fast immer dual GPU's und hab mich nie über stromverbrauch geärgert die 200 euro mehr im jahr sind zu verschmerzen XD. Aber den standpunkt des energieverbrauchs gebe ich dir schon recht und kann ich auch voll verstehn da nicht alle denken wie ich XD aber da ich einen schmutzigen schummeldiesel fahre kann ich mit 100watt mehrverbrauch auch leben wen die leistung einen gewaltigen sprung macht. Amd hat es halt diesmal verkackt kann ich nur sagen. Naja mal abwarten.
 
<nur blöd das es bewiesen ist
Das ist ein gemittelter wert von etwa 5 game engines
von best case cryengine4-5 bis worst case unreal engine4
Zumal CPu Singlethread leistung anfordwerung je nach game stark abweichen kann.
Viele neigen zu worst case das wäre ipc2,8 frostbyte 3 pvz2 aber bei 180fps
in bf1 aber nur noch ipc 2,2 bei 144fps dieselbe engine
 
Ok für die normalanwender kann ich das argument stromverbrauch akzeptieren. Aber wenn mir ein mensch mit nem übertakteten 6950x mit einen stromverbrauch jenseits von gut und böse wegen der leistungsaufnahme rumheult da könnte ich aus der hose springen. Hatte fast immer dual GPU's und hab mich nie über stromverbrauch geärgert die 200 euro mehr im jahr sind zu verschmerzen XD. Aber den standpunkt des energieverbrauchs gebe ich dir schon recht und kann ich auch voll verstehn da nicht alle denken wie ich XD aber da ich einen schmutzigen schummeldiesel fahre kann ich mit 100watt mehrverbrauch auch leben wen die leistung einen gewaltigen sprung macht. Amd hat es halt diesmal verkackt kann ich nur sagen. Naja mal abwarten.

Das Hauptargument war nicht der Stromverbrauch, sondern der immer höhere Aufwand um Verbesserungen zu erzielen. Der Takt ist inzwischen einfach so hoch und die Strukturbreite so klein, dass sich allein durch Verkleinern keine nennenswerten Vorteile mehr erzielen lassen. Mehr Transistoren auf kleinerer Fläche bedeuten nicht zuletzt, dass auch mehr Hitze auf kleinerem Raum entsteht die erstmal abgeführt werden will.
Die großen Performance Innovationen der letzten Jahre hatten jedenfalls auffällig wenig mit der Verbesserung der Rohleistung zu tun. Da ging es vor allem darum die Chips mit Tricks und Optimierungen bei ähnlicher Qualität weniger auszulasten. Zum Beispiel indem verdeckte Elemente nicht gerendert werden oder der Speicher geschickter genutzt wird. Sichtbar wird das auch an AMD, dessen Hardware in Sachen Rohleistung (mehr als) konkurrenzfähig wäre, in der Praxis aber trotzdem deutlich schlechter performt. Effizienz ist demnach mehr als die pure Einsparung beim Strompreis am Ende des Jahres. Ein Bericht der lediglich die Performanceverbesserungen miteinbezieht wird deshalb der Komplexität der Thematik nicht gerecht, auch wenn es natürlich toll ist alles auf die selbstsüchtigen Kapitalisten zu schieben.
 
Wir sind n einen api limit
Und amd und nvidia wissen das

Eine GTX1080ti also gp102 benötigt in 1080p min eine CPU mit 2,2 IPC
So eine gibt es in form von ci7 7700k und 4,5ghz
Alle anderen CPu sind teils deutlich drunter

Also was tun höherer Auflösung wäre das einfachste nur wird sich wqhd nicht durchsetzen.Gründe sind Monitore zu teuer und exoten gelten nicht

UHD ist auch extrem unwahrscheinlich weil man da in Windows zu Problemen kommt.
Also was kann man machen

Windows 10 ist aber das Creators Update das Problem:
Windows 10 Creators Update: Microsoft gibt Probleme beim Gaming zu - WinFuture.de
Nvidia wird mit Sicherheit ein pascal refresh bringen und die gpu umbenennen
aus gtx1080 gp104 wird 1170
aus gtx1080ti gp102 wird 1180
aus gtx1060 gp106 wird 1150
gp104 niedriger getaktet wird 1160

was kommt danach volta
volta wird zuerst als gv104 die gp102 um 30-50% schneller sein
Das wird dann die neue gtx titan oder eben gtx1180ti

Das glaube ich nicht, da Volta schon in Produktion ist.

Nvidia Volta: Fertigung von neuen 12-nm-GPUs startet noch 2017
 
Webseite prognostiziert auf 30 Prozent sinkende Leistungsteigerungen

Ist mir nicht so wichitg, bzw.: kann ich auch positiv sehen.

Dann "halten" die älteren Generationen länger.

Ein i7 4970K ist heute noch ein wirklich guter Prozessor.

Wenn meine 1080 auch nur so langsam überholtwürde sollte mir das recht sein ^^

Grüße

phila
 
Dazu kann ich nur sagen,!!! Das denkst aber nur du. Wenn ich sehe wie die leute von einer 980ti auf ne 1080 umrüsten und von der zur 1080 Custom um 2 monate später auf ne 1080ti ref zu wechseln kann n---vidia das spiel noch eine weile weiter treiben XD. Und bei einen preis von 750 euro aufwärts für eine 1080ti custom und die leute schlagen zu geht der plan doch auf. Hat intel die letzten jahre nicht anders gemacht.
Die mehrleistung in games bei intel war doch meistens nur dem angestiegenen takt zuzuschreiben. Und jetzt druck von amd und es tut sich was im cpu markt. Wenn amd nicht drückt auf die GTX reihe wird es die nächste zeit genau so werden. Das fanboy lager wechst und treibt den preis. Dazu die ganzen mining ...... kann amd da wenigstens geld machen und der spieler leidet unter der situation. Nimm es mir nicht übel aber mit limitierung hat das nix zu tun. Sondern mit gewinn optimierung. Großer Chip= teure Produktion, kleiner Chip= günstigere Produktion bei gleichem Verkaufspreis = money money money XD. Und nicht anders läuft der hase!!!!!

Wer rechtschreibfehler findet kann sie behalten. Ich hab noch nen ganzen sack davon!!!

die 980ti ist auf dem niveau einer 1070. 1080p gaming perfekt ausreichend, ok fast. aber die 1080ti ist ein enormer sprung. die ist ja schon 30% schneller als eine 1080 die wiederrum 20% schneller als eine 1070 ist...das upgrade ist voll und ganz nachvollziehbar. keine ahnung was du dir da zusammenrechnest. das ist ein leistungssprung von über 50% und 4k ist mit der 980ti fast garnicht möglich. die 1080ti schafft es hingegen fast locker die 60fps zu halten
 
Einfach mal Öl ins Feuer gießen...

AMD bekommt die 30% Leistungssteigerung mit Treibern nach ein paar Jahren hin :lol::ugly:
Wisst ihr noch? Der Wein der reift :ugly:

Im Ernst: meine R9 290 kann heute noch ganz gut in FHD mithalten. Die damals aktuelle 700er Generation nicht mehr so arg :P
 
Kommt drauf an welche Leistungssteigerung man messen will.
Wenn davor ein Spiel in 4k mit 5 Fps lief und mit der neuen Karte in 4k mit 15 Fps sind es 200 % und es ist trotzdem unspielbar.
 
Also bei 30% leistungssteigerung pro generation werd ich immer 2 gens auslassen i sehs nimmer ein den soviel kohle in den rachen zu werfen gibt andere sachen
um soviel kohle zu versenken, wenn die preise bei grakas nicht immer so schnell fallen würden aber für die gebrauchten teile will auch niemand was zahlen also planlos
und bei intel wurde ich auch gut gemolken aber da is jezz konkurenz da und es geht rund aufm markt,
wird zeit das im graka markt auch ma was passiert
 
Das sei in ATI-Zeiten noch anders gewesen.

Oder anders geschrieben, war es überhaupt nicht gut dass die einzige Konkurrenz ATI zu Nvidia von AMD aufgekauft wurde.
Wobei ATI nie eine wirkliche Konkurrenz war, eher 3dfx.
AMD hätte auch eine strategische Partnerschaft mit ATI eingehen können, statt den Konzern völlig überteuert zu kaufen.
Damit wären APUs auch möglich gewesen, und AMD wäre nicht über viele Jahre hinweg durch ein Tal der Tränen gegangen.

Nvidia nutzt die Situation natürlich weiter aus. Das müssen sie auch. Die Aktionäre wollen gute Gewinne und Umsätze sehen.
Also quetsch man die Kunden so gut aus wie es nur irgendwie geht.
 
Zuletzt bearbeitet:
Eines vergisst die Spekulation:

Auch wenn ein Kunde bereits NVidia besitzt, möchte NVidia weiterhin dass er neue Karten kauft. Dafür fehlt aber der Anreiz, wenn die Leistungssteigerungen zu niedrig sind. D.h. NVidia muss daran interessiert sein, dass die Leistung steigt. Wenn sich die nennenswerte Leistungssteigerung zu lange hinzieht, dann ist auch die durchschnittliche Nutzungsdauer eines Modells länger und damit sinkt der Umsatz von NVidia.

Natürlich befeuert eine starke Konkurrenz die Entwicklung der Technologie. Und deswegen fehlt AMD schmerzhaft. Aber anzunehmen, dass sich NVidia deswegen auf den Lorbeeren ausruht oder die Anwender am ausgestreckten Arm verhungern lässt, halte ich für unwahrscheinlich und auch nicht im Sinne von NVidia selbst.

Beim Beispiel CPU wird auch gerne übersehen, dass wir dort schon viel länger beim Limit des technisch machbaren sind. Auch Ryzen hat daran nichts geändert. Mehr Kerne bedeutet ja nicht unbedingt mehr Leistung, und schon gar nicht mehr Leistung pro Leistungsaufnahme.
 
Zuletzt bearbeitet:
Prinzipiell ist es, für Nvidia, keine schlechte Idee bei 50% Leistungssteigerung einfach nur 30% weiterzugeben. Den Rest können sie in einen Geringeren Stromverbrauch und damit auch billigere Kühlung und Spannungswandler stecken. Wenn man bedenkt, dass die Voodoo 3 3000 für ihre 16W Verbrauch kritisiert wurde und man die GeForce 5800 Ultra für ihre 50W ordentlich abgewatscht hat, dann haben sie einen sehr langen Weg vor sich.

Es wurde ja schon vor knapp 10 Jahre vorhergesagt, dass die Party ein Ende haben wird, je weiter man sich den Grenzen des Machbaren annähert, desto langsamer und teurer wird es, Intel hat es bei 14nm ja schmerzlich erfahren müssen, wie es TSMC und AMD dabei geht weiß ich nicht.

PCGH schrieb:
Das führte zur Kritik, die Grünen seien Kapitalisten.

Ein börsennotiertes Unternehmen soll kapitalistisch sein?

Das hätte ich nie gedacht! Zum glück hat mich PCGH aufgeklärt, ich dachte Nvidia wäre eine Wohlfahrsorganisation für Zocker, die ihre Karten zum Selbstkostenpreis abgibt.

Ihr verwendet "Kapitalisten" als generisches Schimpfwort, ihr hättet genausogut "Arschgeigen", "***" usw. sagen können.
 
Völliger Quark. Das Tripel aus LowLevelAPIs, 450mm-Wafer und einem massentauglichen HBM3 (alles drei Punkte, die sehr breite Designs erlauben würden) könnten sogar dafür sorgen, dass wir in Zukunft sogar zwischen den Generationen auf z.B. 250 Watt normiert größere Sprünge erleben würden. (allerdings halt dann auch bloß zu höheren Preispunkten als heute)
 
Stating the obvious... :schief:

Letztlich sollte man aber nicht übersehen, dass auch AMD Vorteile aus der Situation ziehen kann - nämlich den Zeitgewinn für neue Produktentwicklung. Das senkt Kosten - ja wenn man sich nicht verkalkuliert - siehe AMDs DX12 Architektur, die sich 2 Jahre nach Einführung von DX12 immernoch mit 90% DX11 Software-Anteil rumschlagen muss, was Nvidias Vormachtstellung weiter stärkt. Das ist der Teufelskreis des geringen Marktanteils.

Wie war das noch mal mit Stating the obvious ?
Wie bei jeder neuen DX Version (gerade bei den letzten die an einem Windows gebunden sind) dauerte das immer ein paar Generationen von Grafikkarten bis die "aktuelle" Version gut unterstützt wird.
 
Nein, DX 10 wurde eigentlich nie richtig unterstützt.
Da gab es nur ganz wenige Spiele.
Und DX 12 liefert anders als die Vorgänger kaum mehr Leistung, nur mit technisch sehr großem Aufwand.
Aber eine Diskussion dazu ist hier offtopic, und ich werde hier auch nichts mehr dazu schreiben.
 
Beim Beispiel CPU wird auch gerne übersehen, dass wir dort schon viel länger beim Limit des technisch machbaren ist. Auch Ryzen hat daran nichts geändert. Mehr Kerne bedeutet ja nicht unbedingt mehr Leistung, und schon gar nicht mehr Leistung pro Leistungsaufnahme.

Wie war wie war.Ich kann das nur bestätigen.Haben mal teroetisch die Leistungsteiergerung durch mehr kerne anhand von daten ausgrechnet.Zuvor dachte ich beim umwandeln noch,das bei 1080p videos und niedriger auch mit 10 Kernen + HT sich automatisch mehr Leitungs einstellen werden würde.Als ich das anhand der daten was man so im inernet sieht ,anhand daran ausrechnen kann.Als ich fertig war,war ich entsetzt ,wie wenig mehrleistung ein 10 kerner mit HT gegnüber einen 8 kerner + HT ergibt.
Ich errechnete das anhand von den folgenden beiden Prozessoren intel core i7 5960x gegenüber den intel core i7 6950x.

Bei Grafikkarten habe ich ja das selbe Problem.War ich damals von einer 8800 gtx ---) gtx 570 200 % mehr Leistung.Von gtx 570 ---) gtx TItan 80 % Leistungssteigerung.
Wenn ich nun auch wieder 80 % haben wollte ,dann müsste ich rein theroretisch so vorgehen gtx titan ---) GTX 1080 ti oder die neuesten Titan.
Das würde mich aber dann noch mehr kosten und die 80 % stehen dann nicht mehr zum verhältnis zudem was ich zuvor ereicht habe.Das heißt es würde mir immer teurer für mich werden.
Das könnte sich in zukunft(wenn es so weitergeht wie jetzt) noch schlechter für mich auswirken.Wobei ich das große Glück habe das ich nur mit älteren Spiele unterwegs bin.
Weil spiele von 2013 sind ja nicht aktuell.Also hat sich gegenüber damals mein anwendungsfall verändert.
Wenn es sich noch weiter verändert,dann könnte ich rein therrotisch mit einer kleineren Grafikkarte die gleiche Leistung zu weniger Stromverbraucht,favoresieren.Allerdings nur wenn sie kaputt gehen würde,weil sich da die anschuffung ja wirklich rentieren würde.Aber um wievel die zukünftigen mittelklasse Grafikkarte von generation zu generation steigt,das kann man ja nur schätzen.

Ich erwarte aber auch nicht so viel an mehrleistung.Was ja vor und nachteile mit sich bringt.Und ich profitierte auch beim Prozessor von limitierung.Also ist es auf der einen seite mal nicht schlecht ,ne limitierung zu haben.
 
Bevor eine ps5 auf den Markt kommt,die dazu führt dass sich Grafik wieder sprunghaft weiter entwickelt, braucht es auf dem LCD Markt eh Neuorientierung als die einer gtx1080ti

Hoffe dass wir in 2021 eine 18TF PS5 bekommen.......dann wird auch Detlev wieder richtig gefordert :)
Diesmal gerne auch mit starker CPU in der PS5 :)

Irgendwie stagniert aber generell die Technik etwas.....wenn ich sehe was da Tür massive beharrliche Sprünge von 1990 bei Ca. 2010 statt gefunden haben.....in allen technischen Bereichen......heute passiert kaum noch was.

Das nächstenliebe ding in der Halbleiter Entwicklung muss her.....Silizium bringt's nicht mehr :(

Wenn man bedenkt dass ich seit Nunmehr Ca. 6(?) Jahren die gleiche CPU verwende, ohne wirklich ins cpu Limit zufahren :ugly:
 
Zuletzt bearbeitet:
Zurück