"Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

"Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

Kann man den Vergleich nicht irgendwie einfacher gestalten?
Nvidias Marge ist über die Zeit immer gestiegen und Gaming stellt für Nvidia nach wie vor mit Abstand den größten Umsatzanteil dar, entsprechend kassiert Nvidia immer mehr und effektiv führt Nvidia kontinuierlich eine Preissteigerung durch.

Ja, genau das macht NV, und darum ging es mir. So ist der Aufschlag vom Vorgänger des GK104 hin zur GTX680 gewaltig gewesen. Das Problem war, dass NV es einfach konnte, weil der GK104 sogar schneller war, als AMDs schnellste GPU. Und mit der TITAN hat man direkt mal eine ganz neue Preiskategorie für eine Single GPU eingeführt.
 
Zuletzt bearbeitet:
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

Nein, Namen sind Schall und Rauch. An der GPU Größe.

Beispiel Kepler Architektur:
GK104 Performance Chip, GTX680): 294qmm
GK110 (High-End Chip, GTX780Ti): 533qmm
Eine geschrumpfte DIE bei einem Sprung von 40nm auf 28 nm ist wohl zu erwarten.

Das ändert nicht daran, dass ein Preisvergleich auf Basis der GPU Kategorie deutlich sinniger ist, als der, den du angestellt hast. Die 680 ist nicht die High-End GPU der Kepler Generation. Das ist die 780 (Ti), und die ist wiederum der tatsächliche Nachfolger der GPU aus 480/580.

Die UR-Titan war NVIDIAs erste Karte die den semiprofessionellen Markt bedienen sollte. Sie war gar nicht für Gamer vorgesehen.

Die GTX780 und 780Ti sind nur noch beschnittene TITANs. Alle Ti-Modelle danach wurden auf den Markt geworfen um fehlerhafte Chips nicht entsorgen zu müssen, sondern weiterzuverwerten und diese an Enthusiasten zu verkaufen. In der Pascal-Generation haben sie es dann auf die Spitze getrieben. Erst werfen sie einen beschnittenen Quadro Chip als neue Titan X auf den Markt, dann folgt die 1080Ti die nur einen defekt im Speicherinterface aufweist. Und weil diese von der Leistung einer Titan X entspricht, wird nochmal der Vollausbau als Titan XP nachgeschoben.

Und dein Kategorienvergleich ist schon nach 2 Generationen hinfällig. Bei Keppler mag er noch passen, aber ab Maxwell sind die HighEnd-Chips für den Endverbraucher nicht mehr zu verwenden, das diese als GM100 und GV100 nur noch für den professionellen Markt in Clustern eingesetzt werden. Möchte mal sehen wie du diese Prozessoren ohne Grafikausgänge fürs Gaming einsetzt. Denn nach deinem Selbstverständnis und der Kategorieneinteilung müssten das ja Gaming CPUs sein.

Ich für meinen Teil vergleiche lieber die Leistungs und Effizenzsteigerungen der jeweiligen Generationen. Den im Endeffekt ist es das was für mich als Gamer zählt und an dem ich ausrichte, was ich zu zahlen bereit bin. Und hier hat NVIDIA in jeder Generation seit der GTX480 (mit beachtlichen Leistungssteigerungen in den letzten beiden Generationen) abgeliefert.
 
Zuletzt bearbeitet:
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

Eine geschrumpfte DIE bei einem Sprung von 40nm auf 28 nm ist wohl zu erwarten.

Ich redete in Post #159 von GK104 und GK110: Selbe Architektur, selbe Fertigung. GK104 (GTX680): Performance. GK110 (GTX780Ti) High-End. Abzulesen an der GPU Größe.

PS:

PCGH sagt dazu im Test der GTX680 übrigens Folgendes:

"Umso interessanter ist, dass es sich beim GK104 gar nicht um das HPC-Flaggschiff der Kepler-Reihe handelt - GK104 ist technisch gesehen vielmehr der Nachfolger des beliebten GF104/114 (GTX 460/560). Nvidias Geforce GTX 680 ist also eindeutig an Gamer adressiert. Ob das Auswirkungen auf die Compute-Leistung hat? Auch das überprüfen wir im Anschluss. GK110, sozusagen die "volle Packung" der Kepler-Architektur mit HPC-Fokus, soll Gerüchten zufolge nicht vor Herbst sein Stelldichein in Form von Desktop-Karten geben."

Und genau darauf wollte ich hinaus.

Die GTX780 und 780Ti sind nur noch beschnittene TITANs. Alle Ti-Modelle danach wurden auf den Markt geworfen um fehlerhafte Chips nicht entsorgen zu müssen, sondern weiterzuverwerten und diese an Enthusiasten zu verkaufen. In der Pascal-Generation haben sie es dann auf die Spitze getrieben. Erst werfen sie einen beschnittenen Quadro Chip als neue Titan X auf den Markt, dann folgt die 1080Ti die nur einen defekt im Speicherinterface aufweist. Und weil diese von der Leistung einer Titan X entspricht, wird nochmal der Vollausbau als Titan XP nachgeschoben.

Und? 780 und 780Ti sind trotzdem die Gaming High-End GPUs. Auch hier: Abzulesen and der GPU Größe.

Und dein Kategorienvergleich ist schon nach 2 Generationen hinfällig. Bei Keppler mag er noch passen, aber ab Maxwell sind die HighEnd-Chips für den Endverbraucher nicht mehr zu verwenden, das diese als GM100 und GV100 nur noch für den professionellen Markt in Clustern eingesetzt werden.

Nein, er ist keineswegs hinfällig. Siehe: Du weißt schon, GPU Größe.

Willst du das Offensichtliche jetzt wirklich abstreiten?
Seit Kepler sieht NVs Release Schema Folgendermaßen aus:
Bei einer neuen Architektur werden zuerst die günstig zu produzierenden, da kleinen Performance Chips auf den Markt geworfen. Diese sind aber so schnell, dass man sie äußerst hochpreisig als GTX x80 Modelle verkaufen kann. Seit Kepler folgende Grafikkarten: GTX680, GTX980, GTX1080.
Etwa 1 Jahr später bringt Nvidia dann den etatmäßigen Geforce High-End Gamer Chip auf den Markt. Diese sind immer bei gleicher Architektur und gleicher Fertigung deutlich größer, als die Performance Chips und leisten dementsprechend auch mehr. Seit Kepler: GTX780(Ti), GTX980Ti, GTX1080Ti.
Das ist nun mal einfach so, und lässt sich nicht wegdiskutieren.
Und mit diesem Vorgehen hat Nvidia die Marge deutlich erhöhen können.

Das ist keine Kritik meinerseits, sondern nur ein Anmerken.

Ich für meinen Teil vergleiche lieber die Leistungs und Effizenzsteigerungen der jeweiligen Generationen. Den im Endeffekt ist es das was für mich als Gamer zählt und an dem ich ausrichte, was ich zu zahlen bereit bin. Und hier hat NVIDIA in jeder Generation seit der GTX480 (mit beachtlichen Leistungssteigerungen in den letzten beiden Generationen) abgeliefert.

Und diese Steigerungen lässt sich NV von uns Europäern von Gen zu Gen preislich immer mehr vergolden.
 
Zuletzt bearbeitet:
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

"Nvidia Ampere ist für mich ..."

- die Generation welche ich wohl gerne überspringen werde.

Genauso wie aktuelle 6 Kerner von Intel ...
RAM Erweiterungen die nicht nötig sind, 32 GB oder mehr bringen mir gar nichts ...

Für mich wird es erst wieder interessant wenn wir mit den Bildschirmen weiter sind.

Ich rüste auf, wenn es sehr gute Gaming Bildschirme ala: 4K 240Hz G-Sync o.Ä. gibt,
welche sich dann aber auch mit der entsprechenden GPU mit viel Puffer für die Zukunft füttern lassen.

Grafikqualität für FPS minimieren ist für mich absolut keine Option, wenn ich viel Geld in etwas investiere.
 
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

Die erste Titan die auf den Markt kam hatte zwar den großen Chip, war aber nicht der Vollausbau.
Shader-/SIMD-/Textureinheiten 2.688/14/224

Der kam erst mit der GTX 780 ti und der Titan Black.
Shader-/SIMD-/Textureinheiten 2.880/15/240.
Vorteil der Titans waren eben die 6GB VRam die bei der GTX 780 ti mit 3GB doch eher spärlich ausgefallen sind.

Ampere ist für mich dieses Jahr wahrscheinlich kein Grund um eine neue Karte zu kaufen.
Vielleicht nächstes Jahr mit der neuen TI.
 
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

GK110 in 780Ti ist nicht beschnitten, sondern Vollausbau.

Nope. Von den Cores nicht beschnitten, aber der Speicher ist halbiert. Das macht sie für den Semiprofessionellen Markt ziemlich nutzlos.

Und diese Steigerungen lässt sich NV von uns Europäern von Gen zu Gen preislich immer mehr vergolden.

Wiederum Nope. In USA ist die Mehrwertsteuer (aus offensichtlichen Gründen) nicht eingepreist. Und mir war nicht bekannt, dass NVIDIA jetzt eine so starke Macht ist, dass sie den Eurokurs neuerdings mitbestimmen.

50 US$ Steigerung von der GTX980 auf die GTX1080 wurden bei uns zu 132€ aufgrund des schlechten Wechselkurses und der darauf aufgeschlagenen Mehrwertsteuer. Mit beiden hat NVIDIA gar nichts zu tun. Aber wenn man so richtig schön ablästern will übersieht man das ja gerne mal.

Rohstoffpreise, Fertigungsanlagen, Entwicklungskosten etc steigen ja auch nicht im Preis. Wie kann sich ein Unternehmen nur erdreisten seine Kosten auf die Produkte umzulegen ... Schließlich muss ja alles nach den Käufern gehen ... Geiz ist Geil klappt ja auch prima ... Sieht man an den Lebensmitteln, deren Rezepte auch immer mehr abgespeckt werden.
 
Zuletzt bearbeitet:
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

[...]
Da macht die Unterscheidung nach technischen Daten wesentlich mehr Sinn.
Wenn man sich mal die technischen Daten anschaut, dann hat man eine massive Steigerung zwischen der GTX580 und der GTX680 (3 mal mehr ALUs und 2 mal mehr Shadereinheiten) bei gleicher Transistoranzahl. Die Leistungssteigerung zwischen GTX580 zu GTX680 fiel mit 28,19% auch größer aus als die 18,91% zwischen GTX480 zu GTX580. Die darauffolgenden Generationen GTX680 zu GTX980 und GTX980 zu GTX1080 fielen mit jeweils über 60% noch wesentlich üppiger aus:

Anhang anzeigen 988134
Perf/Watt, Perf/mm² und Perf/€ sind die einzigen Vergleichsmetriken die zum Schluss Sinn ergeben.
3x mal ALUs sagen mir schließlich nichts, wenn ich nicht über den Takt Bescheid weiß und GFLOPs als FMA-Ops x Takt sagen mir am Ende auch nicht die Wahrheit, weil es nur beschränkt mit der praktischen Performance zu tun hat.
Und ALUs = Shadereinheiten, in der Tabelle stimmt es mit Textureinheiten.
Apropo Tabelle, die ist ansonsten voller Fehler.

Der GP104 ist ~314mm² groß (1070(Ti)/1080), der GP102 ~471mm² und der GP100 ~610mm².
Es gibt auch keinen die size Unterschied beim GK110, die sind alle ~561mm² groß.

Der GM200 (980Ti) besitzt eine Chipgröße von ~601mm.

Und woher kommen die Leistungssteigerungen in Prozent?

Eine geschrumpfte DIE bei einem Sprung von 40nm auf 28 nm ist wohl zu erwarten.

Die UR-Titan war NVIDIAs erste Karte die den semiprofessionellen Markt bedienen sollte. Sie war gar nicht für Gamer vorgesehen.

Die GTX780 und 780Ti sind nur noch beschnittene TITANs. Alle Ti-Modelle danach wurden auf den Markt geworfen um fehlerhafte Chips nicht entsorgen zu müssen, sondern weiterzuverwerten und diese an Enthusiasten zu verkaufen. In der Pascal-Generation haben sie es dann auf die Spitze getrieben. Erst werfen sie einen beschnittenen Quadro Chip als neue Titan X auf den Markt, dann folgt die 1080Ti die nur einen defekt im Speicherinterface aufweist. Und weil diese von der Leistung einer Titan X entspricht, wird nochmal der Vollausbau als Titan XP nachgeschoben.

Und dein Kategorienvergleich ist schon nach 2 Generationen hinfällig. Bei Keppler mag er noch passen, aber ab Maxwell sind die HighEnd-Chips für den Endverbraucher nicht mehr zu verwenden, das diese als GM100 und GV100 nur noch für den professionellen Markt in Clustern eingesetzt werden. Möchte mal sehen wie du diese Prozessoren ohne Grafikausgänge fürs Gaming einsetzt. Denn nach deinem Selbstverständnis und der Kategorieneinteilung müssten das ja Gaming CPUs sein.

Ich für meinen Teil vergleiche lieber die Leistungs und Effizenzsteigerungen der jeweiligen Generationen. Den im Endeffekt ist es das was für mich als Gamer zählt und an dem ich ausrichte, was ich zu zahlen bereit bin. Und hier hat NVIDIA in jeder Generation seit der GTX480 (mit beachtlichen Leistungssteigerungen in den letzten beiden Generationen) abgeliefert.
Es stellt nur keine Regel dar, dass ein neuer Fertigungsnode dafür verwendet wird die Chipgröße massiv zu senken, entsprechend war das nicht zu erwarten.

Und der Kepler vs. Fermi-Vergleich ergibt bezüglich der Kategorisierung schon Sinn.
Ein über 500mm² großer Chip, mit einem hohem FP64-Verhältnis, künstlich gedrosselt für den Konsumenten.
Nvidia hat nur die Handhabung bezüglich Einführung und Preis geändert.

Es gibt keinen GM100-Chip, nur einen GM200 und der wurde ja als 980Ti verkauft.
Den GV100 kann man als Titan V für eine Arsch voll Kohle kaufen und ist aktuell die schnellste GPU im Gaming und besitzt Display-Ausgänge.

Den GP100 konnte man nicht über einen Shop für Einzelhandelskunden kaufen, sondern höchstens als GP100 Quadro-Version mit Display-Ausgängen.
Und Gaming CPUs stellen die alle natürlich nicht da. :P

Und naja, wie gesagt, Nvidias Marge ist ständig gestiegen (61,9% Bruttomarge in Q4!) und die Gaming-Sparte stellt den größten Umsatzfaktor dar.
Entsprechend muss ich mir den Kopf nicht mit Mühe und Not zerbrechen indem ich die Chipgröße vergleiche, die UVP/den Straßenpreis, die Inflationsrate, den Zeitrahmen, Produktionskosten usw.
Ich weiß das Nvidia mehr Gewinn rauspresst im Vergleich zu früher und das ich als Kunde relativ weniger bekomme, als damals.
Ganz so simpel ist es natürlich auch nicht, aber die Perspektive kommt auch auf einen Punkt mit deutlich weniger Faktoren die man krude in Relation ziehen muss und sehr unterschiedlich ausfallen.
 
Zuletzt bearbeitet:
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

Irgendwie freue ich mich gar nicht über die nächste Generation. Vielleicht kommt das noch.
Aber ich habe mit einer 1080Ti und einer Ultra Wide UXGA Auflösung keinen Grund aufzurüsten, damals hat immer irgendein Spiel das Aufrüsten erfordert.
Den aktuellen GamingMonitor werde ich wohl noch eine lange Zeit behalten. Wenn die neue Generation nicht gewaltig schneller in den niedrigen Auflösungen ist, dann gibt es für mich dieses mal keinen Grund aufzurüsten.
 
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

Wiederum Nope. In USA ist die Mehrwertsteuer (aus offensichtlichen Gründen) nicht eingepreist. Und mir war nicht bekannt, dass NVIDIA jetzt eine so starke Macht ist, dass sie den Eurokurs neuerdings mitbestimmen. 50 US$ Steigerung von der GTX980 auf die GTX1080 wurden bei uns zu 132€ aufgrund des schlechten Wechselkurses und der darauf aufgeschlagenen Mehrwertsteuer. Mit beiden hat NVIDIA gar nichts zu tun. Aber wenn man so richtig schön ablästern will übersieht man das ja gerne mal. Rohstoffpreise, Fertigungsanlagen, Entwicklungskosten etc steigen ja auch nicht im Preis. Wie kann sich ein Unternehmen nur erdreisten seine Kosten auf die Produkte umzulegen ... Schließlich muss ja alles nach den Käufern gehen ... Geiz ist Geil klappt ja auch prima ... Sieht man an den Lebensmitteln, deren Rezepte auch immer mehr abgespeckt werden.

Siehe Locuzas Ausführungen. Nvidia hat eine sehr große Marge bei den GPUs erreicht. Das widerspricht deinen Ausführungen beziehungsweise deinen Begründungen.
Dass natürlich bei uns die Mwst. hinzukommt, weiß ich selbst. Aber ständig steigende Margen widersprechen nun mal deinen Begründungen für Preisanstiege. Denn wenn NV nur steigende Kosten und Wechselkurse auf die GPUs anrechnen würde, dann würden die Margen nicht steigen.
Es ist einfach so, dass es NV gelungen ist, mehr Geld aus den Usern herauszupressen. Dazu tragen verschiedene Faktoren bei: mangelnde Konkurrenz, höhere Preise für High-End, Verkauf von günstigen Performance GPUs als teure High-End Grafikkarten, neue Preiskategorie mit der Titan.
 
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

Wiederum Nope. In USA ist die Mehrwertsteuer (aus offensichtlichen Gründen) nicht eingepreist. Und mir war nicht bekannt, dass NVIDIA jetzt eine so starke Macht ist, dass sie den Eurokurs neuerdings mitbestimmen.
50 US$ Steigerung von der GTX980 auf die GTX1080 wurden bei uns zu 132€ aufgrund des schlechten Wechselkurses und der darauf aufgeschlagenen Mehrwertsteuer. Mit beiden hat NVIDIA gar nichts zu tun. Aber wenn man so richtig schön ablästern will übersieht man das ja gerne mal.
Rohstoffpreise, Fertigungsanlagen, Entwicklungskosten etc steigen ja auch nicht im Preis. Wie kann sich ein Unternehmen nur erdreisten seine Kosten auf die Produkte umzulegen ... Schließlich muss ja alles nach den Käufern gehen ... Geiz ist Geil klappt ja auch prima ... Sieht man an den Lebensmitteln, deren Rezepte auch immer mehr abgespeckt werden.

Du hast natürlich recht, dass hier noch andere Faktoren mit reinspielen. Ich persönlich würde auch nicht "Scheiß Nvidia" oder so Unsinn rufen. Denn sie machen eben das, was der Markt her gibt. Für die Zielgruppe ist es weitesgehend in Ordnung, die Kaufkraft ist also da, AMD liefert leider keine Konkurrenz im GPU Bereich - seit Kepler nur mit der Brechstange, seit Maxwell nicht mal mehr ans Topmodell. Es ist einfach Nvidias Recht als gewinnorientiertes Unternehmen soviel Profit wie möglich rausszuschlagen. Und natürlich spielen auch die genannten Aspekte von dir mit rein. Die Herstellung wurde mit den Jahren komplexer, benötigt größere Teams, höhere Gehälter, die Rohstoffpreise steigen usw - alles sicherlich richtig. Inflation ignoriere ich hier allerdings mal, weil die ist nicht sonderlich ausschlaggebend, dass sie wirklich nennenswert wäre.

Nichtsdestotrotz ist eine Preissteigerung grundsätzlich nicht zu leugnen, aus welchen Gründen auch immer die nun erfolgt ist. Uns hier in Europa trifft es natürlich nochmal etwas härter wegen dem Wechselkurs. Damit hat Nvidia hat natürlich nichts zu tun, aber es ändert eben nichts an der Preissteigerung. Persönlich sehe ich das Ganze aber auch relativ gelassen, meinetwegen können sogar die Preise weitersteigen. Wenn die Mehrheit das Geld hinlegen kann, dann ist es halt so. Aber im Bezug auf Gaming ist für mich das Ganze nicht so gravierend, ist ja nicht existenziell. Die Leistungssprünge sind heutzutage sowieso nicht mehr mehr so groß wie damals, wo die alte Generation durch eine mindestens doppelt so schnelle neue Generation ersetzen worden ist. Zudemn man, auch durch die Konsolen bedingt, bedingt mittlerweile viel länger mit älterer Hardware spielen. Und - Achtung nur persönliche Meinung - der Großteil der Triple A Titel und damit auch die meisten HighEnd Kracher sind es mir einfach nicht wert, aus gameplaytechnischer Sicht sowie der Tatsache, dass die meisten großen Entwickler/Publisher seit Jahren nur noch diversen sehr unschönen Trends folgen.

Nein, Namen sind Schall und Rauch. An der GPU Größe....

Zustimmung. Größe, Speicherbindung, etc - daran sollte man sich orientieren . Würde man nur nach den GPU Namen gehen, könnte Nvidia auch zB den GX107 als x80 Karten verkaufen und man könnte das als HighEnd bezeichnen. Wäre es aber sicherlich nicht. ^^ Und neben den Beispielen, die du bereits erwähnt hast, könnte man bspw auch die GTX 560ti ranbringen. Wenn ich das richtig in Erinnerung habe, korrigiert mich falls ich falsch liege bitte, hatte die GTX 560ti den Vollausbau des GF114 Chips. Also Performance und ging 2011 mit 249 USD an den Start. Mit Kepler kam dann der Wechsel als man mit dem Performancechip an Taihiti - AMDs Highend im Jahre 2012 - rankam und zB im Jahre 2016 mit Pascal hat der GP104 Chip 599€ gekostet. Klar war auch die stärkste Karte zu dem Zeitpunkt, aber selbst mit dem Release des GP102 im Vollausbau hat die 1080 noch 499 USD gekostet.

Also je nachdem, welches Segment betrachtet fällt die Steigerung noch härter aus. In der unteren Mittelklasse dagegen waren es nur ca 100USD (149 auf 249 USD) mehr, aber wenn man dann zB in Europa lebt, muss man unglücklicherweise ca das Doppelte hingeben. Für den Preis bekam man vor paar Jahren noch eine ganz andere Leistungsklasse und dann je nachdem ca das Doppelte an Leistung. Aber so ist es halt, ist aber wie oben genannt für mich kein Beinbruch.
 
Zuletzt bearbeitet:
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

IBM läßt ihren Power ja auch bei GloFo herstellen. Verwenden die dann nen IBM-Prozess oder den von GloFo?
Die verwenden 7HP von GF.
Das war der Prozess, den IBM noch selbst entwickelt hat, zwischenzeitlich haben sie sich aber entschieden, die eigene Fertigung abzustoßen.

7LP = Bulk
7HP = SOI
 
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

Weckt mich, wenn´s ne Karte mit 50+ Leistung zur 1060 für max. 260€ gibt!
Gruß ,Der zukünftige Siebenschläfer Yojinbo
 
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

Weckt mich, wenn´s ne Karte mit 50+ Leistung zur 1060 für max. 260€ gibt!
Gruß ,Der zukünftige Siebenschläfer Yojinbo

Du hast evtl. Glück. Guru3d hat eine Liste mit Performanceerwartungen für Ampere unter:
Rumor: Nvidia Ampere might launch as GeForce GTX 2070 and 2080 on April 12th

Nvidia Ampere Guru3D expectation.JPG

Leider habe ich keine Ahnung wie Ampere tatsächlich abschneidet. Hoffen darf man jedoch!

Edit: (Verlesen)
Dachte du meintest exakt 1060 Leistung. Da steht wohl 50%+. Mein Fehler!
Das wäre die GTX2060 @1080-Niveau .... hoffentlich noch Q3/Q4 2018. Allerdings sind da 260€ fraglich, sofern die Miner wieder ordentlich zuschlagen.
 
Zuletzt bearbeitet von einem Moderator:
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

Was wäre denn eine realistische Leistungssteigerung GTX1080 zu GTX2080, 30 - 40%, oder mehr?
 
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

Du hast evtl. Glück. Guru3d hat eine Liste mit Performanceerwartungen für Ampere unter:
Rumor: Nvidia Ampere might launch as GeForce GTX 2070 and 2080 on April 12th

Anhang anzeigen 988190

Leider habe ich keine Ahnung wie Ampere tatsächlich abschneidet. Hoffen darf man jedoch!

Edit: (Verlesen)
Dachte du meintest exakt 1060 Leistung. Da steht wohl 50%+. Mein Fehler!
Das wäre die GTX2060 @1080-Niveau .... hoffentlich noch Q3/Q4 2018. Allerdings sind da 260€ fraglich, sofern die Miner wieder ordentlich zuschlagen.

Die Liste hätte ich dir auch zusammenklöppeln können. Sie haben die Steigerungen Maxwell auf Pascal genommen und die Zeiträume in etwa so gesetzt wie die letzten Releasedaten.
 
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

Die Liste hätte ich dir auch zusammenklöppeln können. Sie haben die Steigerungen Maxwell auf Pascal genommen und die Zeiträume in etwa so gesetzt wie die letzten Releasedaten.

Naja, irgendwo muss man ja anfangen. Der Sprung von Maxwell zu Pascal ist immerhin ähnlich. Neue kleinere Fertigungsverfahren, verbesserte Speichertechnologien, überarbeitete Architektur und viele keline Tricks unter der Haube.... da kann am Ende einiges dabei herauskommen.

Die Daten von Guru3d entsprechen aber auch in etwa meinen Erwartungen. Seit über einem halbem Jahr gehöre ich zur 30-60% Mehrleistungsfraktion. Bei den 70% Leistungssprung von 1080 Ti auf 2080 Ti war ich allerdings vorläufig skeptisch.

Das waren übrigens die ganzen Diskussionsthreads, in denen wir noch dachten Volta käme für auch für Spieler. Zu der Zeit hatte Tesla P100 zu V100 teilweise bis zu 100% in professionellen Anwendungen drauf gepackt. Es weiß auch noch keiner ob oder wie Nvidia die Tensor cores überhaupt in den Spielegrafikkarten unterbringt.
-Ein ziemlich großes Fragezeichen, das die Diskussion um Leistungsdaten schwierig macht.
 
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

Ich rüste immer nur auf, wenn ich das kriege, was ich beim Wechsel von GTX 960 auf GTX 1060 bekommen habe: (mind.) Doppelte Leistung zum selben (oder niedrigeren) Stromverbrauch für max. € 350. Alles andere macht in meinen Augen preislich, ökonomisch und Performance-technisch keinen Sinn.

Ob das bei der GTX 2060(?) schon wieder der Fall sein wird? Bleibt abzuwarten ...

Wenn überhaupt wird die GTX 2060 maximal die Leistung einer 1070 non OC haben und das ist sogar recht unwarscheinlich, weil kein großer Shrink ansteht. 100 % Mehr Leistung zum selben Preis dürften noch ein paar Jährchen dauern, wenn das dank den Minern überhaupt eintritt.
 
Zurück