"Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

zu viel erwarten traf vega ja sehr hart. nvidia macht den üblichen aufschwung warum was riskieren wenn sie eh wissen was der kunde bereit ist zu zahlen.

Meinst du die 50 US$ die sie beim letzten Mal auf die Karten aufgeschlagen haben, nachdem einige Generationen davor relativ Preisstabil waren bzw. sogar gesunken sind?

Unbenannt.JPG

Unbenannt.JPG


Das die Karten bei uns so teuer waren, hatten wir dem schlecht stehenden Euro zu der Zeit zu verdanken. Und wie sehr NVIDIA Kasse machen will sieht man ja daran, dass der NVIDIA-Shop der einzige ist, wo man für eine GTX1080Ti immer noch 769 € zahlt statt der 1000+€ die sonst wo aufgerufen werden... Ja NVIDIA sind wahre Preistreiber.
 
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

Hoffe das Ampere dass 4k Gaming immer mehr Richtung Mittelklasse verschiebt so dass die immer häufiger auf den Markt gebrachten UHD Monitore auch genutzt werden.
Mit einer 1080Ti kann ich schon gut 70% im nativem 2160p zocken wenn man hier und da bisschen die Einstellungen richtig setzt. Zur Not kann man auch 3200x1800p fahren. Angestrebt werden halt stabile 60fps und dann gehe ich lieber dafür bei Auflösung und Effekten runter.
Denn zu 2/3 sieht für mich UHD mit Hohen bis Sehr Hohen Einstellungen besser aus als Ultra in 1440p auf den anwesenden WQHD Monitoren.

Denke mal dass die Entwickler vom Aufwand bei den Engine irgendwo langsam an eine Grenze kommen. Man genauso bei CPU nicht unendlich mit den Kernen sinnvoll skalieren kann.
Daher werden die künftigen GPUs schon eine Weile wieder halten. Selbst eine neue Konsolen-Gen in paar Jahren keine Wunder bewirken wird.

Mal sehen wie die Preise und deren Leistung dann ausfallen wenn Ampere wirklich vorgestellt wird.

Gehe bei der ps5 und oder xbxox 2 2020 gpu in stärke einer 1070 oder 1080 -----> mit scheiss cpu wiedermal muss aber keiner kauft 800 euro konsole.
 
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

für mich ist die nix. Ich bekomme die Tage eine 1080 Ti und die wird lange Zeit in meinem Rechenr werkeln (hoffe ich^^)
Meine 1080 würde auch noch eine Weile reichen, aber die 1080 Ti reizt mich da mehr. Erst recht, da ich relativ "günstig" an die Karte gekommen bin. Ich will wahrscheinlich gar nicht erst wissen, was bei der aktuellen Preisentwicklung die Ampere kosten werden.
 
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

Forscht denn gar keine Firma mehr? Ich würde mich über eine Abkehr von Polygonen, die mit Texturen überzogen werden, freuen. Keine Ahnung was danach kommen könnte. Voxel? Echzeitraytracing? Ich bin nur der Meinung, daß die Leistungssteigerung so nicht mehr endlos weiter gehen kann. Und ja, ich hab schon ne Menge Technologiesprünge miterlebt. Aber der letzte große war wohl Voodoo, bzw. die Einführung der Riva 128.
 
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

Was sich alle wünschen: 2070 mit der Leistung einer 1080 für 300-400€.

Das wären angebrachte Preise. Allerdings sehe ich nicht, dass sich da irgendetwas für die alte Highendklasse ändert. Ich hab immer Grafikkarten im 300€ Bereich gekauft und immer gab es da die zweitbeste GPU. Sei es von AMD oder Nvidia. Nach meiner 970GTX hat sich das aber grundlegend geändert und ich sehe nicht ein, so viel Geld in eine GPU zu stecken. Die Karte ist bald 4 Jahre alt und bisher gab es für mich keine Möglichkeit, aufzurüsten. Ja, die 1070 war nach über einem Jahr kurzzeitig für gute 400€ verfügbar, aber das war es dann auch. Wenn man nicht in den paar Wochen zugeschlagen hat, lag der Preis wieder bei 500+. Alles unter einer 1070 ist den Mehrwert gegenüber einer 970 nicht wert.
 
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

Nvidia Ampere ist für mich bisher nur heiße Luft. Solange es keine handfesten Benchmarks gibt, hinkt jeder Vergleich.
 
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

Wenn ich mich jetzt daran gewöhne, dass eine GTax 2080 schon 1000€ kommt, könnte es durchaus sein dass ich mir ne Titan A kaufe, wenn die Preise wieder fallen :D
Aber ich glaube kaum dass es eine Titan A geben wird. Ampere dürfte der Gaming-Ableger von Volta sein. Dass nVidia mit Ampere gleich eine neue Architektur als Nachfolger von Volta bringt, glaube ich nicht.
Und wenn es dann wieder eine Titan geben wird, dann wird die sicher wieder wie die Titan V an die 3000€ kosten. Also für Gamer völlig uninteressant sein, jeden Falls preislich.
Bin aber gespannt wie der Speicherausbau ausfällt. Bei der 2080 dürften 12 GiB nicht unwahrscheinlich sein, bei der 2080 Ti wären sogar 15 oder 18 GiB GDDR6 oder auch HBM2 denkbar.
 
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

...bei der 2080 Ti wären sogar 15 oder 18 GiB GDDR6 oder auch HBM2 denkbar.

Sicherlich,aber wenn GDDR6 mit 16GBps verfügbar ist braucht man nicht auf einen offensichtlich schlecht verfügbaren und teuren Speicher zurück greifen - bisher steckt HBM noch in den Kinderschuhen.
 
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

Forscht denn gar keine Firma mehr? Ich würde mich über eine Abkehr von Polygonen, die mit Texturen überzogen werden, freuen. Keine Ahnung was danach kommen könnte. Voxel? Echzeitraytracing? Ich bin nur der Meinung, daß die Leistungssteigerung so nicht mehr endlos weiter gehen kann. Und ja, ich hab schon ne Menge Technologiesprünge miterlebt. Aber der letzte große war wohl Voodoo, bzw. die Einführung der Riva 128.

Hm, ich hoffe doch schwer, dass hier weiter geforscht wird. Allerdings ist das doch weniger die Baustelle von Nvidia/AMD, sondern eher die der Engine-Hersteller. Was Rot/Grün liefert sind die technologischen Fortschritte, immer günstiger immer kleinere Strukturen fertigen zu können, die höhere Mhz verkraften und die doch häufig parallelisierte Arbeit schneller erledigen können als es eben die vorherige Generation kann.

Zumindest ein bisschen könnte man den Vergleich in Richtung Gameworks/PhysX ziehen, wo Nvidia kleineren Entwicklern Bibliotheken anbietet, um Effekte darstellen zu können, die sie selbst nicht hätten in den gesetzten Zeit/Geld-Limits programmieren können (Disclaimer: reine nüchterne Feststellung und keine Bewertung, ob das in der derzeitigen Ausprägung gut oder schlecht ist! Zumindest PhysX könnte man open source machen, dass es analog auf AMD super läuft bzw. mit AMD/kleine Nvidia Kombi im Treiber unterstützt würde - was hätten wir für Effekte *träum*).
 
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

Nvidia Ampere ist für mich die AMD Vernichtung.

schon schlimm genug dass AMD die alten Pascal Karten nicht schlagen konnte. :P
 
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

Ich bin gespannt, was Nvidias neue Grafikkarten Ampere so leisten und welche neuen Features diese so mitbringen. Eine GTX 2070 Ampere mit der Leistung einer jetzigen GTX 1080Ti, wie das auch Pascal mit der GTX 1070 im Verhältnis zur GTX 980Ti war, wäre schon sehr Nice. Die neuen Ampere Grafikkarten werden wohl noch einmal Effizienter sein als Pascal, dann mit GDDR6 Speicher, der auch noch mal etwas schneller ist.

Die Frage wird auch sein, ob die neuen Ampere Grafikkarten auch wieder mehr Speicher [VRam] bekommen, oder man bei den jetzigen Maßen bleibt. Und vermutlich werden die neuen Ampere Grafikkarten wohl eine RGB Vollverkleidung bekommen von den Customer, vielleicht gibt es ja bald ein paar neue Grafikkarten, die dann auch noch ein kleines Display haben, wo dann zur RGB Beleuchtung noch getanzt wird, je heißer der GPU Chip desto schneller der Tanz, das wäre doch mal was! :hmm:
 
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

Nvidia Ampere ist für mich die AMD Vernichtung.

schon schlimm genug dass AMD die alten Pascal Karten nicht schlagen konnte. :P

Ja, und dank den Minern und der fehlende Konkurrenz von AMD wird Nvidia sicherlich noch mehr verlangen für die Ampere-Grafikkarten, als wie bei den aktuellen Pascal-Karten. Ist doch alles eine tolle Entwicklung, nicht wahr?
 
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

Nvidia Ampere ist für mich ein großes Mysterium. Dass bisher überhaupt nichts nach außen gedrungen ist, ist ziemlich erstaunlich. Egal ob die Anzahl der Shader, die Menge des VRAMs und welcher VRAM, welche Node und so weiter. Kein einziges Detail wurde geleaked. Selbst der Name Ampere ist nur Spekulation, seitens Nvidia wurde der nicht einmal erwähnt. Man darf gespannt sein, nach der Vega Nullnummer und 2 Jahren mit Pascal wird es jedenfalls Zeit für was Neues.
 
"Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

Meinst du die 50 US$ die sie beim letzten Mal auf die Karten aufgeschlagen haben, nachdem einige Generationen davor relativ Preisstabil waren bzw. sogar gesunken sind?

Anhang anzeigen 988098.

Hm. So ganz sinnvoll sind die Vergleiche der Grafik nicht.
So war die GTX580 das absolute Gamer Top Modell der Fermi Architektur und NVs damaliger High-End Chip.
Die GTX680 war nur Nvidias Performance Chip der Kepler Generation. Die größte und leistungsstärkste Gaming GPU der Kepler Generation, und somit der legitime Nachfolger der GTX580, war aber die 780Ti, nicht die 680.
Worauf ich hinaus möchte: Wenn man wirklich halbwegs objektiv die Preissteigerung vergleichen möchte, dann sollte man nicht Grafikkartennamen miteinander vergleichen sondern die GPUs als solches. Wie sind also zum Beispiel die Preise für die High-End GPUs der jeweiligen Architektur gestiegen? Das wären GF110, GK110-425, GM200, GP102. Dabei würde man nur die großen High-End GPUs der jeweiligen Architektur vergleichen, und nicht wie in der Grafik, im Mix kleine, (in der Produktion) günstige Performance Chips, die als x80 Grafikkarten gelabelt wurden (GTX680, GTX980, 1080) mit großen, teuren High-End Chips (GTX580, GTX780). Und warum bei Fermi sowohl die GTX480, also auch 580 genannt werden, während bei der 780 die Ti erst gar nicht genannt wird, erschließt sich mir auch nicht. Etliche High-End GPUs wurden wiederum (absichtlich?) komplett geschlabbert.
Kurzum: Die von dir verlinkte Grafik ist in diesem Zusammenhang als Preisvergleich letztlich ziemlich nutzlos.

Ein GPU Vergleich sähe so aus (jeweils die Startpreise und nur Geforce, keine Titan):

GF110: 499$

GK110: 699$

GM200: 649$

GP102: 699$

Aaaaber, da wir Europäer sind und in Deutschland leben:

GF110: 479€

GK110: 649€

GM200: 740€

GP102: 819€

Heißt, für uns haben sich Nvidia High-End GPUs massiv verteuert. Dass das natürlich auch an Sachen wie dem Dollarkurs liegt, ist klar (andererseits stand der Dollar 2013 nicht anders, als die Jahre davor, trotzdem wurde massiv aufgeschlagen). Nur ändert das zunächst mal nichts an der Tatsache als solches. Nvidia High-End GPUs brennen uns hier mittlerweile recht große Löcher ins Portemonnaie. Und ein gewisser Unmut darüber ist sicherlich verständlich.
 
Zuletzt bearbeitet:
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

@Cook2211
Deine Tabelle stimmt aber auch so nicht, da es auch GTX 1080Ti Modelle gab, die deutlich unter dem von Dir genannten Preis von 819,00 Euro lag. Schaut man sich jetzt rein die Dollar Preise an, ist der Abstand der Preise zueinander deutlich besser von der Range her, als das bei uns mit dem Euro aussieht. Was natürlich auch an den Kursschwankungen von Dollar zu Euro liegt.
 
AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

@Cook2211
Deine Tabelle stimmt aber auch so nicht, da es auch GTX 1080Ti Modelle gab, die deutlich unter dem von Dir genannten Preis von 819,00 Euro lag. Schaut man sich jetzt rein die Dollar Preise an, ist der Abstand der Preise zueinander deutlich besser von der Range her, als das bei uns mit dem Euro aussieht. Was natürlich auch an den Kursschwankungen von Dollar zu Euro liegt.

Genau wie FortuneHunter habe ich nur die UVP genannt. Marktpreise zum Release können natürlich nach unten, aber auch nach oben abweichen, je nach Verfügbarkeit der jeweiligen GPUs.

PS:

Die Founders Editions lagen zum Release alle bei 819. Die Custom Designs kamen erst später:

gtx1080ti founder | Geizhals Deutschland
 
Zuletzt bearbeitet:
Zurück