Grafikkarten kaufen: So viel müssten sie kosten, wenn es nach der Leistung ginge

Nein ein Test für was die Karte nie ausgelegt war und was auch AMD ganz offen kommuniziert ist ein Schwachsinn..

1: Soweit ich weiß hat AMD niemals behauptet, dass ihre Karten für 4K untauglich wären.
2: Sind sie auch nicht, sie verlieren gegenüber den Nvidiakarten etwas Vorsprung, das war es aber auch schon. Das ist nichts neues, früher haben die Nvidiakarten bei den höheren Auflösungen eingebüßt. (da hat auch keiner gefordert die Karten nur in Full HD zu testen.
3: Das wäre ja noch schöner, wenn der Hersteller vorschreibt, wie die Tests auszusehen haben und wie nicht.

Ich teste auch keinen Porsche mit einem LKW Anhänger und sage der ist kacke.. zieht den Anhänger nicht

Der Vergleich hinkt, ein Porsche wird nicht zum Ziehen eines LKW Anhänger verwendet, eine Graka hingegen oft an einen 4K Monitor angeschlossen. Die sind auch nicht mehr teuer und recht weit verbreitet.

Und nein die Hitrate hängt nur an der Auflösung ab...

Sowiet ich weiß hängt sie vom auch Inhalt des VRAM ab. Je besser der gefüllt ist, umso wahrscheinlicher ist, dass das gesuchte nicht im Cache ist.

Da wird sich auch in Zukunft nichts ändern

Wir werden sehen.
 
Du hast Dir weder 2016 noch 2017 eine GTX 1080Ti gekauft. Bis August/September 2018 hattest Du noch eine RX 480.
Das I-Net vergisst nicht...und deckt Gelaber sehr schnell auf.....so wie Deines :daumen2:

 
Zuletzt bearbeitet:
Das ist eine reine Konsomenten Sicht, die man natürlich haben kann. Man hat aber dadurch den Nachteil, dass einem die Hersteller, vergleichsweise schwächere Technik für mehr Geld verkaufen.
Welche Alternative hast du denn? Egal ob größerer Chip, oder nicht. Du kannst nicht einfach beim Konkurrenten ein größeren Chip kaufen, der dir unterm Strich auch mehr bietet. Das ist das Problem.

Bleibt auch die Frage, ist es schwächere Technik, wenn man mit den kleineren Chips die selbe Performance auf die Straße bringt.
 
Das hängt natürlich ganz von den individuellen Ansprüchen ab. Generell geht die Tendenz aber zu einem gerinem Fortschrittstempo. Bis 2008 hat sich die Leistung jährlich verdoppelt. Nach 3 Jahren gab es auf dem Markt also eine Karte, die 8 mal so Leistungsfähig war und auf der alten Gurke lief fast nichts mehr.

Das hat sich geändert. Eine RTX 3090 ist nur etwas mehr als doppelt so schnell, wie eine GTX 1080Ti und hat auch nur etwas mehr als doppelt soviel VRAM. Zum Vergleich: zwischen der GeForce 4 hat sich der VRAM um den Faktor 6 gesteigert und die Leistung irgendwo um das 20fache.

Mit einer GTX 1080Ti läuft heute noch alles sehr gut, auf einer GeForce4 bekam man im Jahr 2006 meist nichtmal das Optionsmenü zu sehen.

Zwar wird mit der kommenden Generation eine ordentliche Leistungssteigerung erwartet, aber ewig wird man da nicht immer noch mehr Energie reinbuttern können. Von daher erwarte ich, dass man mit einer 4090 eventuell 10 Jahre auskommen kann, wenn man die Ansprüche entsprechend zurückfährt.



Beim VRAM, Treibern und den Effekten ist das eben eine andere Sache. Die machen entweder nur wenig aus oder es gibt einen gigantischen Unterschied. Die Besitzer der Fury X können da ein Lied singen. Auch gibt es einige Spiele, die meine GTX 670 nicht darstellen kann, da sie doch nicht ganz so DX 12 fähig ist, die HD 7870 bekommt sie aber zumindest zum laufen.



Auch das ist nicht so. Zum einen brauchen die Entwickler Zeit, bis sie die Konsolen voll im Griff haben. Man Vergleiche die Spiele am Anfang einer Generation mit denen zum Ende. Zum anderen gibt es am PC einfach viele Dinge, die an zusätzlich nutzen kann. FC 6 hat z.B. ein Texturpaket, das 12GB VRAM benötigt, um gut zu laufen. Das ist alleine mehr als die Series S, die ganzen X-Box One oder PS4 (Pro) haben. Auch ansonsten gibt es viele Zusatzdetails, die es auf den Konsolen nicht gibt. Gutes Beispiel ist Red Dead Redemption 2, von dem viele sagen, es würde angeblich besser aussehen, als alles auf dem PC. Was ist passiert als der PC Port kam? Die Grafik der Konsolen lag unter den niedrigen Einstellungen.

Mir ist kein Fall bekannt, bei dem es einen großen Sprung in die eine oder andere Richtung gab. Weder haben die Konsolen den PC groß gebremst (schlechte Konsolenports ausgenommen) noch gab es auf einmal einen Sprung zu höheren Details und Hardwareanforderungen.

Selbst eine bessere Unterstützung von Mehrkern CPUs durch die PS3 und 4 sowie die X-Boxen One und 360 ist ausgeblieben, das war eine kontinuierliche Verbesserung.



Damit hat man in der Vergangenheit sehr oft ins Klo gegriffen.

Wer sowieso weiß, dass er sich in zwei oder allerspätestens 4 Jahren eine neue Karte kaufen wird, der kann das so handhaben. Wer seine Karte gerne länger nutzt, der sollte sich nicht wundern, wenn er etwas blöd dasteht, die Fury X und andere Karten lassen grüßen.



Das kann man noch nicht wirklich auflösen



Man muß berücksichtigen, dass diese PC Weisheiten oft aus einer völlig anderen Zeit stammen. Zu Zeiten der GeForce 4 hat das absolut zugetroffen, da das Ding morgen so oder so eine Gurke war, die ausgewechselt werden mußte. Seit der GeForce 600 hat sich das aber geändert. Heute sollte man Dinge wie VRAM, Treiberunterstützung (da ist AMD grottig) oder neue Effekte berücksichtigen, zumindest wenn man seine Karte länger nutzen möchte.



Sogesehen ergibt dein Vergleich aber keinen Sinn mehr, da Nvidia immer Diktiert, was Sache ist. Und die werden niemals zugeben, dass sie lediglich drittklassige Ware liefern, wo es früher noch das zweitbeste Stück gab, für das man heute 1200€ zahlen muß.



Klar ist Nvidia gt damit gefahren, die Kunden ordentlich zu melken, genau wie AMD mit der Entscheidung, sich dem anzuschließen.



Nvidia hat schon einige üble Dinge getan. Von dem Versuch diverse Eigenstandards durchzudrücken, um den Markt unter Kontrolle zu bekommen (PhysX, GSync, DLSS) Betrug, indem sie Dinge erfunden haben, deren angeblicher Leistungsvorteil erstunken und erlogen war (PhysX und RTX Voice) bis hin zum schummeln in Benchmarks (Doom 3). Ach ja: bei den Lotproblemen der GeForce 8 hat man die Kundschaft auch möglichst lange im Dunkeln gelassen und ist für den Fehler nicht gerade gestanden. Das hat mich einen schönen Laptop mit GeForce 8400M G gekostet.

Auch wenn meine nächste Karte wohl wieder von Team Grün kommt (das Schicksal will, dass ich mir keine AMD Karte kaufe): man sollte Nvidia sehr kritisch beäugen.
Man sollte jeden Hersteller kritisch beäugen.

Ich gehe jetzt nicht auf alles ein, aber in Kürze...
FC6 ist leider ein lächerliches Beispiel und gibt eher einen faden Beigeschmack, als das man denken sollte, FC6 bräuchte wirklich 12GB und mehr. Außerdem ist der Unterschied zwar da, aber nicht so weltbewegend.

"Auch das ist nicht so", kann ich nur zu sagen, das es schon so ist. Konnte man die letzten 10 Jahre immer gut beobachten. Da ändert auch ein FC6 nichts dran. Denn auch wenn ein Entwickler höher aufgelöste Texturen gibt, ist der Unterschied nicht gravierend, da einfach auf die Texturen optimiert wird. Ich sage auch nicht bei allen Spielen, aber bei dem Großteil.

Ok, du möchtest Nvidia vorwerfen, das die 3080 (Das war bei Release, wenn man die ganzen Möchtegernzwischenmodelle man raus nimmt, die später kamen) das zweitschnellste Modell für 700€ angeboten hat. Das AMD die 6800XT aber für 650€ anbietet (Selbe Preisklasse und ja wir wissen alle, das man bei Nvidia tendenziell einen € mehr zahlt) ist für dich dann vollkommen normal.

Ach nein, ich vergaß... War ja das böse Nvidia, der Markt hat es über die Jahre hergegeben sich so zu entwickeln. Keiner zwingt AMD die Karten nicht etwas günstiger zu verkaufen, nur möchte AMD das auch gar nicht.

Beide Hersteller nehmen sich da nichts.

Auch das Nvidia eigene Entwicklungen bietet mit Physx, Gsync und DLSS und keine böse Entwicklung, sondern einzig ein Unternehmen das seine eigenen Investitionen schützt. AMD hat keine andere Wahl, wenn man immer später kommt und dennoch eine gute Verbreitung erzielen möchte, als deren Versionen offen zu gestalten.

Was kann man noch nicht auflösen? DAs Nvidia mit RT schneller ist, das könnte man schon gut so festhalten. Das später mehr VRAM gebraucht wird. Würde ich mal als fast gesichert annehmen.

Welches Schummeln in Benchmarks, ich erinnere mich nicht mehr? Ich kann mich nur noch mit AMD daran erinnern, bei der Bildqualität abstriche gemacht zu haben um schneller in Benchs zu sein. Das müsste zwischen 2009 und 2014 gewesen sein, irgendwann mal.

PS: Und bitte nicht verwechseln, wir tauschen nur unsere Ansichten aus. Das ist kein fight zwischen rot grün blau, oder so! ;)

hab damals ende 2016 für meine 1080ti 650 € bezahlt das war die highend karte damals und jetzt soll ich den selben preis für ne 3070 zahlen ? nie im leben

Wenn überhaupt zahlst du ja für Leistung X und nicht für einen Namen.
Bei den Preisen bin ich bei dir. Einfach noch zu teuer und theoretisch befinden wir uns schon im Abverkauf der alten Gen. Grausam ist das.

Außerdem meintest du bestimmt 2017, denn Ende 2016 gab es die ti noch nicht. Meine 1070 kam 06/2016 auf die Welt und 08/2016 zu mir ;)
ja hab ich und nu?
Sicher nicht.
 
Diese Liste deckt sich mit dem Preis den ich bereit bin für eine Grafikkarte zu zahlen.
mit der 2080ti, welche ich 2019 für rund €1200.- gekauft hatte, habe ich wochenlang mit mir selbst gehadert.
ich habe sie noch immer aber sicher ist das ich nicht nochmal so viel geld für ne Grafikkarte ausgeben werde.
 
Welche Alternative hast du denn? Egal ob größerer Chip, oder nicht. Du kannst nicht einfach beim Konkurrenten ein größeren Chip kaufen, der dir unterm Strich auch mehr bietet. Das ist das Problem.

Bleibt auch die Frage, ist es schwächere Technik, wenn man mit den kleineren Chips die selbe Performance auf die Straße bringt.
Genau das ist der Kern, des Problems (wenn man es mal so einfach zusammenfast), dass wir Kunden seit der Veröffentlichung von Pascal bzw. der GTX 680 haben. Isoliert betrachtet war die Karte eine gute (keine perfekte) Wahl zum damaligen Zeitpunkt für Kunden. Durch den Erfolg konnte/ kann Nvidia die kleinen Gx104 Chips für mehr als 500$ verkaufen, wofür sie davor knapp die Hälfte genommen haben.
 
Ich gehe jetzt nicht auf alles ein, aber in Kürze...
FC6 ist leider ein lächerliches Beispiel und gibt eher einen faden Beigeschmack, als das man denken sollte, FC6 bräuchte wirklich 12GB und mehr. Außerdem ist der Unterschied zwar da, aber nicht so weltbewegend.
Historisch betrachtet ist das genau die Argumentationsweise, die bei den Spielen aufgelegt wurde, die eben mehr Ressourcen als jemals zuvor gängig war, erforderten. Shadow of Mordor fällt mir in der Hinsicht ein. Und wo stehen wir heute? 6GB haben damals auch für einen Aufschrei gesorgt und heute werden solche Karten nur noch um unteren Segment empfohlen.
 
Genau das ist der Kern, des Problems (wenn man es mal so einfach zusammenfast), dass wir Kunden seit der Veröffentlichung von Pascal bzw. der GTX 680 haben. Isoliert betrachtet war die Karte eine gute (keine perfekte) Wahl zum damaligen Zeitpunkt für Kunden. Durch den Erfolg konnte/ kann Nvidia die kleinen Gx104 Chips für mehr als 500$ verkaufen, wofür sie davor knapp die Hälfte genommen haben.
Ich erinnere mich gut. Aber AMD hatte keinen Gegenpart. Die 680 war schon schneller, als die 7970. Erst mitte 2013 hat AMD mit der Brechstange, in Form der HD7970 GHz Edition Nvidia dazu genötigt, die größeren Chips zu bringen. GTX780. Dann ende des selben Jahres kam von AMD noch der nächste Große Chip, der es auch mit der Titan aufnehmen konnte. Man hatte ein Patt, bei dem AMD mehr verbraucht hat.
9 Monate später folgte von Nvidia der nächste Mittelklasse Chip, der den größten Chip von AMD ausstach. Die GTX980.

Uns so weiter und so fort.

Ich sehe das so, das Nvidia Grafikkarten für 500€ verkaufen kann, die AMD auch für 500€ +/- ein bisschen verkauft. Für Nvidia natürlich toll. Wie will man jetzt aber einem der beiden Unternehmen dazu den Peter zuschieben.

Die 3070 kostet heute so viel, wie eine 6750XT und leistet ähnliches. Also eigentlich wieder eingependelt.

Zum absoluten Preis habe ich regelmäßig schon geschrieben, das man Inflation und den € nicht vergessen darf.

Denn vollkommen ohne wenn und aber, entspricht die UVP der 6700/6750XT und der 3070 der Preisklasse, die zu Zeiten der GTX570 entsprach (350€).

Eine HD7950 kostete 420€ bei Release. Da die 7950 auf die GTX570 folgte, müsste man bald AMD vorwerfen, den Preis anfänglich nach oben geschraubt zu haben. Denn Nvidia folgte nach der 7950 von AMD, mit der GTX670 und 400€.


Dank Euro Kurs und danke Inflation sind damalige 350€ heute halt knapp über 500€.
Historisch betrachtet ist das genau die Argumentationsweise, die bei den Spielen aufgelegt wurde, die eben mehr Ressourcen als jemals zuvor gängig war, erforderten. Shadow of Mordor fällt mir in der Hinsicht ein. Und wo stehen wir heute? 6GB haben damals auch für einen Aufschrei gesorgt und heute werden solche Karten nur noch um unteren Segment empfohlen.
SoM habe ich nie gespielt, aber ich nehme mal an das es einen Nennenswerteren Vorteil gab. Bei FC6 steht optische Qualität und Speicherhunger in keinem besonders guten Verhältnis.

Natürlich nur mein Eindruck.

Das sich der Speicherbedarf weiter entwickelt steht außer Frage! Jedoch wann und wie sehr... Auch ich würde jetzt keine 8GB Karte mehr kaufen, aber 12GB würde ich bis hin zu einer RTX4070 noch kaufen, sofern der Preis stimmt, oder eben das Gegenstück von AMD.
 
Denn vollkommen ohne wenn und aber, entspricht die UVP der 6700/6750XT und der 3070 der Preisklasse, die zu Zeiten der GTX570 entsprach (350€).
Nur, dass die GTX570 auf Top Chip basiert und das zweitschnellste Modell war, ist ein entscheidender Unterschied.

Eine HD7950 kostete 420€ bei Release. Da die 7950 auf die GTX570 folgte, müsste man bald AMD vorwerfen, den Preis anfänglich nach oben geschraubt zu haben. Denn Nvidia folgte nach der 7950 von AMD, mit der GTX670 und 400€.
Die HD 79X0 waren einige Monate lang recht teuer und schlecht verfügbar. Selbst als die GTX 680/ 670 raus kamen, waren sie im Schnitt teurer.


SoM habe ich nie gespielt, aber ich nehme mal an das es einen Nennenswerteren Vorteil gab. Bei FC6 steht optische Qualität und Speicherhunger in keinem besonders guten Verhältnis.
Ja, das mag sein, war in der Vergangenheit aber schon nicht anders. Bei SoM gab es schon einen Unterschied, aber die allgemein für damalige Verhältnisse hohe Speicherauslastung, war Grund für Kritik (im Grunde die selbe, wie jetzt auch). https://extreme.pcgameshardware.de/...-test-braucht-man-wirklich-6-gib-vram.355405/
Brauchst nur die ersten Posts lesen:ugly:. Das gleiche kann man bestimmt zu Stalker lesen oder jeden beliebigen anderen Spiel, was mehr Ressourcen als bisher erfordert.
Das sich der Speicherbedarf weiter entwickelt steht außer Frage! Jedoch wann und wie sehr... Auch ich würde jetzt keine 8GB Karte mehr kaufen, aber 12GB würde ich bis hin zu einer RTX4070 noch kaufen, sofern der Preis stimmt, oder eben das Gegenstück von AMD.
Sehe ich auch so.
 
Zurück