Radeon VII vs. Geforce RTX 2080: AMD stellt 16 GiByte HBM2 in den Mittelpunkt

Ich werde keine Nvidia RTX kaufen, aber von AMD bin ich auch enttäuscht.
Die zugegebenermaßen schmackhaften 16 GB HBM2 machen einfach den Preis kaputt und der Grafikchip selbst ist für den durch die vielen GB HBM2 verursachten hohen Verkaufspreis einfach ein bisschen zu schwach bzw. liefert den gleichen überteuerten Scheiß ab wie man schon bei Nvidia bekommen kann.

Ja, es ist unfair immer von AMD zu verlangen die Firma zu sein, die attraktive Preise macht.
Aber keine Ahnung AMD, hättet ihr das ganze Design ein bisschen umgestellt und die Bandbreite so gemacht dass nur 10-12 GB HBM2 drauf sind auf der Karte und dann ein Preisschild mit 499 € draufgepappt und schon hätten viele Leute hier frohlockt...

Wenn ich mir in der aktuellsten PCGH-Ausgabe den GPU-Leistungsindex anschaue dann wird mir schlecht. Habe das mal mit der "guten alten Zeit" (c) verglichen vor 5 Jahren oder so...
Mann was ist denn los. Platz 1 hat eine Grafikkarte für 2.700 € (Hallo? Seid ihr noch ganz sauber? [SUB]Anmerkung: damit sind die Hersteller und NICHT PCGH gemeint[/SUB]), gefolgt von Grafikkarten im weiterhin 4-stelligen Bereich. Dann kommen die "normalen Highend-Karten" die immer noch 800 und mehr kosten.
Dafür hat man damals das nonplus-Ultra bekommen ODER es gab schlicht und ergreifend nichts über 500 Euro...
Und wenn man sich dazu herablässt, auf die zweite Spalte zu gehen wo dann nur noch 50% und weniger der Spitzenkarte geliefert werden dann kommt man endlich mal auf Werte unter 400-500 € in HALBWEGS vernünftige Regionen.

Beispiel gefällig?

PCGH 02/2009 (vor 10 Jahren) Platz 1 im Leistungsindex:
Radeon HD 4870 X2 (2 x 1.024 MiByte) 420,-

PCGH 02/2014 (vor 5 Jahren), Platz 1 im Leistungsindex:
Radeon R9 290X „Uber“ Preis: € 470,- (+/- 0) Takt: 1.000/2.500 MHz RAM: 4 GiB GDDR5 PLV: 21,3

PCGH 02/2016 (vor 3 Jahren) Platz 1 im Leistungsindex:
Geforce GTX Titan X Takt: 1.075/3.506 MHz RAM: 12 GiB GDDR5 Preis: € 1.060,- (+60) PLV: 38,0%



Einziger positiver Nebeneffekt bei meiner Stöberei im Archiv:
Habe ein altes Bild vom Frank Stöwer aus 2004 gesehen. Und was soll ich sagen, 15 Jahre ist es zwar her, aber ganz wie man ihn kennt. Weiter so :-)

Wir brauchen mal einen PCGH-Artikel über die Preisspirale bei den Grafikkarten. Seit der Bitcoin-Blase hat sich das nicht mehr erholt und die Hersteller drehen seit einigen Jahren an der Preisschraube, auch schon vor Bitcoin gibt es nur eine Richtung.
Man kann echt nur noch auf Intel hoffen, dass die den Markt ordentlich aufmischen und NVIDIA (und auch AMD) mal ordentlich in die Schranken weisen.
Man wird doch wohl heutzutage ein Top-Produkt für magische 499 Euro erwarten dürfen. Muss EINE Top-Grafikkarte so viel wie vier komplette Konsolen kosten?!

Wie kann es also sein, dass ich bei CPUs mittlerweile 8 Kerne hinterhergeschmissen bekomme, 12 Kerne und 16 Kerne schon auf dem Weg in den Mainstream sind, und für eine bescheuerte Grafikkarte soll ich 800 Euro und (deutlich) mehr hinlegen für "was ordentliches"...
Ich verlange sofort die Eierlegende Wollmilchsau für 499 €! :-)
 
Zuletzt bearbeitet:
Bei 5-9% unterschied würde ich immer die Karte mit mehr VRAM für 4K nehmen. Das muss ich dir wohl nicht erklären. RTX 2080 disqualifiziert sich als 4K Karte demnach. Die eigentliche Wahl für 4k ist jetzt Schrottkühler( Radeon VII) vs extrem mieses Preisleistungsverhältnis (RTX 2080 Ti).
Die 2080 hat sich noch nie für 4K qualitfiziert:ugly:
Mit 8 GB braucht man gar nicht erst antanzen, zumindest, wenn man die Karte ein weilchen behalten will.

Und nach AMDs Liste, ist man ja mit einer 1080TI bestens bestückt.
Ob man in zwei Jahren wieder mit einem AMD Highenddesign rechnen kann? Nvidias Freesync suckt einfach, ich brauch AMD.
 
Die Karte ist penetrant ausverkauft? Selbst zu den abnormalen Preisen von Caseking? Irgendwie fühle ich mich grade geflasht Oo
 
Wie kann es also sein, dass ich bei CPUs mittlerweile 8 Kerne hinterhergeschmissen bekomme, 12 Kerne und 16 Kerne schon auf dem Weg in den Mainstream sind, und für eine bescheuerte Grafikkarte soll ich 800 Euro und (deutlich) mehr hinlegen für "was ordentliches"...
Ich verlange sofort die Eierlegende Wollmilchsau für 499 €! :-)

Schöner und wahrer Post von Dir aber ich denke das fast alle Gamer so denken denn die Meisten geben ca 200-300€ für eine GPU aus. Finde auch das gerade AMD damit enttäuscht ein Düsentriebwerk als GPU zu bringen die jetzt auch noch mehr hinter einer 2080 hinterher hinkt als eine Vega 64 der 1080 und die Vega 64 für 499€ angeboten wurde macht AMD zu schlimmeren Abzocker als Nvidia schon sind. AMD ist das Kellerkind in Sachen GPU´s und anstatt auf Kundenfang zu gehen mit fairen Preisen zocken die einfach ab.

Nvidia und AMD bekommen ja schon die Quittung durch die schlechten Quartalszahlen aber als Gamer der auf eine anständige GPU wartet die 4K mal bezahlbar macht wartet man immer noch vergebens. AMD hatte eben den Ruf in letzter Zeit gute Produkte für faires Geld anzubieten das auch gerade Ryzen verursacht hat und dann haut AMD allen Gamern dermaßen eins vor den Latz mit Düsentriebwerk-Lautstärke. Erinnert mich an Hawaii - und Tahiti-Zeiten wo man auch Gehörschutz brauchte.

Die Presse ist aber auch nicht unschuldig an dieser Lage. Die R7 wird gehypt und wenn eine so laute und heiße Karte bei einem anderen Magazin einen Platin-Award bekommt fragt man sich ob diese ganzen Magazine wirklich noch für Gamer testen oder ob die bezahlt sind oder genauso Heuchler wie Lisa Su mit "We love Gamers"
 
Schöner und wahrer Post von Dir aber ich denke das fast alle Gamer so denken denn die Meisten geben ca 200-300€ für eine GPU aus. Finde auch das gerade AMD damit enttäuscht ein Düsentriebwerk als GPU zu bringen die jetzt auch noch mehr hinter einer 2080 hinterher hinkt als eine Vega 64 der 1080 und die Vega 64 für 499€ angeboten wurde macht AMD zu schlimmeren Abzocker als Nvidia schon sind. AMD ist das Kellerkind in Sachen GPU´s und anstatt auf Kundenfang zu gehen mit fairen Preisen zocken die einfach ab.

Nvidia und AMD bekommen ja schon die Quittung durch die schlechten Quartalszahlen aber als Gamer der auf eine anständige GPU wartet die 4K mal bezahlbar macht wartet man immer noch vergebens. AMD hatte eben den Ruf in letzter Zeit gute Produkte für faires Geld anzubieten das auch gerade Ryzen verursacht hat und dann haut AMD allen Gamern dermaßen eins vor den Latz mit Düsentriebwerk-Lautstärke. Erinnert mich an Hawaii - und Tahiti-Zeiten wo man auch Gehörschutz brauchte.

Die Presse ist aber auch nicht unschuldig an dieser Lage. Die R7 wird gehypt und wenn eine so laute und heiße Karte bei einem anderen Magazin einen Platin-Award bekommt fragt man sich ob diese ganzen Magazine wirklich noch für Gamer testen oder ob die bezahlt sind oder genauso Heuchler wie Lisa Su mit "We love Gamers"

Selten so einen Quatsch gelesen, in erster Linie ist die Seven eine Profikarte für Entwickler und openCL Anwender (Windows/Linux). Man kann sie auch als Gamerkarte nutzen. Daher ist der Preis mehr als fair.

Die Karte läuft bei 1056mV mit 1926MHz und steht NVidia damit in nichts mehr nach, deren FE 2080 kostet immerhin 849 Euro (immer noch).

Auch wenn es ein Ausreiser ist, Rise of the Tombraider belegt "Sehr Hoch" und Preset was nur möglich ist, 13GiB VRAM ohne AA und 10GByte DRAM. Das läuft bei einer Taktrate von ca. 1775Mhz und 956-963mV auf der Seven mehr als fluffig in UHD Auflösung.

We love Gamers bezog sich als allgemeine Aussage darauf, dass AMD weiter an den Gamingmarkt glaubt und auch dafür entwickelt, im Vorfeld wurde ihnen nämlich nachgesagt sie würden das nicht mehr tun.

Nur weil nVidia nicht gehypt wird, ist das ja nicht AMDs Problem. Ich würde dir mal empfehlen deine Vorurteile gewissen Herstellern gegenüber abzuprüfen, dass ganze Geschwafel was ihr alles wisst und könnt nervt nur noch.

PS: ...und wenn es nicht der eigene grüne Bias ist, dann ist es die Presse und gekaufte Redakteure, die aber ziemlich kritisch mit der Seven umgegangen sind. Ich kann das ehrlich gesagt nicht mal verstehen, weil der Kühler sogar etwas Potential hat auch leise optimiert werden zu können. Sicherlich ist es nicht Sinn der Sache das bei einem Test positiv zu erwähnen. Da habe ich klar Verständnis dafür, weil ein Dau damit seinen Schwierigkeiten hätte, wir sind hier aber nicht in einem Dau-Forum. Das nennt sich Extreme! Und wo wenn nicht hier freut man sich an "extremer" Hardware. Die kostet ganz sicher auch mehr als 200-300 Euro. Leider ist das schon länger so.
 
Zuletzt bearbeitet:
Selten so einen Quatsch gelesen, in erster Linie ist die Seven eine Profikarte für Entwickler und openCL Anwender (Windows/Linux). Man kann sie auch als Gamerkarte nutzen. Daher ist der Preis mehr als fair.

Die Karte läuft bei 1056mV mit 1926MHz und steht NVidia damit in nichts mehr nach, deren FE 2080 kostet immerhin 849 Euro (immer noch).

Auch wenn es ein Ausreiser ist, Rise of the Tombraider belegt "Sehr Hoch" und Preset was nur möglich ist, 13GiB VRAM ohne AA und 10GByte DRAM. Das läuft bei einer Taktrate von ca. 1775Mhz und 956-963mV auf der Seven mehr als fluffig in UHD Auflösung.

We love Gamers bezog sich als allgemeine Aussage darauf, dass AMD weiter an den Gamingmarkt glaubt und auch dafür entwickelt, im Vorfeld wurde ihnen nämlich nachgesagt sie würden das nicht mehr tun.

Nur weil nVidia nicht gehypt wird, ist das ja nicht AMDs Problem. Ich würde dir mal empfehlen deine Vorurteile gewissen Herstellern gegenüber abzuprüfen, dass ganze Geschwafel was ihr alles wisst und könnt nervt nur noch.

PS: ...und wenn es nicht der eigene grüne Bias ist, dann ist es die Presse und gekaufte Redakteure, die aber ziemlich kritisch mit der Seven umgegangen sind. Ich kann das ehrlich gesagt nicht mal verstehen, weil der Kühler sogar etwas Potential hat auch leise optimiert werden zu können. Sicherlich ist es nicht Sinn der Sache das bei einem Test positiv zu erwähnen. Da habe ich klar Verständnis dafür, weil ein Dau damit seinen Schwierigkeiten hätte, wir sind hier aber nicht in einem Dau-Forum. Das nennt sich Extreme! Und wo wenn nicht hier freut man sich an "extremer" Hardware. Die kostet ganz sicher auch mehr als 200-300 Euro. Leider ist das schon länger so.

Die R7 hat zwar als Mutter die HPC-Karte Instinct MI 50 aber sie ist eine Gaming-Karte die AMD speziell fürs Gaming bewirbt und diese auch mit 3 Spielen kommt und diese auch in Zusammenarbeit mit dem Entwickler von The Division 2.
Auch die Vega 64 hatte eine HPC-Karte als Mutter nämlich die Vega Frontier Edition und a hat jeder Radeon-Fan auch rumgetönt das die Gaming-Vega´s besser sind was aber nicht so war. Vega FE kam auf 1070-Niveau und die Vega 64 war nicht viel besser.

Ich bin kein Undervolter oder Overclocker sondern eine GPU hat zu funktionieren wenn ich diese einbaue denn ich bin kein Ingenieur von AMD der dafür bezahlt wird und bin auch kein Custom-Entwickler der dann seine Arbeit macht und hochgetaktete GPU´s anbietet.

Außerdem habe ich auch geschrieben das Nvidia auch nicht besser ist aber da hatte die Presse ja auch kein Geheimnis darum gemacht und Ray-Tracing wurde scharf kritisiert weil man dafür teuer Geld bezahlt für eine Technik die derzeit kaum genutzt wird. Bei AMD zahlt man teuer Geld für Düsentriebwerk-Lautstärke. Aber Klar, AMDler sind eh abgehoben.
 
AMD kann ja nur bei den Punkten werben mit denen sie Überzeugen können. Ich verstehe nicht das man den Kühler und die Feineinstellungen der RVII nicht optimal abgestimmt hat. Ich finde das unbegreiflich, da muss man sich am Ende dann nicht wundern, wenn keine 2080 Leistung erreicht wird. NV hat diese Generation nur unattraktive Karten und AMD macht da glatt weiter.... also Geduld... die fetten Jahre kommen bald wieder.
 
Also bei mir wird in Resident Evil 2 in WQHD schon 12,5 GB angezeigt, wenn man die Texturen aufdreht! Dachte schon, da wäre was mit AMD am laufen:D Wenn man die Auflösung weiter über 100% dreht, geht der Verbrauch noch höher. Allerdings scheint die 11GB RTX 2080 Ti damit kein Problem zu haben. Habe es mit solchen Setttings absolut problemfrei durchgezockt!

natürlich hast du damit kein Problem. Wieso auch? Es wurde doch bereits getestet vor Jahren als die AMD Fanboys und bestimmte Presseseiten übelst auf der GTX 970 als Debakel der nie einer war rumgetanzt sind wegen den 3,5 GB. Da wurde schon behauptet das Vram alles ist und es wurde widerlegt von extrem vielen Seiten. Ich hab ehrlich gesagt keine Ahnung warum man so auf dem Grafikspeicher rumhüpft, wenn ich mit einer RTX 2080 in einem Spiel an die 9 GB Grafikspeicher benötigen sollte weil ich auf 4K spielen will, aber die FPS trotzdem ordentlich sind, ist es doch auch egal was mit dem Grafikspeicher passiert. In meinen Augen wird hier massivst übertrieben.

Aber das ganze passt perfekt zur neuen Ausrichtung von AMD. Da wir voll im Trend mit CPU Cores und Vram sind, macht AMD eben genau das. Mehr Grafikspeicher bei schlechter Leistung und Ryzen 3000 mit 12 Kernen die nix bringen weil sie gegen Intel 8 Kerner abrauchen werden. Das ist die Zukunft.

Man muss trotzdem mal ne Lanze brechen für AMD und sagen das es völlig klar ist wie man reagiert hat. Immerhin soll die Karte auch verkauft werden wenn die Early Adoper Fanboys ihre Karte haben und da bleibt halt nur das Argument mit dem Grafikspeicher.
 
Ich kann aus der Division Beta genau das Gegenteil berichten, aber halt nur mit 2560x1440. @Ultra läuft es einwandfrei und smooth. Alle 30 min kommt kurz für ne Millisekunde mal ein Framepeak mal spürbar, mal nicht. Der belegte Vram ist immer zwischen 6-7 GB. Texturen sehen dabei immer gut aus. Hat die Beta eigentlich nen NDA? wenn nicht würde ich kurz nen 15 Min Vid hochladen...

Soweit ich weiß hat die Beta kein NDA. Sobald ich das Spiel starte und im Spiel bin liegt der belegte VRAM bei mir schon bei rund 8GB und pendelt sich während des Spielens bei 9-10GB ein. Matschige Texturen halten sich auch in Grenzen. Es sind wie in Division 1 mal ein Schild oder ein Graffiti was mal mehr und mal weniger auffällt und oft gepaart mit einem kurzen Ruckler kommt. Den extremsten Fall den ich bisher erlebt habe war dass eine Gebäudetextur komplett nicht geladen wurde und das Gebäude somit durchsichtig war. Da das Spiel die Texturn nicht nachgeladen hat bin ich mir in dem Fall nicht sicher ob es an mangelndem VRAM oder einfach ein Fehler im Spiel ist. Nach einem aus- und einloggen wurde die Textur jedoch angezeigt.

natürlich hast du damit kein Problem. Wieso auch? Es wurde doch bereits getestet vor Jahren als die AMD Fanboys und bestimmte Presseseiten übelst auf der GTX 970 als Debakel der nie einer war rumgetanzt sind wegen den 3,5 GB. Da wurde schon behauptet das Vram alles ist und es wurde widerlegt von extrem vielen Seiten. Ich hab ehrlich gesagt keine Ahnung warum man so auf dem Grafikspeicher rumhüpft, wenn ich mit einer RTX 2080 in einem Spiel an die 9 GB Grafikspeicher benötigen sollte weil ich auf 4K spielen will, aber die FPS trotzdem ordentlich sind, ist es doch auch egal was mit dem Grafikspeicher passiert. In meinen Augen wird hier massivst übertrieben.

Aber das ganze passt perfekt zur neuen Ausrichtung von AMD. Da wir voll im Trend mit CPU Cores und Vram sind, macht AMD eben genau das. Mehr Grafikspeicher bei schlechter Leistung und Ryzen 3000 mit 12 Kernen die nix bringen weil sie gegen Intel 8 Kerner abrauchen werden. Das ist die Zukunft.

Man muss trotzdem mal ne Lanze brechen für AMD und sagen das es völlig klar ist wie man reagiert hat. Immerhin soll die Karte auch verkauft werden wenn die Early Adoper Fanboys ihre Karte haben und da bleibt halt nur das Argument mit dem Grafikspeicher.

Es kommt darauf an. Watch Dogs war damals mit einer 970 in den höchsten Details unspielbar, da durchgehend der VRAM überlief. Framerates waren OK aber die Frametimes waren schrecklich. Alle paar Minuten gab es kurze Ruckler was extrem störend war. Ähnlich sah es auch in Herr der Ringe Mordors Schatten aus. VRAM ist durchaus ein wichtiger Punkt und es ist halt die Frage ab wann wie viel VRAM benötigt wird. Mit der 970 konnte man viele Szenarien wo mehr als 3,5 oder 4GB an VRAM benötigt werden umgehen, da die Karte keine brauchbaren Framerates in so hohen Auflösungen und Details liefern konnte. Die meisten Spiele streamen ständig Daten und haben dieses Streaming auch ständig verbessert wodurch es aktuell sehr selten die Situation gibt, dass sehr viel VRAM benötigt wird. Das mehr VRAM besser wären spürt man aktuell nicht, da die modernen Engines das gut kaschieren können. Mehr als 8GB VRAM oder sogar 11GB VRAM ist in vielen Spielen durchaus nützlich für glattere Frametimes, aber nicht unbedingt notwendig. Eine Matschige Textur wenn man in oder aus einer Cutscene kommt fällt den meisten nicht auf und ein Framespike alle 30 Minuten wenn man ein neues Gebiet betritt stört die meisten wohl nicht. Wenn aber der Zeitpunkt kommt das mehr als 8GB VRAM benötigt werden, werden einem vielleicht 40 FPS angezeigt (was in meinen Augen durchaus ordentliche FPS wären), jedoch hat man auch durchgehend Ruckler mit Framespikes runter auf 20 FPS oder niedriger was dann schon auffällt und stört. Es kann sein das man wie im Falle der 970 Glück hat und um diese Szenarien herum kommt, weil die 2080 in entsprechenden Auflösungen und Detailstufen nicht die FPS bringt die man gerne möchte; man kann aber auch Pech haben wie damals mit Watch Dogs und Mordors Schatten und man muss auf bestimmte Effekte verzichten, obwohl die Karte noch Leistung für annehmbare FPS über hätte.
 
Zuletzt bearbeitet:
Selten so einen Quatsch gelesen, in erster Linie ist die Seven eine Profikarte für Entwickler und openCL Anwender (Windows/Linux). Man kann sie auch als Gamerkarte nutzen. Daher ist der Preis mehr als fair.

Die Karte läuft bei 1056mV mit 1926MHz und steht NVidia damit in nichts mehr nach, deren FE 2080 kostet immerhin 849 Euro (immer noch).

Auch wenn es ein Ausreiser ist, Rise of the Tombraider belegt "Sehr Hoch" und Preset was nur möglich ist, 13GiB VRAM ohne AA und 10GByte DRAM. Das läuft bei einer Taktrate von ca. 1775Mhz und 956-963mV auf der Seven mehr als fluffig in UHD Auflösung.

We love Gamers bezog sich als allgemeine Aussage darauf, dass AMD weiter an den Gamingmarkt glaubt und auch dafür entwickelt, im Vorfeld wurde ihnen nämlich nachgesagt sie würden das nicht mehr tun.

Nur weil nVidia nicht gehypt wird, ist das ja nicht AMDs Problem. Ich würde dir mal empfehlen deine Vorurteile gewissen Herstellern gegenüber abzuprüfen, dass ganze Geschwafel was ihr alles wisst und könnt nervt nur noch.

PS: ...und wenn es nicht der eigene grüne Bias ist, dann ist es die Presse und gekaufte Redakteure, die aber ziemlich kritisch mit der Seven umgegangen sind. Ich kann das ehrlich gesagt nicht mal verstehen, weil der Kühler sogar etwas Potential hat auch leise optimiert werden zu können. Sicherlich ist es nicht Sinn der Sache das bei einem Test positiv zu erwähnen. Da habe ich klar Verständnis dafür, weil ein Dau damit seinen Schwierigkeiten hätte, wir sind hier aber nicht in einem Dau-Forum. Das nennt sich Extreme! Und wo wenn nicht hier freut man sich an "extremer" Hardware. Die kostet ganz sicher auch mehr als 200-300 Euro. Leider ist das schon länger so.
4

Aus den 5.9 sone machst du was ?

4 Sone ?

Silent Potential ?

Manche müssen sich ihre Karte auch schön saufen, kommt das vielleicht daher ?

Hey sorry, aber AMD hat damit im Gaming Bereich den Vogel abgeschossen.

Mal wieder schafft es AMD nicht, ihren Technologischen Vorteil vernünftig auszuspielen.

7nm!

Normalerweise müssten die Karten Kreise um Nvidia ziehen.

Aber nein, man bekommt es wieder nicht hin.

Entweder verbrauchen die Karten fast 50% mehr als die Konkurrenz, sind laut oder die Treiber sind kacke.

Hier in dem Fall kommen alle 3 Dinge zusammen.

Und an "Fine-Wine" Treiber glaube ich schon lange nicht mehr, entweder man bringt die Leistung vom ersten Tag auf die Strasse oder nicht.
 
Ich werde keine Nvidia RTX kaufen, aber von AMD bin ich auch enttäuscht.
Die zugegebenermaßen schmackhaften 16 GB HBM2 machen einfach den Preis kaputt und der Grafikchip selbst ist für den durch die vielen GB HBM2 verursachten hohen Verkaufspreis einfach ein bisschen zu schwach bzw. liefert den gleichen überteuerten Scheiß ab wie man schon bei Nvidia bekommen kann.

Ja, es ist unfair immer von AMD zu verlangen die Firma zu sein, die attraktive Preise macht.
Aber keine Ahnung AMD, hättet ihr das ganze Design ein bisschen umgestellt und die Bandbreite so gemacht dass nur 10-12 GB HBM2 drauf sind auf der Karte und dann ein Preisschild mit 499 € draufgepappt und schon hätten viele Leute hier frohlockt...

Wenn ich mir in der aktuellsten PCGH-Ausgabe den GPU-Leistungsindex anschaue dann wird mir schlecht. Habe das mal mit der "guten alten Zeit" (c) verglichen vor 5 Jahren oder so...
Mann was ist denn los. Platz 1 hat eine Grafikkarte für 2.700 € (Hallo? Seid ihr noch ganz sauber? [SUB]Anmerkung: damit sind die Hersteller und NICHT PCGH gemeint[/SUB]), gefolgt von Grafikkarten im weiterhin 4-stelligen Bereich. Dann kommen die "normalen Highend-Karten" die immer noch 800 und mehr kosten.
Dafür hat man damals das nonplus-Ultra bekommen ODER es gab schlicht und ergreifend nichts über 500 Euro...
Und wenn man sich dazu herablässt, auf die zweite Spalte zu gehen wo dann nur noch 50% und weniger der Spitzenkarte geliefert werden dann kommt man endlich mal auf Werte unter 400-500 € in HALBWEGS vernünftige Regionen.

Beispiel gefällig?

PCGH 02/2009 (vor 10 Jahren) Platz 1 im Leistungsindex:
Radeon HD 4870 X2 (2 x 1.024 MiByte) 420,-

PCGH 02/2014 (vor 5 Jahren), Platz 1 im Leistungsindex:
Radeon R9 290X „Uber“ Preis: € 470,- (+/- 0) Takt: 1.000/2.500 MHz RAM: 4 GiB GDDR5 PLV: 21,3

PCGH 02/2016 (vor 3 Jahren) Platz 1 im Leistungsindex:
Geforce GTX Titan X Takt: 1.075/3.506 MHz RAM: 12 GiB GDDR5 Preis: € 1.060,- (+60) PLV: 38,0%



Einziger positiver Nebeneffekt bei meiner Stöberei im Archiv:
Habe ein altes Bild vom Frank Stöwer aus 2004 gesehen. Und was soll ich sagen, 15 Jahre ist es zwar her, aber ganz wie man ihn kennt. Weiter so :-)

Wir brauchen mal einen PCGH-Artikel über die Preisspirale bei den Grafikkarten. Seit der Bitcoin-Blase hat sich das nicht mehr erholt und die Hersteller drehen seit einigen Jahren an der Preisschraube, auch schon vor Bitcoin gibt es nur eine Richtung.
Man kann echt nur noch auf Intel hoffen, dass die den Markt ordentlich aufmischen und NVIDIA (und auch AMD) mal ordentlich in die Schranken weisen.
Man wird doch wohl heutzutage ein Top-Produkt für magische 499 Euro erwarten dürfen. Muss EINE Top-Grafikkarte so viel wie vier komplette Konsolen kosten?!

Wie kann es also sein, dass ich bei CPUs mittlerweile 8 Kerne hinterhergeschmissen bekomme, 12 Kerne und 16 Kerne schon auf dem Weg in den Mainstream sind, und für eine bescheuerte Grafikkarte soll ich 800 Euro und (deutlich) mehr hinlegen für "was ordentliches"...
Ich verlange sofort die Eierlegende Wollmilchsau für 499 €! :-)

Dann schau dir mal an was abgeht in der Branche. Früher würde alle 5 bis 10 Jahre eine neue Chipfabrik gebaut. In den letzten 5 Jahren wurden jedoch jeweils von den großen Fertigern eine neue Fabrik gebaut und schon eine zweite angefangen. 2020 bzw. 2021 sind die dann fertiggestellt.

Diese Kosten wollen wieder reingeholt werden. Jede neue Fabrik kostet schlappe 3 bis 5 Milliarden. Und mittlerweile haben die Umsätze, da konnten die Hersteller vor 10 bis 12 Jahren nur von träumen. Mit Hersteller meine ich jetzt eigentlich alle Anbieter von PC Hardware.

Und trotzdem erscheinen Artikel, daß die Analysten und Anleger enttäuscht sind. :lol:

Mehr als 400 Euro sind meiner Meinung nach total übertrieben für ein Spielzeug, gezahlt hab ich das aber auch schon, weil es nicht anderes ging.

Und schau dir erst die Kommentare der Kundschaft hier an. Wir bekommen High-End Spitzenhardware und sind enttäuscht davon. Ich verstehe die Welt nicht mehr, wenn ich den Müll hier lese.
 
Zuletzt bearbeitet:
Ist schwer zu sagen. Beim Streaming geht es nicht nur um die verfügbare Menge an Speicher, sondern auch um die Übertragungsrate. Das ganze konnte man bei der Fury damals ganz gut sehen. Viele Spiele streamen viele Daten und der schnelle Speicher der Fury konnte die geringe Speichermenge ausgleichen wodurch einem Ruckler, Abstürze und matschige Texturen erspart blieben. Problematisch wurde es erst wenn wirklich mehr als 4GB VRAM gebraucht wurden wie z.B. ein stark gemoddetes Skyrim in 4k. Auf der anderen Seite hatte man die 980ti die zwar langsameren, dafür aber mehr Speicher und so eine Puffer fürs Streaming hatte.

Wenn es um die Übertragungsrate geht, limitiert da nicht eher PCIe und der RAM?

Wann man wirklich mehr als 8GB VRAM braucht hängt wahrscheinlich sehr stark davon ab wie viel Speicher die kommenden Konsolen haben werden. In RE2 kann man extremes Streaming erzwingen wo der VRAM Bedarf stark nach oben geht und es durchaus sein kann, dass man matschige Texturen bekommt und kurze Ruckler. Ähnliches kann man auch aktuell in der Division 2 Beta sehen (habe ich z.B. in 3440x1440 auf ner 2080ti), jedoch kommt das im normalen Spielbetrieb eher selten vor, da man immer wieder Ladebildschirme bzw. Ladeabschnitte hat wo man sich nur langsam bewegen kann wodurch die GPU Zeit hat ungenutzte Daten aus dem VRAM zu schmeißen. Sprintet man aber einmal quer über die Karte ohne Dinge einzusammeln oder gegen Feinde zu kämpfen bekomme ich wie gesagt die 11GB VRAM voll und habe dann einen kurzen Ruckler und hier und da matschige Texturen. Sind für RE2 und Division 2 8GB VRAM schon jetzt zu wenig? Ich denke nicht, da sich die Frequenz der Ruckler und matschigen Texturen in Maßen hält und mir bisher nur in Szenarien aufgefallen sind, wo ich es spezifisch darauf abgesehen habe so viel Verbrauch wie möglich zu erzwingen. Spiele die wirklich mehr als 8GB VRAM benötigen, weil sie ansonsten unspielbar sind gibt es aktuell noch nicht.

Wenn Streaming richtig funktioniert wird es nie unspielbar. Dann werden die Texturen zwar nach und nach schlechter, das sollte es aber schon gewesen sein.

Ich nehme als Negativbeispiel immer Wildlands. Da kann man sich einfach die ganze Zeit im Kreis drehen und die Texturen laden schon wieder nach - ohne dass die VRAM-Belegung steigt.
Imo wird meistens die maximal belegbare Menge nicht dynamisch angepasst. Quantum Break z.B. versucht auch auf Teufel komm raus unter 6 GB zu bleiben (passt gut zur 980 ti). Da helfen einem 8, 11, 12 oder 16 GB VRAM auch nicht weiter.
Das ist halt richtig blöd. Man stelle sich vor Windows 7 würde immer versuchen nicht mehr als 8 GB RAM zu belegen, egal wieviel man hat :ugly:.


Soweit ich weiß hat die Beta kein NDA. Sobald ich das Spiel starte und im Spiel bin liegt der belegte VRAM bei mir schon bei rund 8GB und pendelt sich während des Spielens bei 9-10GB ein. Matschige Texturen halten sich auch in Grenzen. Es sind wie in Division 1 mal ein Schild oder ein Graffiti was mal mehr und mal weniger auffällt und oft gepaart mit einem kurzen Ruckler kommt. Den extremsten Fall den ich bisher erlebt habe war dass eine Gebäudetextur komplett nicht geladen wurde und das Gebäude somit durchsichtig war. Da das Spiel die Texturn nicht nachgeladen hat bin ich mir in dem Fall nicht sicher ob es an mangelndem VRAM oder einfach ein Fehler im Spiel ist. Nach einem aus- und einloggen wurde die Textur jedoch angezeigt.

Durchsichtige Gebäude sind doch eher ein Bug ;).
 
Tja und was sagt dir das? Mir kommt dabei der Gedanke, daß wenn die Spiele nicht immer einwandfrei und ruckelfrei laufen, es nichts aber auch absolut garnichts mit der Hardware oder dem Hardwarehersteller zu tun hat sondern einzig und allein der Spieleentwickler Schuld dran ist.
 
Tja und was sagt dir das? Mir kommt dabei der Gedanke, daß wenn die Spiele nicht immer einwandfrei und ruckelfrei laufen, es nichts aber auch absolut garnichts mit der Hardware oder dem Hardwarehersteller zu tun hat sondern einzig und allein der Spieleentwickler Schuld dran ist.

Ja klar ist das ein Versäumnis vom Hersteller., ändert aber nichts an der Frage, ob man daher nicht mehr als 8 GB braucht, oder doch, damit es besser wird ;).
 
Ist schwer zu sagen. Beim Streaming geht es nicht nur um die verfügbare Menge an Speicher, sondern auch um die Übertragungsrate. Das ganze konnte man bei der Fury damals ganz gut sehen. Viele Spiele streamen viele Daten und der schnelle Speicher der Fury konnte die geringe Speichermenge ausgleichen wodurch einem Ruckler, Abstürze und matschige Texturen erspart blieben. Problematisch wurde es erst wenn wirklich mehr als 4GB VRAM gebraucht wurden wie z.B. ein stark gemoddetes Skyrim in 4k. Auf der anderen Seite hatte man die 980ti die zwar langsameren, dafür aber mehr Speicher und so eine Puffer fürs Streaming hatte.

Wann man wirklich mehr als 8GB VRAM braucht hängt wahrscheinlich sehr stark davon ab wie viel Speicher die kommenden Konsolen haben werden. In RE2 kann man extremes Streaming erzwingen wo der VRAM Bedarf stark nach oben geht und es durchaus sein kann, dass man matschige Texturen bekommt und kurze Ruckler. Ähnliches kann man auch aktuell in der Division 2 Beta sehen (habe ich z.B. in 3440x1440 auf ner 2080ti), jedoch kommt das im normalen Spielbetrieb eher selten vor, da man immer wieder Ladebildschirme bzw. Ladeabschnitte hat wo man sich nur langsam bewegen kann wodurch die GPU Zeit hat ungenutzte Daten aus dem VRAM zu schmeißen. Sprintet man aber einmal quer über die Karte ohne Dinge einzusammeln oder gegen Feinde zu kämpfen bekomme ich wie gesagt die 11GB VRAM voll und habe dann einen kurzen Ruckler und hier und da matschige Texturen. Sind für RE2 und Division 2 8GB VRAM schon jetzt zu wenig? Ich denke nicht, da sich die Frequenz der Ruckler und matschigen Texturen in Maßen hält und mir bisher nur in Szenarien aufgefallen sind, wo ich es spezifisch darauf abgesehen habe so viel Verbrauch wie möglich zu erzwingen. Spiele die wirklich mehr als 8GB VRAM benötigen, weil sie ansonsten unspielbar sind gibt es aktuell noch nicht.
Wie bitte der sollte Hbm beim Streaming die geringe Speichermenge besser kompensieren, wenn das Nadelöhr der PCI Express Port und der RAM oder schlimmer gar die Festplatte ist. Arma 3 unter 8Gb Vram ist ein Graus dank ständiger Nachladeruckler, da hilft auch Hbm nicht, die Platte zu beschleunigen

Gesendet von meinem SM-G920F mit Tapatalk
 
Wenn es um die Übertragungsrate geht, limitiert da nicht eher PCIe und der RAM?

PCIe 3.0 x16 = 32.000 MB/s = 32 GB/s
PCIe 3.0 x8 = 16.000 MB/s = 16 GB/s

DDR4-3200 = 25.600 MB/s = 25.6 GB/s
DDR4-2666 = 21.300 MB/s = 21.3 GB/s

Es ist nicht schwer zu erkennen das die VRAM Diskussion ein Märchen aus 1001 Verkaufsgründen ist. 1 Sekunde reichen aus um den VRAM mit dem RAM bei mindestens 8 GB im worst case komplett zu tauschen. Die tatsächlichen Probleme sind der Engine, den Entwicklern und deren Speichermanagement geschuldet. Ergibt aber auch Sinn, weil von Speicherproblemen in der Masse bei einem Spiel vielleicht weniger als 1% der Spieler betroffen sind, die ein absurdes Szenario fahren. Z.B. lesen Spieleengines die unterstützten Auflösungen der Monitore aus. Als Entwickler weißt du aber nicht welche Auflösung der Kunde fährt oder vielleicht zukünftig wenn es noch höhere Auflösungen gibt. Das Ressourcenmanagement der Engines ist aber nicht optimal skalierbar, also hast du ab bestimmten Auflösungen immer auch ein Problem wo die Engine selbst den Bottleneck darstellt. Bisher gab es da aber auch nie wirklich Handlungsbedarf um Zeit und letztlich auch Geld in diese Baustelle zu investieren.

Wer sich vielleicht noch an früher erinnert (so vor 10 - 20 Jahren), der weiß auch das oft die neuesten Highend GPUs nicht mal in der Lage waren ein 1-2 Monate altes AAA Spiel in maximalen Settings zu spielen. Entwickler haben schon immer mehr und anspruchsvolle Techniken in ihren Games implementiert, obwohl die Hardware dazu vielleicht noch gar nicht existierte (z.B. auch Crysis 1). Heute ist die Erwartungshaltung das immer alles bis zum Anschlag laufen können muss und das schon ab der 300€ Mittelklasse. Da werden Einstellungen hochgerissen von denen man nicht mal weiß was sie bedeuten und was sich damit ändert. Einen vorher/nachher Vergleich machen sicherlich nur die wenigsten. Kein Wunder das dann eben auch das Geschrei groß ist wenns unrund läuft. Selbst bei Resi 2 ist vielen nicht bewusst das bei Texturen in hoch (4 GB) und hoch (8 GB) die gleichen geladen werden.
 
Zuletzt bearbeitet:
Es kommt darauf an. Watch Dogs war damals mit einer 970 in den höchsten Details unspielbar, da durchgehend der VRAM überlief. Framerates waren OK aber die Frametimes waren schrecklich. Alle paar Minuten gab es kurze Ruckler was extrem störend war.

kann ich so nicht bestätigen. Ich hatte diese Ruckler nicht und ebenfalls eine 970 zu dieser Zeit. Ich hatte auch nicht das Gefühl das der Vram überlaufen war.

Grade eben habe ich 3 StundenThe Division 2 gespielt. Wohlgemerkt als Beta. Ich wollte es wissen und habe auf 4K gespielt mit Ultra Details. Allerdings FPS bei max 100 gesetzt weil mir das reicht. Ergebnis waren zwischen 40 und 55 FPS mit meiner RTX 2080 und der Grafikspeicher war bei maximal 7600 MB voll. Unter WQHD habe ich es vorgestern getestet mit gleichen Einstellungen, Natürlich gingen die FPS höher, zwishcen 65 und 100 FPS war alles drin. Der Grafikspeicher war mit 6900 MB am meisten befüllt. Wenn man jetzt mal bedenkt das The Division 2 noch etwas optimiert wird und es dafür noch keinen Treiber gibt ist das völlig okay. In Tropico 6 Beta bei eienr gut vollen Insel war der Grafikspeicher auch bei maximal 5500 MB unter WQHD Ultra Einstellungen. FPS Grenze lag da aber bei 90 FPS weil ich mehr nicht für so eine Art von Spiel benötige.

Was ich damit sagen will? Es kommt imemr darauf an wie ein Spiel programmiert wird. Ein Konsolenport z.b. wird immer mehr Grafikspeicher benötigen wie ein gut optimiertes Spiel. Die Aussage das man ohne 16 GB Grafikspeicher fast nur Probleme auf 4K hat ist meiner Ansicht nach komplett falsch und absolut kein Kaufargument,
 
PCIe 3.0 x16 = 32.000 MB/s = 32 GB/s
PCIe 3.0 x8 = 16.000 MB/s = 16 GB/s

DDR4-3200 = 25.600 MB/s = 25.5 GB/s
DDR4-2666 = 21.300 MB/s = 21.3 GB/s

Es ist nicht schwer zu erkennen das die VRAM Diskussion ein Märchen aus 1001 Verkaufsgründen ist. 1 Sekunde reichen aus um den VRAM mit dem RAM bei mindestens 8 GB im worst case komplett zu tauschen. Die tatsächlichen Probleme sind der Engine, den Entwicklern und deren Speichermanagement geschuldet. Ergibt aber auch Sinn, weil von Speicherproblemen in der Masse bei einem Spiel vielleicht weniger als 1% der Spieler betroffen sind, die ein absurdes Szenario fahren. Z.B. lesen Spieleengines die unterstützten Auflösungen der Monitore aus. Als Entwickler weißt du aber nicht welche Auflösung der Kunde fährt oder vielleicht zukünftig wenn es noch höhere Auflösungen gibt. Das Ressourcenmanagement der Engines ist aber nicht optimal skalierbar, also hast du ab bestimmten Auflösungen immer auch ein Problem wo die Engine selbst den Bottleneck darstellt. Bisher gab es da aber auch nie wirklich Handlungsbedarf um Zeit und letztlich auch Geld in diese Baustelle zu investieren.

Hmm, da kann ich Dirnur teilweise zustimmen. Der Flaschenhals wird wohl der gesamte Streamingprozess sein, vom Speicherzugriff über die Verarbeitung bis letztendlich zum VRAM, aber das wird bei 8Gb länger als eine Sekunde dauern. Die Daten werden ja nicht so wie sie sind direkt über den Bus geschickt, sonder wie gesagt noch verarbeitet.

Handlungsbedarf gab es schon und es wurde auch schon eine Menge Arbeit in optimiertes Streaming gesteckt.
Das sieht man auch an der CPU-Last, wenn man in Spielen scrollt, sich umschaut oder schnell bewegt. Ein Großteil von der super Mehrkernoptimierung kommt durch die parallele Verarbeitung beim Streaming zustande und selbst wenn das in wenigen ms abgehandelt ist, führt das dann zu hüpfenden Frametimes.

Imo müssten viele Spiele deutlich weniger streamen, wenn sie mal den vorhandenen VRAM vollpacken würden.


Die Aussage das man ohne 16 GB Grafikspeicher fast nur Probleme auf 4K hat ist meiner Ansicht nach komplett falsch und absolut kein Kaufargument,

Das ist natürlich Quark, ich bin dennoch für mehr VRAM - nieder mit dem Streaming :devil:.
 
AMD muss sein Alleinstellungsmerkmal pushen, wenn sie das nicht tun, brauchen sie es auch nicht einbauen. Nvidia geht ja auch nicht her und verbaut Sachen in der RTX von denen sie dann nicht erklären wofür die gut sind.

Wesentlich für den Bedarf an 16GB sind die Spielehersteller. Die müssen sich hinsetzen und sagen "unser Spiel ist so gebaut, dass man mindestens 2GB RAM für 720 Low und 16GB für 4k Ultra braucht." Dementsprechend werden dann die Texturen und die Welt entwickelt. So wie es an Nvidia liegt zum Start dafür zu sorgen, dass es wenigstens ein RTX Game gibt, hätte AMD dafür sorgen müssen, dass es zum Start ein 16GB Game gibt. Nicht eines bei dem der Speicher wegen der Auflösung steigt, sondern eines das bessere oder mehr unterschiedliche Texture einsetzt, wo die 8GB Graka eine Textur zweimal auf dem Bildschirm einsetzen muss (stark vereinfacht gesagt).

Division 2 hätte dieses Spiel für AMD sein können. Leider ist es das nicht, es ist entwickelt mit einer 8GB Karte als Zielsystem, ist trotzdem eine Grafikbombe.
 
PCIe 3.0 x16 = 32.000 MB/s = 32 GB/s
PCIe 3.0 x8 = 16.000 MB/s = 16 GB/s

Wenn mich nicht alles täuscht, dann sind es nur 8 bzw. 16GB/sec in jede Richtung.

DDR4-3200 = 25.600 MB/s = 25.6 GB/s
DDR4-2666 = 21.300 MB/s = 21.3 GB/s

Das gilt, meines Wissens, für jeden Kanal, also das doppelte bei Dualchannel, das vierfache bei Quadchannel.

Es ist nicht schwer zu erkennen das die VRAM Diskussion ein Märchen aus 1001 Verkaufsgründen ist. 1 Sekunde reichen aus um den VRAM mit dem RAM bei mindestens 8 GB im worst case komplett zu tauschen

Und hier liegt dein Verständnisproblem. Wenn der VRAM überläuft, dann müssen die überflüssigen Daten für jedes Frame einmal zwischen VRAM und RAM hin und her geladen werden. Was bei 8GB überschüssigen Daten und 16GB Transferrate gerade einmal 2FPS ausmachen würde, das ist nicht wirklich flüssig. Darum bricht die Bildwiederholrate auch so brutal ein, wenn wenn der VRAM erschöpft ist. Erst mit PCIe 5.0 x32 (128GB/sec in jede Richtung) und DDR4 3466 im Quadchannel könnte man die 8GB ganze 16 mal in der Sekunde laden, was immer noch nicht flüssig ist und einen großen Aufwand bedeutet.

Von daher ist es nicht schwer, zu erkennen, dass das kein Märchen ist, sondern einfach nur mangelndes Verständnis.

Es wird übrigens schon seit es Graphikkarten gibt, versucht den normalen RAM dafür anzuzapfen und man muß sagen, dass es einen guten Grund gibt, warum dedizierte Karten ihren eigenen Speicher, in großen Mengen, mitbringen. Es gab mal, zu Zeiten der GeForce 6 versuche das zu lösen und zumindest die Billigkarten, mit nur wenig RAM auszustatten. Gegenüber der normale GeForce 6200 mit 128MB RAM sind die Turbocachekarten, mit 16 und 32MB eigenem RAM, um 80 bzw. 70% eingebrochen.
 
Zuletzt bearbeitet:
Zurück