Special Liebe GPU-Hersteller, bitte baut doch diese Grafikkarten! (und keine anderen) [Kommentar]

danke für diesen artikel, welcher mir voll aus der seele spricht!

und wenn die teams grün und rot so weiter machen, werde ich früher oder später mit der GPU ins lager blau wechseln. meine prognose ist da nämlich, dass intel in dem bereich besser wird und die nächste gen Arc-GPU's das ausmerzen, was in der ersten gen versäumt wurde. wenn dann der preis auch wieder stimmt, passt alles. passt alles=gute performance zu einem vernünftigen preis und stromverbrauch.

wenn jetzt rein hypothetisch AMD und Nvidia nichts an iherer preispolitik ändern und aufgrund dessen die Arc's früher oder später mehr gekauft werden, sind rot und grün im umkehrschluss ja gezwungen, die preise anzupassen. denn wer lässt schon gerne einen neuen mitbewerber einfach davon ziehen?

die RT-performance muss bei rot und blau allerdings noch steigen. ist vielleicht auch eine kostenfrage der R&D-abteilungen der unternehmen bzw. eine generelle kostenfrage bzw. in welche internen abteilungen man als grün oder blau seinen gewinn verteilt. zumal es ja bei intel in letzter zeit nicht so rosig aussah und AMD hält sich imo mit den gewinnen so lala... aber fakt ist: RT wird früher oder später standard und die hersteller müssen ihre hardware darauf ausrichten - auch oder vor allem im consumer stärksten mid-end bereich. mag da draußen einige enthusiasten geben, die sich immer das teuerste und neueste high end-produkt kaufen, aber das ist nunmal nicht die masse. und es ist auch nicht die masse, die überhaupt bereit ist, so viel geld für eine neue GPU oder ein mainboard auszugeben. daher ist es auch nicht verwunderlich, dass der PC markt schrumpft, wenn die hersteller preise jenseits von gut und böse an der masse vorbei aufrufen.

sonstige hardware ist doch auch günstig zu haben (bis auf die mittlerweile wirkliche frechen mainboard-preise, wenn man halbwegs vernünftige chipsätze möchte, bzw. keine kompromisse machen möchte). meine im januar gkeauften 32GB RAM waren günstiger als noch anno '19 meine 16GB.

und das namenswirrwarr ist auch ein graus... früher waren es nummern, jetzt steht hinter 100 verschiedenen nummern noch das ganze alphabet. auch schon fast so kryptisch wie seit eh und je mainboard-bezeichnungen. ein hardware-laie ist da (bewusst) verwirrt. er geht halt dann nach den händlerbeschreibungen, für die ja jede GPU eine "super tolle gamer-karte für enthusiasten" ist und dann hat er daheim die ruckelorgie...

da hoffe ich, dass meine custom-RX 6800 (ohne XT usw.) noch ein paar jahre hält. vom GPU-RAM sollte sie es und für full HD-RT wirds noch reichen.
 
Lieber Richard, vielen Dank für diesen Artikel.

Dieser hätte so und genau so von mir kommen können. Auch wenn ich bezweifle dass es viel ändert an der Situation, es ist wichtig dass darüber gesprochen wird.

Die Preispolitik und die zum Teil künstlich verschlechterten Produkte sind für mich allerdings noch kein Grund zur Konsole zu wechseln.
 
Also ganz ehrlich: die PC Fraktion ist selber schuld, das sie vor exorbitanten Grafikkartenpreisen steht. Viele von Euch haben eben während der Pandemie GPUs zu Wucherpreisen gekauft, weil Ihr eben den "neuesten Shit" haben wolltet/mußtet. Die Resultate davon sehen wir jetzt. AMD und Nvidia sind nicht blöd und setzen dementsprechend die Preise höher, weil sie wissen, daß die Sachen gekauft werden. Sieht man ja an der 4090, fucking 2000€ für eine Grafikkarte. Ich würde für 2000€ einen kompletten Oberklasse PC bauen. Ich will auch gar nicht erst wissen, was Nvidia für eine 4090ti veranschlagt, vermutlich um die 3000€. Enttäuschend sind auch eher die Leistungssprünge zur vorherigen Generation, abgesehen von der 4090. Ich kann auch dieses Geheule gegen die Konsolen nicht mehr hören, denn für etwa 500€ bekommt man ne ziemlich kompetente Gaming Maschine, die für den Preis so nicht als PC realisierbar wäre und das ist Fakt. Und große, sichtbare Unterschiede gibt's eh nicht zwischen der X/PS5 und PC. Entspannt Euch Mal. Ist doch vollkommen egal, worauf man zockt. Hauptsache man hat Spaß. Ich kann dieses Gejammere nicht mehr hören. Dann wartet halt ein paar Monate und kauft ne GPU, wenn sie in halbwegs normalen Gefilden ist. PC Gaming war schon immer ein teures und das wird sich auch nicht ändern.
 
Ich habe mir vor vier Jahren eine RX 580 von MSI für 160€ geholt. Die war zu dem Zeitpunkt eine gute bis gehobene Mittelklasse-GPU, mit der man damals so ziemlich alle aktuellen Spiele auf FullHD in hohen Einstellungen stabil nativ mit über 60 FPS spielen konnte. Dass man jetzt vier Jahre später von AMD und NVIDIA selbst mit 50% höherem Preis nichts mit vergleichbarer Leistungsqualität bekommt ist ein absoluter Skandal. Für eine 6650 XT muss man mindestens rund 330€ hinlegen, die damit schon mehr als doppelt so teuer ist wie die RX 580 vor vier Jahren und bei NVIDIA muss man für eine 3060 Ti sogar nochmal 100 € mehr zahlen. Das ist doch durch nichts zu rechtfertigen!
 
Das liegt aber auch an den halbgaren kritiklosen Testern der Fachmagazine.
Auf Computerbase kommt das nur 20% RGB wollen. Zwei Tage später steht bei der nächsten Grafikkartenlichterorgel RGB als Pluspunkt drin, weil es beworben werden sollte.
Würden die Fachmagazine viel kritischer damit umgehen, statt aus Angst keine Karten mehr zu bekommen die Kritik nur in Nebensätze verpacken, würde das auch anders laufen.
 
Ich weiß nicht, was der Artikel mir im Kern sagen soll. Am Ende ist alles Angebot und Nachfrage. Wäre irgendwas "überteuert", dann würde es ja niemand kaufen. Dem ist aber wohl nicht so :) So funktioniert Kapitalismus. Nvidia und AMD erfahren gerade, dass sie mit solchen Preisen durchkommen und werden auch weiterhin die Grenzen ausloten. Ich befürchte, dass solche Preise nun der Standard werden, da die Leute eben dafür bereit sind so viel auszugeben.
 
Ich weiß nicht, was der Artikel mir im Kern sagen soll. Am Ende ist alles Angebot und Nachfrage. Wäre irgendwas "überteuert", dann würde es ja niemand kaufen. Dem ist aber wohl nicht so :) So funktioniert Kapitalismus. Nvidia und AMD erfahren gerade, dass sie mit solchen Preisen durchkommen und werden auch weiterhin die Grenzen ausloten. Ich befürchte, dass solche Preise nun der Standard werden, da die Leute eben dafür bereit sind so viel auszugeben.
So ganz sehe ich das nicht so. Die Karten über 1000€/USD sind alle recht gut verfügbar und fallen alle seit Wochen im Preis. Nvidia und AMD versuchen zwar mit künstlicher Verknappung die Preise oben zu halten, aber das wird nicht mal mittelfristig funktionieren.
Asus hat die 4090 vor kurzem auf 1799€ gesetzt, also damit unter UVP der FE. Wann gab es das schon zuletzt?
 
Wie seht ihr die Thematik? Zu utopische Vorstellungen meinerseits? Zu pessimistisch? Oder nicht kritisch genug? ;-)
Ich sehe tatsächlich die Gefahr, dass bei der Entwicklung wirklicher Preis-Leistungskracher nur eine Sache passieren wird: Die Scalper kehren zurück und zwar massiv. Sprich das Geld, das ansonsten bei den GPU- und Grakaherstellern gelandet wäre, würde bei den Scalpern landen. Und damit statt an einem Ort, an dem es recht sinnvoll und gerechtfertigt aufgehoben ist (GPU-Hersteller) und einem, an dem es zumindest etwas sinnvoll und gerechtfertigt aufgehoben ist, würde es bei Leuten landen, die es überhaupt nicht verdient haben.

Wenn klar ist, dass die Scalper nicht zurückkehren können, haben Preis-Leistungskracher überhaupt wieder einen Raum. Wenn klar ist, dass die Preis-Leistungskracher auch in beliebiger Anzahl produziert werden könnten, dann haben die Scalper ebenso keine Chance. Dafür muss aber die Fertigungstechnologie noch reifen.

Wichtige Schritte, die Scalper-Immun sind: Alle Karten benötigen längere Garantiedauern, mehr Speicher, bessere Reparierbarkeit, Spulenfiepenfreiheit und so weiter. Daran lässt sich auch arbeiten während die Scalper noch lauern.

Noch einmal klar und deutlich: Ja, ich halte die 4070ti eher für eine 4060 und die 4080 für eine 4070 und würde sie auch gerne entsprechend bepreist sehen. Nein, ich glaube nicht, dass sie zu dem Preis dann noch verfügbar wären, sondern sie in ähnliche Preisregionen wie heute hochgescalped werden würden. Ja, ich hätte gerne bei beiden die Option, sie auch mit verdoppeltem Speicher zu kaufen, mit einem Aufpreis, der in etwa den gestiegenen Herstellungskosten entspräche. Nein, ich glaube nicht, dass das irgendwelche ungewünschten Nebeneffekte hätte. Ja, das gilt auch für AMD; auch eine 7900 XT mit 40GiB und eine XTX mit 48GiB fehlen meiner Meinung nach. Und eine 7800 XTX mit 32 GiB wird ebenso fehlen.
 
Dem Artikel ist wohl nichts mehr hinzuzufügen. Das Einzige was bei den PC-Komponenten spürbar gesunken ist im Preis, ist der Speicher. Alles andere ist nur eine Kurskorrektur bzw. übliche Marktanpassung bzw. Schwankungen.
An den Schwankungen erkennt man auch die künstliche Verknappung.
Es werden immer nur kleine Chargen in den Markt gegeben, um den Preis stabil zu halten.
 
Niedrigere Preise würde wohl jeder begrüßen. Realistisch muss man aber auch mal sehen, dass durchaus mehr Herstellungsaufwand betrieben wird, bei der die Optimierung der Verfahren (besser Maschinen, bessere Software usw) wohl nicht Schritt hält. Und dazu kommt noch die Inflation und die aktuelle Lage der Wirtschaft.
Wie sehr hier noch künstlich verknappt wird, ist fraglich.
Ich warte seit dem Release der RX 6800 auf einen vernünftigen Preis. Also durch aus 100 Euro unter dem UVP. Wir sind inzwischen in dem Zeitraum angekommen, an dem wir den Nachfolger erwarten sollten. Aber scheinbar verzögert sich die RX 7800. Wenn man über Geizhals schaut, sieht man, wie die Angebote jedoch Alternativlos zurückgehen. Nvidia Karten beobachte ich nicht. Ich habe Gründe, die AMD Karten zu bevorzugen. Aber schnell drübergeschaut, sind bei Nvidia einfach nur die Preise hoch, aber das Angebot ist da.
Dennoch scheinen sich die Grafikkarten für diese Preise zu verkaufen. Warum also den Preis senken und die Gewinnmarge reduzieren?
Bedenklich finde ich die Leute, die direkt in die nächste Generation upgraden. Der Verlust für 10% mehr Leistung ist immens. Aber es ist nicht mein Geld sondern lediglich eine Karte auf dem Gebrauchtmarkt, die hoffentlich den Preis langsam mal fallen lässt.
However, die Miner sind raus, dafür werden GPUs aber auch für Unternehmen interessant, die Machine Learning oder KI Anwendungen betreiben. Es bleibt interessant und da so ein Wunschdenken des Autors bleibt wirklich nur Wunschdenken.
 
99% Zustimmung, nur bei RT bin ich nicht ganz konform.
Denn ich bezahle nicht 900+ €uro für eine neue GPU um dann die Grafik runter zu schrauben... :stupid:

Meiner Meinung nach ist RT noch lange entfernt von ausgereift. Erst, wenn ich alle Effekte bei maximaler Qualität mit 100+ FPS darstellen kann, macht es meiner Meinung nach Sinn auf RT zu setzen. Bis dahin ist es ein nettes Beiwerk, welches ich aber nicht benötige und bisher nicht vermisst habe. (in 5-10 Jahren aber bestimmt machbar und nice to have ;) )

Gute Spiele können auch geile Grafik ohne den Leistungsfresser RT darstellen! :daumen:

Aber leider lernen es die Lemminge nicht und werfen den Herstellern weiterhin das Geld für die absurden GPU Pteise in den Rachen. :(
 
Also ganz ehrlich: die PC Fraktion ist selber schuld, das sie vor exorbitanten Grafikkartenpreisen steht. Viele von Euch haben eben während der Pandemie GPUs zu Wucherpreisen gekauft, weil Ihr eben den "neuesten Shit" haben wolltet/mußtet. Die Resultate davon sehen wir jetzt.
Und genauso sehe ich das auch. Wenn ich diversen Foren immer lese, wie AMD beispielsweise schlecht gemacht wird und nvidia in den Himmel gelobt, dann wundert mich gar nichts mehr. Ich hoffe ja wirklich, dass Intel den Markt etwas aufräumt, wenn deren Karten konkurrenzfähig werden.

Aber hier wird ja auch zunehmend so getan, als ob man ohne raytracing nicht mehr leben kann. Was man dann aber sieht in manchen Screenshots, sind paar nette Spiegelungen, ein bisschen bessere Beleuchtung und FPS Einbrüche jenseits von gut und böse. Und es wird geradezu so getan als ob nvidia alternativlos sei.

Dabei hat AMD gut aufgeholt und man hat da nun auch die RT Leistung einer 3090 TI. Und bis vor kurzem war eine 3090 Ti noch im Raytracing das beste was man haben konnte. Nun liefern die AMD-Karten diese Leistung auch und dennoch "taugen die nichts für RT". Außerdem sind ja die AMD Treiber furchtbar schlimm und es ist ja alles unspielbar weil es ständig alles abstürzt. Das ist der Schrott den man lesen muss teilweise. Nvidia Marketing at its best. Leider.

2023-02-09_13-52-50-png.1417108


Niedrigere Preise würde wohl jeder begrüßen. Realistisch muss man aber auch mal sehen, dass durchaus mehr Herstellungsaufwand betrieben wird, bei der die Optimierung der Verfahren (besser Maschinen, bessere Software usw) wohl nicht Schritt hält. Und dazu kommt noch die Inflation und die aktuelle Lage der Wirtschaft.
Ich bitte dich.. Bei CPUs merkt man aber nix davon und auch bei allem anderen nicht. Komischerweise hat auch AMD die Preise nicht so absurd erhöht. Ausschließlich nvidia hat hier einfach mal entschieden die Preise für ne 80er Karte zu VERDOPPELN. Und es wird hier einfach gefressen als wäre es das normalste der Welt und eine 4070 Ti noch als preiswert gefeiert. Gehts eigentlich noch? :what:
So ganz sehe ich das nicht so. Die Karten über 1000€/USD sind alle recht gut verfügbar und fallen alle seit Wochen im Preis. Nvidia und AMD versuchen zwar mit künstlicher Verknappung die Preise oben zu halten, aber das wird nicht mal mittelfristig funktionieren.
Asus hat die 4090 vor kurzem auf 1799€ gesetzt, also damit unter UVP der FE. Wann gab es das schon zuletzt?
Hier muss man aber mal differenzieren. Es wurde von AMD ausdrücklich gesagt, dass diese "Verknappung" auf ausdrücklichen Wunsch der Händler geschieht weil die ihre Lager leer bekommen wollen.

Und bei nvidia isses kein Geheimnis, dass die ihre alte Gen einfach teuer weiterhin verkaufen wollen und die neue Gen leistungsmäßig darüber einordnen wollen. Ich meine, die werben ja ganz offen und dreist damit. ^^ Sowas kann doch keiner gut finden??

geforce-rtx-family-jpg.1417110
 

Anhänge

  • 2023-02-09_13-52-50.png
    2023-02-09_13-52-50.png
    132,4 KB · Aufrufe: 423
  • geforce-rtx-family.jpg
    geforce-rtx-family.jpg
    1,7 MB · Aufrufe: 415
Zuletzt bearbeitet:
Effizienzbios. Ja, bitte bitte!
Und ich gehe noch nen Schritt weiter und fordere erstens, dass dieses Bios dann auch DEFAULT eingestellt ist und zweitens dass es ein RICHTIGES Effizienzbios ist und nicht ein pseudo "20W-weniger-TGP-Limit" Ding.

Die 4080 beispielsweise kommt ganz hervorragend mit 220W statt 320W aus. Ja, der Takt ist dann 2,4-2,6 GHz statt 2,7-2,9 GHz. So what - ohne nachzumessen bemerkt praktisch niemand die kaum 10% die das in der tatsächlichen Performance ausmacht. Für die paar Leute die das letzte fps rauspressen wollen kann ja das 2. bios gerne 400W/3GHz erlauben.

Wird so natürlich nie passieren da 1 mm Benchmarkbalken mehr wiegt als 100W Differenz. Aber schön wärs trotzdem.
 
Niedrigere Preise würde wohl jeder begrüßen. Realistisch muss man aber auch mal sehen, dass durchaus mehr Herstellungsaufwand betrieben wird, bei der die Optimierung der Verfahren (besser Maschinen, bessere Software usw) wohl nicht Schritt hält. Und dazu kommt noch die Inflation und die aktuelle Lage der Wirtschaft.
Wie sehr hier noch künstlich verknappt wird, ist fraglich.
Ich warte seit dem Release der RX 6800 auf einen vernünftigen Preis. Also durch aus 100 Euro unter dem UVP. Wir sind inzwischen in dem Zeitraum angekommen, an dem wir den Nachfolger erwarten sollten. Aber scheinbar verzögert sich die RX 7800. Wenn man über Geizhals schaut, sieht man, wie die Angebote jedoch Alternativlos zurückgehen. Nvidia Karten beobachte ich nicht. Ich habe Gründe, die AMD Karten zu bevorzugen. Aber schnell drübergeschaut, sind bei Nvidia einfach nur die Preise hoch, aber das Angebot ist da.
Dennoch scheinen sich die Grafikkarten für diese Preise zu verkaufen.

Da wäre ich mir gar nicht mal so sicher, die Zahlen an GPU-Verkäufen scheinen insgesamt zu sinken, mit kleinerer Spitze zum Crypto-Hype. Ohne Einsicht in etwa die Preisgestaltungskette der jetzigen Ampere-Karten lässt sich nur erahnen, ob und inwieweit die Karten tatsächlich in annehmbaren Mengen gekauft werden und welche Akteure in welcher Weise auf bestimmte Entwicklungen spekulieren (mit der Preisexplosion kurz nach dem Ampere-Launch hätte nicht jeder gerechnet, vielleicht sind das strategische Nachwirkungen).

99% Zustimmung, nur bei RT bin ich nicht ganz konform.
Denn ich bezahle nicht 900+ €uro für eine neue GPU um dann die Grafik runter zu schrauben... :stupid:

Meiner Meinung nach ist RT noch lange entfernt von ausgereift. Erst, wenn ich alle Effekte bei maximaler Qualität mit 100+ FPS darstellen kann, macht es meiner Meinung nach Sinn auf RT zu setzen. Bis dahin ist es ein nettes Beiwerk, welches ich aber nicht benötige und bisher nicht vermisst habe. (in 5-10 Jahren aber bestimmt machbar und nice to have ;) )

Gute Spiele können auch geile Grafik ohne den Leistungsfresser RT darstellen! :daumen:

Aber leider lernen es die Lemminge nicht und werfen den Herstellern weiterhin das Geld für die absurden GPU Pteise in den Rachen. :(

Ich habe mich selbst auch längere Zeit gegen Raytracing "gewehrt" und tue es immer noch im Alltag, wenn es keinen echten (subjektiven) Mehrwert bietet, etwa beim Leistungsverlust bei Cyberpunk 2077 und den üblichen, ausschließlichen Screen-Space-Reflektionen. Aktuell gehen schlicht zu viele Frames für zu wenig Optik in den meisten Raytracing-Titeln flöten. :-S

Nvidias Projekte wie Minecraft RTX/Portal RTX oder das noch kommende RTX-Remix-Mod-Tool lassen mich aber durchaus die neuere Technik samt starken Vorteilen sehen, denn diese detailreiche Optik ist nicht/nur schwer mit reinen Screen-Space-Methoden nachstellbar. Nur ist die Leistung größtenteils zu schwach auf der Brust, insbesondere in der breit vertretenen Mittelklasse. Raytracing bleibt teuer und optional, wird aber Stück für Stück wichtiger – zumindest in manchen Sonderfällen.
 
Unterschreibe ich voll und ganz.
Vor allem die Mittelklasse ist einfach zu teuer geworden. Ich wollte für meine Mutter, die gerne Rollenspiele spielt, endlich ein neues untere Mittelklassen-Upgrade von ihrer RX570 durchführen. Mittlerweile kann man vernünftige Produkte um die 300€ bekommen. Der 200€-Bereich ist komplett zum vergessen. Bei Nvidia gibt es einfach gar nichts und bei AMD bekommt man eine RX6500XT mit 4 GB Grafikspeicher, was heute absolut nicht mehr ausreichend ist. Das ist wirklich schade.
Nicht jeder braucht den heißesten Kram oder das absolute High-End, was natürlich die meiste Marge bringt. Aber der Kunde von morgen hat aktuell einfach eine sehr hohe Hürde, überhaupt was zu erwerben. Und das ist schade.
 
Ich sehe tatsächlich die Gefahr, dass bei der Entwicklung wirklicher Preis-Leistungskracher nur eine Sache passieren wird: Die Scalper kehren zurück und zwar massiv. Sprich das Geld, das ansonsten bei den GPU- und Grakaherstellern gelandet wäre, würde bei den Scalpern landen. Und damit statt an einem Ort, an dem es recht sinnvoll und gerechtfertigt aufgehoben ist (GPU-Hersteller) und einem, an dem es zumindest etwas sinnvoll und gerechtfertigt aufgehoben ist, würde es bei Leuten landen, die es überhaupt nicht verdient haben.

Wenn klar ist, dass die Scalper nicht zurückkehren können, haben Preis-Leistungskracher überhaupt wieder einen Raum. Wenn klar ist, dass die Preis-Leistungskracher auch in beliebiger Anzahl produziert werden könnten, dann haben die Scalper ebenso keine Chance. Dafür muss aber die Fertigungstechnologie noch reifen.

Wichtige Schritte, die Scalper-Immun sind: Alle Karten benötigen längere Garantiedauern, mehr Speicher, bessere Reparierbarkeit, Spulenfiepenfreiheit und so weiter. Daran lässt sich auch arbeiten während die Scalper noch lauern.

Noch einmal klar und deutlich: Ja, ich halte die 4070ti eher für eine 4060 und die 4080 für eine 4070 und würde sie auch gerne entsprechend bepreist sehen. Nein, ich glaube nicht, dass sie zu dem Preis dann noch verfügbar wären, sondern sie in ähnliche Preisregionen wie heute hochgescalped werden würden. Ja, ich hätte gerne bei beiden die Option, sie auch mit verdoppeltem Speicher zu kaufen, mit einem Aufpreis, der in etwa den gestiegenen Herstellungskosten entspräche. Nein, ich glaube nicht, dass das irgendwelche ungewünschten Nebeneffekte hätte. Ja, das gilt auch für AMD; auch eine 7900 XT mit 40GiB und eine XTX mit 48GiB fehlen meiner Meinung nach. Und eine 7800 XTX mit 32 GiB wird ebenso fehlen.
Also spätestens JETZT sind wir wirklich bei Wünschdirwas angekommen :-P

40GB Vram ist schon ne ultrakrasse Menge (im Jahr 2023)
 
Sehr gute Analyse!
Die großen Hersteller geben normalerweise ordentliche Summen für derartige Unternehmensberatung aus.
Fragt sich nur warum Ernst & Young, KPMG und Co. nicht zu ähnlichen Ergebnissen gekommen sind :klatsch:
 
danke für diesen artikel, welcher mir voll aus der seele spricht!

und wenn die teams grün und rot so weiter machen, werde ich früher oder später mit der GPU ins lager blau wechseln. meine prognose ist da nämlich, dass intel in dem bereich besser wird und die nächste gen Arc-GPU's das ausmerzen, was in der ersten gen versäumt wurde. wenn dann der preis auch wieder stimmt, passt alles. passt alles=gute performance zu einem vernünftigen preis und stromverbrauch.

wenn jetzt rein hypothetisch AMD und Nvidia nichts an iherer preispolitik ändern und aufgrund dessen die Arc's früher oder später mehr gekauft werden, sind rot und grün im umkehrschluss ja gezwungen, die preise anzupassen. denn wer lässt schon gerne einen neuen mitbewerber einfach davon ziehen?
....

Das ist wohl etwas blauäugig, denn sobald, bzw. falls, Intel zu AMD, oder gar Nvidia leistungstechnisch aufgeschlossen hat, wird auch Intel seine Preise angleichen.
Intel ist nicht gerade dafür bekannt, seine Preise "kundenfreundlich" zu gestalten.
Ich erinnere an die Vor-Ryzen Zeit, als gefühlt 20 Jahre lang eine Vierkern-CPU nach der anderen gelauncht wurde, und für alle CPUs darüber hinaus eine Organspende nötig war. ;)
 
Ich schaue mir mal an, wie das mit dem VRAM Verbrauch bei zukünftigen Spielen sich entwickelt und sollte dann für mich ein Must Have Titel wie Stalker 2 oder ähnliches auch diese Ansprüche aufweisen, wäre für mich aktuell klar, dass ich meine RTX-3070 (aus Not dieses Modell damals gekauft) durch eine RX 7900 XTX ersetze. Ua. weil ich auch InvokeAI nutze und bei Stable Diffusion viel VRAM von Nutzen ist.
 
Zurück