News Raja Koduri: Käuferschaft will bezahlbare Grafikkarten mit ordentlicher Leistungsaufnahme

Ich persönlich kaufe mir auch nur Mittelklasse-Karten und Effizienz ist mir dabei auch besonders wichtig. Nur steckt Intel noch in den Kinderschuhen und ist für mich noch keine Option.
Meine nächste Grafikkarte wird wohl Anfang 2023 eine RX 6650 XT. Die ist doppelt so schnell wie meine RX 580 bei etwa gleichen Stromverbrauch.
Das gilt auch für die Creator, die Videoschnitt oder Fotobearbeitung machen. Die brauchen auch keine RTX 4080.

Wer spielt den von den PC Nutzern weltweit 4K in 60 FPS? Wenn der Anteil bei 10% liegt, wäre das schon viel.

Auch die angebotenen OEM Rechner, die auch ihre Zielgruppe haben, verbauen eher Grafikkarten der unteren Kategorie.

Als PC Gamer sehe ich die Zeiten realistisch. Auch der super High End Spieler wird mit der Inflation, den hohen Strom und Heizungskosten belastet.

Das lässt sich nicht wegreden. Jeder hier in diesem Forum ist interessiert an günstigen und effizienten Grafikkarten.
 
Das sieht Herr Koduri ja schonmal ganz richtig, aber viel wichtiger für mich ist die Idle Leistungsaufnahme, beim nichtstun oder bei Videowiedergabe und da muss Intel endlich mal einen Gang hochschalten. Das die Intel Karten beim nichtstun soviel Strom aufnehmen, ist einfach unakzeptabel in der heutigen Zeit.
 
Wer spielt den von den PC Nutzern weltweit 4K in 60 FPS? Wenn der Anteil bei 10% liegt, wäre das schon viel.
Ich gehöre auch nicht dazu, ich habe bereits ein Schritt weiter gemacht und nutze 4k120FPS. :D
Jeder hat sein eigenes Hobby. Bei mir ist es der PC.
Aber die 4090 und die 4080 wären auch mir viel zu teuer, hätte ich nicht für meine gebrauchten GPUs im Jahre 2021 teils überm Einkaufspreis verkaufen können. Der "Gewinn" und das Geld vom Verkauf meiner letzten GPU ging halt nun komplett für die 4090 drauf. Ansonsten wäre mein Limit bei 800-1000€ + den Verkauf meiner alten GPU. Aber auch nicht jährlich sondern frühestens alle 3 Jahre.
Es waren verrückte Zeiten seit Covid. Und sind es teils immernoch.

Was Stromkosten angeht, da ist die 4090 jetzt mit dem Ziel 4k 120FPS sparsamer als die 3090 die vorher drin war.
Beide Karten sind undervoltet, die 4090 sogar zusätzlich mit PL. Die 4090 in 4k (mit UV) verbraucht jetzt sogar weniger Storm als selbst die 1080Ti Strix (mit 1440p/60fps) die ich vor 2 Jahren noch drin hatte.
Der PC verbraucht nun etwas weniger als vor 5 Jahren.
 
Etwas wie eine UVP von 900 € für etwas, das man heute als A770 kennt ist vollkommen absurd. Man sollte nicht alles glauben was man so hört und liest. ;-)

War damals geplant und ich muß sagen, alles andere wäre auch nicht sonderlich intelligent gewesen, da die Karten sowieso für einen höheren Preis weggingen.

Die zur Hochzeit extrem schrägen Preise kamen lediglich durch diverse zusammenfallende Markteffekte zustande und dementsprechend hätte man wie die beiden Hauptkonkurrenten auch nur eine UVP im Bereich 400 - 500 US$ ausrufen können, mehr nicht und den Rest hätte der Markt dann "erledigt".

Die RTX 3080 ist für gut 3000€ weggegangen, was mehr als das vierfache der UVP war. Damals hat die UVP niemanden interessiert. Die RTX 3070, auf die Intel gezielt hat, ist für 1500-2000€ über den Ladentisch gewandert.

Von daher waren 900€ eine mehr als realistische Zahl, die Karten wären wohl auch für mehr weggegangen.

Entsprechend ist daran auch nichts scheinheilig. Letzten Endes ist das von Koduri zitierte fast schon nicht weiter erwähnenswert weil schlichtes, geradliniges, markttechnisches Kalkül.

Wenn die Fima mit 900€ plant, dann ist das einfach nur scheinheilig. Aber gut, das ist bei den anderen Herstellern nicht anders.

Während des Miningbooms wurden von Verbrauchern zwar höhere Preise gezahlt, das funktionierte aber nur in Verbindung mit der extremen Verknappung, denn die Bereitschaft für solche Preise ist kein Massenphänomen.

Ca. 70% der Karten sind, laut Linus Tech Tips, an Zocker gegangen. D.h. gut 70% würden auch das 2-4 fache Zahlen. Was folgt ist eigentlich klar: melk die 70% und du hast mehr Umsatz, weniger Arbeit und vor allem wesentlich mehr Gewinn. Die restlichen 30% kommen dann irgendwann auch fast alle angekrochen und kaufen die kleineren Karten.

Einen ersten Eindruck, was im Mainstream passieren wird, sieht man an der 4080.

Da sehen wir zwei verschiedene Dinge.

Die UVP ist von 699€ auf 1469€ hochgeschnellt. Sie wird sich jetzt wohl vermutlich irgendwo bei 1300-1400€ einpendeln. Nvidiakäufer zahlen eigentlich generell mehr, als AMD Käufer. Sagen wir einfach 1299€.

Du siehst eine Preissenkung von 170€, ich sehe hingegen, dass Nvidia mit einer Preiserhöhung von 500€ durchgekommen ist.

Ich denke, was der Käufer will und bereit ist zu zahlen, wird hier synonym verwendet.

Wollen tut der Käufer natürlich nicht. Ich erinnere mich noch, als man mit der GTX 260-216 die zweitschnellste Karte für 130€ bekam, das waren noch Zeiten.

Alles andere macht ja auch keinen Sinn. Nvidia wird die Preise nicht wegen Umfragewerten, sondern wegen mangelndem Absatz billiger anbieten müssen und das passiert ja auch gerade.

Die Sache ist komplexer: müssen tun sie nichts, sie könnten die Preis auch so lassen und wer nicht will, der will nicht. Das Problem ist momentan nur AMD. Aber AMD zieht auch mit, das kann man ja bei der RX 7900XT sehen, die der eigentliche Nachfolger der RX 6800XT ist. Relativ zum Topmodell, hat die 7900XT jedoch weniger VRAM (die RX 6800XT war vollbestückt) und es gab eine Preiserhöhung um 220$.

Strom is egal - die Sonne schreibt mir keine Rechnung

Dafür läßt die Sonne eine Haut altern und verpasst dir eventuell Krebs. Denk mal drüber nach.

Im Spätherbst und Winter schreibt dir dein Stromversorger die Rechnung. Bis deine Solaranlage wieder ausreichend Strom abwirft, musst du vermutlich bis März warten.

Bis dahin musst du Strom kaufen und für deine High Tech Grafikkarte im Unterhalt aufkommen.

Das hängt von der Größe und Ausrichtung seiner PV Anlage ab. 1kWp mit Südausrichtung bringt pro Tag zwischen 0,5 und 7kWh. Wenn er 10kWp hat, dann bringt seine Anlage auch unter sehr schlechten Bedingungen (wolkenverhangener Himmel im Winter) immer noch 5kWh am Tag. Wenn keine Wolken vorhanden sind, dürfte er wohl auch im Winter die 10kWh am Tag durchbrechen. Solange die PV Module nicht mit Schnee bedeckt sind, dürfte er keine Probleme bekommen. Bei 20kWp ist er dann sowieso weit drüber hinaus.
 
Als PC Gamer sehe ich die Zeiten realistisch. Auch der super High End Spieler wird mit der Inflation, den hohen Strom und Heizungskosten belastet.

Das lässt sich nicht wegreden. Jeder hier in diesem Forum ist interessiert an günstigen und effizienten Grafikkarten.
Vor allem das heizen ist richtig teuer geworden. Wobei es bei uns noch geht. Wird nun von 5 auf 12 Cent erhöht. Manche müssen sogar schon 18 cent oder mehr zahlen.

Bei den Strompreisen muss bei neuen Geräten auf die Effizienz geachtet werden. Wobei das alles fast schon Marketing ist. Effizienzte Geräte kosten dem entsprechend auch mehr.


Intel muß einfach am Ball bleiben, die Treiber sollen sich ja schon etwas gebessert haben. In 1 Jahr nochmal testen bitte.
 
Das lässt sich nicht wegreden. Jeder hier in diesem Forum ist interessiert an günstigen und effizienten Grafikkarten.

Interessiert daran ist grundsätzlich jeder, die große Frage ist, ob auch so gekauft wird.

Die 50% Mehrleistung von Ampere hören sich einfach wesentlich besser an, als die 30%, die wohl möglich gewesen wäre, wenn man den Stromverbrauch nicht gesteigert hätte. Mit der RTX 4090 sieht es genauso aus. Wer sich die Karte kauft, will nahezu immer in erster Line Leistung und ist dann auch bereit, die höheren Kosten zu tragen. Wobei wir hier von zusätzlichen Kosten, pro Stunde, in Höhe von 5-10 Cent, gegenüber einer 250W Karte reden. Man sollte nicht so tun, als würde jemand, der 2000€ auf den Tisch legt, an Zusatzkosten von 5-10€ pro Stunde scheitern. Wenn das ein Problem ist, dann sollte man sich so eine Karte garnicht erst kaufen, auch wenn sie 0W benötigen würde.

Nvidia und AMD produzieren das, was die Kunden wollen, nicht was diese vorgeben zu wollen.
 
Interessiert daran ist grundsätzlich jeder, die große Frage ist, ob auch so gekauft wird.

Die 50% Mehrleistung von Ampere hören sich einfach wesentlich besser an, als die 30%, die wohl möglich gewesen wäre, wenn man den Stromverbrauch nicht gesteigert hätte. Mit der RTX 4090 sieht es genauso aus. Wer sich die Karte kauft, will nahezu immer in erster Line Leistung und ist dann auch bereit, die höheren Kosten zu tragen. Wobei wir hier von zusätzlichen Kosten, pro Stunde, in Höhe von 5-10 Cent, gegenüber einer 250W Karte reden. Man sollte nicht so tun, als würde jemand, der 2000€ auf den Tisch legt, an Zusatzkosten von 5-10€ pro Stunde scheitern. Wenn das ein Problem ist, dann sollte man sich so eine Karte garnicht erst kaufen, auch wenn sie 0W benötigen würde.

Nvidia und AMD produzieren das, was die Kunden wollen, nicht was diese vorgeben zu wollen.

Ich finde der Vergleich hint etwas.
Die Situation ist am ehesten mit leistungsstarken Autos Vergleichbar.
Nur weil sich jmd. einen V8 oder V12 anschaffen kann, heißt das nicht, dass dieser auch den Unterhalt und die Nutzung stemmen kann.
Ein gutes Beipsiel hierfür ist der Phaeton. Gab es als V6 und V12.
Der V6 war kaum zu bekommen, weil die Leute die ihn hatten zufrieden waren.
Während der V12 bilig verramscht wurde, da den Leuten der Unterhalt zu teuer wurde.
Man hat das an den Kilometerständen der angebotenen Autos gesehen.
Von daher würde ich jetzt nicht sagen, dass 5-10 € Aufpreis pro Stunde der Nutzung jetzt so vernahclässigbar ist.
Wenn der Winter rum ist und die Rechnungen kommen, dann würde mich eine Flut von gebrauchten Karten nicht wundern.
Der große Unterschied von Autos zu GPUs was die Kosten der Nutzung angeht, ist die tatsächliche Verzögerung.
Fährst du viel mit dem Auto ist der Tank leer und du wirst an der Tankstelle dann direkt zur Kasse gebeten. Das sind wenige Stunden, bis wenige Tage. Abhängig von der Nutzung.
Bei der GPUreden wir je nach Anschaffungszeitpunkt von bis zu mehreren Monaten.
Und dann bleibt halt nicht nur der Rechner aus, sondern unter Umständen auch die Küche kalt und das LIcht aus.
 
War damals geplant und ich muß sagen, alles andere wäre auch nicht sonderlich intelligent gewesen, da die Karten sowieso für einen höheren Preis weggingen.
War halt Mining.
Ca. 70% der Karten sind, laut Linus Tech Tips, an Zocker gegangen. D.h. gut 70% würden auch das 2-4 fache Zahlen. Was folgt ist eigentlich klar: melk die 70% und du hast mehr Umsatz, weniger Arbeit und vor allem wesentlich mehr Gewinn. Die restlichen 30% kommen dann irgendwann auch fast alle angekrochen und kaufen die kleineren Karten.
Da bin ich von dir besseres gewohnt. 1. Sind die Zahlen von LTT keineswegs gesicherte Fakten, 2. zeigt der aktuelle Markt ein anderes Bild, bis auf das Halo Produkt sieht man keinerlei Run, da kein Mining. Und wie du 70% der Karten dann plötzlich 30% der Zocker gegenüberstellst, die für die kleineren Karten angekrochen kommen ist echt schwach. Das stimmt nachweislich nicht. Der % Teil an Zockern mit 3070er Karten und höher ist geringer als der Rest und lässt sich definitv nicht mit den 70% der verkauften Karten an Spieler auf 100% aufrechnen.
 
An sich eine gesunde Einstellung, nur ist das dennoch nichtssagend. Sowohl AMD als auch NV haben Grafikkarten in diesem Leistungsbereich mit dieser Leistungsaufnahmen und bieten on Top noch Spitzenmodelle die mehr liefern. Was will er also sagen, außer "Intel ist nicht in der Lage das vorhandene Design nach oben zu skalieren"?

Eine RTX4060(Ti) oder RX7700 werden ebenfalls bei ca. 200W Leisungsaufnahme liegen.

Die Aussage von Kudori wäre viel spannender wenn er gesagt hätte "wir fokussieren uns auf ca. 200W bei 20% besser Leistung als die Konkurrenz bei gleicher Leistungsaufnahme". So bleib es nur geblubber.
 
Hm ernsthaft 200 Watt rum soll also das sein was interessant ist für die meisten. Traurig aber wahr unter 120 Watt bekommt man kaum noch dedizierte neue Karten. Nur noch gebrauchte. Nvidia hat den Markt mehr oder weniger abgeschafft. Intel mag zwar da in dem Bereich am kommen sein aber noch passt es ja nicht. Ich bin gespannt ob Intel die Treiber so weit in Ordnung bringt, das dann auch alte Games gespielt werden können ohne Probleme wie abstürze und so.
 
Dieser Koduri ist nur am labern :rolleyes:
Hat bei AMD nicht viel hinbekommen und bei Intel wird das auch nicht anders laufen.
Schön wärs natürlich, aber es wird wahrscheinlich nur bei seinen Sprüchen bleiben, wie bisher.
 
@ZanDatsuFTWS
So schlecht finde ich Arc auch wieder nicht. Treiber haben sich ja schon deutlich verbessert, aber es geht natürlich noch mehr. Aber für den typischen Gamer muss halt über P/L auch noch mehr kommen.
 
Kann man von Intel halten was man will, aber der Mann hat recht.

Der Mittelklasse und gehobene Mittelklassebereich bis knapp unter 500€ ist schlecht bedient. Weder 6650XT noch 3060 sind im Bereich von 300€ supertolle P/L Angebote und dasselbe gilt auch für 3060TI/6700XT und auf P/L kommt es dieser Käuferschicht halt an. Wenn Intel hier mit den nächsten Gens ordentlich Leistung / € abliefert und seine Treiber weiter optimiert, sehe ich da durchaus viel Potential für Team Blau Marktanteile zu bekommen.
 
Ist ja nicht gerade eine "erhellende" Einsicht. Jeder der nicht gerade mit Geld um sich schmeißen kann
wird das so sehen. Aber machen wir uns doch nichts vor. Auch Intel nimmt gerne horrende Preise, wenn sie
(glauben) keine ernsthafte Konkurrenz haben...

Und wenn ich bedenke dass Preise von bis zu 1000€, oder darüber auch bei CPU's nichts von "Einhorn-Niveau"
haben, ist die Aussage doch mit Vorsicht zu genießen...
Schließlich sind Intels aktuelle Gaming Prozessoren immer noch (Ableger von) Midrange CPU's, im Gegensatz
zu HEDT Prozessoren, dennoch werden heutzutage High-End Preise verlangt.

Würde Intel mit der nächsten Generation zu AMD und Nvidia aufholen, würden sie es genauso machen. :ka:


Ich könnte sogar so weit gehen und behaupten, dass die aktuellen Preise bei GPU's (z.B Nvidias 90er Modelle)
mit ein Ergebnis des Wegfalls von SLI und Crossfire sind.
Denn da waren im Ultra-High-End Segment Preise von 1000-2000€ nie ungewöhnlich.
Alles ne Frage der Auslegung und Sichtweise.

Mal abgesehen davon, das es selbst beim Launch der RTX 30 Serie Unkenrufe nach noch mehr Leistung gab.
Jetzt haben wir nie da gewesene Leistungssteigerungen von Generation zu Generation und man
wundert sich, dass das dann mehr Geld kostet.

Letzten Endes ist man als Käufer immer noch selbst dafür verantwortlich wie viel Geld man wem in den Rachen
wirft. Siehe RTX 4080... Und 3000€+ Preise bei E-Bay für Nvidias 30er Modelle zu bezahlen, war wohl auf lange
Sicht auch nicht ganz so clever...

#UnpopularOpinion
 
Klingt vernünftig: einfach aus ca. 200 Watt herausholen, was geht und die Karten nicht allzu teuer zu machen. 400€ scheinen mir da aber immer noch zu teuer. Und die Treiber müssen ausgereift sein. Wer auf's Geld achtet, kann auch mit 2K gut spielen. 100Hz Bildrate bei 4K Auflösung löst bei mir keinen Kaufwunsch aus, vor allem bei 400 Watt Leistungsaufnahme.
 
Kann man von Intel halten was man will, aber der Mann hat recht.

Der Mittelklasse und gehobene Mittelklassebereich bis knapp unter 500€ ist schlecht bedient. Weder 6650XT noch 3060 sind im Bereich von 300€ supertolle P/L Angebote und dasselbe gilt auch für 3060TI/6700XT und auf P/L kommt es dieser Käuferschicht halt an. Wenn Intel hier mit den nächsten Gens ordentlich Leistung / € abliefert und seine Treiber weiter optimiert, sehe ich da durchaus viel Potential für Team Blau Marktanteile zu bekommen.
Vor allem weil dann auch die Preise der anderen Hersteller nach unten gedrückt werden. Wir brauchen dringend mehr Konkurrenz im Mittelklasse-Bereich, gerade weil es preislich betrachtet garkeine richtige Mittelklasse mehr gibt, nur noch Low-End und High-End.
 
Vor allem weil dann auch die Preise der anderen Hersteller nach unten gedrückt werden. Wir brauchen dringend mehr Konkurrenz im Mittelklasse-Bereich, gerade weil es preislich betrachtet garkeine richtige Mittelklasse mehr gibt, nur noch Low-End und High-End.
Das Traurige ist doch, dass man heute ernsthaft bei GPU's im 400 und 500€ Bereich von "Midrange"
oder gar Low-End redet... :haeh:

Preissteigerungen sind ja an sich nichts verwunderliches, aber eine preisliche Verdreifachung so wie
bei Nvidias "Klo-Griff" mit der 4080 ist schon ne Ansage. Insb. im Vergleich mit der 7900 XTX
dürfte die dann eigentlich nicht mehr als ~1100€ kosten. Aber das lässt sich eben erst seit gestern
einschätzen. Sich alleine an der Bezeichnung "4080" aufzuhängen hilft ja mittlerweile auch nicht mehr
bei der Einschätzung. Eigentlich schade, denn die RTX 4080 ist ja sonst n' Sahne Produkt, nur nicht für den Preis.

Wenn ich z.B. überlege was meine GF3 Ti500, 7800 GTX, und GTX 480 gekostet haben -
allesamt Top of the Line und alle um ~550€, über gut 10 Jahre verteilt...

Selbiges gilt aber auch für CPU's und Mainboards. Die Rampage Modelle oder generell High-End, haben damals
um die 300€ gekostet. Heute geht das oft bei 400€ los und geht auch mal gerne in die Tausender... :ugly:
 
Zurück