News AMD Radeon: RDNA 4 ohne High-End-GPU? [Gerücht]

Warum sollte AMD noch mal weniger für Leistung verlangen als nvidia?
Weil sie weniger als Gesamtpaket bieten, ganz einfach. Im selben Preissegment liefert AMD aktuell ungefähr gleiche Rasterleistung, dafür weniger Raytracing-Leistung, schlechteres Upscaling, kein Reflex, keine Frame Generation, und das bei höherem Stromverbrauch.

In der letzten Gen wurde Nvidia massivst angegangen wegen ein paar Watt mehr Verbrauch, das ist plötzlich GARKEIN Thema mehr. Es ist so lächerlich wie die Fähnchen sich im Wind drehen. Damit meine ich nicht Dich im speziellen sondern generell hier im Forum.


Die Karten scheinen sich soweit zufriedenstellend zu verkaufen, ansonsten würden die Preise schneller fallen.
Die MSRP der 7900XT ist seit Release um fast 25% gesunken. Wenn das nicht schneller Preisverfall ist weiss ich auch nicht.

https://wccftech.com/amd-radeon-rx-...t-in-europe-now-available-for-less-than-e800/

Von €1049 MSRP auf jetzt €799.

Die 4090 ist nur eine für Gamer umgelabelte Titan und die war nie eine reine Gamerkarte. Auch gab es von AMD nie Konkurrenz für dieses Modell und das wird sich nicht plötzlich ändern, nur weil Titan jetzt geforce heißt. Vielleicht kommt die nächste schnellste GPU ja von Intel, wer weiß das schon.

Namen sind Schall und Rauch. Die 4090 ist die aktuell stärkste Gaming Karte wo gibt. :D

In der vorherigen Gen konnte die 6900XT der 3090 zumindest bei der Rasterisierung Paroli bieten und teilweise sogar davonziehen. Das ist diese Gen nicht drin, somit leider ein Rückschritt für AMD.
 
Also ich find die 7900 XTX schon high-end und bei einem etwaigen Refresh sind vielleicht 10-20% mehr Leistung drin? Das wäre auch Ende 2024 noch High-End.
Der Preis ist halt wichtig. Über 1000€ für eine GPU zu bezahlen ist Idiotie und somit für mich wieder nicht interessant.

Den Markt über 1000 Eiro kann man auch der Konkurrenz überlassen. Lieber weiter solche Topprodukte wie 6700,6800,7800!

Theoretisch ja, praktisch kommt dabei aber raus, dass sich das Preisgefüge um 1 bis 2 Klassen verschiebt.
Die 7800 (XT) wird wahrscheinluch eher enttäuschend.
 
Falsch. ADA wird in 4N gefertigt, das ist ein angepasster 5nm Prozess. Der 4er Prozess Name ist auch nur Marketing.

Ich glaube auch nicht dass MCDs in 5nm irgendwie eine AMD-4090 ermöglichen würden.
An dem 5nm Prozess ist allerdings auch keine einzige Dimension 5nm klein. Da ist alles größer.
Genau wie Intel seine Prozesse nun nach Fantasiegrößen benennt, die nichts mit den tatsächlichen Dimensionen zu tun haben.
 
Irgendwie ist es auch nachvollziehbar, Denn mit den RX 6000 war man im Grunde absolut konkurrenzfähig. Trotzdem haben fast alle wie blöde Nvidia Karten gekauft. Es waren zuhauf Kommentare zu lesen ala "hoffentlich macht AMD Kampfpreise, damit Nvidia unter Druck kommt und ebenfalls die Preise senken muß und man dann die entsprechende grüne Karte kauft".

Da würde ich aus rein wirtschaftlicher Sicht auch nicht große Summen investieren, um eine entsprechende Karte im HighEnd Segment anbieten zu können, wenn diese dann sowieso kaum gekauft und stattdessen zu den Grünen gegriffen wird.

Soll Nvidia doch wieder nen dicken Klopper rausbringen. Der wird dann aber aufgrund der Quasi Monopolsituation im HighEnd dann nicht mehr 1700-2000€ kosten sondern ab 2000€ aufwärts beginnen. Dann beginnt das große Heulen ob der Preise wieder. Aber das ist dann nur die logische Konsequenz, wenn man blind zu Nvidia greift und sich die Preise schön redet.
 
An dem 5nm Prozess ist allerdings auch keine einzige Dimension 5nm klein. Da ist alles größer.
Genau wie Intel seine Prozesse nun nach Fantasiegrößen benennt, die nichts mit den tatsächlichen Dimensionen zu tun haben.

Der Mist ist auf TSMCs und Samsungs Haufen gewachsen. Intel hat sich bis zum 10nm Prozess (der jetzt ja Intel 7 heißt) immer daran gehalten dass eine Kennzahl passt:

1691176142853.png


Aber wenn die beiden großen Konkurrenten mit "It's 7nm, trust me bro" ankommen, dann gewinnt man halt keine Kunden mit 10nm. :ugly:

Der Preis ist halt wichtig. Über 1000€ für eine GPU zu bezahlen ist Idiotie und somit für mich wieder nicht interessant.
Ok, also sind alle die Autos für >50000 Euro Kaufen auch Idioten? Oder Häuser für 200000? Oder ein Abendessen für 100€? Ich würde ja eher sagen dass die Leute die sich sowas leisten können vorher auch was geleistet haben. Nicht alle, aber die meisten.

Deine Verallgemeinerung ist ziemlich lächerlich. Nur weil Du Dir etwas nicht leisten kannst muss man kein Idiot sein wenn man sich ein Premium Produkt kauft.
 
Aber wenn die beiden großen Konkurrenten mit "It's 7nm, trust me bro" ankommen, dann gewinnt man halt keine Kunden mit 10nm. :ugly:
Der 10nm Name ist allein durch Intel verbrannt... kommt davon, wenn man den über 4 Jahre nach Plan erst mit ziemlich krüppeligen Prozessoren einführt, damit man die Aktionäre nicht weiter verprellt und dann in Iteration 22, oder so... dann endlich hoch taktende Prozessoren liefern kann.

Zu deiner anderen Antwort:
Das ist eindeutig absichtliches falschauslegen des zitierten Posts...
Muss dieser Mist in jedem 2. bis 3. Post sein?
 
Der 10nm Name ist allein durch Intel verbrannt... kommt davon, wenn man den über 4 Jahre nach Plan erst mit ziemlich krüppeligen Prozessoren einführt, damit man die Aktionäre nicht weiter verprellt und dann in Iteration 22, oder so... dann endlich hoch taktende Prozessoren liefern kann.
Wieso das? 10nm bei Intel hat wenigstens die Kennzahl Channel Length eingehalten. Bei den anderen hat man sich nicht um irgendeine Kennzahl geschert sondern die Prozesse benannt wie man wollte.

Zu deiner anderen Antwort:
Das ist eindeutig absichtliches falschauslegen des zitierten Posts...
Muss dieser Mist in jedem 2. bis 3. Post sein?
Was meinst Du? Der Kommentar zu "1000€ für eine Grafikkarte ist Idiotie"?Da lege ich nichts falsch aus, das steht doch genau so da!?
 
Weil sie weniger als Gesamtpaket bieten, ganz einfach. Im selben Preissegment liefert AMD aktuell ungefähr gleiche Rasterleistung, dafür weniger Raytracing-Leistung, schlechteres Upscaling, kein Reflex, keine Frame Generation, und das bei höherem Stromverbrauch.

In der letzten Gen wurde Nvidia massivst angegangen wegen ein paar Watt mehr Verbrauch, das ist plötzlich GARKEIN Thema mehr. Es ist so lächerlich wie die Fähnchen sich im Wind drehen. Damit meine ich nicht Dich im speziellen sondern generell hier im Forum.
Nehme das ich nicht persönlich. Das mit dem bis heute fehlenden FSR 3 ist traurig, da stimm ich zu. RT frisst mir aber selbst auf Karten von NV zu viel Leistung, das würde ich wohl auch oft auf einer 4090 deaktiviert lassen für eine wesentlich geringere Leistungsaufnahme.

Die MSRP der 7900XT ist seit Release um fast 25% gesunken. Wenn das nicht schneller Preisverfall ist weiss ich auch nicht.

https://wccftech.com/amd-radeon-rx-...t-in-europe-now-available-for-less-than-e800/

Von €1049 MSRP auf jetzt €799.
Was sie inzwischen aber zu einer viel besseren Karte macht. 800€ hätten ihr zum Realease wesentlich besser gestanden, wobei ich im Februar aber selber nur 750€ hingelegt habe, deswegen schuftet sie derzeit bei mir im Rechner.

Namen sind Schall und Rauch. Die 4090 ist die aktuell stärkste Gaming Karte wo gibt. :D

In der vorherigen Gen konnte die 6900XT der 3090 zumindest bei der Rasterisierung Paroli bieten und teilweise sogar davonziehen. Das ist diese Gen nicht drin, somit leider ein Rückschritt für AMD.
Das ist wohl wahr, wer das Beste will = 4090. Die 3090 war aber zumindenst mit RT der 6900 XT weiter voraus als eine 4080 einer 7900 XTX. Zudem zieht eine 7900 XTX einer 4080 in Raster auch heute noch teilweise davon.

Bin selber wenig markentreu. Hatte schon alles :)
 
Juckt mich jetzt eher wenig.
Ob da oben eine 1k+ GPU existiert oder nicht, ist mir egal.
Von mir aus können sie sich alle Modelle über 800€ komplett sparen.
Dito !
Vierstellige Preise werde ich für eine GPU niemals auf den virtuellen Tresen legen !!
Auch wenn der Balken noch so lang sein möge ...
 
Bei RDNA2 hatte AMD auch einen großen Fertigungsvorteil: TSMC 7nm vs Samsung 8nm. Samsungs 8nm ist vergleichbar mit TSMC 10nm...

Jetzt wo RDNA3 und ADA im selben Prozess gefertigt werden sieht man was dabei heraus kommt. Die 4090 steht einsam an der Spitze.
Dieses Märchen wieder, Samsungs 8nm ist schon deutlich stärker als TSMCs 10nm und aktuell sind es eben 4nm gegen 5nm bei TSMC.
Dazu ist AMD nicht so schlecht wie man sie gerne macht, die 4080 ist im Vergleich zur XTX nicht wirklich besser, die Effizienz ist besser und RT ist sie besser, in Sachen Raster zieht die XTX der 4080 meist den Stecker. Rechnet man die 4nm Differenz dazu würde ich in Raster beide Karten auch in Puncto Effizienz auf Augenhöhe sehen, vielleicht noch kleine Vorteile für NV.
Wieso versucht AMD weiterhin so zu tun als könnten sie bei den Preisen hoch gehen?
Sag Mal, was kostet eine 4090 und was kostet eine XTX, schau Mal bei PCGH in den P/L Vergleichen wo Nvidia liegt und wo AMD, selbst mit RT kann dort keine NV Karte glänzen, ohne RT wird es erdrutschartig. Nvidia weiß, dass es eben (und ja, so nenne ich einige NVs) genug dumme auf dem Markt gibt die eine 4070 mit mageren 12GB nehmen statt einer 6900XT die genau so teuer, aber eben viel viel schneller ist.
Im selben Preissegment liefert AMD aktuell ungefähr gleiche Rasterleistung
Sag mal, in welcher Welt lebst du? Die 4080 ist rund 200 EUR teurer als eine XTX und ist lt. PCGH Overall 4% vorne, inkl. der RT Games, wenn man die rausrechnet liegt die XTX im Raster schon Recht deutlich vor einer 4080 zu einem viel günstigeren Preis. Also wo du gleiche Rasterleistung im selben Preissegment einordnest ist absolut grün gedacht, nicht mehr.
Und nein, die 4080 ist beileibe keine schlechte Karte, sondern in der Preisklasse meine bevorzugte Wahl und sogar den Aufpreis auf die XTX wert, aber sicher nicht wegen der Rasterleistung im Vergleich zum Preis, das ist Schwachsinn
 
Mal schauen was an dem Grücht dran ist.
Solange wird weiterhin meine RX6800XT seine Dienste verrichten, vielleicht mach ich mich dann dieses Jahr noch ans Thema undervolting ran dann passt das für die nächste Zeit
 
In der letzten Gen wurde Nvidia massivst angegangen wegen ein paar Watt mehr Verbrauch, das ist plötzlich GARKEIN Thema mehr. Es ist so lächerlich wie die Fähnchen sich im Wind drehen. Damit meine ich nicht Dich im speziellen sondern generell hier im Forum.
Genau wie Dein "Fähnchen" !
Bei Pascal war der Stromverbrauch nicht wichtig und jetzt Dank Ampere rettet Jensi den Planeten.
 
Finde ich irgendwie schade. Ich wollte dieses Mal eeendlich nach Jahren Abstinenz schon ins rote Lager wechseln und voller Vorfreude die XTX gekauft. Und was war? Ich hatte natürlich eine mit dem Kühlerproblem und Mindfactory wollte nichtmals tauschen. Naja lange Rede kurzer Sinn, jetzt doch wieder Grün mit der 4090 und erstmal ausgesorgt. Aber ich hoffe AMD schafft denn Anschluss, den Konkurrenz belebt das Geschäft.
 
Zurück